CIFAR-10 データセット

1. CIFAR-10 データセットとは [概要]

CIFAR-10 データセットとは,クラスラベル付きの小さな画像群で構成される,物体画像認識向けのデータセットである .

CIFAR (読み方は「(スィー・ファー)]) は「Canadian Institute For Advanced Research (Wikipedia)」の略であり,カナダの大手研究機関である.このCIFARからスポンサードされた,トロント大学のGeoffery Hintonの研究室において発表された,画像認識の研究 [Krizhevsky et al., 2009]において,CIFAR-10 (10クラス識別)と,CIFAR-100(100クラス識別)が,オープンに公開された :

MNIST データセット と同様に「小さな画像と少数のクラスから構成されるデータセット」であるる.よって,ImageNetで本格的な大規模モデルの学習を行う前に,小規模の画像認識ネットワーク(CNNなど)を構築して,予備実験や新アイデアを試すのに向いている.

2. CIFAR-10 の構成

CIFAR-10 データセット
図1 CIFAR-10 データセット
(データセットのホームページから,画像を引用)

CIFAR-10は,「80 Million Tiny Images データセット(Wikipedia)(※1)」のサブセットとして,非常に一般的な,主要10クラスだけ抽出したデータセットである(図1).

CIFAR-10は,データ数が60000枚の32 × 32のカラー画像に,そこに写っている「10種類の基本的な物体クラス」がラベルづけされた構成である.各クラスごとに6000枚の画像から構成され,Train用 5000枚と Test 用1000枚が,各クラスに用意されており,(5000+1000)×10クラス = 6万枚の構成である.

(※1) Tiny Imagesデータセットは,2020年に「プライバシー侵害画像や差別的・不快なラベルのクラス画像がある」指摘されたことで,画像認識コミュニティの内外から大きな批判を浴び,公開を取りやめた(参考:[IT Media News] MIT、人種差別的と批判された大規模画像データセット「Tiny Images」をオフラインに ).

3. CIFAR-10 の使用先

CIRAR-10/100 [Krizhevsky et al., 2009] と同時期に登場した ImageNet [Deng et al.,2009] を用いての,AlexNet [Krizhevsky et al., 2012] (ILSVRC 2012勝者)が登場し,このCIFARデータセットの著者であるAlex Krizhevsky らによるAlexNet での,「CNNを用いた物体画像の1000クラス識別」が,競いどころになるまでは,CIFAR-10,CIFAR-100は,当時(2009~2012)の「物体画像認識」性能の,ベンチマーキングに良く用いられていた.しかし,AlexNet以降は研究者たちの焦点がImageNetでの1000クラス識別に移行した.

※ CIFAR-10, CIFAR-100,と ImageNet-1000 と「10倍ずつの物体クラス数」の松竹梅の規模に整理されたのは 両方とも,Krizhevsky氏・Hinton氏のこれらの研究で順に用いられたからというのも大きい(もちろんImageNetチーム側も,前段階で100クラスデータセットが存在していたのでILSVRCに1000クラスという数を採用したという面もある)

一方で,MNIST・Fashion MNISTやSVHNデータセットと同じく「小さい画像(Tiny Image)から構成されるデータセット」の代表格となった CIFARデータセット2つは,ImageNetでの性能向上競争が始まっても,その「データの小ささの利点」から,予備実験や基礎実験目的でよく使われる続けている.たとえば,ResNet改善の研究 [He et al., 2016](PreActivation層とResNet-1000層) でも,(1) CIFARデータセットで,まず新アーキテクチャの性能が出るを実験し効果を確認,(2) それを踏まえて,ImageNetで本番の大事規模な実験を行う,という流れを取ることも多かった.

他に「データ拡張(Data Augmentation)」 の各論文においても,よくCIFAR-10が用いられる.また,近年研究されている,画像識別でのより対処したい細かい問題(Noisy Label設定,Out-of-Distributionの話)でも,CIFAR-10,CIFAR-100を用いて,予備実験的に試される多い.

というわけで「ImageNetで大規模モデルを学習するまえに,まず小さな画像・少数クラスの実験を試そう」という時に,「CIFAR-10, CIFAR-100でまず色々試してみる」という使い方をすると,(小さい画像データセットなので)時間が節約でき,モデルの学習の挙動や,結果の可視化もよく確認しやすくて良い.

References

  • [Deng et al.,2009] Jia Deng, Wei Dong, Richard Socher, Li-Jia Li, Kai Li, and Li Fei-Fei. Imagenet: A large-scale hierarchical image database. In CVPR, 2009.
  • [He et al., 2016] K. He, X. Zhang, S. Ren, and J. Sun. Identity mappings in deep residual networks. In ECCV, 2016
  • [Krizhevsky et al., 2009] Krizhevsky, Alex and Hinton, Geoffrey. Learning multiple layers of features from tiny images, 2009. 
  • [Krizhevsky et al., 2012] A. Krizhevsky, I. Sutskever, and G. E. Hinton. ImageNet classification with deep convolutional neural networks.  In NIPS, 2012.
SNSでシェアやブックマークを行う