СИФАР-10
Набор данных CIFAR-10 ( Канадский институт перспективных исследований ) представляет собой набор изображений, которые обычно используются для обучения алгоритмов машинного обучения и компьютерного зрения . Это один из наиболее широко используемых наборов данных для исследований в области машинного обучения. [1] [2] Набор данных CIFAR-10 содержит 60 000 цветных изображений размером 32x32 в 10 различных классах. [3] 10 различных классов представляют самолеты, автомобили, птиц, кошек, оленей, собак, лягушек, лошадей, корабли и грузовики. В каждом классе 6000 изображений. [4]
Компьютерные алгоритмы распознавания объектов на фотографиях часто изучаются на примере. CIFAR-10 — это набор изображений, с помощью которых можно научить компьютер распознавать объекты. Поскольку изображения в CIFAR-10 имеют низкое разрешение (32x32), этот набор данных может позволить исследователям быстро опробовать различные алгоритмы и увидеть, что работает.
CIFAR-10 — это маркированное подмножество набора данных «80 миллионов крошечных изображений» 2008 года, опубликованного в 2009 году. Когда набор данных был создан, студентам заплатили за маркировку всех изображений. [5]
Различные виды сверточных нейронных сетей, как правило, лучше всего распознают изображения в формате CIFAR-10.
Исследовательские статьи, в которых утверждаются самые современные результаты CIFAR-10.
[ редактировать ]Это таблица некоторых исследовательских работ, в которых утверждается, что они достигли самых современных результатов на наборе данных CIFAR-10. Не все документы стандартизированы с использованием одних и тех же методов предварительной обработки, таких как переворот или сдвиг изображения. По этой причине вполне возможно, что утверждение одной статьи о современном уровне техники может иметь более высокий уровень ошибок, чем более старое утверждение о современном уровне техники, но при этом оставаться действительным.
Название статьи | Коэффициент ошибок (%) | Дата публикации |
---|---|---|
Сверточные сети глубоких убеждений на CIFAR-10 [6] | 21.1 | август 2010 г. |
Максаут Сети [7] | 9.38 | 13 февраля 2013 г. |
Широкие остаточные сети [8] | 4.0 | 23 мая 2016 г. |
Поиск нейронной архитектуры с обучением с подкреплением [9] | 3.65 | 4 ноября 2016 г. |
Дробное максимальное объединение [10] | 3.47 | 18 декабря 2014 г. |
Плотно связанные сверточные сети [11] | 3.46 | 24 августа 2016 г. |
Регуляризация Shake-Shake [12] | 2.86 | 21 мая 2017 г. |
Связанные ансамбли нейронных сетей [13] | 2.68 | 18 сентября 2017 г. |
Регуляризация ShakeDrop [14] | 2.67 | 7 февраля 2018 г. |
Улучшенная регуляризация сверточных нейронных сетей с вырезом [15] | 2.56 | 15 августа 2017 г. |
Регуляризованная эволюция поиска архитектуры классификатора изображений [16] | 2.13 | 6 февраля 2018 г. |
Переосмысление рекуррентных нейронных сетей и другие улучшения классификации изображений [17] | 1.64 | 31 июля 2020 г. |
AutoAugment: изучение политик расширения на основе данных [18] | 1.48 | 24 мая 2018 г. |
Опрос по поиску нейронной архитектуры [19] | 1.33 | 4 мая 2019 г. |
GPipe: эффективное обучение гигантских нейронных сетей с использованием конвейерного параллелизма [20] | 1.00 | 16 ноября 2018 г. |
Уменьшение неопределенности активации класса с помощью справочной информации [21] | 0.95 | 5 мая 2023 г. |
Изображение стоит 16x16 слов: преобразователи для распознавания изображений в масштабе [22] | 0.5 | 2021 |
Тесты
[ редактировать ]CIFAR-10 также используется в качестве эталона производительности для команд, конкурирующих за возможность запускать нейронные сети быстрее и дешевле. DAWNBench размещает на своем веб-сайте контрольные данные.
См. также
[ редактировать ]Ссылки
[ редактировать ]- ^ «Измерение прогресса ИИ» . Фонд электронных границ . 12.06.2017 . Проверено 11 декабря 2017 г.
- ^ «Популярные наборы данных с течением времени | Kaggle» . www.kaggle.com . Проверено 11 декабря 2017 г.
- ^ Надеюсь, Том; Решефф, Йехезкель С.; Лидер, Италия (9 августа 2017 г.). Изучение TensorFlow: Руководство по созданию систем глубокого обучения . O'Reilly Media, Inc., стр. 64–. ISBN 9781491978481 . Проверено 22 января 2018 г.
- ^ Ангелов, Пламен; Гегов, Александр; Джейн, Крисина; Шен, Цян (06 сентября 2016 г.). Достижения в области систем вычислительного интеллекта: материалы, представленные на 16-м британском семинаре по вычислительному интеллекту, 7–9 сентября 2016 г., Ланкастер, Великобритания . Международное издательство Спрингер. стр. 441–. ISBN 9783319465623 . Проверено 22 января 2018 г.
- ^ Крижевский, Алекс (2009). «Изучение нескольких уровней функций на крошечных изображениях» (PDF) .
- ^ «Сверточные сети глубоких убеждений на CIFAR-10» (PDF) .
- ^ Гудфеллоу, Ян Дж.; Вард-Фарли, Дэвид; Мирза, Мехди; Курвиль, Аарон; Бенджио, Йошуа (13 февраля 2013 г.). «Максаут Нетворкс». arXiv : 1302.4389 [ stat.ML ].
- ^ Загоруйко, Сергей; Комодакис, Никос (23 мая 2016 г.). «Широкие остаточные сети». arXiv : 1605.07146 [ cs.CV ].
- ^ Зоф, Баррет; Ле, Куок В. (04 ноября 2016 г.). «Поиск нейронной архитектуры с обучением с подкреплением». arXiv : 1611.01578 [ cs.LG ].
- ^ Грэм, Бенджамин (18 декабря 2014 г.). «Дробный максимальный пул». arXiv : 1412.6071 [ cs.CV ].
- ^ Хуан, Гао; Лю, Чжуан; Вайнбергер, Килиан К.; ван дер Маатен, Лоренс (24 августа 2016 г.). «Плотносвязанные сверточные сети». arXiv : 1608.06993 [ cs.CV ].
- ^ Гастальди, Ксавье (21 мая 2017 г.). «Регуляризация Shake-Shake». arXiv : 1705.07485 [ cs.LG ].
- ^ Датт, Анувабх (18 сентября 2017 г.). «Связанные ансамбли нейронных сетей». arXiv : 1709.06053 [ cs.CV ].
- ^ Ямада, Ёсихиро; Ивамура, Масакадзу; Кисе, Коичи (07 февраля 2018 г.). «Регуляризация Shakedrop для глубокого остаточного обучения». Доступ IEEE . 7 : 186126–186136. arXiv : 1802.02375 . дои : 10.1109/ACCESS.2019.2960566 . S2CID 54445621 .
- ^ Терренс, ДеВрис; В., Тейлор, Грэм (15 августа 2017 г.). «Улучшенная регуляризация сверточных нейронных сетей с вырезом». arXiv : 1708.04552 [ cs.CV ].
{{cite arXiv}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - ^ Реал, Эстебан; Аггарвал, Алок; Хуан, Яньпин; Ле, Куок В. (05 февраля 2018 г.). «Регуляризованная эволюция поиска архитектуры классификатора изображений с вырезом». arXiv : 1802.01548 [ cs.NE ].
- ^ Нгуен, Хуу П.; Рибейро, Бернардете (31 июля 2020 г.). «Переосмысление рекуррентных нейронных сетей и другие улучшения классификации изображений». arXiv : 2007.15161 [ cs.CV ].
- ^ Чубук, Экин Д.; Зоф, Баррет; Грива, Одуванчик; Васудеван, Виджай; Ле, Куок В. (24 мая 2018 г.). «AutoAugment: изучение политик расширения на основе данных». arXiv : 1805.09501 [ cs.CV ].
- ^ Вистуба, Мартин; Рават, Амбриш; Педапати, Теджасвини (04 мая 2019 г.). «Опрос по поиску нейронной архитектуры». arXiv : 1905.01392 [ cs.LG ].
- ^ Хуан, Яньпин; Ченг, Юнлун; Чен, Дехао; Ли, Хёкджун; Нгиам, Цзицюань; Ле, Куок В.; Чжифэн, Чжифэн (16 ноября 2018 г.). «GPipe: эффективное обучение гигантских нейронных сетей с использованием конвейерного параллелизма». arXiv : 1811.06965 [ cs.CV ].
- ^ Кабир, Хусейн (5 мая 2023 г.). «Уменьшение неопределенности активации класса с помощью справочной информации». arXiv : 2305.03238 [ cs.CV ].
- ^ Досовицкий, Алексей; Бейер, Лукас; Колесников, Александр; Вайссенборн, Дирк; Чжай, Сяохуа; Унтертинер, Томас; Дегани, Мостафа; Миндерер, Матиас; Хейгольд, Георг; Гелли, Сильвен; Ушкорейт, Якоб; Хоулсби, Нил (2021). «Изображение стоит 16x16 слов: преобразователи для распознавания изображений в масштабе» . Международная конференция по обучению представлений . arXiv : 2010.11929 .
Внешние ссылки
[ редактировать ]- Страница CIFAR-10 — главная страница набора данных.
- Канадский институт перспективных исследований
Похожие наборы данных
[ редактировать ]- CIFAR-100 : аналогичен CIFAR-10, но содержит 100 классов и 600 изображений в каждом.
- ImageNet (ILSVRC): 1 миллион цветных изображений 1000 классов. Изображения Imagenet имеют более высокое разрешение, в среднем 469x387.
- Номера домов Street View (SVHN): около 600 000 изображений 10 классов (цифры 0–9). Также цветные изображения 32x32.
- Набор данных из 80 миллионов крошечных изображений : CIFAR-10 является помеченным подмножеством этого набора данных.