~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ B4BA00088C97455228E2A0566DEDA272__1718223480 ✰
Заголовок документа оригинал.:
✰ Timeline of machine learning - Wikipedia ✰
Заголовок документа перевод.:
✰ Хронология машинного обучения — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Timeline_of_machine_learning ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/b4/72/b4ba00088c97455228e2a0566deda272.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/b4/72/b4ba00088c97455228e2a0566deda272__translat.html ✰
Дата и время сохранения документа:
✰ 22.06.2024 23:36:44 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 12 June 2024, at 23:18 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Хронология машинного обучения — Википедия Jump to content

Хронология машинного обучения

Из Википедии, бесплатной энциклопедии

Эта страница представляет собой хронологию машинного обучения . основные открытия, достижения, вехи и другие важные события в области машинного обучения Включены .

Обзор [ править ]

Десятилетие Краткое содержание
пред-
1950
Открываются и совершенствуются статистические методы.
1950-е годы Новаторские исследования в области машинного обучения проводятся с использованием простых алгоритмов.
1960-е годы Байесовские методы представлены для вероятностного вывода в машинном обучении. [1]
1970-е годы « Зима искусственного интеллекта » вызвана пессимизмом по поводу эффективности машинного обучения.
1980-е годы Повторное открытие обратного распространения ошибки вызывает возрождение исследований в области машинного обучения.
1990-е годы Работа над машинным обучением переходит от подхода, основанного на знаниях, к подходу, основанному на данных. Ученые начинают создавать программы для компьютеров, позволяющие анализировать большие объемы данных и делать выводы – или «обучаться» – на основе результатов. [2] Становятся популярными машины опорных векторов (SVM) и рекуррентные нейронные сети (RNN). [3] области вычислительной сложности с помощью нейронных сетей и вычислений супер-Тьюринга . Начались [4]
2000-е Кластеризация опорных векторов [5] и другие методы ядра [6] . машинного обучения без учителя широкое распространение получают методы [7]
2010-е годы Глубокое обучение становится возможным, что приводит к тому, что машинное обучение становится неотъемлемой частью многих широко используемых программных сервисов и приложений. Глубокое обучение стимулирует огромный прогресс в области зрения и обработки текста.
2020-е годы Генеративный ИИ приводит к революционным моделям, создавая распространение базовых моделей, как проприетарных, так и с открытым исходным кодом, в частности, позволяя использовать такие продукты, как ChatGPT (текстовый) и Stable Diffusion (основанный на изображениях). Машинное обучение и искусственный интеллект проникают в более широкое общественное сознание. Коммерческий потенциал ИИ, основанного на машинном обучении, приводит к значительному увеличению оценок компаний, связанных с ИИ.

Хронология [ править ]

Год Тип события Подпись Событие
1763 Открытие Основы теоремы Байеса Томаса Байеса « Работа Очерк решения проблемы в доктрине шансов» опубликована через два года после его смерти и отредактирована другом Байеса Ричардом Прайсом . [8] В эссе представлена ​​работа, лежащая в основе теоремы Байеса .
1805 Открытие Наименьших квадратов Адриен-Мари Лежандр описывает «метод des moindres carrés», известный на английском языке как метод наименьших квадратов . [9] Метод наименьших квадратов широко используется при аппроксимации данных .
1812 Теорема Байеса Пьер-Симон Лаплас публикует «Теорию аналитики вероятностей» , в которой он расширяет работу Байеса и определяет то, что сейчас известно как « Теорема Байеса» . [10]
1913 Открытие Марковские цепи Андрей Марков впервые описывает приемы, которые он использовал для анализа стихотворения. Эти методы позже стали известны как цепи Маркова . [11]
1943 Открытие Искусственный нейрон Уоррен Маккаллох и Уолтер Питтс разрабатывают математическую модель, имитирующую функционирование биологического нейрона, искусственный нейрон , который считается первой изобретенной нейронной моделью. [12]
1950 Обучающаяся машина Тьюринга Алан Тьюринг предлагает «обучающуюся машину», которая могла бы обучаться и становиться искусственным интеллектом. Конкретное предложение Тьюринга предвещает появление генетических алгоритмов . [13]
1951 Первая нейросетевая машина Марвин Мински и Дин Эдмондс создают первую обучающуюся нейронную сеть — SNARC . [14]
1952 Машины, играющие в шашки Артур Сэмюэл присоединяется к лаборатории IBM в Покипси и начинает работать над некоторыми из первых программ машинного обучения, сначала создавая программы для игры в шашки . [15]
1957 Открытие Персептрон Фрэнк Розенблатт изобретает персептрон во время работы в Корнеллской авиационной лаборатории . [16] Изобретение перцептрона вызвало большой ажиотаж и широко освещалось в средствах массовой информации. [17]
1963 Достижение Машины, играющие в крестики-нолики Дональд Мичи создает «машину», состоящую из 304 спичечных коробков и бусинок, которая использует обучение с подкреплением для игры в крестики-нолики (также известные как крестики-нолики). [18]
1967 Ближайший сосед , Был создан алгоритм ближайшего соседа который положил начало базовому распознаванию образов. Алгоритм использовался для картирования маршрутов. [2]
1969 Ограничения нейронных сетей Марвин Мински и Сеймур Пейперт публикуют свою книгу «Перцептроны» , в которой описываются некоторые ограничения перцептронов и нейронных сетей. Интерпретация, которую показывает книга, о том, что нейронные сети фундаментально ограничены, рассматривается как препятствие для исследований нейронных сетей. [19]
1970 Автоматическое дифференцирование (обратное распространение ошибки) Сеппо Линнаинмаа публикует общий метод автоматического дифференцирования (AD) дискретных связных сетей вложенных дифференцируемых функций. [20] [21] Это соответствует современной версии обратного распространения ошибки, но пока не имеет такого названия. [22] [23] [24] [25]
1979 Стэнфордская тележка Студенты Стэнфордского университета разработали тележку, которая может перемещаться и объезжать препятствия в комнате. [2]
1979 Открытие Неокогнитрон Кунихико Фукусима впервые публикует свою работу о неокогнитроне , типе искусственной нейронной сети (ИНС). [26] [27] неопознание Позднее вдохновило на создание сверточных нейронных сетей (CNN). [28]
1981 Обучение, основанное на объяснениях Джеральд Деджонг представляет обучение, основанное на объяснениях, при котором компьютерный алгоритм анализирует данные и создает общее правило, которому он может следовать, и отбрасывает неважные данные. [2]
1982 Открытие Рекуррентная нейронная сеть Джон Хопфилд популяризирует сети Хопфилда — тип рекуррентной нейронной сети , которая может служить системой памяти с адресацией по содержимому . [29]
1985 NETtalk Программу, которая учится произносить слова так же, как это делает ребенок, разработал Терри Сейновски . [2]
1986 Приложение Обратное распространение ошибки Сеппо Линнаинмаа Обратный режим автоматического дифференцирования (впервые примененный к нейронным сетям Полом Вербосом ) используется в экспериментах Дэвида Румельхарта , Джеффа Хинтона и Рональда Дж. Уильямса для изучения внутренних представлений . [30]
1988 Универсальная аппроксимационная теорема Курт Хорник [ де ] доказывает, что стандартные многослойные сети прямого распространения способны аппроксимировать любую измеримую по Борелю функцию из одного конечномерного пространства в другое с любой желаемой степенью точности при условии, что доступно достаточно много скрытых единиц.
1989 Открытие Обучение с подкреплением Кристофер Уоткинс разрабатывает Q-обучение , которое значительно повышает практичность и осуществимость обучения с подкреплением . [31]
1989 Коммерциализация Коммерциализация машинного обучения на персональных компьютерах Axcelis, Inc. выпускает Evolver , первый пакет программного обеспечения, позволяющий коммерциализировать использование генетических алгоритмов на персональных компьютерах. [32]
1992 Достижение Машины, играющие в нарды Джеральд Тезауро разрабатывает TD-Gammon , компьютерную программу для игры в нарды , в которой используется искусственная нейронная сеть , обученная с использованием обучения на основе временных разностей (отсюда и «TD» в названии). TD-Gammon способен конкурировать, но не превосходить способности лучших игроков в нарды. [33]
1995 Открытие Алгоритм случайного леса Тин Кам Хо публикует статью, описывающую леса случайных решений . [34]
1995 Открытие Машины опорных векторов Коринна Кортес и Владимир Вапник публикуют свои работы о машинах опорных векторов . [35]
1997 Достижение IBM Deep Blue побеждает Каспарова IBM Deep Blue побеждает чемпиона мира по шахматам. [2]
1997 Открытие ЛСТМ Зепп Хохрайтер и Юрген Шмидхубер изобретают рекуррентные нейронные сети с длинной краткосрочной памятью (LSTM). [36] значительно повышая эффективность и практичность рекуррентных нейронных сетей.
1998 база данных МНИСТ Команда под руководством Яна ЛеКуна публикует базу данных MNIST — набор данных, состоящий из рукописных цифр, полученных от сотрудников Американского бюро переписи населения и американских старшеклассников. [37] С тех пор база данных MNIST стала эталоном для оценки распознавания рукописного текста .
2002 Библиотека машинного обучения Torch Torch для машинного обучения. Впервые выпущена библиотека программного обеспечения [38]
2006 Премия Netflix Конкурс Netflix Prize запущен Netflix . Цель конкурса заключалась в том, чтобы с помощью машинного обучения превзойти точность собственного рекомендательного программного обеспечения Netflix при прогнозировании рейтинга пользователя к фильму с учетом его оценок для предыдущих фильмов как минимум на 10%. [39] Премия была получена в 2009 году.
2009 Достижение ImageNet ImageNet создан. ImageNet — это большая визуальная база данных, созданная Фей-Фей Ли из Стэнфордского университета, который понял, что лучшие алгоритмы машинного обучения не будут работать хорошо, если данные не отражают реальный мир. [40] Для многих ImageNet стала катализатором бума искусственного интеллекта. [41] XXI века.
2010 Конкурс Каггл Запущен Kaggle — веб-сайт, который служит платформой для соревнований по машинному обучению. [42]
2011 Достижение Избиение людей в опасности Используя комбинацию машинного обучения, обработки естественного языка и методов поиска информации, IBM от Watson побеждает двух чемпионов среди людей в игре Jeopardy! соревнование. [43]
2012 Достижение Распознавание кошек на YouTube Команда Google Brain под руководством Эндрю Нг и Джеффа Дина создает нейронную сеть, которая учится распознавать кошек, просматривая неразмеченные изображения, взятые из кадров видеороликов на YouTube . [44] [45]
2012 Открытие Визуальное распознавание достигают Статья и алгоритм AlexNet революционных результатов в распознавании изображений в тесте ImageNet. Это популяризирует глубокие нейронные сети. [46]
2013 Открытие Встраивание слов Широко цитируемая статья под названием word2vec произвела революцию в обработке текста в машинном обучении. Он показывает, как каждое слово можно преобразовать в последовательность чисел ( word embeddings ), использование этих векторов произвело революцию в обработке текста в машинном обучении.
2014 Скачок в распознавании лиц Facebook Исследователи публикуют свою работу на DeepFace — системе, которая использует нейронные сети, распознающие лица с точностью 97,35%. Результатом является улучшение более чем на 27% по сравнению с предыдущими системами и конкурирование с производительностью человека. [47]
2014 Сивилла Исследователи из Google подробно описывают свою работу над Сивиллой. [48] запатентованная платформа для массово-параллельного машинного обучения, используемая внутри Google для прогнозирования поведения пользователей и предоставления рекомендаций. [49]
2016 Достижение Победа над людьми в Го от Google Программа AlphaGo становится первой программой для компьютерного го , которая обыграла профессионального игрока-человека без инвалидности. [50] используя комбинацию машинного обучения и методов поиска по дереву. [51] Позже был улучшен как AlphaGo Zero , а затем в 2017 году распространен на шахматы и другие игры для двух игроков с AlphaZero .
2017 Открытие Трансформатор Команда Google Brain изобрела архитектуру -трансформер . [52] что позволяет ускорить параллельное обучение нейронных сетей на последовательных данных, таких как текст.
2018 Достижение Прогнозирование структуры белка AlphaFold 1 (2018) занял первое место в общем рейтинге 13-й критической оценки методов прогнозирования структуры белка (CASP) в декабре 2018 года. [53]
2021 Достижение Прогнозирование структуры белка AlphaFold 2 (2021). Команда, использовавшая AlphaFold 2 (2020), повторила свое место в соревновании CASP в ноябре 2020 года. Команда достигла уровня точности, намного более высокого, чем любая другая группа. Он набрал более 90 баллов примерно для двух третей белков в глобальном дистанционном тесте CASP (GDT), тесте, который измеряет степень, в которой предсказанная вычислительной программой структура похожа на структуру, определенную в лабораторном эксперименте, причем 100 означает полное совпадение. в пределах расстояния отсечки, используемого для расчета GDT. [54]

См. также [ править ]

Ссылки [ править ]

Цитаты [ править ]

  1. ^ Соломонов, Р.Дж. (июнь 1964 г.). «Формальная теория индуктивного вывода. Часть II». Информация и контроль . 7 (2): 224–254. дои : 10.1016/S0019-9958(64)90131-7 .
  2. ^ Перейти обратно: а б с д Это ж Марр 2016 .
  3. ^ Сигельманн, ХТ; Зонтаг, Эд (февраль 1995 г.). «О вычислительной мощности нейронных сетей» . Журнал компьютерных и системных наук . 50 (1): 132–150. дои : 10.1006/jcss.1995.1013 .
  4. ^ Сигельманн, Хава (1995). «Вычисления за пределом Тьюринга». Журнал компьютерных и системных наук . 238 (28): 632–637. Бибкод : 1995Sci...268..545S . дои : 10.1126/science.268.5210.545 . ПМИД   17756722 . S2CID   17495161 .
  5. ^ Бен-Гур, Аса; Хорн, Дэвид; Зигельманн, Хава; Вапник, Владимир (2001). «Поддержка векторной кластеризации». Журнал исследований машинного обучения . 2 : 51–86.
  6. ^ Хофманн, Томас; Шёлкопф, Бернхард; Смола, Александр Дж. (2008). «Методы ядра в машинном обучении» . Анналы статистики . 36 (3): 1171–1220. arXiv : математика/0701907 . дои : 10.1214/009053607000000677 . JSTOR   25464664 .
  7. ^ Беннетт, Джеймс; Лэннинг, Стэн (2007). «Приз Netflix» (PDF) . Материалы Кубка и Семинара KDD 2007 .
  8. ^ Байес, Томас (1 января 1763 г.). «Очерк решения проблемы в доктрине случая» . Философские труды . 53 : 370–418. дои : 10.1098/rstl.1763.0053 . JSTOR   105741 .
  9. ^ Лежандр, Адриен-Мари (1805). Новые методы определения орбит комет (на французском языке). Париж: Фирмин Дидо. п. viii . Проверено 13 июня 2016 г.
  10. ^ О'Коннор, Джей-Джей; Робертсон, Э. Ф. «Пьер-Симон Лаплас» . Школа математики и статистики, Университет Сент-Эндрюс, Шотландия . Проверено 15 июня 2016 г.
  11. ^ Лэнгстон, Нэнси (2013). «Горное дело Севера». Американский учёный . 101 (2): 1. дои : 10.1511/2013.101.1 . Углубляясь в текст романа Александра Пушкина в стихах «Евгений Онегин», Марков часами перебирал закономерности гласных и согласных. 23 января 1913 г. он подвел итоги своих выводов в обращении к Императорской Академии наук в Петербурге. Его анализ не изменил понимания или оценки стихотворения Пушкина, но разработанная им техника — теперь известная как цепь Маркова — расширила теорию вероятностей в новом направлении.
  12. ^ Маккалок, Уоррен С.; Питтс, Уолтер (декабрь 1943 г.). «Логическое исчисление идей, имманентных нервной деятельности». Вестник математической биофизики . 5 (4): 115–133. дои : 10.1007/BF02478259 .
  13. ^ Тьюринг, AM (1 октября 1950 г.). «I.— ВЫЧИСЛИТЕЛЬНАЯ ТЕХНИКА И ИНТЕЛЛЕКТ». Разум . ЛИКС (236): 433–460. дои : 10.1093/mind/LIX.236.433 .
  14. ^ Crevier 1993 , стр. 34–35 и Рассел и Норвиг 2003 , стр. 17.
  15. ^ Маккарти, Дж.; Фейгенбаум, Э. (1 сентября 1990 г.). «Памяти Артура Сэмюэля (1901–1990)» . Журнал ИИ . 11 (3): 10–11.
  16. ^ Розенблатт, Ф. (1958). «Персептрон: вероятностная модель хранения и организации информации в мозге». Психологический обзор . 65 (6): 386–408. CiteSeerX   10.1.1.588.3775 . дои : 10.1037/h0042519 . ПМИД   13602029 . S2CID   12781225 .
  17. ^ Мейсон, Хардинг; Стюарт, Д; Гилл, Брендан (6 декабря 1958 г.). "Соперник" . Житель Нью-Йорка . Проверено 5 июня 2016 г.
  18. ^ Чайлд, Оливер (13 марта 2016 г.). «Угроза: машинно-обучаемый двигатель чтения крестиков и ноликов» . Журнал «Меловая пыль» . Проверено 16 января 2018 г.
  19. ^ Коэн, Харви. «Персептрон» . Проверено 5 июня 2016 г.
  20. ^ Линнаинмаа, Сеппо (1970). Представление совокупной ошибки округления алгоритма как разложение Тейлора локальных ошибок округления [ Представление совокупной ошибки округления алгоритма как разложение Тейлора локальных ошибок округления ] (PDF) (Диссертация) (на финском языке) . п.п. 6–7.
  21. ^ Линнаинмаа, Сеппо (1976). «Разложение Тейлора накопленной ошибки округления». БИТ Численная математика . 16 (2): 146–160. дои : 10.1007/BF01931367 . S2CID   122357351 .
  22. ^ Гриванк, Андреас (2012). «Кто изобрел обратный способ дифференциации?». Documenta Matematica, Дополнительный том ISMP : 389–400.
  23. ^ Гриванк, Андреас; Вальтер, А. (2008). Принципы и методы алгоритмического дифференцирования (второе изд.). СИАМ. ISBN  978-0898716597 .
  24. ^ Шмидхубер, Юрген (2015). «Глубокое обучение в нейронных сетях: обзор». Нейронные сети . 61 : 85–117. arXiv : 1404.7828 . Бибкод : 2014arXiv1404.7828S . дои : 10.1016/j.neunet.2014.09.003 . ПМИД   25462637 . S2CID   11715509 .
  25. ^ Шмидхубер, Юрген (2015). «Глубокое обучение (раздел об обратном распространении ошибки)» . Схоларпедия . 10 (11): 32832. Бибкод : 2015SchpJ..1032832S . doi : 10.4249/scholarpedia.32832 .
  26. ^ Фукусима, Кунихико (октябрь 1979 г.) Модель нейронной сети для механизма распознавания образов, на который не влияет сдвиг положения --- Неокогнитрон ---» « ]. Trans. J62-A (10): 658–. 665.
  27. ^ Фукусима, Кунихико (апрель 1980 г.). «Неокогнитрон: самоорганизующаяся модель нейронной сети для механизма распознавания образов, на который не влияет сдвиг положения». Биологическая кибернетика . 36 (4): 193–202. дои : 10.1007/BF00344251 . ПМИД   7370364 . S2CID   206775608 .
  28. ^ Ле Кун, Янн. «Глубокое обучение». CiteSeerX   10.1.1.297.6176 . {{cite journal}}: Для цитирования журнала требуется |journal= ( помощь )
  29. ^ Хопфилд, Джей-Джей (апрель 1982 г.). «Нейронные сети и физические системы с возникающими коллективными вычислительными способностями» . Труды Национальной академии наук . 79 (8): 2554–2558. Бибкод : 1982PNAS...79.2554H . дои : 10.1073/pnas.79.8.2554 . ПМЦ   346238 . ПМИД   6953413 .
  30. ^ Румельхарт, Дэвид Э.; Хинтон, Джеффри Э.; Уильямс, Рональд Дж. (октябрь 1986 г.). «Изучение представлений с помощью ошибок обратного распространения». Природа . 323 (6088): 533–536. Бибкод : 1986Natur.323..533R . дои : 10.1038/323533a0 . S2CID   205001834 .
  31. ^ Уотксин, Кристофер (1 мая 1989 г.). «Учимся на отложенном вознаграждении» (PDF) . {{cite journal}}: Для цитирования журнала требуется |journal= ( помощь )
  32. ^ Маркофф, Джон (29 августа 1990 г.). «БИЗНЕС-ТЕХНОЛОГИИ: Какой ответ лучший? Выживает сильнейший» . Газета "Нью-Йорк Таймс . Проверено 8 июня 2016 г.
  33. ^ Тезауро, Джеральд (март 1995 г.). «Обучение временной разности и TD-Gammon». Коммуникации АКМ . 38 (3): 58–68. дои : 10.1145/203330.203343 . S2CID   8763243 .
  34. ^ Тин Кам Хо (1995). «Леса случайных решений». Материалы 3-й Международной конференции по анализу и распознаванию документов . Том. 1. С. 278–282. дои : 10.1109/ICDAR.1995.598994 . ISBN  0-8186-7128-9 .
  35. ^ Кортес, Коринна; Вапник, Владимир (сентябрь 1995 г.). «Сети опорных векторов» . Машинное обучение . 20 (3): 273–297. дои : 10.1007/BF00994018 .
  36. ^ Хохрейтер, Зепп; Шмидхубер, Юрген (1 ноября 1997 г.). «Долгая кратковременная память». Нейронные вычисления . 9 (8): 1735–1780. дои : 10.1162/neco.1997.9.8.1735 . ПМИД   9377276 . S2CID   1915014 .
  37. ^ ЛеКун, Янн; Кортес, Коринна; Берджес, Кристофер. «БАЗА МНИСТ рукописных цифр» . Проверено 16 июня 2016 г.
  38. ^ Коллобер, Ронан; Бениго, Сами; Мариетоз, Джонни (30 октября 2002 г.). «Torch: модульная библиотека программного обеспечения для машинного обучения» (PDF) . Архивировано из оригинала (PDF) 6 августа 2016 года . Проверено 5 июня 2016 г. {{cite journal}}: Для цитирования журнала требуется |journal= ( помощь )
  39. ^ «Правила премии Netflix» . Премия Нетфликс . Нетфликс. Архивировано из оригинала 3 марта 2012 года . Проверено 16 июня 2016 г.
  40. ^ Гершгорн, Дэйв (26 июля 2017 г.). «ImageNet: данные, которые породили нынешний бум искусственного интеллекта — Quartz» . qz.com . Проверено 30 марта 2018 г.
  41. ^ Харди, Квентин (18 июля 2016 г.). «Причины полагать, что бум искусственного интеллекта реален» . Нью-Йорк Таймс .
  42. ^ "О" . Каггл . Kaggle Inc. Архивировано из оригинала 18 марта 2016 года . Проверено 16 июня 2016 г.
  43. ^ Маркофф, Джон (16 февраля 2011 г.). «Компьютер побеждает в игре «Jeopardy!»: это не тривиально» . Нью-Йорк Таймс . п. А1.
  44. ^ Ле, Куок В. (2013). «Создание функций высокого уровня с использованием крупномасштабного обучения без учителя». Международная конференция IEEE 2013 по акустике, речи и обработке сигналов . стр. 8595–8598. дои : 10.1109/ICASSP.2013.6639343 . ISBN  978-1-4799-0356-6 . S2CID   206741597 .
  45. ^ Маркофф, Джон (26 июня 2012 г.). «Сколько компьютеров, чтобы идентифицировать кошку? 16 000» . Газета "Нью-Йорк Таймс . п. Б1 . Проверено 5 июня 2016 г.
  46. ^ «Данные, которые изменили исследования ИИ — и, возможно, весь мир» . Кварц . 26 июля 2017 г. Проверено 12 сентября 2023 г.
  47. ^ Тайгман, Янив; Ян, Мин; Ранзато, Марк'Аурелио; Вольф, Лиор (24 июня 2014 г.). «DeepFace: сокращение разрыва в производительности человеческого уровня при проверке лиц» . Конференция по компьютерному зрению и распознаванию образов . Проверено 8 июня 2016 г.
  48. ^ Канини, Кевин; Чандра, Тушар; То есть, Евгений; Макфадден, Джим; Голдман, Кен; Гюнтер, Майк; Хармсен, Иеремия; ЛеФевр, Кристен; Лепихин Дмитрий; Ллинарес, Томас Льорет; Мукерджи, Индранил; Перейра, Фернандо; Редстоун, Джош; Шакед, Таль; Певец Йорам. «Сивилла: система крупномасштабного контролируемого машинного обучения» (PDF) . Инженерная школа Джека Баскина . Калифорнийский университет в Санта-Крус. Архивировано из оригинала (PDF) 15 августа 2017 года . Проверено 8 июня 2016 г.
  49. ^ Вуди, Алекс (17 июля 2014 г.). «Внутри Sibyl, платформы массового параллельного машинного обучения Google» . Датанами . Таборские коммуникации . Проверено 8 июня 2016 г.
  50. ^ «Google совершает «прорыв» в области искусственного интеллекта, победив чемпиона по го» . Новости BBC . Би-би-си. 27 января 2016 года . Проверено 5 июня 2016 г.
  51. ^ «АльфаГо» . Гугл ДипМайнд . Google Inc. Архивировано из оригинала 30 января 2016 года . Проверено 5 июня 2016 г.
  52. ^ Васвани, Ашиш; Шазир, Ноам; Пармар, Ники; Ушкорейт, Якоб; Джонс, Лион; Гомес, Эйдан Н.; Кайзер, Лукаш; Полосухин, Илья (2017). «Внимание — это все, что вам нужно». arXiv : 1706.03762 . {{cite journal}}: Для цитирования журнала требуется |journal= ( помощь )
  53. ^ Сэмпл, Ян (2 декабря 2018 г.). «DeepMind от Google предсказывает трехмерные формы белков» . Хранитель .
  54. ^ Эйзенштейн, Майкл (23 ноября 2021 г.). «Искусственный интеллект позволяет предсказывать сворачивание белков». Природа . 599 (7886): 706–708. дои : 10.1038/d41586-021-03499-y . S2CID   244528561 .

Цитируемые работы [ править ]

Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: B4BA00088C97455228E2A0566DEDA272__1718223480
URL1:https://en.wikipedia.org/wiki/Timeline_of_machine_learning
Заголовок, (Title) документа по адресу, URL1:
Timeline of machine learning - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)