Хронология машинного обучения
Появление
Эту статью необходимо обновить . ( август 2021 г. ) |
Эта страница представляет собой хронологию машинного обучения . основные открытия, достижения, вехи и другие важные события в области машинного обучения Включены .
Обзор [ править ]
Десятилетие | Краткое содержание |
---|---|
пред- 1950 |
Открываются и совершенствуются статистические методы. |
1950-е годы | Новаторские исследования в области машинного обучения проводятся с использованием простых алгоритмов. |
1960-е годы | Байесовские методы представлены для вероятностного вывода в машинном обучении. [1] |
1970-е годы | « Зима искусственного интеллекта » вызвана пессимизмом по поводу эффективности машинного обучения. |
1980-е годы | Повторное открытие обратного распространения ошибки вызывает возрождение исследований в области машинного обучения. |
1990-е годы | Работа над машинным обучением переходит от подхода, основанного на знаниях, к подходу, основанному на данных. Ученые начинают создавать программы для компьютеров, позволяющие анализировать большие объемы данных и делать выводы – или «обучаться» – на основе результатов. [2] Становятся популярными машины опорных векторов (SVM) и рекуррентные нейронные сети (RNN). [3] области вычислительной сложности с помощью нейронных сетей и вычислений супер-Тьюринга . Начались [4] |
2000-е | Кластеризация опорных векторов [5] и другие методы ядра [6] . машинного обучения без учителя широкое распространение получают методы [7] |
2010-е годы | Глубокое обучение становится возможным, что приводит к тому, что машинное обучение становится неотъемлемой частью многих широко используемых программных сервисов и приложений. Глубокое обучение стимулирует огромный прогресс в области зрения и обработки текста. |
2020-е годы | Генеративный ИИ приводит к революционным моделям, создавая распространение базовых моделей, как проприетарных, так и с открытым исходным кодом, в частности, позволяя использовать такие продукты, как ChatGPT (текстовый) и Stable Diffusion (основанный на изображениях). Машинное обучение и искусственный интеллект проникают в более широкое общественное сознание. Коммерческий потенциал ИИ, основанного на машинном обучении, приводит к значительному увеличению оценок компаний, связанных с ИИ. |
Хронология [ править ]
Год | Тип события | Подпись | Событие |
---|---|---|---|
1763 | Открытие | Основы теоремы Байеса | Томаса Байеса « Работа Очерк решения проблемы в доктрине шансов» опубликована через два года после его смерти и отредактирована другом Байеса Ричардом Прайсом . [8] В эссе представлена работа, лежащая в основе теоремы Байеса . |
1805 | Открытие | Наименьших квадратов | Адриен-Мари Лежандр описывает «метод des moindres carrés», известный на английском языке как метод наименьших квадратов . [9] Метод наименьших квадратов широко используется при аппроксимации данных . |
1812 | Теорема Байеса | Пьер-Симон Лаплас публикует «Теорию аналитики вероятностей» , в которой он расширяет работу Байеса и определяет то, что сейчас известно как « Теорема Байеса» . [10] | |
1913 | Открытие | Марковские цепи | Андрей Марков впервые описывает приемы, которые он использовал для анализа стихотворения. Эти методы позже стали известны как цепи Маркова . [11] |
1943 | Открытие | Искусственный нейрон | Уоррен Маккаллох и Уолтер Питтс разрабатывают математическую модель, имитирующую функционирование биологического нейрона, искусственный нейрон , который считается первой изобретенной нейронной моделью. [12] |
1950 | Обучающаяся машина Тьюринга | Алан Тьюринг предлагает «обучающуюся машину», которая могла бы обучаться и становиться искусственным интеллектом. Конкретное предложение Тьюринга предвещает появление генетических алгоритмов . [13] | |
1951 | Первая нейросетевая машина | Марвин Мински и Дин Эдмондс создают первую обучающуюся нейронную сеть — SNARC . [14] | |
1952 | Машины, играющие в шашки | Артур Сэмюэл присоединяется к лаборатории IBM в Покипси и начинает работать над некоторыми из первых программ машинного обучения, сначала создавая программы для игры в шашки . [15] | |
1957 | Открытие | Персептрон | Фрэнк Розенблатт изобретает персептрон во время работы в Корнеллской авиационной лаборатории . [16] Изобретение перцептрона вызвало большой ажиотаж и широко освещалось в средствах массовой информации. [17] |
1963 | Достижение | Машины, играющие в крестики-нолики | Дональд Мичи создает «машину», состоящую из 304 спичечных коробков и бусинок, которая использует обучение с подкреплением для игры в крестики-нолики (также известные как крестики-нолики). [18] |
1967 | Ближайший сосед | , Был создан алгоритм ближайшего соседа который положил начало базовому распознаванию образов. Алгоритм использовался для картирования маршрутов. [2] | |
1969 | Ограничения нейронных сетей | Марвин Мински и Сеймур Пейперт публикуют свою книгу «Перцептроны» , в которой описываются некоторые ограничения перцептронов и нейронных сетей. Интерпретация, которую показывает книга, о том, что нейронные сети фундаментально ограничены, рассматривается как препятствие для исследований нейронных сетей. [19] | |
1970 | Автоматическое дифференцирование (обратное распространение ошибки) | Сеппо Линнаинмаа публикует общий метод автоматического дифференцирования (AD) дискретных связных сетей вложенных дифференцируемых функций. [20] [21] Это соответствует современной версии обратного распространения ошибки, но пока не имеет такого названия. [22] [23] [24] [25] | |
1979 | Стэнфордская тележка | Студенты Стэнфордского университета разработали тележку, которая может перемещаться и объезжать препятствия в комнате. [2] | |
1979 | Открытие | Неокогнитрон | Кунихико Фукусима впервые публикует свою работу о неокогнитроне , типе искусственной нейронной сети (ИНС). [26] [27] неопознание Позднее вдохновило на создание сверточных нейронных сетей (CNN). [28] |
1981 | Обучение, основанное на объяснениях | Джеральд Деджонг представляет обучение, основанное на объяснениях, при котором компьютерный алгоритм анализирует данные и создает общее правило, которому он может следовать, и отбрасывает неважные данные. [2] | |
1982 | Открытие | Рекуррентная нейронная сеть | Джон Хопфилд популяризирует сети Хопфилда — тип рекуррентной нейронной сети , которая может служить системой памяти с адресацией по содержимому . [29] |
1985 | NETtalk | Программу, которая учится произносить слова так же, как это делает ребенок, разработал Терри Сейновски . [2] | |
1986 | Приложение | Обратное распространение ошибки | Сеппо Линнаинмаа Обратный режим автоматического дифференцирования (впервые примененный к нейронным сетям Полом Вербосом ) используется в экспериментах Дэвида Румельхарта , Джеффа Хинтона и Рональда Дж. Уильямса для изучения внутренних представлений . [30] |
1988 | Универсальная аппроксимационная теорема | Курт Хорник доказывает, что стандартные многослойные сети прямого распространения способны аппроксимировать любую измеримую по Борелю функцию из одного конечномерного пространства в другое с любой желаемой степенью точности при условии, что доступно достаточно много скрытых единиц. | |
1989 | Открытие | Обучение с подкреплением | Кристофер Уоткинс разрабатывает Q-обучение , которое значительно повышает практичность и осуществимость обучения с подкреплением . [31] |
1989 | Коммерциализация | Коммерциализация машинного обучения на персональных компьютерах | Axcelis, Inc. выпускает Evolver , первый пакет программного обеспечения, позволяющий коммерциализировать использование генетических алгоритмов на персональных компьютерах. [32] |
1992 | Достижение | Машины, играющие в нарды | Джеральд Тезауро разрабатывает TD-Gammon , компьютерную программу для игры в нарды , в которой используется искусственная нейронная сеть , обученная с использованием обучения на основе временных разностей (отсюда и «TD» в названии). TD-Gammon способен конкурировать, но не превосходить способности лучших игроков в нарды. [33] |
1995 | Открытие | Алгоритм случайного леса | Тин Кам Хо публикует статью, описывающую леса случайных решений . [34] |
1995 | Открытие | Машины опорных векторов | Коринна Кортес и Владимир Вапник публикуют свои работы о машинах опорных векторов . [35] |
1997 | Достижение | IBM Deep Blue побеждает Каспарова | IBM Deep Blue побеждает чемпиона мира по шахматам. [2] |
1997 | Открытие | ЛСТМ | Зепп Хохрайтер и Юрген Шмидхубер изобретают рекуррентные нейронные сети с длинной краткосрочной памятью (LSTM). [36] значительно повышая эффективность и практичность рекуррентных нейронных сетей. |
1998 | база данных МНИСТ | Команда под руководством Яна ЛеКуна публикует базу данных MNIST — набор данных, состоящий из рукописных цифр, полученных от сотрудников Американского бюро переписи населения и американских старшеклассников. [37] С тех пор база данных MNIST стала эталоном для оценки распознавания рукописного текста . | |
2002 | Библиотека машинного обучения Torch | Torch для машинного обучения. Впервые выпущена библиотека программного обеспечения [38] | |
2006 | Премия Netflix | Конкурс Netflix Prize запущен Netflix . Цель конкурса заключалась в том, чтобы с помощью машинного обучения превзойти точность собственного рекомендательного программного обеспечения Netflix при прогнозировании рейтинга пользователя к фильму с учетом его оценок для предыдущих фильмов как минимум на 10%. [39] Премия была получена в 2009 году. | |
2009 | Достижение | ImageNet | ImageNet создан. ImageNet — это большая визуальная база данных, созданная Фей-Фей Ли из Стэнфордского университета, который понял, что лучшие алгоритмы машинного обучения не будут работать хорошо, если данные не отражают реальный мир. [40] Для многих ImageNet стала катализатором бума искусственного интеллекта. [41] XXI века. |
2010 | Конкурс Каггл | Запущен Kaggle — веб-сайт, который служит платформой для соревнований по машинному обучению. [42] | |
2011 | Достижение | Избиение людей в опасности | Используя комбинацию машинного обучения, обработки естественного языка и методов поиска информации, IBM от Watson побеждает двух чемпионов среди людей в игре Jeopardy! соревнование. [43] |
2012 | Достижение | Распознавание кошек на YouTube | Команда Google Brain под руководством Эндрю Нг и Джеффа Дина создает нейронную сеть, которая учится распознавать кошек, просматривая неразмеченные изображения, взятые из кадров видеороликов на YouTube . [44] [45] |
2012 | Открытие | Визуальное распознавание | достигают Статья и алгоритм AlexNet революционных результатов в распознавании изображений в тесте ImageNet. Это популяризирует глубокие нейронные сети. [46] |
2013 | Открытие | Встраивание слов | Широко цитируемая статья под названием word2vec произвела революцию в обработке текста в машинном обучении. Он показывает, как каждое слово можно преобразовать в последовательность чисел ( word embeddings ), использование этих векторов произвело революцию в обработке текста в машинном обучении. |
2014 | Скачок в распознавании лиц | Facebook Исследователи публикуют свою работу на DeepFace — системе, которая использует нейронные сети, распознающие лица с точностью 97,35%. Результатом является улучшение более чем на 27% по сравнению с предыдущими системами и конкурирование с производительностью человека. [47] | |
2014 | Сивилла | Исследователи из Google подробно описывают свою работу над Сивиллой. [48] запатентованная платформа для массово-параллельного машинного обучения, используемая внутри Google для прогнозирования поведения пользователей и предоставления рекомендаций. [49] | |
2016 | Достижение | Победа над людьми в Го | от Google Программа AlphaGo становится первой программой для компьютерного го , которая обыграла профессионального игрока-человека без инвалидности. [50] используя комбинацию машинного обучения и методов поиска по дереву. [51] Позже был улучшен как AlphaGo Zero , а затем в 2017 году распространен на шахматы и другие игры для двух игроков с AlphaZero . |
2017 | Открытие | Трансформатор | Команда Google Brain изобрела архитектуру -трансформер . [52] что позволяет ускорить параллельное обучение нейронных сетей на последовательных данных, таких как текст. |
2018 | Достижение | Прогнозирование структуры белка | AlphaFold 1 (2018) занял первое место в общем рейтинге 13-й критической оценки методов прогнозирования структуры белка (CASP) в декабре 2018 года. [53] |
2021 | Достижение | Прогнозирование структуры белка | AlphaFold 2 (2021). Команда, использовавшая AlphaFold 2 (2020), повторила свое место в соревновании CASP в ноябре 2020 года. Команда достигла уровня точности, намного более высокого, чем любая другая группа. Он набрал более 90 баллов примерно для двух третей белков в глобальном дистанционном тесте CASP (GDT), тесте, который измеряет степень, в которой предсказанная вычислительной программой структура похожа на структуру, определенную в лабораторном эксперименте, причем 100 означает полное совпадение. в пределах расстояния отсечки, используемого для расчета GDT. [54] |
См. также [ править ]
- История искусственного интеллекта
- Хронология искусственного интеллекта
- Хронология машинного перевода
Ссылки [ править ]
Цитаты [ править ]
- ^ Соломонов, Р.Дж. (июнь 1964 г.). «Формальная теория индуктивного вывода. Часть II». Информация и контроль . 7 (2): 224–254. дои : 10.1016/S0019-9958(64)90131-7 .
- ^ Перейти обратно: а б с д Это ж Марр 2016 .
- ^ Сигельманн, ХТ; Зонтаг, Эд (февраль 1995 г.). «О вычислительной мощности нейронных сетей» . Журнал компьютерных и системных наук . 50 (1): 132–150. дои : 10.1006/jcss.1995.1013 .
- ^ Сигельманн, Хава (1995). «Вычисления за пределом Тьюринга». Журнал компьютерных и системных наук . 238 (28): 632–637. Бибкод : 1995Sci...268..545S . дои : 10.1126/science.268.5210.545 . ПМИД 17756722 . S2CID 17495161 .
- ^ Бен-Гур, Аса; Хорн, Дэвид; Зигельманн, Хава; Вапник, Владимир (2001). «Поддержка векторной кластеризации». Журнал исследований машинного обучения . 2 : 51–86.
- ^ Хофманн, Томас; Шёлкопф, Бернхард; Смола, Александр Дж. (2008). «Методы ядра в машинном обучении» . Анналы статистики . 36 (3): 1171–1220. arXiv : математика/0701907 . дои : 10.1214/009053607000000677 . JSTOR 25464664 .
- ^ Беннетт, Джеймс; Лэннинг, Стэн (2007). «Приз Netflix» (PDF) . Материалы Кубка и Семинара KDD 2007 .
- ^ Байес, Томас (1 января 1763 г.). «Очерк решения проблемы в доктрине случая» . Философские труды . 53 : 370–418. дои : 10.1098/rstl.1763.0053 . JSTOR 105741 .
- ^ Лежандр, Адриен-Мари (1805). Новые методы определения орбит комет (на французском языке). Париж: Фирмин Дидо. п. viii . Проверено 13 июня 2016 г.
- ^ О'Коннор, Джей-Джей; Робертсон, Э. Ф. «Пьер-Симон Лаплас» . Школа математики и статистики, Университет Сент-Эндрюс, Шотландия . Проверено 15 июня 2016 г.
- ^ Лэнгстон, Нэнси (2013). «Горное дело Севера». Американский учёный . 101 (2): 1. дои : 10.1511/2013.101.1 .
Углубляясь в текст романа Александра Пушкина в стихах «Евгений Онегин», Марков часами перебирал закономерности гласных и согласных. 23 января 1913 г. он подвел итоги своих выводов в обращении к Императорской Академии наук в Петербурге. Его анализ не изменил понимания или оценки стихотворения Пушкина, но разработанная им техника — теперь известная как цепь Маркова — расширила теорию вероятностей в новом направлении.
- ^ Маккалок, Уоррен С.; Питтс, Уолтер (декабрь 1943 г.). «Логическое исчисление идей, имманентных нервной деятельности». Вестник математической биофизики . 5 (4): 115–133. дои : 10.1007/BF02478259 .
- ^ Тьюринг, AM (1 октября 1950 г.). «I.— ВЫЧИСЛИТЕЛЬНАЯ ТЕХНИКА И ИНТЕЛЛЕКТ». Разум . ЛИКС (236): 433–460. дои : 10.1093/mind/LIX.236.433 .
- ^ Crevier 1993 , стр. 34–35 и Рассел и Норвиг 2003 , стр. 17.
- ^ Маккарти, Дж.; Фейгенбаум, Э. (1 сентября 1990 г.). «Памяти Артура Сэмюэля (1901–1990)» . Журнал ИИ . 11 (3): 10–11.
- ^ Розенблатт, Ф. (1958). «Персептрон: вероятностная модель хранения и организации информации в мозге». Психологический обзор . 65 (6): 386–408. CiteSeerX 10.1.1.588.3775 . дои : 10.1037/h0042519 . ПМИД 13602029 . S2CID 12781225 .
- ^ Мейсон, Хардинг; Стюарт, Д; Гилл, Брендан (6 декабря 1958 г.). "Соперник" . Житель Нью-Йорка . Проверено 5 июня 2016 г.
- ^ Чайлд, Оливер (13 марта 2016 г.). «Угроза: машинно-обучаемый двигатель чтения крестиков и ноликов» . Журнал «Меловая пыль» . Проверено 16 января 2018 г.
- ^ Коэн, Харви. «Персептрон» . Проверено 5 июня 2016 г.
- ^ Линнаинмаа, Сеппо (1970). Представление совокупной ошибки округления алгоритма как разложение Тейлора локальных ошибок округления [ Представление совокупной ошибки округления алгоритма как разложение Тейлора локальных ошибок округления ] (PDF) (Диссертация) (на финском языке) . п.п. 6–7.
- ^ Линнаинмаа, Сеппо (1976). «Разложение Тейлора накопленной ошибки округления». БИТ Численная математика . 16 (2): 146–160. дои : 10.1007/BF01931367 . S2CID 122357351 .
- ^ Гриванк, Андреас (2012). «Кто изобрел обратный способ дифференциации?». Documenta Matematica, Дополнительный том ISMP : 389–400.
- ^ Гриванк, Андреас; Вальтер, А. (2008). Принципы и методы алгоритмического дифференцирования (второе изд.). СИАМ. ISBN 978-0898716597 .
- ^ Шмидхубер, Юрген (2015). «Глубокое обучение в нейронных сетях: обзор». Нейронные сети . 61 : 85–117. arXiv : 1404.7828 . Бибкод : 2014arXiv1404.7828S . дои : 10.1016/j.neunet.2014.09.003 . ПМИД 25462637 . S2CID 11715509 .
- ^ Шмидхубер, Юрген (2015). «Глубокое обучение (раздел об обратном распространении ошибки)» . Схоларпедия . 10 (11): 32832. Бибкод : 2015SchpJ..1032832S . doi : 10.4249/scholarpedia.32832 .
- ^ Фукусима, Кунихико (октябрь 1979 г.) Модель нейронной сети для механизма распознавания образов, на который не влияет сдвиг положения --- Неокогнитрон ---» « ]. Trans. J62-A (10): 658–. 665.
- ^ Фукусима, Кунихико (апрель 1980 г.). «Неокогнитрон: самоорганизующаяся модель нейронной сети для механизма распознавания образов, на который не влияет сдвиг положения». Биологическая кибернетика . 36 (4): 193–202. дои : 10.1007/BF00344251 . ПМИД 7370364 . S2CID 206775608 .
- ^ Ле Кун, Янн. «Глубокое обучение». CiteSeerX 10.1.1.297.6176 .
{{cite journal}}
: Для цитирования журнала требуется|journal=
( помощь ) - ^ Хопфилд, Джей-Джей (апрель 1982 г.). «Нейронные сети и физические системы с возникающими коллективными вычислительными способностями» . Труды Национальной академии наук . 79 (8): 2554–2558. Бибкод : 1982PNAS...79.2554H . дои : 10.1073/pnas.79.8.2554 . ПМЦ 346238 . ПМИД 6953413 .
- ^ Румельхарт, Дэвид Э.; Хинтон, Джеффри Э.; Уильямс, Рональд Дж. (октябрь 1986 г.). «Изучение представлений с помощью ошибок обратного распространения». Природа . 323 (6088): 533–536. Бибкод : 1986Natur.323..533R . дои : 10.1038/323533a0 . S2CID 205001834 .
- ^ Уотксин, Кристофер (1 мая 1989 г.). «Учимся на отложенном вознаграждении» (PDF) .
{{cite journal}}
: Для цитирования журнала требуется|journal=
( помощь ) - ^ Маркофф, Джон (29 августа 1990 г.). «БИЗНЕС-ТЕХНОЛОГИИ: Какой ответ лучший? Выживает сильнейший» . Газета "Нью-Йорк Таймс . Проверено 8 июня 2016 г.
- ^ Тезауро, Джеральд (март 1995 г.). «Обучение временной разности и TD-Gammon». Коммуникации АКМ . 38 (3): 58–68. дои : 10.1145/203330.203343 . S2CID 8763243 .
- ^ Тин Кам Хо (1995). «Леса случайных решений». Материалы 3-й Международной конференции по анализу и распознаванию документов . Том. 1. С. 278–282. дои : 10.1109/ICDAR.1995.598994 . ISBN 0-8186-7128-9 .
- ^ Кортес, Коринна; Вапник, Владимир (сентябрь 1995 г.). «Сети опорных векторов» . Машинное обучение . 20 (3): 273–297. дои : 10.1007/BF00994018 .
- ^ Хохрейтер, Зепп; Шмидхубер, Юрген (1 ноября 1997 г.). «Долгая кратковременная память». Нейронные вычисления . 9 (8): 1735–1780. дои : 10.1162/neco.1997.9.8.1735 . ПМИД 9377276 . S2CID 1915014 .
- ^ ЛеКун, Янн; Кортес, Коринна; Берджес, Кристофер. «БАЗА МНИСТ рукописных цифр» . Проверено 16 июня 2016 г.
- ^ Коллобер, Ронан; Бениго, Сами; Мариетоз, Джонни (30 октября 2002 г.). «Torch: модульная библиотека программного обеспечения для машинного обучения» (PDF) . Архивировано из оригинала (PDF) 6 августа 2016 года . Проверено 5 июня 2016 г.
{{cite journal}}
: Для цитирования журнала требуется|journal=
( помощь ) - ^ «Правила премии Netflix» . Премия Нетфликс . Нетфликс. Архивировано из оригинала 3 марта 2012 года . Проверено 16 июня 2016 г.
- ^ Гершгорн, Дэйв (26 июля 2017 г.). «ImageNet: данные, которые породили нынешний бум искусственного интеллекта — Quartz» . qz.com . Проверено 30 марта 2018 г.
- ^ Харди, Квентин (18 июля 2016 г.). «Причины полагать, что бум искусственного интеллекта реален» . Нью-Йорк Таймс .
- ^ "О" . Каггл . Kaggle Inc. Архивировано из оригинала 18 марта 2016 года . Проверено 16 июня 2016 г.
- ^ Маркофф, Джон (16 февраля 2011 г.). «Компьютер побеждает в игре «Jeopardy!»: это не тривиально» . Нью-Йорк Таймс . п. А1.
- ^ Ле, Куок В. (2013). «Создание функций высокого уровня с использованием крупномасштабного обучения без учителя». Международная конференция IEEE 2013 по акустике, речи и обработке сигналов . стр. 8595–8598. дои : 10.1109/ICASSP.2013.6639343 . ISBN 978-1-4799-0356-6 . S2CID 206741597 .
- ^ Маркофф, Джон (26 июня 2012 г.). «Сколько компьютеров, чтобы идентифицировать кошку? 16 000» . Газета "Нью-Йорк Таймс . п. Б1 . Проверено 5 июня 2016 г.
- ^ «Данные, которые изменили исследования ИИ — и, возможно, весь мир» . Кварц . 26 июля 2017 г. Проверено 12 сентября 2023 г.
- ^ Тайгман, Янив; Ян, Мин; Ранзато, Марк'Аурелио; Вольф, Лиор (24 июня 2014 г.). «DeepFace: сокращение разрыва в производительности человеческого уровня при проверке лиц» . Конференция по компьютерному зрению и распознаванию образов . Проверено 8 июня 2016 г.
- ^ Канини, Кевин; Чандра, Тушар; То есть, Евгений; Макфадден, Джим; Голдман, Кен; Гюнтер, Майк; Хармсен, Иеремия; ЛеФевр, Кристен; Лепихин Дмитрий; Ллинарес, Томас Льорет; Мукерджи, Индранил; Перейра, Фернандо; Редстоун, Джош; Шакед, Таль; Певец Йорам. «Сивилла: система крупномасштабного контролируемого машинного обучения» (PDF) . Инженерная школа Джека Баскина . Калифорнийский университет в Санта-Крус. Архивировано из оригинала (PDF) 15 августа 2017 года . Проверено 8 июня 2016 г.
- ^ Вуди, Алекс (17 июля 2014 г.). «Внутри Sibyl, платформы массового параллельного машинного обучения Google» . Датанами . Таборские коммуникации . Проверено 8 июня 2016 г.
- ^ «Google совершает «прорыв» в области искусственного интеллекта, победив чемпиона по го» . Новости BBC . Би-би-си. 27 января 2016 года . Проверено 5 июня 2016 г.
- ^ «АльфаГо» . Гугл ДипМайнд . Google Inc. Архивировано из оригинала 30 января 2016 года . Проверено 5 июня 2016 г.
- ^ Васвани, Ашиш; Шазир, Ноам; Пармар, Ники; Ушкорейт, Якоб; Джонс, Лион; Гомес, Эйдан Н.; Кайзер, Лукаш; Полосухин, Илья (2017). «Внимание — это все, что вам нужно». arXiv : 1706.03762 .
{{cite journal}}
: Для цитирования журнала требуется|journal=
( помощь ) - ^ Сэмпл, Ян (2 декабря 2018 г.). «DeepMind от Google предсказывает трехмерные формы белков» . Хранитель .
- ^ Эйзенштейн, Майкл (23 ноября 2021 г.). «Искусственный интеллект позволяет предсказывать сворачивание белков». Природа . 599 (7886): 706–708. дои : 10.1038/d41586-021-03499-y . S2CID 244528561 .
Цитируемые работы [ править ]
- Кревье, Дэниел (1993). ИИ: бурные поиски искусственного интеллекта . Нью-Йорк: BasicBooks. ISBN 0-465-02997-3 .
- Марр, Бернар (19 февраля 2016 г.). «Краткая история машинного обучения – должен прочитать каждый менеджер» . Форбс . Архивировано из оригинала 5 декабря 2022 г. Проверено 25 декабря 2022 г.
- Рассел, Стюарт ; Норвиг, Питер (2003). Искусственный интеллект: современный подход . Лондон: Pearson Education. ISBN 0-137-90395-2 .