~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ 8F7869192A41A5E1DBB70533514AD4C4__1718395860 ✰
Заголовок документа оригинал.:
✰ Deep learning - Wikipedia ✰
Заголовок документа перевод.:
✰ Глубокое обучение — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Deep_neural_network ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/8f/c4/8f7869192a41a5e1dbb70533514ad4c4.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/8f/c4/8f7869192a41a5e1dbb70533514ad4c4__translat.html ✰
Дата и время сохранения документа:
✰ 22.06.2024 23:47:04 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 14 June 2024, at 23:11 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Глубокое обучение — Википедия Jump to content

Глубокое обучение

Из Википедии, бесплатной энциклопедии
(Перенаправлено с глубокой нейронной сети )
Представление изображений на нескольких уровнях абстракции в глубоком обучении
Представление изображений на нескольких уровнях абстракции в глубоком обучении [1]

Глубокое обучение — это подмножество методов машинного обучения , основанных на нейронных сетях с обучением представлений . Прилагательное «глубокий» относится к использованию в сети нескольких уровней. Используемые методы могут быть контролируемыми , полуконтролируемыми или неконтролируемыми . [2]

Архитектуры глубокого обучения, такие как глубокие нейронные сети , сети глубоких убеждений , рекуррентные нейронные сети , сверточные нейронные сети и преобразователи, применяются в таких областях, как компьютерное зрение , распознавание речи , обработка естественного языка , машинный перевод , биоинформатика , дизайн лекарств , анализ медицинских изображений. , климатологии , инспекции материалов и программ настольных игр , где они дали результаты, сравнимые, а в некоторых случаях превосходящие результаты человеческих экспертов. [3] [4] [5]

Ранние формы нейронных сетей были вдохновлены обработкой информации и распределенными узлами связи в биологических системах , в частности в человеческом мозге . Однако современные нейронные сети не предназначены для моделирования функций мозга организмов и обычно рассматриваются для этой цели как модели низкого качества. [6]

Обзор [ править ]

Большинство современных моделей глубокого обучения основаны на многослойных нейронных сетях , таких как сверточные нейронные сети и преобразователи , хотя они также могут включать в себя пропозициональные формулы или скрытые переменные, организованные послойно в глубоких генеративных моделях , таких как узлы в глубоких сетях доверия и глубоких моделях Больцмана. машины . [7]

По сути, глубокое обучение относится к классу машинного обучения алгоритмов , в которых иерархия слоев используется для преобразования входных данных в несколько более абстрактное и составное представление. Например, в модели распознавания изображений необработанными входными данными может быть изображение (представленное в виде пикселей ) тензора . Первый репрезентативный уровень может пытаться идентифицировать основные формы, такие как линии и круги, второй уровень может составлять и кодировать расположение краев, третий уровень может кодировать нос и глаза, а четвертый уровень может распознавать, что изображение содержит лицо.

Важно отметить, что процесс глубокого обучения может самостоятельно определить, какие функции на каком уровне оптимально разместить . До глубокого обучения методы машинного обучения часто включали в себя ручную разработку признаков для преобразования данных в более подходящее представление для работы алгоритма классификации. При подходе глубокого обучения функции не создаются вручную, и модель автоматически обнаруживает полезные представления функций из данных. Это не исключает необходимости ручной настройки; например, разное количество слоев и их размеры могут обеспечить разную степень абстракции. [8] [2]

Слово «глубокий» в «глубоком обучении» относится к количеству слоев, посредством которых преобразуются данные. Точнее, системы глубокого обучения имеют значительную глубину пути присвоения кредитов (CAP). CAP — это цепочка преобразований от входа к выходу. CAP описывают потенциально причинно-следственные связи между входом и выходом. Для нейронной сети прямого распространения глубина CAP равна глубине сети и равна количеству скрытых слоев плюс один (поскольку выходной слой также параметризуется). Для рекуррентных нейронных сетей , в которых сигнал может распространяться через слой более одного раза, глубина CAP потенциально не ограничена. [9] Не существует общепринятого порога глубины, который разделяет поверхностное обучение и глубокое обучение, но большинство исследователей согласны с тем, что глубокое обучение предполагает глубину CAP выше 2. Было показано, что CAP глубины 2 является универсальным аппроксиматором в том смысле, что он может имитировать любую функцию. . [10] Помимо этого, большее количество слоев не увеличивает возможности аппроксимации функций сети. Глубокие модели (CAP > 2) способны извлекать лучшие функции, чем поверхностные модели, и, следовательно, дополнительные слои помогают эффективно изучать функции.

Архитектуры глубокого обучения могут быть построены жадным послойным методом. [11] Глубокое обучение помогает распутать эти абстракции и выбрать, какие функции улучшают производительность. [8]

Алгоритмы глубокого обучения могут применяться к задачам обучения без присмотра. Это важное преимущество, поскольку немаркированных данных больше, чем маркированных. Примерами глубоких структур, которые можно обучать без присмотра, являются сети глубоких убеждений . [8] [12]

Интерпретации [ править ]

Глубокие нейронные сети обычно интерпретируются с точки зрения универсальной аппроксимационной теоремы. [13] [14] [15] [16] [17] или вероятностный вывод . [18] [19] [8] [9] [20]

Классическая универсальная теорема аппроксимации касается способности нейронных сетей прямого распространения с одним скрытым слоем конечного размера аппроксимировать непрерывные функции . [13] [14] [15] [16] опубликовал первое доказательство В 1989 году Джордж Цыбенко функций сигмовидной кишки. активации [13] и был обобщен для многоуровневых архитектур с прямой связью в 1991 году Куртом Хорником. [14] Недавняя работа также показала, что универсальное приближение справедливо и для неограниченных функций активации, таких как Кунихико Фукусимы выпрямленная линейная единица . [21] [22]

Универсальная аппроксимационная теорема для глубоких нейронных сетей касается пропускной способности сетей с ограниченной шириной, но глубине разрешено расти. Лу и др. [17] доказал, что если ширина глубокой нейронной сети с активацией ReLU строго больше входной размерности, то сеть может аппроксимировать любую интегрируемую по Лебегу функцию ; если ширина меньше или равна входному измерению, то глубокая нейронная сеть не является универсальным аппроксиматором.

Вероятностная интерпретация [20] происходит из области машинного обучения . Он включает в себя умозаключение, [19] [7] [8] [9] [12] [20] а также оптимизации концепции обучения и тестирования , связанные с подгонкой и обобщением соответственно. Более конкретно, вероятностная интерпретация рассматривает нелинейность активации как кумулятивную функцию распределения . [20] Вероятностная интерпретация привела к использованию отсева в качестве регуляризатора в нейронных сетях. Вероятностная интерпретация была предложена такими исследователями, как Хопфилд , Уидроу и Нарендра , и популяризирована в исследованиях, таких как исследование Бишопа . [23]

История [ править ]

Существовало два типа искусственных нейронных сетей (ИНС): нейронные сети прямого распространения (FNN) и рекуррентные нейронные сети (RNN). У RNN есть циклы в структуре связности, у FNN их нет. В 1920-х годах Вильгельм Ленц и Эрнст Изинг создали и проанализировали модель Изинга. [24] по сути, это необучающаяся архитектура RNN, состоящая из нейроноподобных пороговых элементов. В 1972 году Шуничи Амари сделал эту архитектуру адаптивной. [25] [26] Его изучение RNN было популяризировано Джоном Хопфилдом в 1982 году. [27]

Чарльз Тапперт пишет, что Фрэнк Розенблатт разработал и исследовал все основные компоненты современных систем глубокого обучения. [28] ссылка на книгу Розенблатта 1962 года [29] который представил многослойный персептрон (MLP) с тремя слоями: входным слоем, скрытым слоем со случайными весами, которые не обучались, и выходным слоем. Он также представил варианты, в том числе версию с четырехслойными перцептронами, где последние два слоя обучаются весам (и, таким образом, это настоящий многослойный перцептрон). [29] : раздел 16 Кроме того, термин глубокое обучение был предложен в 1986 году Риной Дектер. [30] хотя история его появления, видимо, более сложна. [31]

Первый общий рабочий алгоритм обучения для контролируемых, глубоких, многослойных перцептронов с прямой связью был опубликован Алексеем Ивахненко и Лапа в 1967 году. [32] В статье 1971 года описывалась глубокая сеть с восемью уровнями, обученная групповым методом обработки данных . [33]

Первый многослойный перцептрон глубокого обучения , обученный методом стохастического градиентного спуска [34] был опубликован в 1967 году Шуничи Амари . [35] [26] В компьютерных экспериментах, проведенных учеником Амари Сайто, пятислойная MLP с двумя изменяемыми слоями изучила внутренние представления для классификации классов нелинейно разделимых шаблонов. [26] В 1987 году Мэтью Брэнд сообщил, что широкие 12-слойные нелинейные перцептроны могут быть полностью обучены для воспроизведения логических функций нетривиальной глубины схемы посредством градиентного спуска на небольших партиях случайных входных/выходных выборок, но пришел к выводу, что время обучения на современном оборудовании (компьютеры с субмегафлопсной производительностью) сделали эту технику непрактичной и предложили использовать фиксированные случайные ранние слои в качестве входного хеша для одного изменяемого слоя. [36] Вместо этого последующие разработки в области аппаратного обеспечения и настройки гиперпараметров сделали сквозной стохастический градиентный спуск доминирующим в настоящее время методом обучения.

В 1970 году Сеппо Линнаинмаа опубликовал обратный режим автоматического дифференцирования дискретных связных сетей вложенных дифференцируемых функций. [37] [38] [39] Это стало известно как обратное распространение ошибки . [9] Это эффективное применение цепного правила , выведенного Готфридом Вильгельмом Лейбницем в 1673 году. [40] к сетям дифференцируемых узлов. [26] Терминология «ошибки обратного распространения ошибки» была введена в 1962 году Розенблаттом. [29] [26] но он не знал, как это реализовать, хотя у Генри Дж. Келли был постоянный предшественник обратного распространения ошибки [41] уже в 1960 году в контексте теории управления . [26] В 1982 году Пол Вербос применил обратное распространение ошибки к MLP способом, который стал стандартным. [42] [43] [26] В 1985 году Дэвид Э. Румельхарт и др. опубликовал экспериментальный анализ метода. [44]

Архитектуры глубокого обучения для сверточных нейронных сетей (CNN) со сверточными слоями и слоями понижающей дискретизации начались с Неокогнитрона , представленного Кунихико Фукусимой в 1980 году. [45] В 1969 году он также представил ReLU (выпрямленная линейная единица) функцию активации . [21] [26] Выпрямитель стал самой популярной функцией активации для CNN и глубокого обучения в целом. [46] CNN стали важным инструментом компьютерного зрения .

Термин «глубокое обучение» был представлен сообществу машинного обучения Риной Дектер в 1986 году. [30] и искусственным нейронным сетям Игоря Айзенберга и его коллег в 2000 году в контексте логических пороговых нейронов. [47] [48]

В 1988 году Вэй Чжан и др. применил алгоритм обратного распространения ошибки к сверточной нейронной сети (упрощенному неокогнитрону со сверточными связями между слоями признаков изображения и последним полносвязным слоем) для распознавания алфавита. Они также предложили реализацию CNN с оптической вычислительной системой. [49] [50] В 1989 году Ян ЛеКун и др. применил обратное распространение ошибки к CNN с целью распознавания рукописных почтовых индексов в почте. Пока алгоритм работал, обучение заняло 3 дня. [51] Впоследствии Вэй Чжан и др. модифицировали свою модель, удалив последний полностью связанный слой, и применили ее для сегментации объектов медицинских изображений в 1991 году. [52] и обнаружение рака молочной железы с помощью маммографии в 1994 году. [53] LeNet-5 (1998), 7-уровневая CNN, созданная Яном ЛеКуном и др., [54] который классифицирует цифры, был применен несколькими банками для распознавания рукописных чисел на чеках, оцифрованных в изображениях размером 32x32 пикселя.

В 1980-х годах обратное распространение ошибки не подходило для глубокого обучения с длинными путями присвоения кредитов. Чтобы преодолеть эту проблему, Юрген Шмидхубер (1992) предложил иерархию RNN, предварительно обучаемых по одному уровню за раз посредством самостоятельного обучения . [55] Он использует прогнозирующее кодирование для изучения внутренних представлений в нескольких самоорганизующихся временных масштабах. Это может существенно облегчить последующее глубокое обучение. Иерархию RNN можно свернуть в единую RNN путем разделения более высокого уровня сети блоков в сеть автоматизатора более низкого уровня . [55] [26] В 1993 году чанкёр решил задачу глубокого обучения, глубина которой превысила 1000. [56]

В 1992 году Юрген Шмидхубер также опубликовал альтернативу RNN. [57] который теперь называется линейным Трансформатором или Трансформатором с линеаризованным самовниманием [58] [59] [26] (за исключением оператора нормализации). Он усваивает внутренние направления внимания : [60] медленная нейронная сеть прямого распространения учится путем градиентного спуска управлять быстрыми весами другой нейронной сети посредством внешних продуктов самогенерируемых шаблонов активации ОТ и ДО (которые теперь называются ключом и значением для самообслуживания ). [58] Это быстрое отображение внимания к весам применяется к шаблону запроса.

Современный Трансформер был представлен Ашишем Васвани и др. в своей статье 2017 года «Внимание — это все, что вам нужно». [61] Он сочетает в себе это с оператором softmax и матрицей проекции. [26] Трансформаторы все чаще становятся предпочтительной моделью обработки естественного языка . [62] многие современные модели больших языков, такие как ChatGPT , GPT-4 и BERT Его используют . Трансформаторы также все чаще используются в компьютерном зрении . [ нужна цитата ]

В 1991 году Юрген Шмидхубер также опубликовал состязательные нейронные сети, которые соревнуются друг с другом в форме игры с нулевой суммой , где выигрыш одной сети является проигрышем другой сети. [63] [64] [65] Первая сеть представляет собой генеративную модель , которая моделирует распределение вероятностей по шаблонам выходных данных. Вторая сеть учится с помощью градиентного спуска предсказывать реакцию окружающей среды на эти закономерности. Это называлось «искусственное любопытство». В 2014 году этот принцип был использован в генеративно-состязательной сети (GAN) Яном Гудфеллоу и др. [66] Здесь реакция окружающей среды равна 1 или 0 в зависимости от того, входит ли выход первой сети в данный набор. Это можно использовать для создания реалистичных дипфейков . [67] Превосходное качество изображения достигается с помощью Nvidia от StyleGAN (2018). [68] на основе Progressive GAN Теро Карраса и др. [69] Здесь генератор GAN растет от малого к большому по пирамидальной схеме.

Зеппа Хохрайтера (1991). Дипломная работа [70] был назван «одним из самых важных документов в истории машинного обучения» его руководителем Шмидхубером . [26] Он не только протестировал компрессор нейронной истории, [55] но также выявил и проанализировал проблему исчезающего градиента . [70] [71] Хохрайтер предложил рекуррентные остаточные связи для решения этой проблемы. Это привело к появлению метода глубокого обучения под названием « длинная кратковременная память» (LSTM), опубликованного в 1997 году. [72] Рекуррентные нейронные сети LSTM могут изучать задачи «очень глубокого обучения» [9] с длинными путями присвоения кредитов, требующими воспоминаний о событиях, произошедших за тысячи дискретных шагов времени до этого. «Ванильный LSTM» с затвором забывания был представлен в 1999 году Феликсом Герсом , Шмидхубером и Фредом Камминсом. [73] LSTM стала самой цитируемой нейронной сетью 20 века. [26] В 2015 году Рупеш Кумар Шривастава, Клаус Грефф и Шмидхубер использовали принципы LSTM для создания сети Highway нейронной сети прямого распространения с сотнями слоев, гораздо более глубокой, чем предыдущие сети. [74] [75] 7 месяцев спустя Каймин Хэ, Сянъюй Чжан; с открытыми воротами или без ворот сети шоссе Шаоцин Рен и Цзянь Сунь выиграли конкурс ImageNet 2015, предложив вариант под названием Остаточная нейронная сеть . [76] Это самая цитируемая нейронная сеть 21 века. [26]

В 1994 году Андре де Карвальо вместе с Майком Фэйрхерстом и Дэвидом Биссетом опубликовали экспериментальные результаты многослойной логической нейронной сети, также известной как невесомая нейронная сеть, состоящая из трехслойного самоорганизующегося модуля нейронной сети для извлечения признаков ( SOFT), за которым следовал модуль нейронной сети многоуровневой классификации (GSN), которые прошли независимое обучение. Каждый уровень модуля извлечения признаков извлекал признаки с возрастающей сложностью по сравнению с предыдущим слоем. [77]

В 1995 году Брендан Фрей продемонстрировал, что можно обучать (в течение двух дней) сеть, содержащую шесть полностью связанных слоев и несколько сотен скрытых блоков, с помощью алгоритма пробуждения-сна , разработанного совместно с Питером Даяном и Хинтоном . [78]

С 1997 года Свен Бенке расширил иерархический сверточный подход с прямой связью в пирамиде нейронной абстракции. [79] посредством боковых и обратных связей, чтобы гибко включать контекст в решения и итеративно разрешать локальные двусмысленности.

Более простые модели, в которых используются функции, созданные вручную для конкретных задач, такие как фильтры Габора и машины опорных векторов (SVM), были популярным выбором в 1990-х и 2000-х годах из-за вычислительной стоимости искусственных нейронных сетей и отсутствия понимания того, как мозг связывает свои биологические процессы. сети.

Как поверхностное, так и глубокое обучение (например, рекуррентные сети) ИНС для распознавания речи исследуются уже много лет. [80] [81] [82] Эти методы никогда не превосходили по эффективности неоднородную модель гауссовой смеси с внутренним ручным созданием / технологию скрытой марковской модели (GMM-HMM), основанную на генеративных моделях речи, обученных дискриминативно. [83] Были проанализированы основные трудности, в том числе уменьшение градиента. [70] и слабая структура временной корреляции в нейронных прогнозирующих моделях. [84] [85] Дополнительными трудностями были отсутствие обучающих данных и ограниченная вычислительная мощность. Большинство исследователей распознавания речи отошли от нейронных сетей и занялись генеративным моделированием. Исключением была компания SRI International в конце 1990-х годов. США SRI, финансируемый АНБ и DARPA , изучал глубокие нейронные сети (DNN) в распознавании речи и говорящего . Команда по распознаванию говорящего под руководством Ларри Хека сообщила о значительных успехах использования глубоких нейронных сетей в обработке речи в ходе оценки распознавания говорящих Национального института стандартов и технологий 1998 года . [86] Затем глубокая нейронная сеть SRI была развернута в Nuance Verifier, представляя собой первое крупное промышленное применение глубокого обучения. [87] Принцип превосходства «необработанных» функций над оптимизацией, созданной вручную, был впервые успешно исследован в архитектуре глубокого автокодирования на «необработанных» спектрограммах или функциях набора линейных фильтров в конце 1990-х годов. [87] показывая его превосходство над функциями Mel-Cepstral , которые содержат этапы фиксированной трансформации из спектрограмм. Необработанные характеристики речи, формы сигналов , позже дали превосходные результаты в более крупном масштабе. [88]

Распознавание речи взял на себя LSTM . В 2003 году LSTM начал конкурировать с традиционными распознавателями речи в определенных задачах. [89] В 2006 году Алекс Грейвс , Сантьяго Фернандес, Фаустино Гомес и Шмидхубер объединили ее с коннекционистской временной классификацией (CTC). [90] в стеках LSTM RNN. [91] Сообщается, что в 2015 году производительность распознавания речи Google резко выросла на 49% благодаря LSTM, обученному CTC, который они сделали доступным через Google Voice Search . [92]

По словам Яна Лекуна, влияние глубокого обучения на промышленность началось в начале 2000-х годов, когда CNN уже обрабатывали от 10% до 20% всех чеков, выписанных в США. [93] Промышленное применение глубокого обучения для крупномасштабного распознавания речи началось примерно в 2010 году.

В 2006 году вышли публикации Джеффа Хинтона , Руслана Салахутдинова , Осиндеро и Тех. [94] [95] [96] показал, как многослойная нейронная сеть прямого распространения может эффективно предварительно обучаться по одному слою за раз, обрабатывая каждый слой по очереди как неконтролируемую ограниченную машину Больцмана , а затем настраивая ее с помощью контролируемого обратного распространения ошибки. [97] В документах говорилось об обучении глубоким сетям убеждений.

Семинар NIPS 2009 года по глубокому обучению для распознавания речи был мотивирован ограничениями глубоких генеративных моделей речи и возможностью того, что при наличии более мощного оборудования и крупномасштабных наборов данных глубокие нейронные сети могут стать практичными. Считалось, что предварительное обучение DNN с использованием генеративных моделей сетей глубокого доверия (DBN) позволит преодолеть основные трудности нейронных сетей. Однако было обнаружено, что замена предварительного обучения большими объемами обучающих данных для прямого обратного распространения ошибки при использовании DNN с большими, контекстно-зависимыми выходными слоями приводит к значительно более низкому уровню ошибок, чем современная на тот момент модель смеси Гаусса (GMM). )/Скрытая марковская модель (HMM), а также более продвинутые системы на основе генеративных моделей. [98] Природа ошибок распознавания, производимых двумя типами систем, характерно различалась. [99] предлагая техническую информацию о том, как интегрировать глубокое обучение в существующую высокоэффективную систему декодирования речи во время выполнения, используемую всеми основными системами распознавания речи. [19] [100] [101] Анализ 2009–2010 годов, сравнивающий GMM (и другие модели генеративной речи) с моделями DNN, стимулировал ранние промышленные инвестиции в глубокое обучение для распознавания речи. [99] Этот анализ был проведен с сопоставимой производительностью (менее 1,5% по частоте ошибок) между дискриминативными DNN и генеративными моделями. [98] [99] [102] В 2010 году исследователи расширили глубокое обучение от TIMIT до распознавания речи с большим словарным запасом, приняв большие выходные слои DNN на основе контекстно-зависимых состояний HMM, построенных с помощью деревьев решений . [103] [104] [105] [100]

Глубокое обучение является частью современных систем в различных дисциплинах, в частности в компьютерном зрении и автоматическом распознавании речи (ASR). Результаты часто используемых наборов оценок, таких как TIMIT (ASR) и MNIST ( классификация изображений ), а также ряда задач по распознаванию речи с большим словарным запасом, постоянно улучшаются. [98] [106] Сверточные нейронные сети были заменены ASR на CTC. [90] для ЛСТМ . [72] [92] [107] [108] [109] но более успешны в компьютерном зрении.

Достижения в области аппаратного обеспечения возобновили интерес к глубокому обучению. В 2009 году Nvidia участвовала в так называемом «большом взрыве» глубокого обучения, «поскольку нейронные сети глубокого обучения обучались с помощью графических процессоров (GPU) Nvidia». [110] В том же году Эндрю Нг определил, что графические процессоры могут увеличить скорость систем глубокого обучения примерно в 100 раз. [111] В частности, графические процессоры хорошо подходят для матричных/векторных вычислений, используемых в машинном обучении. [112] [113] [114] Графические процессоры ускоряют алгоритмы обучения на порядки, сокращая время работы с недель до дней. [115] [116] Кроме того, для эффективной обработки моделей глубокого обучения можно использовать специализированное оборудование и оптимизацию алгоритмов. [117]

глубокого Революция обучения

Насколько глубокое обучение является частью машинного обучения и что машинное обучение является частью искусственного интеллекта (ИИ)

В конце 2000-х годов глубокое обучение начало превосходить другие методы в соревнованиях по машинному обучению. В 2009 году длинная кратковременная память тренировалась с помощью коннекционистской временной классификации ( Алекс Грейвс , Сантьяго Фернандес, Фаустино Гомес и Юрген Шмидхубер , 2006). [90] был первым RNN, выигравшим конкурсы по распознаванию образов , выиграв три конкурса по распознаванию связанного рукописного ввода . [118] [9] Позже Google использовал LSTM, обученный CTC, для распознавания речи на смартфоне . [119] [92]

Значительное влияние на распознавание изображений или объектов ощущалось в период с 2011 по 2012 год. Хотя CNN, обученные методом обратного распространения ошибки, существовали уже несколько десятилетий, [49] [51] и реализации NN на GPU в течение многих лет, [112] включая CNN, [114] [9] Для прогресса в области компьютерного зрения требовалось более быстрое внедрение CNN на графических процессорах. В 2011 году DanNet [120] [3] Дэн Чиресан, Ули Мейер, Джонатан Маски, Лука Мария Гамбарделла и Юрген Шмидхубер впервые достигли сверхчеловеческих результатов в конкурсе по визуальному распознаванию образов, превзойдя традиционные методы в 3 раза. [9] Также в 2011 году DanNet выиграла конкурс китайского почерка ICDAR, а в мае 2012 года — конкурс сегментации изображений ISBI. [121] До 2011 года CNN не играли важной роли на конференциях по компьютерному зрению, но в июне 2012 года появилась статья Чиресана и др. на ведущей конференции CVPR [3] показал, как максимальное объединение CNN на графическом процессоре может значительно улучшить многие показатели тестов машинного зрения. В сентябре 2012 года DanNet также выиграла конкурс ICPR по анализу больших медицинских изображений для выявления рака, а в следующем году — MICCAI Grand Challenge по той же теме. [122] В октябре 2012 года аналогичный AlexNet Алекса Крижевского , Ильи Суцкевера и Джеффри Хинтона [4] выиграл крупномасштабное соревнование ImageNet со значительным отрывом от поверхностных методов машинного обучения. Сеть VGG-16 Карена Симоняна и Андрея Зиссермана [123] еще больше снизило частоту ошибок и выиграл конкурс ImageNet 2014, следуя аналогичной тенденции в области крупномасштабного распознавания речи.

Затем классификация изображений была расширена до более сложной задачи создания описаний (подписей) для изображений, часто в виде комбинации CNN и LSTM. [124] [125] [126]

В 2012 году команда под руководством Джорджа Э. Даля выиграла конкурс Merck Molecular Activity Challenge, используя многозадачные глубокие нейронные сети для прогнозирования биомолекулярной мишени одного лекарства. [127] [128] В 2014 году группа Зеппа Хохрейтера использовала глубокое обучение для обнаружения нецелевого и токсического воздействия химических веществ из окружающей среды в питательных веществах, предметах домашнего обихода и лекарствах и выиграла конкурс «Tox21 Data Challenge» от NIH , FDA и NCATS . [129] [130] [131]

В 2016 году Роджер Парлофф упомянул «революцию глубокого обучения», которая изменила индустрию искусственного интеллекта. [132]

В марте 2019 года Йошуа Бенджио , Джеффри Хинтон и Ян ЛеКун были награждены Премией Тьюринга за концептуальные и инженерные прорывы, которые сделали глубокие нейронные сети важнейшим компонентом вычислений.

Нейронные сети [ править ]

Упрощенный пример обучения нейронной сети обнаружению объектов: сеть обучается на нескольких изображениях, на которых, как известно, изображены морские звезды и морские ежи , которые коррелируют с «узлами», представляющими визуальные особенности . Морская звезда сочетается с кольцевой текстурой и звездным контуром, тогда как большинство морских ежей сочетается с полосатой текстурой и овальной формой. Однако экземпляр морского ежа с кольцевой текстурой создает между ними слабо взвешенную ассоциацию.
Последующий запуск сети на входном изображении (слева): [133] Сеть правильно обнаруживает морскую звезду. Однако слабовзвешенная связь между кольцевой текстурой и морским ежом также дает последнему слабый сигнал от одного из двух промежуточных узлов. Кроме того, раковина , не включенная в обучение, дает слабый сигнал овальной формы, что также приводит к слабому сигналу выхода морского ежа. Эти слабые сигналы могут привести к ложноположительному результату на морского ежа.
В действительности текстуры и контуры будут представлены не отдельными узлами, а скорее соответствующими весовыми шаблонами нескольких узлов.

Искусственные нейронные сети ( ИНС ) или коннекционистские системы — это вычислительные системы, вдохновленные биологическими нейронными сетями , которые составляют мозг животных. Такие системы учатся (постепенно совершенствуют свои способности) выполнять задачи, рассматривая примеры, как правило, без программирования для конкретных задач. Например, при распознавании изображений они могут научиться распознавать изображения, на которых есть кошки, анализируя примеры изображений, которые были вручную помечены как «кошка» или «нет кошки», и используя результаты анализа для идентификации кошек на других изображениях. Они нашли наибольшее применение в приложениях, которые трудно выразить с помощью традиционного компьютерного алгоритма с использованием программирования на основе правил .

ИНС основана на наборе связанных единиц, называемых искусственными нейронами (аналог биологических нейронов в биологическом мозге ). Каждое соединение ( синапс ) между нейронами может передавать сигнал другому нейрону. Принимающий (постсинаптический) нейрон может обрабатывать сигнал(ы), а затем сигнализировать нижестоящим нейронам, подключенным к нему. Нейроны могут иметь состояние, обычно представленное действительными числами , обычно от 0 до 1. Нейроны и синапсы также могут иметь вес, который меняется по мере обучения, что может увеличивать или уменьшать силу сигнала, который они посылают вниз по течению.

Обычно нейроны организованы слоями. Разные слои могут выполнять разные виды преобразований на своих входах. Сигналы перемещаются от первого (входного) к последнему (выходному) слою, возможно, после многократного прохождения слоев.

Первоначальная цель нейросетевого подхода заключалась в том, чтобы решать проблемы так же, как это делает человеческий мозг. Со временем внимание сосредоточилось на сопоставлении конкретных умственных способностей, что привело к отклонениям от биологии, таким как обратное распространение ошибки или передача информации в обратном направлении и настройка сети для отражения этой информации.

Нейронные сети использовались для решения различных задач, включая компьютерное зрение, распознавание речи , машинный перевод , социальных сетей фильтрацию , настольные и видеоигры , а также медицинскую диагностику.

По состоянию на 2017 год нейронные сети обычно насчитывают от нескольких тысяч до нескольких миллионов единиц и миллионов соединений. Несмотря на то, что это число на несколько порядков меньше количества нейронов в человеческом мозге, эти сети могут выполнять многие задачи на уровне, превосходящем человеческий (например, распознавание лиц или игра в «Го»). [134] ).

Глубокие нейронные сети [ править ]

Глубокая нейронная сеть (DNN) — это искусственная нейронная сеть с несколькими слоями между входным и выходным слоями. [7] [9] Существуют разные типы нейронных сетей, но они всегда состоят из одних и тех же компонентов: нейронов, синапсов, весов, смещений и функций. [135] Эти компоненты в целом функционируют таким образом, что имитируют функции человеческого мозга, и их можно обучать, как и любой другой алгоритм ML. [ нужна цитата ]

Например, DNN, обученная распознавать породы собак, просматривает данное изображение и рассчитывает вероятность того, что собака на изображении принадлежит к определенной породе. Пользователь может просмотреть результаты и выбрать, какие вероятности должна отображать сеть (выше определенного порога и т. д.), а также вернуть предложенную метку. Каждая математическая манипуляция как таковая рассматривается как слой, [ нужна цитата ] и сложные DNN имеют много слоев, отсюда и название «глубокие» сети.

DNN могут моделировать сложные нелинейные отношения. Архитектуры DNN генерируют композиционные модели, в которых объект выражается как многоуровневая композиция примитивов . [136] Дополнительные уровни позволяют комбинировать объекты из нижних слоев, потенциально моделируя сложные данные с меньшим количеством единиц, чем в мелкой сети с аналогичной производительностью. [7] Например, было доказано, что разреженные многомерные полиномы экспоненциально легче аппроксимировать с помощью DNN, чем с помощью мелких сетей. [137]

Глубокие архитектуры включают множество вариантов нескольких базовых подходов. Каждая архитектура нашла успех в определенных областях. Не всегда возможно сравнить производительность нескольких архитектур, если только они не оценивались на одних и тех же наборах данных.

DNN обычно представляют собой сети прямой связи, в которых данные передаются от входного уровня к выходному без обратного цикла. Сначала DNN создает карту виртуальных нейронов и присваивает случайные числовые значения или «веса» связям между ними. Веса и входные данные умножаются и возвращают выходные данные в диапазоне от 0 до 1. Если сеть не распознала точно определенный шаблон, алгоритм скорректирует веса. [138] Таким образом, алгоритм может сделать определенные параметры более влиятельными, пока не определит правильные математические манипуляции для полной обработки данных.

Рекуррентные нейронные сети , в которых данные могут передаваться в любом направлении, используются для таких приложений, как языковое моделирование . [139] [140] [141] [142] [143] Длительная кратковременная память особенно эффективна для этого использования. [72] [144]

Сверточные нейронные сети (CNN) используются в компьютерном зрении. [145] CNN также применялись для акустического моделирования для автоматического распознавания речи (ASR). [146]

Проблемы [ править ]

Как и в случае с ИНС, с наивно обученными DNN может возникнуть множество проблем. Двумя распространенными проблемами являются переобучение и время вычислений.

DNN склонны к переоснащению из-за дополнительных уровней абстракции, которые позволяют им моделировать редкие зависимости в обучающих данных. Методы регуляризации , такие как сокращение единиц Ивахненко. [33] или снижение веса ( -регуляризация) или разреженность ( -регуляризация) может применяться во время тренировок для борьбы с переобучением. [147] Альтернативно , регуляризация отсева случайным образом исключает единицы из скрытых слоев во время обучения. Это помогает исключить редкие зависимости. [148] Наконец, данные можно дополнять с помощью таких методов, как обрезка и вращение, чтобы можно было увеличить размер меньших обучающих наборов, чтобы уменьшить вероятность переобучения. [149]

DNN должны учитывать множество параметров обучения, таких как размер (количество слоев и количество единиц на слой), скорость обучения и начальные веса. Просмотр пространства параметров для поиска оптимальных параметров может оказаться невозможным из-за затрат времени и вычислительных ресурсов. Различные трюки, такие как пакетная обработка (вычисление градиента сразу на нескольких обучающих примерах, а не на отдельных примерах). [150] ускорить вычисления. Большие вычислительные возможности многоядерных архитектур (таких как графические процессоры или Intel Xeon Phi) позволили значительно ускорить обучение благодаря пригодности таких архитектур обработки для матричных и векторных вычислений. [151] [152]

В качестве альтернативы инженеры могут искать другие типы нейронных сетей с более простыми и конвергентными алгоритмами обучения. CMAC ( контроллер артикуляции модели мозжечка ) — один из таких типов нейронной сети. Он не требует скорости обучения или рандомизированных начальных весов. Можно гарантировать, что процесс обучения сходится за один шаг с новым пакетом данных, а вычислительная сложность алгоритма обучения линейна в зависимости от количества задействованных нейронов. [153] [154]

Аппаратное обеспечение [ править ]

С 2010-х годов достижения как в алгоритмах машинного обучения, так и в компьютерном оборудовании привели к появлению более эффективных методов обучения глубоких нейронных сетей, которые содержат множество слоев нелинейных скрытых модулей и очень большой выходной слой. [155] К 2019 году графические процессоры ( GPU ), часто с усовершенствованиями, специально предназначенными для искусственного интеллекта, вытеснили центральные процессоры в качестве доминирующего метода обучения крупномасштабного коммерческого облачного искусственного интеллекта. [156] OpenAI оценила аппаратные вычисления, используемые в крупнейших проектах глубокого обучения, от AlexNet (2012) до AlphaZero (2017), и обнаружила 300 000-кратное увеличение объема необходимых вычислений с линией тренда удвоения, равной 3,4 месяца. [157] [158]

Специальные электронные схемы, называемые процессорами глубокого обучения, были разработаны для ускорения алгоритмов глубокого обучения. Процессоры глубокого обучения включают в себя нейронные процессоры (NPU) в Huawei . мобильных телефонах [159] и облачных вычислений серверы , такие как тензорные процессоры (TPU) в Google Cloud Platform . [160] Cerebras Systems также создала специальную систему для работы с большими моделями глубокого обучения — CS-2 — на базе крупнейшего процессора в отрасли — Wafer Scale Engine второго поколения (WSE-2). [161] [162]

Атомно тонкие полупроводники считаются перспективными для энергоэффективного оборудования глубокого обучения, где одна и та же базовая структура устройства используется как для логических операций, так и для хранения данных. В 2020 году Марега и др. опубликовали эксперименты с материалом активного канала большой площади для разработки устройств и схем логики в памяти на основе с плавающим затвором полевых транзисторов (FGFET). [163]

В 2021 г. Дж. Фельдманн и др. предложил интегрированный фотонный аппаратный ускоритель для параллельной сверточной обработки. [164] Авторы выделяют два ключевых преимущества интегрированной фотоники перед ее электронными аналогами: (1) массово параллельная передача данных посредством по длине волны разделением мультиплексирования с в сочетании с частотными гребенками и (2) чрезвычайно высокая скорость модуляции данных. [164] Их система может выполнять триллионы операций умножения-накопления в секунду, что указывает на потенциал интегрированной фотоники в приложениях искусственного интеллекта с большим объемом данных. [164]

Приложения [ править ]

Автоматическое распознавание речи [ править ]

Масштабное автоматическое распознавание речи — первый и наиболее убедительный успешный случай глубокого обучения. LSTM RNN могут изучать задачи «очень глубокого обучения» [9] которые включают в себя многосекундные интервалы, содержащие речевые события, разделенные тысячами дискретных временных шагов, где один временной шаг соответствует примерно 10 мс. LSTM с воротами забывания [144] конкурирует с традиционными распознавателями речи в определенных задачах. [89]

Первоначальный успех в распознавании речи был основан на небольших задачах распознавания на основе TIMIT. Набор данных содержит 630 носителей восьми основных диалектов американского английского , где каждый говорящий читает 10 предложений. [165] Его небольшой размер позволяет опробовать множество конфигураций. Что еще более важно, задача TIMIT касается распознавания телефонных последовательностей, которое, в отличие от распознавания последовательностей слов, позволяет создавать слабые языковые модели телефонных биграмм . Это позволяет легче анализировать сильные стороны акустического моделирования распознавания речи. Перечисленные ниже коэффициенты ошибок, включая эти ранние результаты и измеренные в процентах коэффициента ошибок телефона (PER), суммируются с 1991 года.

Метод Процент телефона
коэффициент ошибок (PER) (%)
Случайно инициализированный RNN [166] 26.1
Байесовский трифон GMM-HMM 25.6
Модель скрытой траектории (генеративная) 24.8
Монофонический случайно инициализированный DNN 23.4
Монофон ДБН-ДНН 22.4
Triphone GMM-HMM с обучением BMMI 21.7
Монофон ДБН-ДНН на фбанке 20.7
Сверточная DNN [167] 20.0
Сверточная DNN w. Гетерогенное объединение 18.7
Ансамбль ДНН/CNN/РНН [168] 18.3
Двунаправленный LSTM 17.8
Иерархическая сверточная сеть Deep Maxout [169] 16.5

Дебют DNN для распознавания говорящего в конце 1990-х годов, распознавания речи примерно в 2009–2011 годах и LSTM примерно в 2003–2007 годах ускорил прогресс в восьми основных областях: [19] [102] [100]

  • Масштабирование и ускорение обучения и декодирования DNN
  • Последовательное дискриминационное обучение
  • Обработка признаков с помощью глубоких моделей с глубоким пониманием основных механизмов
  • Адаптация DNN и связанных с ними глубоких моделей
  • Многозадачное и трансферное обучение с помощью DNN и связанных с ними глубоких моделей
  • CNN и как их спроектировать, чтобы наилучшим образом использовать знания предметной области речи
  • RNN и его богатые варианты LSTM
  • Другие типы глубоких моделей, включая тензорные модели и интегрированные глубокие генеративные/дискриминативные модели.

Все основные коммерческие системы распознавания речи (например, Microsoft Cortana , Xbox , Skype Translator , Amazon Alexa , Google Now , Apple Siri , Baidu и голосовой поиск iFlyTek , а также ряд речевых продуктов Nuance и т. д.) основаны на глубоком обучении. [19] [170] [171]

Распознавание изображений [ править ]

Обычным набором оценок для классификации изображений является набор данных базы данных MNIST . MNIST состоит из рукописных цифр и включает 60 000 обучающих примеров и 10 000 тестовых примеров. Как и в случае с TIMIT, его небольшой размер позволяет пользователям тестировать несколько конфигураций. Доступен полный список результатов по этому набору. [172]

Распознавание изображений на основе глубокого обучения стало «сверхчеловеческим», давая более точные результаты, чем участники-люди. Впервые это произошло в 2011 году при распознавании дорожных знаков, а в 2014 году — при распознавании человеческих лиц. [173] [174]

Транспортные средства, обученные глубокому обучению, теперь интерпретируют изображения с камер на 360°. [175] Другим примером является новый анализ лицевой дисморфологии (FDNA), используемый для анализа случаев пороков развития человека, связанных с большой базой данных генетических синдромов.

Обработка визуального искусства [ править ]

Визуальная художественная обработка Джимми Уэйлса во Франции со стилем « Крика » Мунка, примененным с использованием нейронной передачи стилей.

С прогрессом, достигнутым в распознавании изображений, тесно связано все более широкое применение методов глубокого обучения для различных задач визуального искусства. DNN доказали свою способность, например,

  • определение стилевого периода данной картины [176] [177]
  • Нейронная передача стиля – фиксация стиля данного произведения искусства и применение его визуально приятным образом к произвольной фотографии или видео. [176] [177]
  • создание ярких изображений на основе случайных полей визуального ввода. [176] [177]

Обработка естественного языка [ править ]

Нейронные сети используются для реализации языковых моделей с начала 2000-х годов. [139] LSTM помог улучшить машинный перевод и языковое моделирование. [140] [141] [142]

Другими ключевыми методами в этой области являются отрицательные выборки. [178] и встраивание слов . Встраивание слов, такое как word2vec , можно рассматривать как репрезентативный уровень в архитектуре глубокого обучения, который преобразует атомарное слово в позиционное представление слова относительно других слов в наборе данных; положение представлено как точка в векторном пространстве . Использование встраивания слов в качестве входного слоя RNN позволяет сети анализировать предложения и фразы, используя эффективную композиционную векторную грамматику. Композиционную векторную грамматику можно рассматривать как вероятностную контекстно-свободную грамматику (PCFG), реализуемую RNN. [179] Рекурсивные автокодировщики, построенные на основе встраивания слов, могут оценивать сходство предложений и обнаруживать перефразирование. [179] Глубокие нейронные архитектуры обеспечивают наилучшие результаты при анализе избирательного округа. [180] анализ настроений , [181] поиск информации, [182] [183] понимание разговорной речи, [184] машинный перевод, [140] [185] контекстное связывание сущностей, [185] распознавание стиля письма, [186] распознавание именованных объектов (классификация токенов), [187] классификация текста и другие. [188]

Недавние разработки обобщают встраивание слов в встраивание предложений .

Google Translate (GT) использует большую сквозную сеть с длинной краткосрочной памятью (LSTM). [189] [190] [191] [192] Нейронный машинный перевод Google (GNMT) использует метод машинного перевода на основе примеров, при котором система «обучается на миллионах примеров». [190] Он переводит «целые предложения за раз, а не по частям». Google Translate поддерживает более ста языков. [190] Сеть кодирует «семантику предложения, а не просто запоминает построчный перевод». [190] [193] GT использует английский как промежуточный вариант между большинством языковых пар. [193]

лекарств токсикология Открытие и

Большой процент потенциальных лекарств не получает одобрения регулирующих органов. Эти неудачи вызваны недостаточной эффективностью (нецелевой эффект), нежелательными взаимодействиями (нецелевые эффекты) или непредвиденными токсическими эффектами . [194] [195] Исследования изучали возможность использования глубокого обучения для прогнозирования биомолекулярных целей . [127] [128] нецелевые результаты и токсическое воздействие химических веществ, содержащихся в питательных веществах, предметах домашнего обихода и лекарствах. [129] [130] [131]

AtomNet — это система глубокого обучения для рационального проектирования лекарств на основе структуры . [196] AtomNet использовался для прогнозирования новых биомолекул-кандидатов для борьбы с такими болезнями, как вирус Эбола. [197] и рассеянный склероз . [198] [197]

В 2017 году графовые нейронные сети были впервые использованы для прогнозирования различных свойств молекул в большом наборе токсикологических данных. [199] В 2019 году генеративные нейронные сети были использованы для производства молекул, которые были проверены экспериментально на мышах. [200] [201]

Управление взаимоотношениями с клиентами [ править ]

Глубокое обучение с подкреплением использовалось для приблизительного определения ценности возможных действий прямого маркетинга , определенной с точки зрения переменных RFM . Было показано, что функция оценочной стоимости имеет естественную интерпретацию как пожизненная ценность клиента . [202]

Рекомендательные системы [ править ]

Системы рекомендаций использовали глубокое обучение для извлечения значимых функций для модели скрытых факторов для рекомендаций по музыке и журналам на основе контента. [203] [204] Глубокое обучение с несколькими представлениями применялось для изучения предпочтений пользователей из нескольких доменов. [205] Модель использует гибридный подход, основанный на совместной работе и контенте, и расширяет рекомендации для решения нескольких задач.

Биоинформатика [ править ]

Автоэнкодер ANN использовался в биоинформатике для прогнозирования аннотаций онтологии генов и отношений ген-функция. [206]

В медицинской информатике глубокое обучение использовалось для прогнозирования качества сна на основе данных носимых устройств. [207] и прогнозирование осложнений со здоровьем на основе данных электронных медицинских карт . [208]

Глубокие нейронные сети продемонстрировали беспрецедентную эффективность в предсказании структуры белка в соответствии с последовательностью аминокислот, из которых он состоит. В 2020 году AlphaFold , система, основанная на глубоком обучении, достигла уровня точности, значительно превышающего все предыдущие вычислительные методы. [209] [210]

нейронных Оценка глубоких сетей

Глубокие нейронные сети могут использоваться для оценки энтропии случайного процесса и называются оценщиком энтропии нейронных соединений (NJEE). [211] Такая оценка дает представление о влиянии входных случайных величин на независимую случайную величину . На практике DNN обучается как классификатор , который сопоставляет входной вектор или матрицу X с выходным распределением вероятностей по возможным классам случайной величины Y при заданных входных данных X. Например, в задачах классификации изображений NJEE отображает вектор пикселей ' значения цвета для вероятностей возможных классов изображений. На практике распределение вероятностей Y получается с помощью слоя Softmax с количеством узлов, равным размеру алфавита Y. NJEE использует непрерывно дифференцируемые функции активации , так что выполняются условия универсальной теоремы аппроксимации . Показано, что этот метод обеспечивает строго согласованную оценку и превосходит другие методы в случае больших размеров алфавита. [211]

медицинских Анализ изображений

Было показано, что глубокое обучение дает конкурентоспособные результаты в медицинских приложениях, таких как классификация раковых клеток, обнаружение поражений, сегментация органов и улучшение изображений. [212] [213] Современные инструменты глубокого обучения демонстрируют высокую точность выявления различных заболеваний и полезность их использования специалистами для повышения эффективности диагностики. [214] [215]

Мобильная реклама [ править ]

Найти подходящую мобильную аудиторию для мобильной рекламы всегда непросто, поскольку необходимо учитывать и анализировать множество точек данных, прежде чем целевой сегмент можно будет создать и использовать при показе рекламы любым рекламным сервером. [216] Глубокое обучение использовалось для интерпретации больших и многомерных наборов рекламных данных. Многие данные собираются во время цикла интернет-рекламы «запрос/обслуживание/нажатие». Эта информация может лечь в основу машинного обучения для улучшения выбора рекламы.

Восстановление изображения [ править ]

Глубокое обучение успешно применяется для решения обратных задач , таких как шумоподавление , суперразрешение , рисование и раскрашивание пленки . [217] Эти приложения включают в себя такие методы обучения, как «Поля усадки для эффективного восстановления изображений». [218] который обучается на наборе данных изображения, и Deep Image Prior , который обучается на изображении, требующем восстановления.

финансового Обнаружение мошенничества

Глубокое обучение успешно применяется для обнаружения финансового мошенничества , уклонения от уплаты налогов, [219] и борьба с отмыванием денег. [220]

Материаловедение [ править ]

В ноябре 2023 года исследователи из Google DeepMind и Национальной лаборатории Лоуренса Беркли объявили, что разработали систему искусственного интеллекта, известную как GNoME. Эта система внесла вклад в материаловедение , открыв более 2 миллионов новых материалов за относительно короткий период времени. GNoME использует методы глубокого обучения для эффективного исследования потенциальных структур материалов, достигая значительного улучшения идентификации стабильных неорганических кристаллических структур . Предсказания системы были подтверждены в ходе автономных роботизированных экспериментов, продемонстрировавших примечательный уровень успеха — 71%. Данные о вновь обнаруженных материалах общедоступны через базу данных Materials Project , что дает исследователям возможность идентифицировать материалы с желаемыми свойствами для различных применений. Это развитие имеет последствия для будущего научных открытий и интеграции ИИ в исследования в области материаловедения, потенциально ускоряя инновации в материалах и снижая затраты на разработку продуктов. Использование искусственного интеллекта и глубокого обучения предполагает возможность свести к минимуму или исключить ручные лабораторные эксперименты и позволить ученым больше сосредоточиться на разработке и анализе уникальных соединений. [221] [222] [223]

Военный [ править ]

Министерство обороны США применило глубокое обучение для обучения роботов новым задачам посредством наблюдения. [224]

Уравнения в частных производных [ править ]

Нейронные сети, основанные на физике, использовались для решения уравнений в частных производных как в прямых, так и в обратных задачах на основе данных. [225] Одним из примеров является реконструкция потока жидкости, определяемая уравнениями Навье-Стокса . Использование нейронных сетей, основанных на физике, не требует часто дорогостоящего создания сетки, на котором полагаются традиционные методы CFD . [226] [227]

Реконструкция изображения [ править ]

Реконструкция изображения — это реконструкция основных изображений на основе измерений, связанных с изображением. Несколько работ показали лучшую и превосходящую производительность методов глубокого обучения по сравнению с аналитическими методами для различных приложений, например, спектральной визуализации. [228] и ультразвуковое исследование. [229]

Прогноз погоды [ править ]

Традиционные системы прогнозирования погоды решают очень сложную систему дифференциальных уравнений Патриала. GraphCast — это модель, основанная на глубоком обучении, обученная на долгой истории погодных данных и позволяющая прогнозировать, как погодные условия изменяются с течением времени. Он способен прогнозировать погодные условия на срок до 10 дней по всему миру, на очень подробном уровне и менее чем за минуту, с точностью, аналогичной современным системам. [230] [231]

Эпигенетические часы [ править ]

Эпигенетические часы — это биохимический тест , который можно использовать для измерения возраста. Галкин и др. использовали глубокие нейронные сети для обучения эпигенетических часов старения с беспрецедентной точностью, используя более 6000 образцов крови. [232] Часы используют информацию из 1000 CpG-сайтов и прогнозируют людей с определенными заболеваниями старше, чем здоровый контроль: воспалительное заболевание кишечника , лобно-височная деменция , рак яичников , ожирение . Часы старения планировалось выпустить для публичного использования в 2021 году дочерней компанией Insilico Medicine Deep Longevity.

Связь с когнитивными способностями и мозга человека развитием

Глубокое обучение тесно связано с классом теорий развития мозга (в частности, развития неокортекса), предложенных когнитивными нейробиологами в начале 1990-х годов. [233] [234] [235] [236] Эти теории развития были воплощены в вычислительных моделях, что сделало их предшественниками систем глубокого обучения. Эти модели развития обладают тем общим свойством, что различные предполагаемые динамики обучения в мозге (например, волна фактора роста нервов ) поддерживают самоорганизацию, в некоторой степени аналогичную нейронным сетям, используемым в моделях глубокого обучения. Как и неокортекс , нейронные сети используют иерархию многоуровневых фильтров, в которой каждый уровень рассматривает информацию из предыдущего уровня (или операционной среды), а затем передает ее выходные данные (и, возможно, исходные входные данные) на другие уровни. В результате этого процесса получается самоорганизующийся набор датчиков , хорошо настроенный к рабочей среде. В описании 1995 года говорилось: «...мозг младенца, по-видимому, самоорганизуется под влиянием волн так называемых трофических факторов... различные области мозга соединяются последовательно, при этом один слой ткани созревает раньше другого и так до тех пор, пока весь мозг не созреет». [237]

Для исследования правдоподобности моделей глубокого обучения с нейробиологической точки зрения использовались различные подходы. С одной стороны, обратного распространения ошибки с целью повышения реалистичности его обработки. было предложено несколько вариантов алгоритма [238] [239] Другие исследователи утверждают, что неконтролируемые формы глубокого обучения, например, основанные на иерархических генеративных моделях и сетях глубоких убеждений , могут быть ближе к биологической реальности. [240] [241] В этом отношении модели генеративных нейронных сетей связаны с нейробиологическими данными об обработке данных в коре головного мозга на основе выборки. [242]

Хотя систематическое сравнение между организацией человеческого мозга и кодированием нейронов в глубоких сетях еще не установлено, сообщалось о нескольких аналогиях. Например, вычисления, выполняемые модулями глубокого обучения, могут быть аналогичны вычислениям реальных нейронов. [243] и нейронные популяции. [244] Точно так же представления, разработанные моделями глубокого обучения, аналогичны тем, которые измеряются в зрительной системе приматов. [245] оба в одном блоке [246] и у населения [247] уровни.

Коммерческая деятельность [ править ]

Лаборатория искусственного интеллекта Facebook выполняет такие задачи, как автоматическая пометка загруженных изображений именами людей на них. [248]

компании Google Компания DeepMind Technologies разработала систему, способную научиться играть Atari, в видеоигры используя в качестве входных данных только пиксели. В 2015 году они продемонстрировали свою систему AlphaGo , которая достаточно хорошо изучила игру в го , чтобы победить профессионального игрока в го. [249] [250] [251] Google Translate использует нейронную сеть для перевода более чем на 100 языков.

В 2017 году был запущен Covariant.ai, целью которого является интеграция глубокого обучения в фабрики. [252]

По состоянию на 2008 год [253] Исследователи из Техасского университета в Остине (Юта) разработали систему машинного обучения под названием «Обучение агента вручную с помощью оценочного подкрепления» или TAMER, которая предложила новые методы для роботов или компьютерных программ, позволяющие роботам или компьютерным программам научиться выполнять задачи, взаимодействуя с человеком-инструктором. [224] Новый алгоритм под названием Deep TAMER, впервые разработанный как TAMER, был позже представлен в 2018 году в ходе сотрудничества между Исследовательской лабораторией армии США (ARL) и исследователями UT. Deep TAMER использовал глубокое обучение, чтобы предоставить роботу возможность изучать новые задачи посредством наблюдения. [224] Используя Deep TAMER, робот обучался заданию вместе с тренером-человеком, просматривая видеопотоки или наблюдая, как человек выполняет задание лично. Позже робот попрактиковался в выполнении задания под руководством тренера, который давал такие отзывы, как «хорошая работа» и «плохая работа». [254]

Критика и комментарии [ править ]

Глубокое обучение вызвало как критику, так и комментарии, в некоторых случаях за пределами области информатики.

Теория [ править ]

Основная критика касается отсутствия теории вокруг некоторых методов. [255] Обучение в наиболее распространенных глубоких архитектурах реализуется с помощью хорошо понятного градиентного спуска. Однако теория других алгоритмов, таких как контрастивная дивергенция, менее ясна. [ нужна цитата ] (например, сходится ли оно? Если да, то как быстро? Что оно аппроксимирует?) Методы глубокого обучения часто рассматриваются как черный ящик , причем большинство подтверждений делается эмпирически, а не теоретически. [256]

Другие отмечают, что глубокое обучение следует рассматривать как шаг к созданию сильного ИИ , а не как всеобъемлющее решение. Несмотря на мощь методов глубокого обучения, им все еще не хватает функциональности, необходимой для полной реализации этой цели. Психолог-исследователь Гэри Маркус отметил:

На самом деле глубокое обучение — это лишь часть более масштабной задачи создания интеллектуальных машин. В таких методах отсутствуют способы представления причинно-следственных связей (...), нет очевидных способов выполнения логических выводов , а также они еще далеки от интеграции абстрактных знаний, таких как информация о том, что представляют собой объекты, для чего они предназначены и как они обычно используются. Самые мощные системы искусственного интеллекта, такие как Watson (...), используют такие методы, как глубокое обучение, как всего лишь один элемент в очень сложном ансамбле методов, начиная от статистического метода байесовского вывода и заканчивая дедуктивным рассуждением . [257]

В качестве дополнительной ссылки на идею о том, что художественная чувствительность может быть присуща относительно низким уровням когнитивной иерархии, опубликована серия графических изображений внутренних состояний глубоких (20-30 слоев) нейронных сетей, пытающихся различить среди по существу случайных данных изображения. на котором они обучались [258] продемонстрировать визуальную привлекательность: оригинальное уведомление об исследовании получило более 1000 комментариев и стало темой статьи, которая какое-то время была наиболее часто доступной статьей в The Guardian . [259] Веб-сайт.

Ошибки [ править ]

Некоторые архитектуры глубокого обучения демонстрируют проблемное поведение. [260] например, уверенное отнесение неузнаваемых изображений к знакомой категории обычных изображений (2014) [261] и неправильная классификация мельчайших искажений правильно классифицированных изображений (2013). [262] Герцель предположил, что такое поведение обусловлено ограничениями их внутренних представлений и что эти ограничения будут препятствовать интеграции в гетерогенные многокомпонентные архитектуры общего искусственного интеллекта (AGI). [260] Эти проблемы, возможно, могут быть решены с помощью архитектур глубокого обучения, которые внутри формируют состояния, гомологичные грамматике изображения. [263] декомпозиции наблюдаемых сущностей и событий. [260] Изучение грамматики (визуальной или лингвистической) на основе обучающих данных было бы эквивалентно ограничению системы рассуждениями здравого смысла , которые оперируют понятиями с точки зрения грамматических правил производства и являются основной целью как овладения человеческим языком, так и [264] и искусственный интеллект (ИИ). [265]

Киберугроза [ править ]

По мере того как глубокое обучение выходит из лабораторий в мир, исследования и опыт показывают, что искусственные нейронные сети уязвимы для хакерских атак и обмана. [266] Выявив закономерности, которые эти системы используют для функционирования, злоумышленники могут изменить входные данные ИНС таким образом, что ИНС найдет совпадение, которое люди-наблюдатели не смогут распознать. Например, злоумышленник может внести незначительные изменения в изображение, так что ИНС найдет совпадение, даже если для человека изображение выглядит совсем не так, как цель поиска. Такая манипуляция называется «состязательной атакой». [267]

В 2016 году исследователи использовали одну ИНС для обработки изображений методом проб и ошибок, определения фокусных точек другого и, таким образом, создания изображений, которые обманывали его. Модифицированные изображения ничем не отличались от человеческих глаз. Другая группа показала, что распечатки сфальсифицированных изображений, которые затем были сфотографированы, успешно обманули систему классификации изображений. [268] Одним из способов защиты является обратный поиск изображений, при котором возможное поддельное изображение отправляется на такой сайт, как TinEye , который затем может найти другие его экземпляры. Усовершенствование состоит в том, чтобы искать, используя только части изображения, чтобы идентифицировать изображения, из которых эта часть могла быть взята . [269]

Другая группа показала, что некоторые психоделические зрелища могут обмануть систему распознавания лиц, заставив ее думать, что обычные люди — знаменитости, потенциально позволяя одному человеку выдавать себя за другого. В 2017 году исследователи добавили наклейки на знаки остановки , из-за чего ANN неправильно их классифицировала. [268]

Однако ИНС можно дополнительно обучить обнаруживать попытки обмана , что потенциально может привести злоумышленников и защитников к гонке вооружений, подобной той, которая уже определяет индустрию защиты от вредоносного ПО . ИНС обучены побеждать антивирусное программное обеспечение на основе ИНС, неоднократно атакуя защиту с помощью вредоносного ПО, которое постоянно изменялось генетическим алгоритмом , пока оно не обмануло антивирусное ПО, сохраняя при этом свою способность наносить ущерб цели. [268]

В 2016 году другая группа продемонстрировала, что определенные звуки могут заставить систему голосовых команд Google Now открыть определенный веб-адрес, и предположила, что это может «послужить трамплином для дальнейших атак (например, открытие веб-страницы, на которой размещено вредоносное ПО). ". [268]

При « отравлении данных » ложные данные постоянно вводятся в обучающий набор системы машинного обучения, чтобы помешать ей достичь мастерства. [268]

сбора Этика данных

Большинство систем глубокого обучения полагаются на данные обучения и проверки, которые генерируются и/или аннотируются людьми. [270] утверждается В философии СМИ , что для этой цели регулярно используется не только низкооплачиваемая работа с кликами (например, на Amazon Mechanical Turk ), но и неявные формы человеческой микроработы , которые часто не признаются как таковые. [271] Философ Райнер Мюльхофф выделяет пять типов «машинного захвата» микроработы человека для создания обучающих данных: (1) геймификация (встраивание аннотаций или вычислительных задач в ход игры), (2) «перехват и отслеживание» (например, CAPTCHA для распознавания изображений или отслеживания кликов на страницах результатов поиска Google ), (3) использование социальных мотивов (например, пометка лиц на Facebook для получения маркированных изображений лиц), (4) интеллектуальный анализ информации (например, путем использования устройств количественной самооценки , таких как трекеры активности ) и (5) кликворк . [271]

Мюльхофф утверждает, что в большинстве коммерческих приложений глубокого обучения для конечных пользователей, таких как система распознавания лиц Facebook , потребность в обучающих данных не прекращается после обучения ИНС. Скорее, существует постоянный спрос на данные проверки, созданные человеком, для постоянной калибровки и обновления ИНС. С этой целью Facebook представил функцию: как только пользователь автоматически распознается на изображении, он получает уведомление. Они могут выбрать, хотят ли они, чтобы их публично отмечали на изображении, или сказать Facebook, что на изображении не они. [272] Этот пользовательский интерфейс представляет собой механизм генерации «постоянного потока проверочных данных». [271] для дальнейшего обучения сети в режиме реального времени. Как утверждает Мюльхофф, участие пользователей-людей для создания данных обучения и проверки настолько типично для большинства коммерческих приложений глубокого обучения для конечных пользователей, что такие системы можно назвать «искусственным интеллектом, управляемым человеком». [271]

См. также [ править ]

Ссылки [ править ]

  1. ^ Шульц, Ханнес; Бенке, Свен (1 ноября 2012 г.). «Глубокое обучение» . ИИ – искусственный интеллект . 26 (4): 357–363. дои : 10.1007/s13218-012-0198-z . ISSN   1610-1987 . S2CID   220523562 .
  2. ^ Перейти обратно: а б ЛеКун, Янн; Бенджио, Йошуа; Хинтон, Джеффри (2015). «Глубокое обучение» (PDF) . Природа . 521 (7553): 436–444. Бибкод : 2015Natur.521..436L . дои : 10.1038/nature14539 . ПМИД   26017442 . S2CID   3074096 .
  3. ^ Перейти обратно: а б с Чиресан, Д.; Мейер, У.; Шмидхубер, Дж. (2012). «Многостолбцовые глубокие нейронные сети для классификации изображений». Конференция IEEE 2012 по компьютерному зрению и распознаванию образов . стр. 3642–3649. arXiv : 1202.2745 . дои : 10.1109/cvpr.2012.6248110 . ISBN  978-1-4673-1228-8 . S2CID   2161592 .
  4. ^ Перейти обратно: а б Крижевский, Алекс; Суцкевер, Илья; Хинтон, Джеффри (2012). «Классификация ImageNet с глубокими сверточными нейронными сетями» (PDF) . NIPS 2012: Нейронные системы обработки информации, озеро Тахо, Невада . Архивировано (PDF) из оригинала 10 января 2017 г. Проверено 24 мая 2017 г.
  5. ^ «ИИ AlphaGo от Google выиграл серию из трех матчей у лучшего в мире игрока в го» . ТехКранч . 25 мая 2017 года. Архивировано из оригинала 17 июня 2018 года . Проверено 17 июня 2018 г.
  6. ^ «Исследование призывает к осторожности при сравнении нейронных сетей с мозгом» . Новости Массачусетского технологического института | Массачусетский Институт Технологий . 02.11.2022 . Проверено 6 декабря 2023 г.
  7. ^ Перейти обратно: а б с д Бенджио, Йошуа (2009). «Изучение глубокой архитектуры для искусственного интеллекта» (PDF) . Основы и тенденции машинного обучения . 2 (1): 1–127. CiteSeerX   10.1.1.701.9550 . дои : 10.1561/2200000006 . S2CID   207178999 . Архивировано из оригинала (PDF) 4 марта 2016 года . Проверено 3 сентября 2015 г.
  8. ^ Перейти обратно: а б с д Это Бенджио, Ю.; Курвиль, А.; Винсент, П. (2013). «Обучение репрезентации: обзор и новые перспективы». Транзакции IEEE по анализу шаблонов и машинному интеллекту . 35 (8): 1798–1828. arXiv : 1206.5538 . дои : 10.1109/tpami.2013.50 . ПМИД   23787338 . S2CID   393948 .
  9. ^ Перейти обратно: а б с д Это ж г час я дж Шмидхубер, Дж. (2015). «Глубокое обучение в нейронных сетях: обзор». Нейронные сети . 61 : 85–117. arXiv : 1404.7828 . дои : 10.1016/j.neunet.2014.09.003 . ПМИД   25462637 . S2CID   11715509 .
  10. ^ Сигэки, Сугияма (12 апреля 2019 г.). Человеческое поведение и другие виды сознания: новые исследования и возможности: новые исследования и возможности . IGI Global. ISBN  978-1-5225-8218-2 .
  11. ^ Бенджио, Йошуа; Ламблин, Паскаль; Поповичи, Дэн; Ларошель, Хьюго (2007). Жадное послойное обучение глубоких сетей (PDF) . Достижения в области нейронных систем обработки информации. стр. 153–160. Архивировано (PDF) из оригинала 20 октября 2019 г. Проверено 6 октября 2019 г.
  12. ^ Перейти обратно: а б Хинтон, GE (2009). «Сети глубоких убеждений» . Схоларпедия . 4 (5): 5947. Бибкод : 2009SchpJ...4.5947H . doi : 10.4249/scholarpedia.5947 .
  13. ^ Перейти обратно: а б с Цыбенко (1989). «Приближения суперпозициями сигмоидальных функций» (PDF) . Математика управления, сигналов и систем . 2 (4): 303–314. дои : 10.1007/bf02551274 . S2CID   3958369 . Архивировано из оригинала (PDF) 10 октября 2015 года.
  14. ^ Перейти обратно: а б с Хорник, Курт (1991). «Аппроксимационные возможности многослойных сетей прямого распространения». Нейронные сети . 4 (2): 251–257. дои : 10.1016/0893-6080(91)90009-т . S2CID   7343126 .
  15. ^ Перейти обратно: а б Хайкин, Саймон С. (1999). Нейронные сети: комплексная основа . Прентис Холл. ISBN  978-0-13-273350-2 .
  16. ^ Перейти обратно: а б Хассун, Мохамад Х. (1995). Основы искусственных нейронных сетей . МТИ Пресс. п. 48. ИСБН  978-0-262-08239-6 .
  17. ^ Перейти обратно: а б Лу З., Пу Х., Ван Ф., Ху З. и Ван Л. (2017). Выразительная сила нейронных сетей: взгляд со стороны. Архивировано 13 февраля 2019 г. на Wayback Machine . Нейронные системы обработки информации, 6231-6239.
  18. ^ Орхан, А.Е.; Ма, WJ (2017). «Эффективный вероятностный вывод в универсальных нейронных сетях, обученных с использованием невероятностной обратной связи» . Природные коммуникации . 8 (1): 138. Бибкод : 2017NatCo...8..138O . дои : 10.1038/s41467-017-00181-8 . ПМК   5527101 . ПМИД   28743932 .
  19. ^ Перейти обратно: а б с д Это Дэн, Л.; Ю, Д. (2014). «Глубокое обучение: методы и приложения» (PDF) . Основы и тенденции в области обработки сигналов . 7 (3–4): 1–199. дои : 10.1561/2000000039 . Архивировано (PDF) из оригинала 14 марта 2016 г. Проверено 18 октября 2014 г.
  20. ^ Перейти обратно: а б с д Мерфи, Кевин П. (24 августа 2012 г.). Машинное обучение: вероятностный взгляд . МТИ Пресс. ISBN  978-0-262-01802-9 .
  21. ^ Перейти обратно: а б Фукусима, К. (1969). «Визуальное извлечение признаков с помощью многослойной сети аналоговых пороговых элементов». Транзакции IEEE по системным наукам и кибернетике . 5 (4): 322–333. дои : 10.1109/TSSC.1969.300225 .
  22. ^ Сонода, Шо; Мурата, Нобору (2017). «Нейронная сеть с неограниченными функциями активации является универсальным аппроксиматором». Прикладной и вычислительный гармонический анализ . 43 (2): 233–268. arXiv : 1505.03654 . дои : 10.1016/j.acha.2015.12.005 . S2CID   12149203 .
  23. ^ Бишоп, Кристофер М. (2006). Распознавание образов и машинное обучение (PDF) . Спрингер. ISBN  978-0-387-31073-2 . Архивировано (PDF) из оригинала 11 января 2017 г. Проверено 6 августа 2017 г.
  24. ^ Браш, Стивен Г. (1967). «История модели Ленца-Изинга». Обзоры современной физики . 39 (4): 883–893. Бибкод : 1967РвМП...39..883Б . дои : 10.1103/RevModPhys.39.883 .
  25. ^ Амари, Сюн-Ичи (1972). «Обучение шаблонам и последовательностям шаблонов с помощью самоорганизующихся сетей пороговых элементов». IEEE-транзакции . С (21): 1197–1206.
  26. ^ Перейти обратно: а б с д Это ж г час я дж к л м н Шмидхубер, Юрген (2022). «Аннотированная история современного искусственного интеллекта и глубокого обучения». arXiv : 2212.11279 [ cs.NE ].
  27. ^ Хопфилд, Джей-Джей (1982). «Нейронные сети и физические системы с возникающими коллективными вычислительными способностями» . Труды Национальной академии наук . 79 (8): 2554–2558. Бибкод : 1982PNAS...79.2554H . дои : 10.1073/pnas.79.8.2554 . ПМЦ   346238 . ПМИД   6953413 .
  28. ^ Тапперт, Чарльз К. (2019). «Кто отец глубокого обучения?» . Международная конференция по вычислительной науке и вычислительному интеллекту (CSCI) 2019 . IEEE. стр. 343–348. дои : 10.1109/CSCI49370.2019.00067 . ISBN  978-1-7281-5584-5 . S2CID   216043128 . Проверено 31 мая 2021 г.
  29. ^ Перейти обратно: а б с Розенблатт, Франк (1962). Принципы нейродинамики . Спартан, Нью-Йорк.
  30. ^ Перейти обратно: а б Рина Дектер (1986). Обучение во время поиска в задачах ограничения-удовлетворения. Калифорнийский университет, факультет компьютерных наук, лаборатория когнитивных систем. Интернет- архив, заархивированный 19 апреля 2016 г., на Wayback Machine.
  31. ^ Фрадков, Александр Львович (01.01.2020). «Ранняя история машинного обучения» . IFAC-PapersOnLine . 21-й Всемирный конгресс МФБ. 53 (2): 1385–1390. doi : 10.1016/j.ifacol.2020.12.1888 . ISSN   2405-8963 . S2CID   235081987 .
  32. ^ Ивахненко А.Г.; Лапа, В.Г. (1967). Кибернетика и методы прогнозирования . американской издательской компании Elsevier ISBN  978-0-444-00020-0 .
  33. ^ Перейти обратно: а б Ивахненко, Алексей (1971). «Полиномиальная теория сложных систем» (PDF) . Транзакции IEEE по системам, человеку и кибернетике . СМК-1 (4): 364–378. дои : 10.1109/TSMC.1971.4308320 . Архивировано (PDF) из оригинала 29 августа 2017 г. Проверено 5 ноября 2019 г.
  34. ^ Роббинс, Х .; Монро, С. (1951). «Метод стохастической аппроксимации» . Анналы математической статистики . 22 (3): 400. дои : 10.1214/aoms/1177729586 .
  35. ^ Амари, Шуничи (1967). «Теория адаптивного классификатора шаблонов». IEEE-транзакции . ЕС (16): 279–307.
  36. ^ Мэтью Брэнд (1988) Машинное обучение и обучение мозга. Бакалаврская диссертация по методическим исследованиям Чикагского университета, 1988 г. Сообщено в Летнем лингвистическом институте Стэнфордского университета, 1987 г.
  37. ^ Линнаинмаа, Сеппо (1970). Представление совокупной ошибки округления алгоритма в виде разложения Тейлора локальных ошибок округления (Мастерс) (на финском языке). Университет Хельсинки. стр. 6–7.
  38. ^ Линнаинмаа, Сеппо (1976). «Разложение Тейлора накопленной ошибки округления». БИТ Численная математика . 16 (2): 146–160. дои : 10.1007/bf01931367 . S2CID   122357351 .
  39. ^ Гриванк, Андреас (2012). «Кто изобрел обратный способ дифференциации?» (PDF) . Документа Математика . Серия Documenta Mathematica (дополнительный том ISMP): 389–400. дои : 10.4171/dms/6/38 . ISBN  978-3-936609-58-5 . Архивировано из оригинала (PDF) 21 июля 2017 года . Проверено 11 июня 2017 г.
  40. ^ Лейбниц, Готфрид Вильгельм Фрайгер фон (1920). Ранние математические рукописи Лейбница: перевод с латинских текстов, опубликованных Карлом Иммануэлем Герхардтом с критическими и историческими примечаниями (Лейбниц опубликовал цепное правило в мемуарах 1676 года) . Издательство «Открытый суд». ISBN  9780598818461 .
  41. ^ Келли, Генри Дж. (1960). «Градиентная теория оптимальных траекторий полета». Журнал АРС . 30 (10): 947–954. дои : 10.2514/8.5282 .
  42. ^ Вербос, Пол (1982). «Применение достижений нелинейного анализа чувствительности». Системное моделирование и оптимизация . Спрингер. стр. 762–770.
  43. ^ Вербос, П. (1974). «За пределами регрессии: новые инструменты прогнозирования и анализа в поведенческих науках» . Гарвардский университет . Проверено 12 июня 2017 г.
  44. ^ Румельхарт, Дэвид Э., Джеффри Э. Хинтон и Р. Дж. Уильямс. « Изучение внутренних представлений путем распространения ошибок. Архивировано 13 октября 2022 г. в Wayback Machine ». Дэвид Э. Румельхарт, Джеймс Л. Макклелланд и исследовательская группа НДП. (редакторы), Параллельная распределенная обработка: Исследования микроструктуры познания, Том 1: Фонд. Массачусетский технологический институт Пресс, 1986.
  45. ^ Фукусима, К. (1980). «Неокогнитрон: самоорганизующаяся модель нейронной сети для механизма распознавания образов, на который не влияет сдвиг положения». Биол. Киберн . 36 (4): 193–202. дои : 10.1007/bf00344251 . ПМИД   7370364 . S2CID   206775608 .
  46. ^ Рамачандран, Праджит; Баррет, Зоф; Куок, В. Ле (16 октября 2017 г.). «Поиск функций активации». arXiv : 1710.05941 [ cs.NE ].
  47. ^ Айзенберг, Индиана; Айзенберг, Н.Н.; Вандевалле, Дж. (2000). Многозначные и универсальные бинарные нейроны . Научные и деловые СМИ. дои : 10.1007/978-1-4757-3115-6 . ISBN  978-0-7923-7824-2 . Проверено 27 декабря 2023 г.
  48. ^ Коэволюционирующие рекуррентные нейроны изучают POMDP глубокой памяти. Учеб. GECCO, Вашингтон, округ Колумбия, стр. 1795–1802, ACM Press, Нью-Йорк, Нью-Йорк, США, 2005 г.
  49. ^ Перейти обратно: а б Чжан, Вэй (1988). «Сдвиг-инвариантная нейронная сеть распознавания образов и ее оптическая архитектура» . Материалы ежегодной конференции Японского общества прикладной физики .
  50. ^ Чжан, Вэй (1990). «Модель параллельной распределенной обработки с локальными пространственно-инвариантными соединениями и ее оптическая архитектура» . Прикладная оптика . 29 (32): 4790–7. Бибкод : 1990ApOpt..29.4790Z . дои : 10.1364/AO.29.004790 . ПМИД   20577468 .
  51. ^ Перейти обратно: а б ЛеКун и др. , «Обратное распространение ошибки, примененное к распознаванию рукописного почтового индекса», Neural Computation , 1, стр. 541–551, 1989.
  52. ^ Чжан, Вэй (1991). «Обработка изображений эндотелия роговицы человека на основе обучающей сети» . Прикладная оптика . 30 (29): 4211–7. Бибкод : 1991ApOpt..30.4211Z . дои : 10.1364/AO.30.004211 . ПМИД   20706526 .
  53. ^ Чжан, Вэй (1994). «Компьютерное обнаружение кластерных микрокальцинатов на цифровых маммограммах с использованием инвариантной к сдвигу искусственной нейронной сети» . Медицинская физика . 21 (4): 517–24. Бибкод : 1994MedPh..21..517Z . дои : 10.1118/1.597177 . ПМИД   8058017 .
  54. ^ ЛеКун, Янн; Леон Ботту; Йошуа Бенджио; Патрик Хаффнер (1998). «Градиентное обучение, применяемое для распознавания документов» (PDF) . Труды IEEE . 86 (11): 2278–2324. CiteSeerX   10.1.1.32.9552 . дои : 10.1109/5.726791 . S2CID   14542261 . Проверено 7 октября 2016 г.
  55. ^ Перейти обратно: а б с Шмидхубер, Юрген (1992). «Обучение сложных, расширенных последовательностей с использованием принципа сжатия истории (на основе ТР ФКИ-148, 1991 г.)» (PDF) . Нейронные вычисления . 4 (2): 234–242. дои : 10.1162/neco.1992.4.2.234 . S2CID   18271205 . [ постоянная мертвая ссылка ]
  56. ^ Шмидхубер, Юрген (1993). Кандидатская диссертация (PDF) (на немецком языке). Архивировано из оригинала (PDF) 26 июня 2021 года.
  57. ^ Шмидхубер, Юрген (1 ноября 1992 г.). «Научимся контролировать быстрые воспоминания: альтернатива повторяющимся сетям». Нейронные вычисления . 4 (1): 131–139. дои : 10.1162/neco.1992.4.1.131 . S2CID   16683347 .
  58. ^ Перейти обратно: а б Шлаг, Иманол ; Ириэ, Кадзуки; Шмидхубер, Юрген (2021). «Линейные трансформаторы — тайно быстрые программисты веса». ICML 2021 . Спрингер. стр. 9355–9366.
  59. ^ Хороманский, Кшиштоф; Лихошерстов Валерий; Дохан, Дэвид; Сун, Синю; Гейн, Андреа; Сарлос, Тамас; Хокинс, Питер; Дэвис, Джаред; Мохиуддин, Афроз; Кайзер, Лукаш; Беланджер, Дэвид; Колвелл, Люси; Веллер, Адриан (2020). «Переосмысление внимания с исполнителями». arXiv : 2009.14794 [ cs.CL ].
  60. ^ Шмидхубер, Юрген (1993). «Уменьшение соотношения между сложностью обучения и количеством изменяющихся во времени переменных в полностью рекуррентных сетях». ИКАНН, 1993 год . Спрингер. стр. 460–463.
  61. ^ Васвани, Ашиш; Шазир, Ноам; Пармар, Ники; Ушкорейт, Якоб; Джонс, Лион; Гомес, Эйдан Н.; Кайзер, Лукаш; Полосухин, Илья (12 июня 2017 г.). «Внимание — это все, что вам нужно». arXiv : 1706.03762 [ cs.CL ].
  62. ^ Вольф, Томас; Дебют, Лисандра; Сан, Виктор; Шомон, Жюльен; Деланг, Клеман; Мой, Энтони; Систак, Пьеррик; Раулт, Тим; Луф, Реми; Фунтович, Морган; Дэвисон, Джо; Шлейфер, Сэм; фон Платен, Патрик; Ма, Клара; Джернит, Ясин; Плю, Жюльен; Сюй, Канвен; Ле Скао, Тевен; Гуггер, Сильвен; Драма, Мариама; Лоест, Квентин; Раш, Александр (2020). «Трансформеры: современная обработка естественного языка». Материалы конференции 2020 года по эмпирическим методам обработки естественного языка: системные демонстрации . стр. 38–45. doi : 10.18653/v1/2020.emnlp-demos.6 . S2CID   208117506 .
  63. ^ Шмидхубер, Юрген (1991). «Возможность реализовать любопытство и скуку в нейронных контроллерах для построения моделей». Учеб. САБ'1991 . MIT Press/Брэдфорд Букс. стр. 222–227.
  64. ^ Шмидхубер, Юрген (2010). «Формальная теория творчества, веселья и внутренней мотивации (1990–2010)». Транзакции IEEE по автономному умственному развитию . 2 (3): 230–247. дои : 10.1109/TAMD.2010.2056368 . S2CID   234198 .
  65. ^ Шмидхубер, Юрген (2020). «Генераторно-состязательные сети являются особыми случаями искусственного любопытства (1990), а также тесно связаны с минимизацией предсказуемости (1991)». Нейронные сети . 127 : 58–66. arXiv : 1906.04493 . doi : 10.1016/j.neunet.2020.04.008 . ПМИД   32334341 . S2CID   216056336 .
  66. ^ Гудфеллоу, Ян; Пуже-Абади, Жан; Мирза, Мехди; Сюй, Бин; Вард-Фарли, Дэвид; Озаир, Шерджил; Курвиль, Аарон; Бенджио, Йошуа (2014). Генеративно-состязательные сети (PDF) . Материалы Международной конференции по нейронным системам обработки информации (NIPS 2014). стр. 2672–2680. Архивировано (PDF) из оригинала 22 ноября 2019 года . Проверено 20 августа 2019 г.
  67. ^ «Готовьтесь, не паникуйте: синтетические медиа и дипфейки» . свидетель.орг. Архивировано из оригинала 2 декабря 2020 года . Проверено 25 ноября 2020 г.
  68. ^ «GAN 2.0: гиперреалистичный генератор лиц NVIDIA» . SyncedReview.com . 14 декабря 2018 года . Проверено 3 октября 2019 г.
  69. ^ Каррас, Т.; Айла, Т.; Лейн, С.; Лехтинен, Дж. (26 февраля 2018 г.). «Прогрессивное развитие GAN для повышения качества, стабильности и разнообразия». arXiv : 1710.10196 [ cs.NE ].
  70. ^ Перейти обратно: а б с Хохрайтер С., « Исследования по динамическим нейронным сетям ». Архивировано 6 марта 2015 г. в Wayback Machine . Дипломная работа. Институт компьютерных наук Технического университета Мюнхен. Советник: Дж. Шмидхубер , 1991 г.
  71. ^ Хохрейтер, С.; и другие. (15 января 2001 г.). «Градиентный поток в рекуррентных сетях: сложность изучения долгосрочных зависимостей» . В Колене, Джон Ф.; Кремер, Стефан К. (ред.). Полевое руководство по динамическим рекуррентным сетям . Джон Уайли и сыновья. ISBN  978-0-7803-5369-5 .
  72. ^ Перейти обратно: а б с Хохрейтер, Зепп; Шмидхубер, Юрген (1 ноября 1997 г.). «Долгая кратковременная память». Нейронные вычисления . 9 (8): 1735–1780. дои : 10.1162/neco.1997.9.8.1735 . ISSN   0899-7667 . ПМИД   9377276 . S2CID   1915014 .
  73. ^ Герс, Феликс; Шмидхубер, Юрген; Камминс, Фред (1999). «Учимся забывать: постоянное предсказание с помощью LSTM». 9-я Международная конференция по искусственным нейронным сетям: ICANN '99 . Том. 1999. стр. 850–855. дои : 10.1049/cp:19991218 . ISBN  0-85296-721-7 .
  74. ^ Шривастава, Рупеш Кумар; Грефф, Клаус; Шмидхубер, Юрген (2 мая 2015 г.). «Дорожные сети». arXiv : 1505.00387 [ cs.LG ].
  75. ^ Шривастава, Рупеш К; Грефф, Клаус; Шмидхубер, Юрген (2015). «Обучение очень глубоких сетей» . Достижения в области нейронных систем обработки информации . 28 . Curran Associates, Inc.: 2377–2385.
  76. ^ Он, Кайминг; Чжан, Сянъюй; Рен, Шаоцин; Сунь, Цзянь (2016). Глубокое остаточное обучение для распознавания изображений . Конференция IEEE 2016 по компьютерному зрению и распознаванию образов (CVPR) . Лас-Вегас, Невада, США: IEEE. стр. 770–778. arXiv : 1512.03385 . дои : 10.1109/CVPR.2016.90 . ISBN  978-1-4673-8851-1 .
  77. ^ де Карвальо, Андре CLF; Фэрхерст, Майк С.; Биссет, Дэвид (8 августа 1994 г.). «Интегрированная булева нейронная сеть для классификации шаблонов». Буквы для распознавания образов . 15 (8): 807–813. Бибкод : 1994PaReL..15..807D . дои : 10.1016/0167-8655(94)90009-4 .
  78. ^ Хинтон, Джеффри Э.; Даян, Питер; Фрей, Брендан Дж.; Нил, Рэдфорд (26 мая 1995 г.). «Алгоритм пробуждения-сна для неконтролируемых нейронных сетей». Наука . 268 (5214): 1158–1161. Бибкод : 1995Sci...268.1158H . дои : 10.1126/science.7761831 . ПМИД   7761831 . S2CID   871473 .
  79. ^ Бенке, Свен (2003). Иерархические нейронные сети для интерпретации изображений . Конспекты лекций по информатике. Том. 2766. Спрингер. дои : 10.1007/b11963 . ISBN  3-540-40722-7 . S2CID   1304548 .
  80. ^ Морган, Нельсон; Бурлар, Эрве; Реналс, Стив; Коэн, Майкл; Франко, Орасио (1 августа 1993 г.). «Гибридные нейронные сети/системы скрытых марковских моделей для распознавания непрерывной речи». Международный журнал распознавания образов и искусственного интеллекта . 07 (4): 899–916. дои : 10.1142/s0218001493000455 . ISSN   0218-0014 .
  81. ^ Робинсон, Т. (1992). «Система распознавания слов в сети распространения повторяющихся ошибок в реальном времени» . ИКАССП . Икасп'92: 617–620. ISBN  9780780305328 . Архивировано из оригинала 9 мая 2021 г. Проверено 12 июня 2017 г.
  82. ^ Вайбель, А.; Ханадзава, Т.; Хинтон, Г.; Сикано, К.; Ланг, К.Дж. (март 1989 г.). «Распознавание фонем с использованием нейронных сетей с задержкой» (PDF) . Транзакции IEEE по акустике, речи и обработке сигналов . 37 (3): 328–339. дои : 10.1109/29.21701 . hdl : 10338.dmlcz/135496 . ISSN   0096-3518 . S2CID   9563026 . Архивировано (PDF) из оригинала 27 апреля 2021 г. Проверено 24 сентября 2019 г.
  83. ^ Бейкер, Дж.; Дэн, Ли; Гласс, Джим; Худанпур, С.; Ли, Ч.-Х.; Морган, Н.; О'Шонесси, Д. (2009). «Научные разработки и направления в области распознавания и понимания речи, Часть 1». Журнал обработки сигналов IEEE . 26 (3): 75–80. Бибкод : 2009ISPM...26...75B . дои : 10.1109/msp.2009.932166 . hdl : 1721.1/51891 . S2CID   357467 .
  84. ^ Бенджио, Ю. (1991). «Искусственные нейронные сети и их применение для распознавания речи/последовательностей» . Доктор философии Университета Макгилла. Тезис. Архивировано из оригинала 9 мая 2021 г. Проверено 12 июня 2017 г.
  85. ^ Дэн, Л.; Хасанейн, К.; Элмасри, М. (1994). «Анализ корреляционной структуры модели нейронного прогнозирования с применением к распознаванию речи». Нейронные сети . 7 (2): 331–339. дои : 10.1016/0893-6080(94)90027-2 .
  86. ^ Доддингтон, Г.; Пшибоцкий, М.; Мартин, А.; Рейнольдс, Д. (2000). «Оценка распознавания ораторов NIST – Обзор, методология, системы, результаты, перспективы». Речевое общение . 31 (2): 225–254. дои : 10.1016/S0167-6393(99)00080-1 .
  87. ^ Перейти обратно: а б Черт возьми, Л.; Кениг, Ю.; Сонмез, М.; Вайнтрауб, М. (2000). «Устойчивость к искажениям телефонной трубки при распознавании говорящего посредством дискриминационного дизайна». Речевое общение . 31 (2): 181–192. дои : 10.1016/s0167-6393(99)00077-1 .
  88. ^ «Акустическое моделирование с помощью глубоких нейронных сетей с использованием необработанного сигнала времени для LVCSR (доступна загрузка в формате PDF)» . Исследовательские ворота . Архивировано из оригинала 9 мая 2021 года . Проверено 14 июня 2017 г.
  89. ^ Перейти обратно: а б Грейвс, Алекс; Эк, Дуглас; Беринджер, Николь; Шмидхубер, Юрген (2003). «Биологически правдоподобное распознавание речи с помощью нейронных сетей LSTM» (PDF) . 1-й международный Семинар по биологическим подходам к передовым информационным технологиям, Bio-ADIT 2004, Лозанна, Швейцария . стр. 175–184. Архивировано (PDF) из оригинала 9 мая 2021 г. Проверено 9 апреля 2016 г.
  90. ^ Перейти обратно: а б с Грейвс, Алекс ; Фернандес, Сантьяго; Гомес, Фаустино; Шмидхубер, Юрген (2006). «Временная классификация коннекционистов: маркировка данных несегментированных последовательностей с помощью рекуррентных нейронных сетей». Материалы Международной конференции по машинному обучению, ICML 2006 : 369–376. CiteSeerX   10.1.1.75.6306 .
  91. ^ Сантьяго Фернандес, Алекс Грейвс и Юрген Шмидхубер (2007). Применение рекуррентных нейронных сетей для различительного определения ключевых слов. Архивировано 18 ноября 2018 г. в Wayback Machine . Протоколы ICANN (2), стр. 220–229.
  92. ^ Перейти обратно: а б с Сак, Хашим; Старший, Эндрю; Рао, Канишка; Бофе, Франсуаза; Шалквик, Йохан (сентябрь 2015 г.). «Голосовой поиск Google: быстрее и точнее» . Архивировано из оригинала 9 марта 2016 г. Проверено 9 апреля 2016 г.
  93. ^ Янн ЛеКун (2016). Слайды по глубокому обучению в Интернете , заархивированные 23 апреля 2016 г. на Wayback Machine
  94. ^ Хинтон, Джеффри Э. (1 октября 2007 г.). «Изучение нескольких уровней представления» . Тенденции в когнитивных науках . 11 (10): 428–434. дои : 10.1016/j.tics.2007.09.004 . ISSN   1364-6613 . ПМИД   17921042 . S2CID   15066318 . Архивировано из оригинала 11 октября 2013 года . Проверено 12 июня 2017 г.
  95. ^ Хинтон, Джорджия ; Осиндеро, С.; Тех, YW (2006). «Алгоритм быстрого обучения для сетей глубокого доверия» (PDF) . Нейронные вычисления . 18 (7): 1527–1554. дои : 10.1162/neco.2006.18.7.1527 . ПМИД   16764513 . S2CID   2309950 . Архивировано (PDF) из оригинала 23 декабря 2015 г. Проверено 20 июля 2011 г.
  96. ^ Бенджио, Йошуа (2012). «Практические рекомендации по градиентному обучению глубоких архитектур». arXiv : 1206.5533 [ cs.LG ].
  97. ^ Дж. Э. Хинтон., « Изучение нескольких уровней представления ». Архивировано 22 мая 2018 г. в Wayback Machine . Тенденции в когнитивных науках , 11, стр. 428–434, 2007 г.
  98. ^ Перейти обратно: а б с Хинтон, Г.; Дэн, Л.; Ю, Д.; Даль, Г.; Мохамед, А.; Джейтли, Н.; Старший, А.; Ванхук, В.; Нгуен, П.; Сайнат, Т. ; Кингсбери, Б. (2012). «Глубокие нейронные сети для акустического моделирования в распознавании речи: общие взгляды четырех исследовательских групп». Журнал обработки сигналов IEEE . 29 (6): 82–97. Бибкод : 2012ISPM...29...82H . дои : 10.1109/msp.2012.2205597 . S2CID   206485943 .
  99. ^ Перейти обратно: а б с Дэн, Л.; Хинтон, Г.; Кингсбери, Б. (май 2013 г.). «Новые типы глубокого обучения нейронных сетей для распознавания речи и связанных с ним приложений: обзор (ICASSP)» (PDF) . Майкрософт. Архивировано (PDF) из оригинала 26 сентября 2017 г. Проверено 27 декабря 2023 г.
  100. ^ Перейти обратно: а б с Ю, Д.; Дэн, Л. (2014). Автоматическое распознавание речи: подход к глубокому обучению (Издатель: Springer) . Спрингер. ISBN  978-1-4471-5779-3 .
  101. ^ «Дэн получает престижную награду IEEE за технические достижения — Microsoft Research» . Исследования Майкрософт . 3 декабря 2015 г. Архивировано из оригинала 16 марта 2018 г. Проверено 16 марта 2018 г.
  102. ^ Перейти обратно: а б Ли, Дэн (сентябрь 2014 г.). «Основной доклад: «Достижения и проблемы глубокого обучения — от анализа и распознавания речи до языка и мультимодальной обработки» » . Интерспич . Архивировано из оригинала 26 сентября 2017 г. Проверено 12 июня 2017 г.
  103. ^ Ю, Д.; Дэн, Л. (2010). «Роль предварительного обучения и тонкой настройки контекстно-зависимых DBN-HMM для реального распознавания речи» . Семинар NIPS по глубокому обучению и обучению функций без учителя . Архивировано из оригинала 12 октября 2017 г. Проверено 14 июня 2017 г.
  104. ^ Сейде, Ф.; Ли, Г.; Ю, Д. (2011). «Транскрипция разговорной речи с использованием контекстно-зависимых глубоких нейронных сетей» . Интерспич : 437–440. doi : 10.21437/Interspeech.2011-169 . S2CID   398770 . Архивировано из оригинала 12 октября 2017 г. Проверено 14 июня 2017 г.
  105. ^ Дэн, Ли; Ли, Цзиньюй; Хуан, Цзюй-Тин; Яо, Кайшэн; Ю, Донг; Сейде, Фрэнк; Зельцер, Майк; Цвейг, Джефф; Хэ, Сяодун (1 мая 2013 г.). «Последние достижения в области глубокого обучения для исследования речи в Microsoft» . Исследования Майкрософт . Архивировано из оригинала 12 октября 2017 года . Проверено 14 июня 2017 г.
  106. ^ Сингх, Премджит; Саха, Гутам; Сахидулла, Мэриленд (2021). «Нелинейное искажение частоты с использованием преобразования с постоянной добротностью для распознавания речевых эмоций». Международная конференция по компьютерной связи и информатике (ICCCI) 2021 . стр. 1–4. arXiv : 2102.04029 . дои : 10.1109/ICCCI50826.2021.9402569 . ISBN  978-1-7281-5875-4 . S2CID   231846518 .
  107. ^ Сак, Хасим; Старший, Эндрю; Бофе, Франсуаза (2014). «Архитектуры рекуррентных нейронных сетей с долгосрочной кратковременной памятью для крупномасштабного акустического моделирования» (PDF) . Архивировано из оригинала (PDF) 24 апреля 2018 года.
  108. ^ Ли, Сянган; Ву, Сихун (2014). «Построение глубоких рекуррентных нейронных сетей на основе долговременной памяти для распознавания речи с большим словарным запасом». arXiv : 1410.4281 [ cs.CL ].
  109. ^ Дзен, Хейга; Сак, Хасим (2015). «Однонаправленная рекуррентная нейронная сеть с долговременной краткосрочной памятью и рекуррентным выходным слоем для синтеза речи с малой задержкой» (PDF) . Google.com . ИКАССП. стр. 4470–4474. Архивировано (PDF) из оригинала 9 мая 2021 г. Проверено 13 июня 2017 г.
  110. ^ «Генеральный директор NVIDIA делает ставку на глубокое обучение и виртуальную реальность» . Венчурный бит . 5 апреля 2016 г. Архивировано из оригинала 25 ноября 2020 г. . Проверено 21 апреля 2017 г.
  111. ^ «От неработы к нейронным сетям» . Экономист . Архивировано из оригинала 31 декабря 2016 г. Проверено 26 августа 2017 г.
  112. ^ Перейти обратно: а б Ох, К.-С.; Юнг, К. (2004). «ГПУ-реализация нейронных сетей». Распознавание образов . 37 (6): 1311–1314. Бибкод : 2004PatRe..37.1311O . дои : 10.1016/j.patcog.2004.01.013 .
  113. ^ « Обзор методов оптимизации глубокого обучения на графических процессорах, заархивировано 9 мая 2021 г. в Wayback Machine », С. Миттал и С. Вайшай, Журнал системной архитектуры, 2019 г.
  114. ^ Перейти обратно: а б Челлапилья, Кумар; Пури, Сидд; Симард, Патрис (2006), Высокопроизводительные сверточные нейронные сети для обработки документов , заархивировано из оригинала 18 мая 2020 г. , получено 14 февраля 2021 г.
  115. ^ Чирешан, Дэн Клаудиу; Мейер, Ули; Гамбарделла, Лука Мария; Шмидхубер, Юрген (21 сентября 2010 г.). «Глубокие, большие и простые нейронные сети для распознавания рукописных цифр». Нейронные вычисления . 22 (12): 3207–3220. arXiv : 1003.0358 . дои : 10.1162/neco_a_00052 . ISSN   0899-7667 . ПМИД   20858131 . S2CID   1918673 .
  116. ^ Райна, Раджат; Мадхаван, Ананд; Нг, Эндрю Ю. (2009). «Масштабное глубокое обучение без учителя с использованием графических процессоров». Материалы 26-й ежегодной международной конференции по машинному обучению . ICML '09. Нью-Йорк, штат Нью-Йорк, США: ACM. стр. 873–880. CiteSeerX   10.1.1.154.372 . дои : 10.1145/1553374.1553486 . ISBN  9781605585161 . S2CID   392458 .
  117. ^ Сзе, Вивьен ; Чен, Ю-Синь; Ян, Тянь-Джу; Эмер, Джоэл (2017). «Эффективная обработка глубоких нейронных сетей: учебное пособие и обзор». arXiv : 1703.09039 [ cs.CV ].
  118. ^ Грейвс, Алекс; и Шмидхубер, Юрген; Автономное распознавание рукописного ввода с помощью многомерных рекуррентных нейронных сетей , Бенджио, Йошуа; Шурманс, Дейл; Лафферти, Джон; Уильямс, Крис К.И.; и Кулотта, Арон (ред.), « Достижения в области систем нейронной обработки информации 22» (NIPS'22), 7–10 декабря 2009 г., Ванкувер, Британская Колумбия , Фонд систем нейронной обработки информации (NIPS), 2009 г., стр. 545–552.
  119. ^ Блог исследований Google. Нейронные сети, лежащие в основе транскрипции Google Voice. 11 августа 2015 г. Автор: Франсуаза Бофе http://googleresearch.blogspot.co.at/2015/08/the-neural-networks-behind-google-voice.html
  120. ^ Чиресан, округ Колумбия; Мейер, У.; Маски, Дж.; Гамбарделла, LM; Шмидхубер, Дж. (2011). «Гибкие, высокопроизводительные сверточные нейронные сети для классификации изображений» (PDF) . Международная совместная конференция по искусственному интеллекту . дои : 10.5591/978-1-57735-516-8/ijcai11-210 . Архивировано (PDF) из оригинала 29 сентября 2014 г. Проверено 13 июня 2017 г.
  121. ^ Чиресан, Дэн; Джусти, Алессандро; Гамбарделла, Лука М.; Шмидхубер, Юрген (2012). Перейра, Ф.; Берджес, CJC; Ботту, Л.; Вайнбергер, KQ (ред.). Достижения в области нейронных систем обработки информации 25 (PDF) . Curran Associates, Inc., стр. 2843–2851. Архивировано (PDF) из оригинала 9 августа 2017 г. Проверено 13 июня 2017 г.
  122. ^ Ciresan, D.; Giusti, A.; Gambardella, L.M.; Schmidhuber, J. (2013). "Mitosis Detection in Breast Cancer Histology Images with Deep Neural Networks". Medical Image Computing and Computer-Assisted Intervention – MICCAI 2013. Lecture Notes in Computer Science. Vol. 7908. pp. 411–418. doi:10.1007/978-3-642-40763-5_51. ISBN 978-3-642-38708-1. PMID 24579167.
  123. ^ Simonyan, Karen; Andrew, Zisserman (2014). "Very Deep Convolution Networks for Large Scale Image Recognition". arXiv:1409.1556 [cs.CV].
  124. ^ Vinyals, Oriol; Toshev, Alexander; Bengio, Samy; Erhan, Dumitru (2014). "Show and Tell: A Neural Image Caption Generator". arXiv:1411.4555 [cs.CV]..
  125. ^ Fang, Hao; Gupta, Saurabh; Iandola, Forrest; Srivastava, Rupesh; Deng, Li; Dollár, Piotr; Gao, Jianfeng; He, Xiaodong; Mitchell, Margaret; Platt, John C; Lawrence Zitnick, C; Zweig, Geoffrey (2014). "From Captions to Visual Concepts and Back". arXiv:1411.4952 [cs.CV]..
  126. ^ Kiros, Ryan; Salakhutdinov, Ruslan; Zemel, Richard S (2014). "Unifying Visual-Semantic Embeddings with Multimodal Neural Language Models". arXiv:1411.2539 [cs.LG]..
  127. ^ Jump up to: a b "Merck Molecular Activity Challenge". kaggle.com. Archived from the original on 2020-07-16. Retrieved 2020-07-16.
  128. ^ Jump up to: a b "Multi-task Neural Networks for QSAR Predictions | Data Science Association". www.datascienceassn.org. Archived from the original on 30 April 2017. Retrieved 14 June 2017.
  129. ^ Jump up to: a b "Toxicology in the 21st century Data Challenge"
  130. ^ Jump up to: a b "NCATS Announces Tox21 Data Challenge Winners". Archived from the original on 2015-09-08. Retrieved 2015-03-05.
  131. ^ Jump up to: a b "NCATS Announces Tox21 Data Challenge Winners". Archived from the original on 28 February 2015. Retrieved 5 March 2015.
  132. ^ "Why Deep Learning Is Suddenly Changing Your Life". Fortune. 2016. Archived from the original on 14 April 2018. Retrieved 13 April 2018.
  133. ^ Ferrie, C., & Kaiser, S. (2019). Neural Networks for Babies. Sourcebooks. ISBN 978-1492671206.{{cite book}}: CS1 maint: multiple names: authors list (link)
  134. ^ Silver, David; Huang, Aja; Maddison, Chris J.; Guez, Arthur; Sifre, Laurent; Driessche, George van den; Schrittwieser, Julian; Antonoglou, Ioannis; Panneershelvam, Veda (January 2016). "Mastering the game of Go with deep neural networks and tree search". Nature. 529 (7587): 484–489. Bibcode:2016Natur.529..484S. doi:10.1038/nature16961. ISSN 1476-4687. PMID 26819042. S2CID 515925.
  135. ^ A Guide to Deep Learning and Neural Networks, archived from the original on 2020-11-02, retrieved 2020-11-16
  136. ^ Szegedy, Christian; Toshev, Alexander; Erhan, Dumitru (2013). "Deep neural networks for object detection". Advances in Neural Information Processing Systems: 2553–2561. Archived from the original on 2017-06-29. Retrieved 2017-06-13.
  137. ^ Rolnick, David; Tegmark, Max (2018). "The power of deeper networks for expressing natural functions". International Conference on Learning Representations. ICLR 2018. Archived from the original on 2021-01-07. Retrieved 2021-01-05.
  138. ^ Hof, Robert D. "Is Artificial Intelligence Finally Coming into Its Own?". MIT Technology Review. Archived from the original on 31 March 2019. Retrieved 10 July 2018.
  139. ^ Jump up to: a b Gers, Felix A.; Schmidhuber, Jürgen (2001). "LSTM Recurrent Networks Learn Simple Context Free and Context Sensitive Languages". IEEE Transactions on Neural Networks. 12 (6): 1333–1340. doi:10.1109/72.963769. PMID 18249962. S2CID 10192330. Archived from the original on 2020-01-26. Retrieved 2020-02-25.
  140. ^ Перейти обратно: а б с Суцкевер, Л.; Виньялс, О.; Ле, К. (2014). «Последовательное обучение с помощью нейронных сетей» (PDF) . Учеб. НИПС . arXiv : 1409.3215 . Бибкод : 2014arXiv1409.3215S . Архивировано (PDF) из оригинала 9 мая 2021 г. Проверено 13 июня 2017 г.
  141. ^ Перейти обратно: а б Йозефович, Рафаль; Виньялс, Ориол; Шустер, Майк; Шазир, Ноам; Ву, Юнхуэй (2016). «Изучение пределов языкового моделирования». arXiv : 1602.02410 [ cs.CL ].
  142. ^ Перейти обратно: а б Гиллик, Дэн; Бранк, Клифф; Виньялс, Ориол; Субраманья, Амарнаг (2015). «Многоязычная языковая обработка из байтов». arXiv : 1512.00103 [ cs.CL ].
  143. ^ Миколов Т.; и другие. (2010). «Языковая модель на основе рекуррентной нейронной сети» (PDF) . Интерспич : 1045–1048. doi : 10.21437/Interspeech.2010-343 . S2CID   17048224 . Архивировано (PDF) из оригинала 16 мая 2017 г. Проверено 13 июня 2017 г.
  144. ^ Перейти обратно: а б «Изучение точного времени с помощью рекуррентных сетей LSTM (доступна загрузка в формате PDF)» . Исследовательские ворота . Архивировано из оригинала 9 мая 2021 года . Проверено 13 июня 2017 г.
  145. ^ ЛеКун, Ю.; и другие. (1998). «Градиентное обучение применительно к распознаванию документов» . Труды IEEE . 86 (11): 2278–2324. дои : 10.1109/5.726791 . S2CID   14542261 .
  146. ^ Сайнат, Тара Н .; Мохамед, Абдель-Рахман; Кингсбери, Брайан; Рамабхадран, Бхувана (2013). «Глубокие сверточные нейронные сети для LVCSR». Международная конференция IEEE 2013 по акустике, речи и обработке сигналов . стр. 8614–8618. дои : 10.1109/icassp.2013.6639347 . ISBN  978-1-4799-0356-6 . S2CID   13816461 .
  147. ^ Бенджио, Йошуа; Буланже-Левандовски, Николя; Паскану, Разван (2013). «Достижения в оптимизации рекуррентных сетей». Международная конференция IEEE 2013 по акустике, речи и обработке сигналов . стр. 8624–8628. arXiv : 1212.0901 . CiteSeerX   10.1.1.752.9151 . дои : 10.1109/icassp.2013.6639349 . ISBN  978-1-4799-0356-6 . S2CID   12485056 .
  148. ^ Даль, Г.; и другие. (2013). «Улучшение DNN для LVCSR с использованием выпрямленных линейных единиц и исключения» (PDF) . ИКАССП . Архивировано (PDF) из оригинала 12 августа 2017 г. Проверено 13 июня 2017 г.
  149. ^ «Расширение данных — deeplearning.ai | Coursera» . Курсера . Архивировано из оригинала 1 декабря 2017 года . Проверено 30 ноября 2017 г.
  150. ^ Хинтон, GE (2010). «Практическое руководство по обучению ограниченных машин Больцмана» . Тех. Реп. УТМЛ ТР 2010-003 . Архивировано из оригинала 9 мая 2021 г. Проверено 13 июня 2017 г.
  151. ^ Ты, Ян; Булуч, Айдын; Деммель, Джеймс (ноябрь 2017 г.). «Масштабирование глубокого обучения на графических процессорах и кластерах рыцарей» . Материалы Международной конференции по высокопроизводительным вычислениям, сетям, хранению и анализу - SC '17 . СЦ '17, АКМ. стр. 1–12. дои : 10.1145/3126908.3126912 . ISBN  9781450351140 . S2CID   8869270 . Архивировано из оригинала 29 июля 2020 года . Проверено 5 марта 2018 г.
  152. ^ Вибке, Андре; Мемети, Суэйб; Планана, Сабри; Авраам, Аджит (2019). «ХАОС: схема распараллеливания для обучения сверточных нейронных сетей на Intel Xeon Phi». Журнал суперкомпьютеров . 75 : 197–227. arXiv : 1702.07908 . Бибкод : 2017arXiv170207908V . дои : 10.1007/s11227-017-1994-x . S2CID   14135321 .
  153. ^ Тин Цинь и др. «Алгоритм обучения CMAC на основе RLS». Письма о нейронной обработке 19.1 (2004): 49-61.
  154. ^ Тин Цинь и др. « Непрерывный CMAC-QRLS и его систолический массив ». Архивировано 18 ноября 2018 г. в Wayback Machine . Письма о нейронной обработке 22.1 (2005): 1-16.
  155. ^ Исследования, AI (23 октября 2015 г.). «Глубокие нейронные сети для акустического моделирования в распознавании речи» . airesearch.com . Архивировано из оригинала 1 февраля 2016 года . Проверено 23 октября 2015 г.
  156. ^ «Графические процессоры продолжают доминировать на рынке ускорителей искусственного интеллекта» . Информационная неделя . Декабрь 2019. Архивировано из оригинала 10 июня 2020 года . Проверено 11 июня 2020 г.
  157. ^ Рэй, Тирнан (2019). «ИИ меняет всю природу вычислений» . ЗДНет . Архивировано из оригинала 25 мая 2020 года . Проверено 11 июня 2020 г.
  158. ^ «ИИ и вычисления» . ОпенАИ . 16 мая 2018 г. Архивировано из оригинала 17 июня 2020 г. . Проверено 11 июня 2020 г.
  159. ^ «HUAWEI раскрывает будущее мобильного искусственного интеллекта на IFA 2017 | Последние новости HUAWEI | HUAWEI Global» . потребитель.huawei.com .
  160. ^ П, Жуппи Норман; ЯнгКлифф; ПатилНишант; ПаттерсонДэвид; Агравал Гаурав; БаджваРаминдер; БейтсСара; Бхатия Суреш; БоденНан; БорчерсАл; БойлРик (24 июня 2017 г.). «Анализ производительности тензорного процессора в центре обработки данных» . Новости компьютерной архитектуры ACM SIGARCH . 45 (2): 1–12. arXiv : 1704.04760 . дои : 10.1145/3140659.3080246 .
  161. ^ Вуди, Алекс (01 ноября 2021 г.). «Cerebras использует ускоритель для рабочих нагрузок глубокого обучения» . Датанами . Проверено 3 августа 2022 г.
  162. ^ «Cerebras запускает новый суперкомпьютерный процессор искусственного интеллекта с 2,6 триллионами транзисторов» . ВенчурБит . 20 апреля 2021 г. Проверено 3 августа 2022 г.
  163. ^ Марега, Гильерме Мильято; Чжао, Яньфэй; Авсар, Ахмет; Ван, Чжэньюй; Трипати, Мукеш; Раденович, Александра; Кис, Анрас (2020). «Логика в памяти на основе атомарно тонкого полупроводника» . Природа . 587 (2): 72–77. Бибкод : 2020Природа.587...72М . дои : 10.1038/s41586-020-2861-0 . ПМК   7116757 . ПМИД   33149289 .
  164. ^ Перейти обратно: а б с Фельдманн, Дж.; Янгблад, Н.; Карпов, М.; и другие. (2021). «Параллельная сверточная обработка с использованием интегрированного фотонного тензора». Природа . 589 (2): 52–58. arXiv : 2002.00281 . дои : 10.1038/s41586-020-03070-1 . ПМИД   33408373 . S2CID   211010976 .
  165. ^ Гарофоло, Дж.С.; Ламель, ЛФ; Фишер, В.М.; Фискус, Дж. Г.; Паллетт, Д.С.; Дальгрен, Нидерланды; Зуэ, В. (1993). ТИМИТ Акустико-фонетический корпус непрерывной речи . Консорциум лингвистических данных. дои : 10.35111/17gk-bn40 . ISBN  1-58563-019-5 . Проверено 27 декабря 2023 г.
  166. ^ Робинсон, Тони (30 сентября 1991 г.). «Несколько улучшений в системе распознавания сетевых телефонов с распространением периодических ошибок». Технический отчет инженерного факультета Кембриджского университета . CUED/F-INFENG/TR82. дои : 10.13140/RG.2.2.15418.90567 .
  167. ^ Абдель-Хамид, О.; и другие. (2014). «Сверточные нейронные сети для распознавания речи» . Транзакции IEEE/ACM по обработке звука, речи и языка . 22 (10): 1533–1545. дои : 10.1109/taslp.2014.2339736 . S2CID   206602362 . Архивировано из оригинала 22 сентября 2020 г. Проверено 20 апреля 2018 г.
  168. ^ Дэн, Л.; Платт, Дж. (2014). «Ансамбль глубокого обучения для распознавания речи». Учеб. Интерспич : 1915–1919. doi : 10.21437/Interspeech.2014-433 . S2CID   15641618 .
  169. ^ Тот, Ласло (2015). «Распознавание телефона с помощью иерархических сверточных сетей Deep Maxout» (PDF) . Журнал EURASIP по обработке звука, речи и музыки . 2015 . дои : 10.1186/s13636-015-0068-3 . S2CID   217950236 . Архивировано (PDF) из оригинала 24 сентября 2020 г. Проверено 1 апреля 2019 г.
  170. ^ Макмиллан, Роберт (17 декабря 2014 г.). «Как Skype использовал искусственный интеллект для создания своего удивительного нового языкового переводчика | WIRED» . Проводной . Архивировано из оригинала 8 июня 2017 года . Проверено 14 июня 2017 г.
  171. ^ Ханнун, Ауни; Кейс, Карл; Каспер, Джаред; Катандзаро, Брайан; Диамос, Грег; Элсен, Эрих; Пренгер, Райан; Сатиш, Санджив; Сенгупта, Шубхо; Коутс, Адам; Нг, Эндрю Ю (2014). «Глубокая речь: расширение сквозного распознавания речи». arXiv : 1412.5567 [ cs.CL ].
  172. ^ «База данных рукописных цифр MNIST, Ян ЛеКун, Коринна Кортес и Крис Берджес» . yann.lecun.com . Архивировано из оригинала 13 января 2014 г. Проверено 28 января 2014 г.
  173. ^ Чирешан, Дэн; Мейер, Ули; Маски, Джонатан; Шмидхубер, Юрген (август 2012 г.). «Многостолбцовая глубокая нейронная сеть для классификации дорожных знаков». Нейронные сети . Избранные статьи IJCNN 2011. 32 : 333–338. CiteSeerX   10.1.1.226.8219 . дои : 10.1016/j.neunet.2012.02.023 . ПМИД   22386783 .
  174. ^ Чаочао Лу; Сяоу Тан (2014). «Превосходящее распознавание лиц на человеческом уровне». arXiv : 1404.3840 [ cs.CV ].
  175. ^ Nvidia демонстрирует автомобильный компьютер, обученный с помощью «глубокого обучения» (6 января 2015 г.), Дэвид Талбот, MIT Technology Review
  176. ^ Перейти обратно: а б с Г.В. Смит; Фредерик Фол Леймари (10 апреля 2017 г.). «Машина как художник: Введение» . Искусство . 6 (4): 5. doi : 10.3390/arts6020005 .
  177. ^ Перейти обратно: а б с Блез Агуэра-и-Аркас (29 сентября 2017 г.). «Искусство в эпоху машинного интеллекта» . Искусство . 6 (4): 18. дои : 10.3390/arts6040018 .
  178. ^ Гольдберг, Йоав; Леви, Омар (2014). «Объяснение word2vec: получение метода встраивания слов с отрицательной выборкой Миколова и др.» . arXiv : 1402.3722 [ cs.CL ].
  179. ^ Перейти обратно: а б Сошер, Ричард; Мэннинг, Кристофер. «Глубокое обучение для НЛП» (PDF) . Архивировано (PDF) из оригинала 6 июля 2014 года . Проверено 26 октября 2014 г.
  180. ^ Сошер, Ричард; Бауэр, Джон; Мэннинг, Кристофер; Нг, Эндрю (2013). «Разбор с помощью композиционных векторных грамматик» (PDF) . Материалы конференции ACL 2013 . Архивировано (PDF) из оригинала 27 ноября 2014 г. Проверено 3 сентября 2014 г.
  181. ^ Сочер, Р.; Перелыгин А.; Ву, Дж.; Чуанг, Дж.; Мэннинг, CD; Нг, А.; Поттс, К. (октябрь 2013 г.). «Рекурсивные глубокие модели семантической композиционности в древовидном банке настроений» (PDF) . Материалы конференции 2013 года по эмпирическим методам обработки естественного языка . Ассоциация компьютерной лингвистики. Архивировано (PDF) из оригинала 28 декабря 2016 года . Проверено 21 декабря 2023 г.
  182. ^ Шен, Йелун; Он, Сяодун; Гао, Цзяньфэн; Дэн, Ли; Мениль, Грегуар (1 ноября 2014 г.). «Скрытая семантическая модель со структурой сверточного пула для поиска информации» . Исследования Майкрософт . Архивировано из оригинала 27 октября 2017 года . Проверено 14 июня 2017 г.
  183. ^ Хуанг, По-Сен; Он, Сяодун; Гао, Цзяньфэн; Дэн, Ли; Асеро, Алекс; Черт возьми, Ларри (1 октября 2013 г.). «Изучение глубоко структурированных семантических моделей для веб-поиска с использованием данных о кликах» . Исследования Майкрософт . Архивировано из оригинала 27 октября 2017 года . Проверено 14 июня 2017 г.
  184. ^ Мениль, Г.; Дофин, Ю.; Яо, К.; Бенджио, Ю.; Дэн, Л.; Хаккани-Тур, Д.; Он, Х.; Черт возьми, Л.; Тур, Г.; Ю, Д.; Цвейг, Г. (2015). «Использование рекуррентных нейронных сетей для заполнения слотов в понимании разговорной речи». Транзакции IEEE по обработке звука, речи и языка . 23 (3): 530–539. дои : 10.1109/taslp.2014.2383614 . S2CID   1317136 .
  185. ^ Перейти обратно: а б Гао, Цзяньфэн; Он, Сяодун; Да, Скотт Вен-тау; Дэн, Ли (1 июня 2014 г.). «Изучение представлений непрерывных фраз для моделирования перевода» . Исследования Майкрософт . Архивировано из оригинала 27 октября 2017 года . Проверено 14 июня 2017 г.
  186. ^ Брокардо, Марсело Луис; Траоре, Исса; Вунганг, Исаак; Обайдат, Мохаммад С. (2017). «Проверка авторства с использованием сетевых систем глубокого доверия». Международный журнал систем связи . 30 (12): е3259. дои : 10.1002/dac.3259 . S2CID   40745740 .
  187. ^ Кариампужа, Уильям; Алия, Джоконда; Цюй, Сью; Санджак, Джалеал; Мате, Эви; Сид, Эрик; Шатлен, Хейли; Ядо, Арджун; Сюй, Яньцзи; Чжу, Цянь (2023). «Точное извлечение информации для масштабной эпидемиологии редких заболеваний» . Журнал трансляционной медицины . 21 (1): 157. doi : 10.1186/s12967-023-04011-y . ПМЦ   9972634 . ПМИД   36855134 .
  188. ^ «Глубокое обучение для обработки естественного языка: теория и практика (учебное пособие CIKM2014) — Microsoft Research» . Исследования Майкрософт . Архивировано из оригинала 13 марта 2017 года . Проверено 14 июня 2017 г.
  189. ^ Туровский, Барак (15 ноября 2016 г.). «Найдено в переводе: более точные и беглые предложения в Google Translate» . Ключевое слово Блог Google . Архивировано из оригинала 7 апреля 2017 года . Проверено 23 марта 2017 г.
  190. ^ Перейти обратно: а б с д Шустер, Майк; Джонсон, Мелвин; Торат, Нихил (22 ноября 2016 г.). «Нулевой перевод с помощью многоязычной нейронной системы машинного перевода Google» . Блог исследований Google . Архивировано из оригинала 10 июля 2017 года . Проверено 23 марта 2017 г.
  191. ^ Ву, Юнхуэй; Шустер, Майк; Чен, Чжифэн; Ле, Куок V; Норузи, Мохаммед; Машери, Вольфганг; Крикун, Максим; Цао, Юань; Гао, Цинь; Машери, Клаус; Клингнер, Джефф; Шах, Апурва; Джонсон, Мелвин; Лю, Сяобин; Кайзер, Лукаш; Гаус, Стефан; Като, Ёсикиё; Кудо, Таку; Казава, Хидето; Стивенс, Кейт; Куриан, Джордж; Патил, Нишант; Ван, Вэй; Янг, Клифф; Смит, Джейсон; Риза, Джейсон; Рудник, Алекс; Виньялс, Ориол; Коррадо, Грег; и другие. (2016). «Система нейронного машинного перевода Google: преодоление разрыва между человеческим и машинным переводом». arXiv : 1609.08144 [ cs.CL ].
  192. ^ Мец, Кейд (27 сентября 2016 г.). «Внедрение искусственного интеллекта делает Google Translate более мощным, чем когда-либо» . Проводной . Архивировано из оригинала 8 ноября 2020 года . Проверено 12 октября 2017 г.
  193. ^ Перейти обратно: а б Бойте, Кристиан; Бланшон, Эрве; Селигман, Марк; Беллинк, Валери (2010). «MT для Интернета» (PDF) . Архивировано из оригинала (PDF) 29 марта 2017 года . Проверено 1 декабря 2016 г.
  194. ^ Эроусмит, Дж; Миллер, П. (2013). «Пробное наблюдение: темпы отсева на этапах II и III в 2011–2012 годах» . Nature Reviews Открытие лекарств . 12 (8): 569. дои : 10.1038/nrd4090 . ПМИД   23903212 . S2CID   20246434 .
  195. ^ Вербист, Б; Кламбауэр, Г; Верворт, Л; Таллоен, В; Qstar, Консорциум; Шкеди, З; Это, О; Бендер, А; Гёльманн, Х.В.; Хохрейтер, С (2015). «Использование транскриптомики для оптимизации потенциальных клиентов в проектах по открытию лекарств: уроки, извлеченные из проекта QSTAR» . Открытие наркотиков сегодня . 20 (5): 505–513. дои : 10.1016/j.drudis.2014.12.014 . HDL : 1942/18723 . ПМИД   25582842 .
  196. ^ Валлах, Ижар; Дзамба, Майкл; Хейфец, Авраам (9 октября 2015 г.). «AtomNet: глубокая сверточная нейронная сеть для прогнозирования биологической активности при открытии лекарств на основе структуры». arXiv : 1510.02855 [ cs.LG ].
  197. ^ Перейти обратно: а б «У стартапа из Торонто есть более быстрый способ найти эффективные лекарства» . Глобус и почта . Архивировано из оригинала 20 октября 2015 года . Проверено 9 ноября 2015 г.
  198. ^ «Стартап использует суперкомпьютеры для поиска лекарств» . KQED Ваше будущее . 27 мая 2015 года. Архивировано из оригинала 24 декабря 2015 года . Проверено 9 ноября 2015 г.
  199. ^ Гилмер, Джастин; Шенхольц, Сэмюэл С.; Райли, Патрик Ф.; Виньялс, Ориол; Даль, Джордж Э. (12 июня 2017 г.). «Нейронная передача сообщений в квантовой химии». arXiv : 1704.01212 [ cs.LG ].
  200. ^ Жаворонков, Алексей (2019). «Глубокое обучение позволяет быстро идентифицировать мощные ингибиторы киназы DDR1». Природная биотехнология . 37 (9): 1038–1040. дои : 10.1038/s41587-019-0224-x . ПМИД   31477924 . S2CID   201716327 .
  201. ^ Грегори, Барбер. «Молекула, созданная искусственным интеллектом, обладает свойствами, подобными лекарству» . Проводной . Архивировано из оригинала 30 апреля 2020 г. Проверено 5 сентября 2019 г.
  202. ^ Ткаченко, Егор (8 апреля 2015 г.). «Автономное управление CRM посредством приближения CLV с глубоким обучением с подкреплением в пространстве дискретных и непрерывных действий». arXiv : 1504.01840 [ cs.LG ].
  203. ^ ван ден Оорд, Аарон; Дилеман, Сандер; Шраувен, Бенджамин (2013). Берджес, CJC; Ботту, Л.; Веллинг, М.; Гахрамани, З.; Вайнбергер, KQ (ред.). Достижения в области нейронных систем обработки информации 26 (PDF) . Curran Associates, Inc., стр. 2643–2651. Архивировано (PDF) из оригинала 16 мая 2017 г. Проверено 14 июня 2017 г.
  204. ^ Фэн, XY; Чжан, Х.; Рен, YJ; Шан, штат Пенсильвания; Чжу, Ю.; Лян, ЮК; Гуань, RC; Сюй, Д. (2019). «Рекомендательная система на основе глубокого обучения «Pubmender» для выбора места проведения биомедицинских публикаций: исследование разработки и проверки» . Журнал медицинских интернет-исследований . 21 (5): e12957. дои : 10.2196/12957 . ПМК   6555124 . ПМИД   31127715 .
  205. ^ Элькахки, Али Мамдух; Сун, Ян; Хэ, Сяодун (1 мая 2015 г.). «Многопредставленный подход к глубокому обучению для междоменного моделирования пользователей в рекомендательных системах» . Исследования Майкрософт . Архивировано из оригинала 25 января 2018 года . Проверено 14 июня 2017 г.
  206. ^ Чикко, Давиде; Садовский, Питер; Бальди, Пьер (1 января 2014 г.). «Нейронные сети глубокого автокодирования для прогнозирования аннотаций онтологии генов». Материалы 5-й конференции ACM по биоинформатике, вычислительной биологии и медицинской информатике . АКМ. стр. 533–540. дои : 10.1145/2649387.2649442 . hdl : 11311/964622 . ISBN  9781450328944 . S2CID   207217210 . Архивировано из оригинала 9 мая 2021 года . Проверено 23 ноября 2015 г.
  207. ^ Сатьянараяна, Аарти (1 января 2016 г.). «Прогнозирование качества сна на основе данных носимых устройств с использованием глубокого обучения» . JMIR mHealth и uHealth . 4 (4): е125. дои : 10.2196/mhealth.6562 . ПМК   5116102 . ПМИД   27815231 . S2CID   3821594 .
  208. ^ Чой, Эдвард; Шуец, Энди; Стюарт, Уолтер Ф.; Сунь, Джимэн (13 августа 2016 г.). «Использование рекуррентных моделей нейронных сетей для раннего выявления сердечной недостаточности» . Журнал Американской ассоциации медицинской информатики . 24 (2): 361–370. дои : 10.1093/jamia/ocw112 . ISSN   1067-5027 . ПМК   5391725 . ПМИД   27521897 .
  209. ^ «ИИ компании DeepMind, сворачивающий белки, решил грандиозную проблему биологии, возникшую 50 лет назад» . Обзор технологий Массачусетского технологического института . Проверено 10 мая 2024 г.
  210. ^ Шид, Сэм (30 ноября 2020 г.). «DeepMind решает 50-летнюю «большую задачу» с помощью искусственного интеллекта по сворачиванию белков», CNBC . Проверено 10 мая 2024 г.
  211. ^ Перейти обратно: а б Шалев Ю.; Паинский, А.; Бен-Гал, И. (2022). «Нейронная совместная оценка энтропии» (PDF) . Транзакции IEEE в нейронных сетях и системах обучения . ПП (4): 5488–5500. arXiv : 2012.11197 . дои : 10.1109/TNNLS.2022.3204919 . ПМИД   36155469 . S2CID   229339809 .
  212. ^ Литженс, Герт; Коой, Тайс; Бейнорди, Бабак Эхтешами; Сетио, Арно Ариндра Адийосо; Чомпи, Франческо; Гафурян, Мохсен; ван дер Лаак, Йерун АВМ; ван Гиннекен, Брэм; Санчес, Клара И. (декабрь 2017 г.). «Опрос по глубокому обучению в области анализа медицинских изображений». Анализ медицинских изображений . 42 : 60–88. arXiv : 1702.05747 . Стартовый код : 2017arXiv170205747L . дои : 10.1016/j.media.2017.07.005 . ПМИД   28778026 . S2CID   2088679 .
  213. ^ Форслид, Густав; Висландер, Хакан; Бенгтссон, Эверт; Уолби, Каролина; Хирш, Ян-Майкл; Старк, Кристина Руноу; Саданандан, Саджит Кечерил (2017). «Глубокие сверточные нейронные сети для обнаружения клеточных изменений, вызванных злокачественными новообразованиями» . Международная конференция IEEE по компьютерному зрению, 2017 г. (ICCVW) . стр. 82–89. дои : 10.1109/ICCVW.2017.18 . ISBN  9781538610343 . S2CID   4728736 . Архивировано из оригинала 9 мая 2021 г. Проверено 12 ноября 2019 г.
  214. ^ Донг, Синь; Чжоу, Ичжао; Ван, Ланьтянь; Пэн, Цзинфэн; Лу, Янбо; Фань, Ицюнь (2020). «Обнаружение рака печени с использованием гибридной полностью сверточной нейронной сети на основе платформы глубокого обучения» . Доступ IEEE . 8 : 129889–129898. Бибкод : 2020IEEA...8l9889D . дои : 10.1109/ACCESS.2020.3006362 . ISSN   2169-3536 . S2CID   220733699 .
  215. ^ Ляхов Павел Алексеевич; Ляхова Ульяна Алексеевна; Нагорнов Николай Николаевич (03.04.2022). «Система распознавания пигментных поражений кожи с объединением и анализом гетерогенных данных на основе мультимодальной нейронной сети» . Раки . 14 (7): 1819. doi : 10.3390/cancers14071819 . ISSN   2072-6694 . ПМЦ   8997449 . ПМИД   35406591 .
  216. ^ Де, Шонак; Майти, Абхишек; Гоэл, Вритти; Шитоле, Санджай; Бхаттачарья, Авик (2017). «Прогнозирование популярности постов в Instagram для журнала о стиле жизни с помощью глубокого обучения». 2017 2-я Международная конференция по системам связи, вычислительной технике и ИТ-приложениям (CSCITA) . стр. 174–177. дои : 10.1109/CSCITA.2017.8066548 . ISBN  978-1-5090-4381-1 . S2CID   35350962 .
  217. ^ «Раскрашивание и восстановление старых изображений с помощью глубокого обучения» . Блог FloydHub . 13 ноября 2018 года. Архивировано из оригинала 11 октября 2019 года . Проверено 11 октября 2019 г.
  218. ^ Шмидт, Уве; Рот, Стефан. Поля усадки для эффективного восстановления изображений (PDF) . Компьютерное зрение и распознавание образов (CVPR), конференция IEEE 2014 г. Архивировано (PDF) из оригинала 02 января 2018 г. Проверено 1 января 2018 г.
  219. ^ Клеантус, Христос; Хацис, Сотириос (2020). «Вариационные автоэнкодеры с контролируемой смесью для выбора случая проверки налога на добавленную стоимость». Системы, основанные на знаниях . 188 : 105048. doi : 10.1016/j.knosys.2019.105048 . S2CID   204092079 .
  220. ^ Чех, Томаш (28 июня 2018 г.). «Глубокое обучение: следующий рубеж в обнаружении отмывания денег» . Глобальный обзор банковского дела и финансов . Архивировано из оригинала 16 ноября 2018 г. Проверено 15 июля 2018 г.
  221. ^ Нуньес, Майкл (29 ноября 2023 г.). «Материалы Google DeepMind ИИ уже обнаружил 2,2 миллиона новых кристаллов» . ВенчурБит . Проверено 19 декабря 2023 г.
  222. ^ Купец Амиль; Бацнер, Саймон; Шенхольц, Сэмюэл С.; Айколь, Муратахан; Чхон, Говун; Чубук, Экин Догус (декабрь 2023 г.). «Масштабирование глубокого обучения для открытия материалов» . Природа . 624 (7990): 80–85. Бибкод : 2023Природа.624...80М . дои : 10.1038/s41586-023-06735-9 . ISSN   1476-4687 . ПМК   10700131 . ПМИД   38030720 .
  223. ^ Пеплоу, Марк (29 ноября 2023 г.). «ИИ Google и роботы объединяют усилия для создания новых материалов» . Природа . дои : 10.1038/d41586-023-03745-5 . ПМИД   38030771 . S2CID   265503872 .
  224. ^ Перейти обратно: а б с «Армейские исследователи разрабатывают новые алгоритмы для обучения роботов» . ЭврекАлерт! . Архивировано из оригинала 28 августа 2018 года . Проверено 29 августа 2018 г. .
  225. ^ Раисси, М.; Пердикарис, П.; Карниадакис, GE (01 февраля 2019 г.). «Нейронные сети, основанные на физике: система глубокого обучения для решения прямых и обратных задач, включающих нелинейные уравнения в частных производных» . Журнал вычислительной физики . 378 : 686–707. Бибкод : 2019JCoPh.378..686R . дои : 10.1016/j.jcp.2018.10.045 . ISSN   0021-9991 . ОСТИ   1595805 . S2CID   57379996 .
  226. ^ Мао, Чжипин; Джагтап, Амея Д.; Карниадакис, Джордж Эм (01 марта 2020 г.). «Нейронные сети, основанные на физике, для высокоскоростных потоков» . Компьютерные методы в прикладной механике и технике . 360 : 112789. Бибкод : 2020CMAME.360k2789M . дои : 10.1016/j.cma.2019.112789 . ISSN   0045-7825 . S2CID   212755458 .
  227. ^ Раисси, Мазиар; Яздани, Алиреза; Карниадакис, Джордж Эм (28 февраля 2020 г.). «Скрытая механика жидкости: изучение полей скорости и давления на основе визуализации потока» . Наука . 367 (6481): 1026–1030. Бибкод : 2020Sci...367.1026R . дои : 10.1126/science.aaw4741 . ПМК   7219083 . ПМИД   32001523 .
  228. ^ Октем, Фиген С.; Кар, Огужан Фатих; Безек, Кан Дениз; Камалабади, Фарзад (2021). «Мультиспектральная визуализация высокого разрешения с помощью дифракционных линз и обученная реконструкция» . Транзакции IEEE по вычислительной визуализации . 7 : 489–504. arXiv : 2008.11625 . дои : 10.1109/TCI.2021.3075349 . ISSN   2333-9403 . S2CID   235340737 .
  229. ^ Бернхардт, Мелани; Вишневский, Валерий; Рау, Ричард; Гоксель, Оркун (декабрь 2020 г.). «Обучение вариационных сетей с помощью многодоменного моделирования: реконструкция изображения со скоростью звука» . Транзакции IEEE по ультразвуку, сегнетоэлектрике и контролю частоты . 67 (12): 2584–2594. arXiv : 2006.14395 . дои : 10.1109/TUFFC.2020.3010186 . ISSN   1525-8955 . ПМИД   32746211 . S2CID   220055785 .
  230. ^ Лам, Реми; Санчес-Гонсалес, Альваро; Уилсон, Мэтью; Вирнсбергер, Питер; Фортунато, Мейре; Алет, Ферран; Равури, Суман; Эвальдс, Тимо; Итон-Розен, Зак; Ху, Вэйхуа; Мероуз, Александр; Хойер, Стефан; Холланд, Джордж; Виньялс, Ориол; Стотт, Джеклинн (22 декабря 2023 г.). «Обучение умелому среднесрочному глобальному прогнозу погоды» . Наука . 382 (6677): 1416–1421. дои : 10.1126/science.adi2336 . ISSN   0036-8075 .
  231. ^ Сивакумар, Рамакришнан (27 ноября 2023 г.). «GraphCast: прорыв в прогнозировании погоды» . Середина . Проверено 19 мая 2024 г.
  232. ^ Галкин Ф.; Мамошина П.; Кочетов, К.; Сидоренко Д.; Жаворонков, А. (2020). «DeepMAge: часы старения метилирования, разработанные с помощью глубокого обучения» . Старение и болезни . дои : 10.14336/AD .
  233. ^ Утгофф, ЧП; Стракуцци, диджей (2002). «Многоуровневое обучение». Нейронные вычисления . 14 (10): 2497–2529. дои : 10.1162/08997660260293319 . ПМИД   12396572 . S2CID   1119517 .
  234. ^ Элман, Джеффри Л. (1998). Переосмысление врожденности: коннекционистский взгляд на развитие . МТИ Пресс. ISBN  978-0-262-55030-7 .
  235. ^ Шрагер, Дж.; Джонсон, Миннесота (1996). «Динамическая пластичность влияет на возникновение функций в простом кортикальном массиве». Нейронные сети . 9 (7): 1119–1129. дои : 10.1016/0893-6080(96)00033-0 . ПМИД   12662587 .
  236. ^ Кварц, СР; Сейновский, Т.Дж. (1997). «Нейронная основа когнитивного развития: конструктивистский манифест». Поведенческие и мозговые науки . 20 (4): 537–556. CiteSeerX   10.1.1.41.7854 . дои : 10.1017/s0140525x97001581 . ПМИД   10097006 . S2CID   5818342 .
  237. ^ С. Блейксли, «На раннем этапе развития мозга график может иметь решающее значение», The New York Times, Science Division , стр. B5–B6, 1995.
  238. ^ Маццони, П.; Андерсен, РА; Джордан, Мичиган (15 мая 1991 г.). «Более биологически правдоподобное правило обучения для нейронных сетей» . Труды Национальной академии наук . 88 (10): 4433–4437. Бибкод : 1991PNAS...88.4433M . дои : 10.1073/pnas.88.10.4433 . ISSN   0027-8424 . ПМК   51674 . ПМИД   1903542 .
  239. ^ О'Рейли, Рэндалл К. (1 июля 1996 г.). «Биологически правдоподобное обучение, основанное на ошибках, с использованием различий локальной активации: обобщенный алгоритм рециркуляции». Нейронные вычисления . 8 (5): 895–938. дои : 10.1162/neco.1996.8.5.895 . ISSN   0899-7667 . S2CID   2376781 .
  240. ^ Тестолин, Альберто; Зорзи, Марко (2016). «Вероятностные модели и генеративные нейронные сети: на пути к единой структуре для моделирования нормальных и нарушенных нейрокогнитивных функций» . Границы вычислительной нейронауки . 10:73 . дои : 10.3389/fncom.2016.00073 . ISSN   1662-5188 . ПМЦ   4943066 . ПМИД   27468262 . S2CID   9868901 .
  241. ^ Тестолин, Альберто; Стоянов, Ивилин; Зорзи, Марко (сентябрь 2017 г.). «Восприятие букв возникает в результате неконтролируемого глубокого обучения и переработки естественных особенностей изображения». Природа человеческого поведения . 1 (9): 657–664. дои : 10.1038/s41562-017-0186-2 . ISSN   2397-3374 . ПМИД   31024135 . S2CID   24504018 .
  242. ^ Бюзинг, Ларс; Билл, Йоханнес; Несслер, Бернхард; Маасс, Вольфганг (3 ноября 2011 г.). «Нейронная динамика как выборка: модель стохастических вычислений в рекуррентных сетях импульсных нейронов» . PLOS Вычислительная биология . 7 (11): e1002211. Бибкод : 2011PLSCB...7E2211B . дои : 10.1371/journal.pcbi.1002211 . ISSN   1553-7358 . ПМК   3207943 . ПМИД   22096452 . S2CID   7504633 .
  243. ^ Кэш, С.; Юсте, Р. (февраль 1999 г.). «Линейное суммирование возбуждающих входов пирамидными нейронами CA1» . Нейрон . 22 (2): 383–394. дои : 10.1016/s0896-6273(00)81098-3 . ISSN   0896-6273 . ПМИД   10069343 . S2CID   14663106 .
  244. ^ Ольсхаузен, Б; Филд, Д. (1 августа 2004 г.). «Разреженное кодирование сенсорных входов». Современное мнение в нейробиологии . 14 (4): 481–487. дои : 10.1016/j.conb.2004.07.007 . ISSN   0959-4388 . ПМИД   15321069 . S2CID   16560320 .
  245. ^ Яминс, Дэниел Л.К.; ДиКарло, Джеймс Дж (март 2016 г.). «Использование целенаправленных моделей глубокого обучения для понимания сенсорной коры». Природная неврология . 19 (3): 356–365. дои : 10.1038/nn.4244 . ISSN   1546-1726 . ПМИД   26906502 . S2CID   16970545 .
  246. ^ Зорзи, Марко; Тестолин, Альберто (19 февраля 2018 г.). «Эмерджентистский взгляд на происхождение чувства числа» . Фил. Пер. Р. Сок. Б. 373 ): 20170043.doi : ( 1740 10.1098/rstb.2017.0043 . ISSN   0962-8436 . ПМК   5784047 . ПМИД   29292348 . S2CID   39281431 .
  247. ^ Гючлю, Умут; ван Гервен, Марсель А.Дж. (8 июля 2015 г.). «Глубокие нейронные сети выявляют градиент сложности нейронных представлений в вентральном потоке» . Журнал неврологии . 35 (27): 10005–10014. arXiv : 1411.6422 . doi : 10.1523/jneurosci.5023-14.2015 . ПМК   6605414 . ПМИД   26157000 .
  248. ^ Мец, К. (12 декабря 2013 г.). «Гуру глубокого обучения Facebook раскрывает будущее искусственного интеллекта» . Проводной . Архивировано из оригинала 28 марта 2014 года . Проверено 26 августа 2017 г.
  249. ^ Гибни, Элизабет (2016). «Алгоритм Google AI освоил древнюю игру го» . Природа . 529 (7587): 445–446. Бибкод : 2016Natur.529..445G . дои : 10.1038/529445а . ПМИД   26819021 . S2CID   4460235 .
  250. ^ Сильвер, Дэвид ; Хуанг, Аджа ; Мэддисон, Крис Дж.; Гез, Артур; Сифре, Лоран; Дрессе, Джордж ван ден; Шритвизер, Джулиан; Антоноглу, Иоаннис; Паннеершелвам, Веда; Ланкто, Марк; Дилеман, Сандер; Греве, Доминик; Нхам, Джон; Кальхбреннер, Нал; Суцкевер, Илья ; Лилликрап, Тимоти; Лич, Мадлен; Кавукчуоглу, Корай; Грепель, Торе; Хассабис, Демис (28 января 2016 г.). «Освоение игры в го с помощью глубоких нейронных сетей и поиска по дереву». Природа . 529 (7587): 484–489. Бибкод : 2016Natur.529..484S . дои : 10.1038/nature16961 . ISSN   0028-0836 . ПМИД   26819042 . S2CID   515925 . Значок закрытого доступа
  251. ^ «Алгоритм Google DeepMind использует глубокое обучение и многое другое, чтобы освоить игру в го | Обзор технологий MIT» . Обзор технологий Массачусетского технологического института . Архивировано из оригинала 1 февраля 2016 года . Проверено 30 января 2016 г.
  252. ^ Мец, Кейд (6 ноября 2017 г.). «Исследователи искусственного интеллекта покидают лабораторию Илона Маска, чтобы начать стартап в области робототехники» . Нью-Йорк Таймс . Архивировано из оригинала 7 июля 2019 года . Проверено 5 июля 2019 г.
  253. ^ Bradley Knox, W.; Stone, Peter (2008). "TAMER: Training an Agent Manually via Evaluative Reinforcement". 2008 7th IEEE International Conference on Development and Learning. pp. 292–297. doi:10.1109/devlrn.2008.4640845. ISBN 978-1-4244-2661-4. S2CID   5613334 .
  254. ^ "Talk to the Algorithms: AI Becomes a Faster Learner". governmentciomedia.com. 16 May 2018. Archived from the original on 28 August 2018. Retrieved 29 August 2018.
  255. ^ Marcus, Gary (14 January 2018). "In defense of skepticism about deep learning". Gary Marcus. Archived from the original on 12 October 2018. Retrieved 11 October 2018.
  256. ^ Knight, Will (14 March 2017). "DARPA is funding projects that will try to open up AI's black boxes". MIT Technology Review. Archived from the original on 4 November 2019. Retrieved 2 November 2017.
  257. ^ Marcus, Gary (November 25, 2012). "Is "Deep Learning" a Revolution in Artificial Intelligence?". The New Yorker. Archived from the original on 2009-11-27. Retrieved 2017-06-14.
  258. ^ Alexander Mordvintsev; Christopher Olah; Mike Tyka (17 June 2015). "Inceptionism: Going Deeper into Neural Networks". Google Research Blog. Archived from the original on 3 July 2015. Retrieved 20 June 2015.
  259. ^ Alex Hern (18 June 2015). "Yes, androids do dream of electric sheep". The Guardian. Archived from the original on 19 June 2015. Retrieved 20 June 2015.
  260. ^ Jump up to: a b c Goertzel, Ben (2015). "Are there Deep Reasons Underlying the Pathologies of Today's Deep Learning Algorithms?" (PDF). Archived (PDF) from the original on 2015-05-13. Retrieved 2015-05-10.
  261. ^ Nguyen, Anh; Yosinski, Jason; Clune, Jeff (2014). "Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images". arXiv:1412.1897 [cs.CV].
  262. ^ Szegedy, Christian; Zaremba, Wojciech; Sutskever, Ilya; Bruna, Joan; Erhan, Dumitru; Goodfellow, Ian; Fergus, Rob (2013). "Intriguing properties of neural networks". arXiv:1312.6199 [cs.CV].
  263. ^ Zhu, S.C.; Mumford, D. (2006). "A stochastic grammar of images". Found. Trends Comput. Graph. Vis. 2 (4): 259–362. CiteSeerX 10.1.1.681.2190. doi:10.1561/0600000018.
  264. ^ Miller, G. A., and N. Chomsky. "Pattern conception". Paper for Conference on pattern detection, University of Michigan. 1957.
  265. ^ Eisner, Jason. "Deep Learning of Recursive Structure: Grammar Induction". Archived from the original on 2017-12-30. Retrieved 2015-05-10.
  266. ^ "Hackers Have Already Started to Weaponize Artificial Intelligence". Gizmodo. 11 September 2017. Archived from the original on 11 October 2019. Retrieved 11 October 2019.
  267. ^ "How hackers can force AI to make dumb mistakes". The Daily Dot. 18 June 2018. Archived from the original on 11 October 2019. Retrieved 11 October 2019.
  268. ^ Jump up to: a b c d e "AI Is Easy to Fool—Why That Needs to Change". Singularity Hub. 10 October 2017. Archived from the original on 11 October 2017. Retrieved 11 October 2017.
  269. ^ Gibney, Elizabeth (2017). "The scientist who spots fake videos". Nature. doi:10.1038/nature.2017.22784. Archived from the original on 2017-10-10. Retrieved 2017-10-11.
  270. ^ Tubaro, Paola (2020). "Whose intelligence is artificial intelligence?". Global Dialogue: 38–39.
  271. ^ Jump up to: a b c d Mühlhoff, Rainer (6 November 2019). "Human-aided artificial intelligence: Or, how to run large computations in human brains? Toward a media sociology of machine learning". New Media & Society. 22 (10): 1868–1884. doi:10.1177/1461444819885334. ISSN 1461-4448. S2CID 209363848.
  272. ^ "Facebook Can Now Find Your Face, Even When It's Not Tagged". Wired. ISSN 1059-1028. Archived from the original on 10 August 2019. Retrieved 22 November 2019.

Further reading[edit]

Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: 8F7869192A41A5E1DBB70533514AD4C4__1718395860
URL1:https://en.wikipedia.org/wiki/Deep_neural_network
Заголовок, (Title) документа по адресу, URL1:
Deep learning - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)