Глубокое обучение
Часть серии о |
Искусственный интеллект |
---|
Глубокое обучение — это подмножество методов машинного обучения , основанных на нейронных сетях с обучением представлений . Прилагательное «глубокий» относится к использованию в сети нескольких уровней. Используемые методы могут быть контролируемыми , полуконтролируемыми или неконтролируемыми . [ 2 ]
Архитектуры глубокого обучения, такие как глубокие нейронные сети , сети глубоких убеждений , рекуррентные нейронные сети , сверточные нейронные сети и преобразователи, применяются в таких областях, как компьютерное зрение , распознавание речи , обработка естественного языка , машинный перевод , биоинформатика , дизайн лекарств , анализ медицинских изображений. , климатологии , инспекции материалов и программ настольных игр , где они дали результаты, сравнимые, а в некоторых случаях превосходящие результаты человеческих экспертов. [ 3 ] [ 4 ] [ 5 ]
Ранние формы нейронных сетей были вдохновлены обработкой информации и распределенными узлами связи в биологических системах , в частности в человеческом мозге . Однако современные нейронные сети не предназначены для моделирования функций мозга организмов и обычно рассматриваются для этой цели как модели низкого качества. [ 6 ]
Обзор
[ редактировать ]Большинство современных моделей глубокого обучения основаны на многослойных нейронных сетях , таких как сверточные нейронные сети и преобразователи , хотя они также могут включать в себя пропозициональные формулы или скрытые переменные, организованные послойно в глубоких генеративных моделях, таких как узлы в глубоких сетях доверия и глубоких моделях Больцмана. машины . [ 7 ]
По сути, глубокое обучение относится к классу машинного обучения алгоритмов , в которых иерархия слоев используется для преобразования входных данных в несколько более абстрактное и составное представление. Например, в модели распознавания изображений необработанными входными данными может быть изображение (представленное в виде пикселей ) тензора . Первый репрезентативный уровень может пытаться идентифицировать основные формы, такие как линии и круги, второй уровень может составлять и кодировать расположение краев, третий уровень может кодировать нос и глаза, а четвертый уровень может распознавать, что изображение содержит лицо.
Важно отметить, что процесс глубокого обучения может самостоятельно определить, какие функции на каком уровне оптимально разместить . До глубокого обучения методы машинного обучения часто включали в себя ручную разработку признаков для преобразования данных в более подходящее представление для работы алгоритма классификации. При подходе глубокого обучения функции не создаются вручную, и модель автоматически обнаруживает полезные представления функций из данных. Это не исключает необходимости ручной настройки; например, разное количество слоев и их размеры могут обеспечить разную степень абстракции. [ 8 ] [ 2 ]
Слово «глубокий» в «глубоком обучении» относится к количеству слоев, посредством которых преобразуются данные. Точнее, системы глубокого обучения имеют значительную глубину пути присвоения кредитов (CAP). CAP — это цепочка преобразований от входа к выходу. CAP описывают потенциально причинно-следственные связи между входом и выходом. Для нейронной сети прямого распространения глубина CAP равна глубине сети и равна количеству скрытых слоев плюс один (поскольку выходной слой также параметризуется). Для рекуррентных нейронных сетей , в которых сигнал может распространяться через слой более одного раза, глубина CAP потенциально не ограничена. [ 9 ] Не существует общепринятого порога глубины, который разделяет поверхностное обучение и глубокое обучение, но большинство исследователей согласны с тем, что глубокое обучение предполагает глубину CAP выше 2. Было показано, что CAP глубины 2 является универсальным аппроксиматором в том смысле, что он может имитировать любую функцию. . [ 10 ] Помимо этого, большее количество слоев не увеличивает возможности аппроксимации функций сети. Глубокие модели (CAP > 2) способны извлекать лучшие функции, чем поверхностные модели, и, следовательно, дополнительные слои помогают эффективно изучать функции.
Архитектуры глубокого обучения могут быть построены жадным послойным методом. [ 11 ] Глубокое обучение помогает распутать эти абстракции и выбрать, какие функции улучшают производительность. [ 8 ]
Алгоритмы глубокого обучения могут применяться к задачам обучения без присмотра. Это важное преимущество, поскольку неразмеченных данных больше, чем помеченных. Примерами глубоких структур, которые можно обучать без присмотра, являются сети глубоких убеждений . [ 8 ] [ 12 ]
Термин « глубокое обучение» был представлен сообществу машинного обучения Риной Дектер в 1986 году. [ 13 ] и искусственным нейронным сетям Игоря Айзенберга и его коллег в 2000 году в контексте логических пороговых нейронов. [ 14 ] [ 15 ] Хотя история его появления, видимо, сложнее. [ 16 ]
Интерпретации
[ редактировать ]Глубокие нейронные сети обычно интерпретируются с точки зрения универсальной аппроксимационной теоремы. [ 17 ] [ 18 ] [ 19 ] [ 20 ] [ 21 ] или вероятностный вывод . [ 22 ] [ 23 ] [ 8 ] [ 9 ] [ 24 ]
Классическая универсальная теорема аппроксимации касается способности нейронных сетей прямого распространения с одним скрытым слоем конечного размера аппроксимировать непрерывные функции . [ 17 ] [ 18 ] [ 19 ] [ 20 ] опубликовал первое доказательство В 1989 году Джордж Цыбенко функций сигмовидной кишки . активации [ 17 ] и был обобщен для многоуровневых архитектур с прямой связью в 1991 году Куртом Хорником. [ 18 ] Недавняя работа также показала, что универсальное приближение справедливо и для неограниченных функций активации, таких как Кунихико Фукусимы выпрямленная линейная единица . [ 25 ] [ 26 ]
Универсальная аппроксимационная теорема для глубоких нейронных сетей касается пропускной способности сетей с ограниченной шириной, но глубине разрешено расти. Лу и др. [ 21 ] доказал, что если ширина глубокой нейронной сети с активацией ReLU строго больше входной размерности, то сеть может аппроксимировать любую интегрируемую по Лебегу функцию ; если ширина меньше или равна входному измерению, то глубокая нейронная сеть не является универсальным аппроксиматором.
Вероятностная интерпретация [ 24 ] происходит из области машинного обучения . Он включает в себя умозаключение, [ 23 ] [ 7 ] [ 8 ] [ 9 ] [ 12 ] [ 24 ] а также оптимизации концепции обучения и тестирования , связанные с подгонкой и обобщением соответственно. Более конкретно, вероятностная интерпретация рассматривает нелинейность активации как кумулятивную функцию распределения . [ 24 ] Вероятностная интерпретация привела к использованию отсева в качестве регуляризатора в нейронных сетях. Вероятностная интерпретация была предложена такими исследователями, как Хопфилд , Уидроу и Нарендра , и популяризирована в исследованиях, таких как исследование Бишопа . [ 27 ]
История
[ редактировать ]До 1980 года
[ редактировать ]Фрэнк Розенблатт (1958) [ 28 ] предложил перцептрон, многослойный перцептрон (MLP) с тремя слоями: входным слоем, скрытым слоем со случайными весами, которые не обучаются, и выходным слоем. Позже он опубликовал книгу 1962 года, в которой также представлены варианты и компьютерные эксперименты, в том числе версия с четырехслойными перцептронами, где последние два слоя обучаются весам (и, таким образом, это настоящий многослойный перцептрон). [ 29 ] : раздел 16 Некоторые считают, что в книге 1962 года были разработаны и исследованы все основные компоненты современных систем глубокого обучения. [ 30 ]
Групповой метод обработки данных , метод обучения произвольно глубоких нейронных сетей, был опубликован Алексеем Ивахненко и Лапа в 1967 году и рассматривался как форма полиномиальной регрессии. [ 31 ] или обобщение перцептрона Розенблатта. [ 32 ] В статье 1971 года описывалась глубокая сеть с восемью слоями, обученная этим методом. [ 33 ]
Первый многослойный перцептрон глубокого обучения , обученный методом стохастического градиентного спуска [ 34 ] был опубликован в 1967 году Шуничи Амари . [ 35 ] В компьютерных экспериментах, проведенных учеником Амари Сайто, пятислойная MLP с двумя изменяемыми слоями изучила внутренние представления для классификации классов нелинейно разделимых шаблонов. [ 36 ] Последующие разработки в области аппаратного обеспечения и настройки гиперпараметров сделали сквозной стохастический градиентный спуск доминирующим в настоящее время методом обучения.
Обратное распространение ошибки — это эффективное применение правила цепочки , выведенного Готфридом Вильгельмом Лейбницем в 1673 году. [ 37 ] к сетям дифференцируемых узлов. Терминология «ошибки обратного распространения ошибки» была введена в 1962 году Розенблаттом. [ 29 ] но он не знал, как это реализовать, хотя у Генри Дж. Келли был постоянный предшественник обратного распространения ошибки в 1960 году в контексте теории управления . [ 38 ] Современная форма обратного распространения ошибки неоднократно разрабатывалась в начале 1970-х годов. Самым ранним опубликованным примером была Сеппо Линнаинмаа (1970). магистерская диссертация [ 39 ] [ 40 ] [ 36 ] Пол Вербос разработал его независимо в 1971 году. [ 41 ] но с трудом публиковал его до 1982 года. [ 42 ] В 1986 году Дэвид Э. Румельхарт и др. популяризация обратного распространения ошибки. [ 43 ] [ 44 ]
1980-е-2000-е годы
[ редактировать ]Архитектуры глубокого обучения для сверточных нейронных сетей (CNN) со сверточными слоями и слоями понижающей дискретизации начались с Неокогнитрона, представленного Кунихико Фукусимой в 1980 году, хотя и не обученного методом обратного распространения ошибки. [ 45 ] В 1969 году он также представил ReLU (выпрямленная линейная единица) функцию активации . [ 25 ] [ 36 ] Выпрямитель стал самой популярной функцией активации для CNN и глубокого обучения в целом. [ 46 ]
CNN, обученная обратному распространению ошибки, добилась первых успехов в 1980-х годах, например, в распознавании алфавита. [ 47 ] и на оптическом вычислительном оборудовании. [ 48 ] Нейронная сеть с временной задержкой (TDNN) была представлена в 1987 году Алексом Вайбелем для применения CNN для распознавания фонем. Он использовал как распределение веса, так и обратное распространение ошибки. [ 49 ] В 1989 году Ян ЛеКун и др. создал LeNet , который применил обратное распространение ошибки к CNN для распознавания рукописных почтовых индексов в почте. Обучение заняло 3 дня. [ 50 ] Другие примеры включали сегментацию объектов медицинских изображений. [ 51 ] и выявление рака молочной железы при маммографии. [ 52 ] LeNet -5 (1998), семиуровневая CNN Янна Лекуна и др., классифицирующая цифры, применялась несколькими банками для распознавания рукописных чисел на чеках, оцифрованных в изображениях размером 32x32 пикселя. [ 53 ]
Рекуррентные нейронные сети (RNN) также были разработаны в 1980-х годах. Рекуррентность используется для обработки последовательностей, и когда рекуррентная сеть развернута, она математически напоминает глубокий уровень прямой связи. Следовательно, они имеют схожие свойства и проблемы, а их развитие оказало взаимное влияние. В RNN двумя ранними влиятельными работами были сеть Jordan (1986). [ 54 ] и сеть Элмана (1990), [ 55 ] который применил RNN для изучения проблем когнитивной психологии .
Зеппа Хохрайтера (1991). Дипломная работа [ 56 ] предложил компрессор нейронной истории, а также выявил и проанализировал проблему исчезновения градиента . [ 56 ] [ 57 ] В 1993 году система сжатия нейронной истории решила задачу «очень глубокого обучения», которая требовала более 1000 последующих слоев в RNN, развернутой во времени. [ 58 ] [ 59 ] Хохрейтер предложил рекуррентные остаточные связи для решения проблемы исчезающего градиента. Это привело к созданию теории долговременной кратковременной памяти (LSTM), опубликованной в 1995 году. [ 60 ] LSTM может изучать задачи «очень глубокого обучения» [ 9 ] с длинными путями присвоения кредитов, требующими воспоминаний о событиях, произошедших за тысячи дискретных шагов времени до этого. Этот LSTM еще не был современной архитектурой, требующей «ворот забывания», представленных в 1999 году. [ 61 ] который стал стандартной архитектурой RNN.
В течение 1985–1995 годов, вдохновленные статистической механикой, Терри Сейновски , Питером Даяном , Джеффри Хинтоном и др. было разработано несколько архитектур и методов, включая машину Больцмана , [ 62 ] ограниченная машина Больцмана , [ 63 ] Машина Гельмгольца , [ 64 ] и алгоритм пробуждения-сна . [ 65 ] Они были разработаны для неконтролируемого обучения глубоким генеративным моделям. Однако они были более дорогостоящими в вычислительном отношении по сравнению с обратным распространением ошибки. Алгоритм машинного обучения Больцмана, опубликованный в 1985 году, некоторое время был популярен, прежде чем его затмил алгоритм обратного распространения ошибки в 1986 году (стр. 112). [ 66 ] ). Сеть 1988 года стала новейшим достижением в предсказании структуры белков , ранним применением глубокого обучения в биоинформатике. [ 67 ]
Как поверхностное, так и глубокое обучение (например, рекуррентные сети) ИНС для распознавания речи исследуются уже много лет. [ 68 ] [ 69 ] [ 70 ] Эти методы никогда не превосходили технологию неоднородной внутренней модели смеси Гаусса / скрытой модели Маркова (GMM-HMM), основанную на генеративных моделях речи, обученных дискриминативно. [ 71 ] Были проанализированы основные трудности, в том числе уменьшение градиента. [ 56 ] и слабая структура временной корреляции в нейронных прогнозирующих моделях. [ 72 ] [ 73 ] Дополнительными трудностями были отсутствие обучающих данных и ограниченная вычислительная мощность.
Большинство исследователей распознавания речи отошли от нейронных сетей и занялись генеративным моделированием. Исключением была компания SRI International в конце 1990-х годов. США SRI, финансируемый АНБ и DARPA , исследовал возможности распознавания речи и говорящих . Команда по распознаванию говорящего под руководством Ларри Хека сообщила о значительных успехах в использовании глубоких нейронных сетей в обработке речи в тесте NIST по распознаванию говорящих 1998 года. [ 74 ] [ 75 ] Он был использован в Nuance Verifier, представляющем собой первое крупное промышленное применение глубокого обучения. [ 76 ]
Принцип превосходства «необработанных» функций над оптимизацией, созданной вручную, был впервые успешно исследован в архитектуре глубокого автокодирования на «необработанных» спектрограммах или функциях набора линейных фильтров в конце 1990-х годов. [ 75 ] показывая его превосходство над функциями Мел-Цепстра , которые содержат стадии фиксированной трансформации из спектрограмм. Необработанные характеристики речи, формы сигналов , позже дали превосходные результаты в более крупном масштабе. [ 77 ]
2000-е
[ редактировать ]Нейронные сети вошли в ноль, и более простые модели, использующие функции, созданные вручную для конкретных задач, такие как фильтры Габора и машины опорных векторов (SVM), стали предпочтительным выбором в 1990-х и 2000-х годах из-за вычислительной стоимости искусственных нейронных сетей и отсутствия понимания о том, как мозг организует свои биологические сети. [ нужна ссылка ]
В 2003 году LSTM стал конкурировать с традиционными распознавателями речи в определенных задачах. [ 78 ] В 2006 году Алекс Грейвс , Сантьяго Фернандес, Фаустино Гомес и Шмидхубер объединили ее с коннекционистской временной классификацией (CTC). [ 79 ] в стопках LSTM. [ 80 ] В 2009 году она стала первой RNN, выигравшей конкурс по распознаванию образов в области распознавания рукописного ввода . [ 81 ] [ 9 ]
В 2006 году появились публикации Джеффа Хинтона , Руслана Салахутдинова , Осиндеро и Тех. [ 82 ] [ 83 ] сети глубоких убеждений были разработаны для генеративного моделирования. Их обучают, обучая одну ограниченную машину Больцмана, затем замораживая ее и обучая другую поверх первой и т. д., а затем, при необходимости, настраивая с использованием контролируемого обратного распространения ошибки. [ 84 ] Они могли моделировать многомерные распределения вероятностей, такие как распределение изображений MNIST , но сходимость была медленной. [ 85 ] [ 86 ] [ 87 ]
По словам Яна Лекуна, влияние глубокого обучения на промышленность началось в начале 2000-х годов, когда CNN уже обрабатывали от 10% до 20% всех чеков, выписанных в США. [ 88 ] Промышленное применение глубокого обучения для крупномасштабного распознавания речи началось примерно в 2010 году.
Семинар NIPS 2009 года по глубокому обучению для распознавания речи был мотивирован ограничениями глубоких генеративных моделей речи и возможностью того, что при наличии более мощного оборудования и крупномасштабных наборов данных глубокие нейронные сети могут стать практичными. Считалось, что предварительное обучение DNN с использованием генеративных моделей сетей глубокого доверия (DBN) позволит преодолеть основные трудности нейронных сетей. Однако было обнаружено, что замена предварительного обучения большими объемами обучающих данных для прямого обратного распространения ошибки при использовании DNN с большими, контекстно-зависимыми выходными слоями приводит к значительно более низкому уровню ошибок, чем современная на тот момент модель смеси Гаусса (GMM). )/Скрытая марковская модель (HMM), а также более продвинутые системы на основе генеративных моделей. [ 89 ] Природа ошибок распознавания, производимых двумя типами систем, характерно различалась. [ 90 ] предлагая техническую информацию о том, как интегрировать глубокое обучение в существующую высокоэффективную систему декодирования речи во время выполнения, используемую всеми основными системами распознавания речи. [ 23 ] [ 91 ] [ 92 ] Анализ 2009–2010 годов, сравнивающий GMM (и другие модели генеративной речи) с моделями DNN, стимулировал ранние промышленные инвестиции в глубокое обучение для распознавания речи. [ 90 ] Этот анализ был проведен с сопоставимой производительностью (менее 1,5% по частоте ошибок) между дискриминативными DNN и генеративными моделями. [ 89 ] [ 90 ] [ 93 ] В 2010 году исследователи расширили глубокое обучение от TIMIT до распознавания речи с большим словарным запасом, приняв большие выходные слои DNN на основе контекстно-зависимых состояний HMM, построенных с помощью деревьев решений . [ 94 ] [ 95 ] [ 96 ] [ 91 ]
Революция глубокого обучения
[ редактировать ]Революция глубокого обучения началась с компьютерного зрения на основе CNN и графических процессоров.
Хотя CNN, обученные методом обратного распространения ошибки, существовали уже несколько десятилетий, а реализации NN на GPU уже много лет, [ 97 ] включая CNN, [ 98 ] Для прогресса в области компьютерного зрения требовалось более быстрое внедрение CNN на графических процессорах. Позже, когда глубокое обучение стало широко распространенным, специально для глубокого обучения были разработаны специализированные аппаратные средства и оптимизации алгоритмов. [ 99 ]
Ключевым достижением революции глубокого обучения стало развитие аппаратного обеспечения, особенно графических процессоров. Некоторые ранние работы датируются 2004 годом. [ 97 ] [ 98 ] В 2009 году Райна, Мадхаван и Эндрю Нг сообщили о 100-миллионной сети глубокого доверия, обученной на 30 графических процессорах Nvidia GeForce GTX 280 , что стало ранней демонстрацией глубокого обучения на основе графических процессоров. Они сообщили, что обучение происходит в 70 раз быстрее. [ 100 ]
В 2011 году канал CNN под названием DanNet [ 101 ] [ 102 ] Дэн Чиресан, Ули Мейер, Джонатан Маски, Лука Мария Гамбарделла и Юрген Шмидхубер впервые достигли сверхчеловеческих результатов в конкурсе по визуальному распознаванию образов, превзойдя традиционные методы в 3 раза. [ 9 ] Затем он выиграл еще несколько конкурсов. [ 103 ] [ 104 ] Они также показали, как максимальное объединение CNN на графическом процессоре значительно повышает производительность. [ 3 ]
В 2012 году Эндрю Нг и Джефф Дин создали FNN, которая научилась распознавать концепции более высокого уровня, такие как кошки, только при просмотре немаркированных изображений, взятых из видеороликов на YouTube . [ 105 ]
В октябре 2012 года AlexNet , Алекса Крижевского Ильи Суцкевера и Джеффри Хинтона. [ 4 ] выиграл крупномасштабное соревнование ImageNet со значительным отрывом от поверхностных методов машинного обучения. Дальнейшие постепенные улучшения включали сеть VGG-16 Карена Симоняна и Эндрю Зиссермана. [ 106 ] и Google Inceptionv3 . [ 107 ]
Успех в классификации изображений был затем распространен на более сложную задачу создания описаний (подписей) для изображений, часто в виде комбинации CNN и LSTM. [ 108 ] [ 109 ] [ 110 ]
В 2014 году современным уровнем техники было обучение «очень глубокой нейронной сети» с 20–30 слоями. [ 111 ] Наложение слишком большого количества слоев привело к резкому снижению точности обучения . [ 112 ] известная как проблема «деградации». [ 113 ] В 2015 году для обучения очень глубоких сетей были одновременно разработаны два метода: сеть автомагистралей [ 114 ] и остаточная нейронная сеть (ResNet). [ 115 ] Исследовательская группа ResNet попыталась обучить более глубокие сети, эмпирически проверяя различные приемы обучения более глубоких сетей, пока не обнаружила глубокую остаточную сетевую архитектуру. [ 116 ]
Примерно в то же время глубокое обучение начало оказывать влияние на сферу искусства. Ранние примеры включали Google DeepDream (2015 г.) и передачу нейронного стиля (2015 г.), [ 117 ] оба из них были основаны на предварительно обученных нейронных сетях классификации изображений, таких как VGG-19.
Генеративно-состязательная сеть (GAN), автор ( Ian Goodfellow et al., 2014). [ 118 ] стал новейшим достижением в генеративном моделировании в период 2014-2018 годов. Превосходное качество изображения достигается с помощью Nvidia . от StyleGAN (2018) [ 119 ] на основе Progressive GAN Теро Карраса и др. [ 120 ] Здесь генератор GAN растет от малого к большому по пирамидальной схеме. Генерация изображений с помощью GAN достигла массового успеха и спровоцировала дискуссии о дипфейках . [ 121 ] Диффузионные модели (2015) [ 122 ] с тех пор затмила GAN в генеративном моделировании благодаря таким системам, как DALL·E 2 (2022 г.) и Stable Diffusion (2022 г.).
В 2015 году распознавание речи Google улучшилось на 49% благодаря модели на основе LSTM, которую они сделали доступной через голосовой поиск Google на смартфоне . [ 123 ] [ 124 ]
Глубокое обучение является частью современных систем в различных дисциплинах, в частности в компьютерном зрении и автоматическом распознавании речи (ASR). Результаты часто используемых оценочных наборов, таких как TIMIT (ASR) и MNIST ( классификация изображений ), а также ряда задач по распознаванию речи с большим словарным запасом постоянно улучшаются. [ 89 ] [ 125 ] Сверточные нейронные сети были заменены ASR на LSTM . [ 124 ] [ 126 ] [ 127 ] [ 128 ] но более успешны в компьютерном зрении.
Йошуа Бенджио , Джеффри Хинтон и Ян ЛеКун были награждены Премией Тьюринга 2018 года за «концептуальные и инженерные прорывы, которые сделали глубокие нейронные сети важнейшим компонентом вычислений». [ 129 ]
Нейронные сети
[ редактировать ]Искусственные нейронные сети ( ИНС ) или коннекционистские системы — это вычислительные системы, вдохновленные биологическими нейронными сетями , которые составляют мозг животных. Такие системы учатся (постепенно совершенствуют свои способности) выполнять задачи, рассматривая примеры, как правило, без программирования для конкретных задач. Например, при распознавании изображений они могут научиться распознавать изображения, на которых есть кошки, анализируя примеры изображений, которые были вручную помечены как «кошка» или «нет кошки», и используя результаты анализа для идентификации кошек на других изображениях. Они нашли наибольшее применение в приложениях, которые трудно выразить с помощью традиционного компьютерного алгоритма с использованием программирования на основе правил .
ИНС основана на наборе связанных единиц, называемых искусственными нейронами (аналог биологических нейронов в биологическом мозге ). Каждое соединение ( синапс ) между нейронами может передавать сигнал другому нейрону. Принимающий (постсинаптический) нейрон может обрабатывать сигнал(ы), а затем сигнализировать нижестоящим нейронам, подключенным к нему. Нейроны могут иметь состояние, обычно представленное действительными числами , обычно от 0 до 1. Нейроны и синапсы также могут иметь вес, который меняется по мере обучения, что может увеличивать или уменьшать силу сигнала, который они посылают вниз по течению.
Обычно нейроны организованы слоями. Разные слои могут выполнять разные виды преобразований на своих входах. Сигналы перемещаются от первого (входного) к последнему (выходному) слою, возможно, после многократного прохождения слоев.
Первоначальная цель нейросетевого подхода заключалась в том, чтобы решать проблемы так же, как это делает человеческий мозг. Со временем внимание сосредоточилось на сопоставлении конкретных умственных способностей, что привело к отклонениям от биологии, таким как обратное распространение ошибки или передача информации в обратном направлении и настройка сети для отражения этой информации.
Нейронные сети использовались для решения различных задач, включая компьютерное зрение, распознавание речи , машинный перевод , социальных сетей фильтрацию , настольные и видеоигры , а также медицинскую диагностику.
По состоянию на 2017 год нейронные сети обычно насчитывают от нескольких тысяч до нескольких миллионов единиц и миллионов соединений. Несмотря на то, что это число на несколько порядков меньше количества нейронов в человеческом мозге, эти сети могут выполнять многие задачи на уровне, превосходящем человеческий (например, распознавание лиц или игра в «го»). [ 131 ] ).
Глубокие нейронные сети
[ редактировать ]Глубокая нейронная сеть (DNN) — это искусственная нейронная сеть с несколькими слоями между входным и выходным слоями. [ 7 ] [ 9 ] Существуют разные типы нейронных сетей, но они всегда состоят из одних и тех же компонентов: нейронов, синапсов, весов, смещений и функций. [ 132 ] Эти компоненты в целом функционируют таким образом, что имитируют функции человеческого мозга, и их можно обучать, как и любой другой алгоритм ML. [ нужна ссылка ]
Например, DNN, обученная распознавать породы собак, просматривает данное изображение и рассчитывает вероятность того, что собака на изображении принадлежит к определенной породе. Пользователь может просмотреть результаты и выбрать, какие вероятности должна отображать сеть (выше определенного порога и т. д.), а также вернуть предложенную метку. Каждая математическая манипуляция как таковая рассматривается как слой, [ нужна ссылка ] и сложные DNN имеют много слоев, отсюда и название «глубокие» сети.
DNN могут моделировать сложные нелинейные отношения. Архитектуры DNN генерируют композиционные модели, в которых объект выражается как многоуровневая композиция примитивов . [ 133 ] Дополнительные уровни позволяют комбинировать объекты из нижних слоев, потенциально моделируя сложные данные с меньшим количеством единиц, чем в мелкой сети с аналогичной производительностью. [ 7 ] Например, было доказано, что разреженные многомерные полиномы экспоненциально легче аппроксимировать с помощью DNN, чем с помощью мелких сетей. [ 134 ]
Глубокие архитектуры включают множество вариантов нескольких базовых подходов. Каждая архитектура нашла успех в определенных областях. Не всегда возможно сравнить производительность нескольких архитектур, если только они не оценивались на одних и тех же наборах данных.
DNN обычно представляют собой сети прямой связи, в которых данные передаются от входного уровня к выходному без обратного цикла. Сначала DNN создает карту виртуальных нейронов и присваивает случайные числовые значения или «веса» связям между ними. Веса и входные данные умножаются и возвращают выходные данные в диапазоне от 0 до 1. Если сеть не распознала точно определенный шаблон, алгоритм скорректирует веса. [ 135 ] Таким образом, алгоритм может сделать определенные параметры более влиятельными, пока не определит правильные математические манипуляции для полной обработки данных.
Рекуррентные нейронные сети , в которых данные могут передаваться в любом направлении, используются для таких приложений, как языковое моделирование . [ 136 ] [ 137 ] [ 138 ] [ 139 ] [ 140 ] Длительная кратковременная память особенно эффективна для этого использования. [ 141 ] [ 142 ]
Сверточные нейронные сети (CNN) используются в компьютерном зрении. [ 143 ] CNN также применялись для акустического моделирования для автоматического распознавания речи (ASR). [ 144 ]
Проблемы
[ редактировать ]Как и в случае с ИНС, с наивно обученными DNN может возникнуть множество проблем. Двумя распространенными проблемами являются переобучение и время вычислений.
DNN склонны к переоснащению из-за дополнительных уровней абстракции, которые позволяют им моделировать редкие зависимости в обучающих данных. Методы регуляризации, такие как сокращение единиц Ивахненко. [ 33 ] или снижение веса ( -регуляризация) или разреженность ( -регуляризация) может применяться во время тренировок для борьбы с переобучением. [ 145 ] Альтернативно, регуляризация отсева случайным образом исключает единицы из скрытых слоев во время обучения. Это помогает исключить редкие зависимости. [ 146 ] Наконец, данные можно дополнять с помощью таких методов, как обрезка и вращение, чтобы можно было увеличить размер меньших обучающих наборов, чтобы уменьшить вероятность переобучения. [ 147 ]
DNN должны учитывать множество параметров обучения, таких как размер (количество слоев и количество единиц на слой), скорость обучения и начальные веса. Просмотр пространства параметров для поиска оптимальных параметров может оказаться невозможным из-за затрат времени и вычислительных ресурсов. Различные трюки, такие как пакетная обработка (вычисление градиента сразу на нескольких обучающих примерах, а не на отдельных примерах). [ 148 ] ускорить вычисления. Большие вычислительные возможности многоядерных архитектур (таких как графические процессоры или Intel Xeon Phi) позволили значительно ускорить обучение благодаря пригодности таких архитектур обработки для матричных и векторных вычислений. [ 149 ] [ 150 ]
В качестве альтернативы инженеры могут искать другие типы нейронных сетей с более простыми и конвергентными алгоритмами обучения. CMAC ( контроллер артикуляции модели мозжечка ) — один из таких типов нейронной сети. Он не требует скорости обучения или рандомизированных начальных весов. Можно гарантировать, что процесс обучения сходится за один шаг с новой порцией данных, а вычислительная сложность алгоритма обучения линейна в зависимости от количества задействованных нейронов. [ 151 ] [ 152 ]
Аппаратное обеспечение
[ редактировать ]С 2010-х годов достижения как в алгоритмах машинного обучения, так и в компьютерном оборудовании привели к появлению более эффективных методов обучения глубоких нейронных сетей, которые содержат множество слоев нелинейных скрытых модулей и очень большой выходной слой. [ 153 ] К 2019 году графические процессоры (GPU), часто с усовершенствованиями, специально предназначенными для искусственного интеллекта, вытеснили центральные процессоры в качестве доминирующего метода обучения крупномасштабного коммерческого облачного искусственного интеллекта. [ 154 ] OpenAI оценила аппаратные вычисления, используемые в крупнейших проектах глубокого обучения, от AlexNet (2012) до AlphaZero (2017), и обнаружила 300 000-кратное увеличение объема необходимых вычислений с линией тренда удвоения, равной 3,4 месяца. [ 155 ] [ 156 ]
Специальные электронные схемы , называемые процессорами глубокого обучения, были разработаны для ускорения алгоритмов глубокого обучения. Процессоры глубокого обучения включают в себя нейронные процессоры (NPU) в Huawei . мобильных телефонах [ 157 ] и серверы облачных вычислений , такие как тензорные процессоры (TPU) в Google Cloud Platform . [ 158 ] Компания Cerebras Systems также создала специальную систему для работы с большими моделями глубокого обучения — CS-2 — на базе крупнейшего процессора в отрасли — Wafer Scale Engine второго поколения (WSE-2). [ 159 ] [ 160 ]
Атомно тонкие полупроводники считаются перспективными для создания энергоэффективного оборудования глубокого обучения, где одна и та же базовая структура устройства используется как для логических операций, так и для хранения данных. В 2020 году Марега и др. опубликовали эксперименты с материалом активного канала большой площади для разработки устройств и схем логики в памяти на основе с плавающим затвором полевых транзисторов (FGFET). [ 161 ]
В 2021 г. Дж. Фельдманн и др. предложил интегрированный фотонный аппаратный ускоритель для параллельной сверточной обработки. [ 162 ] Авторы выделяют два ключевых преимущества интегрированной фотоники перед ее электронными аналогами: (1) массово параллельная передача данных посредством по длине волны с разделением мультиплексирования в сочетании с частотными гребенками и (2) чрезвычайно высокая скорость модуляции данных. [ 162 ] Их система может выполнять триллионы операций умножения-накопления в секунду, что указывает на потенциал интегрированной фотоники в приложениях искусственного интеллекта с большим объемом данных. [ 162 ]
Приложения
[ редактировать ]Автоматическое распознавание речи
[ редактировать ]Масштабное автоматическое распознавание речи — первый и наиболее убедительный успешный случай глубокого обучения. LSTM RNN могут изучать задачи «очень глубокого обучения» [ 9 ] которые включают в себя многосекундные интервалы, содержащие речевые события, разделенные тысячами дискретных временных шагов, где один временной шаг соответствует примерно 10 мс. LSTM с воротами забывания [ 142 ] конкурирует с традиционными распознавателями речи в определенных задачах. [ 78 ]
Первоначальный успех в распознавании речи был основан на небольших задачах распознавания на основе TIMIT. Набор данных содержит 630 носителей восьми основных диалектов американского английского , каждый из которых читает 10 предложений. [ 163 ] Его небольшой размер позволяет опробовать множество конфигураций. Что еще более важно, задача TIMIT касается распознавания телефонных последовательностей, которое, в отличие от распознавания последовательностей слов, позволяет создавать слабые телефонных биграмм языковые модели . Это позволяет легче анализировать сильные стороны акустического моделирования распознавания речи. Перечисленные ниже коэффициенты ошибок, включая эти ранние результаты и измеренные в процентах коэффициента ошибок телефона (PER), суммируются с 1991 года.
Метод | Процент телефона коэффициент ошибок (PER) (%) |
---|---|
Случайно инициализированный RNN [ 164 ] | 26.1 |
Байесовский трифон GMM-HMM | 25.6 |
Модель скрытой траектории (генеративная) | 24.8 |
Монофонический случайно инициализированный DNN | 23.4 |
Монофон ДБН-ДНН | 22.4 |
Triphone GMM-HMM с обучением BMMI | 21.7 |
Монофон ДБН-ДНН на фбанке | 20.7 |
Сверточная DNN [ 165 ] | 20.0 |
Сверточная DNN w. Гетерогенное объединение | 18.7 |
Ансамбль ДНН/CNN/РНН [ 166 ] | 18.3 |
Двунаправленный LSTM | 17.8 |
Иерархическая сверточная сеть Deep Maxout [ 167 ] | 16.5 |
Дебют DNN для распознавания говорящих в конце 1990-х годов, распознавания речи примерно в 2009–2011 годах и LSTM примерно в 2003–2007 годах ускорил прогресс в восьми основных областях: [ 23 ] [ 93 ] [ 91 ]
- Масштабирование и ускорение обучения и декодирования DNN
- Последовательное дискриминационное обучение
- Обработка признаков с помощью глубоких моделей с глубоким пониманием основных механизмов
- Адаптация DNN и связанных с ними глубоких моделей
- Многозадачное и трансферное обучение с помощью DNN и связанных с ними глубоких моделей
- CNN и как их спроектировать, чтобы наилучшим образом использовать знания предметной области речи
- RNN и его богатые варианты LSTM
- Другие типы глубоких моделей, включая тензорные модели и интегрированные глубокие генеративные/дискриминационные модели.
Все основные коммерческие системы распознавания речи (например, Microsoft Cortana , Xbox , Skype Translator , Amazon Alexa , Google Now , Apple Siri , Baidu и голосовой поиск iFlyTek , а также ряд речевых продуктов Nuance и т. д.) основаны на глубоком обучении. [ 23 ] [ 168 ] [ 169 ]
Распознавание изображений
[ редактировать ]Обычным набором оценок для классификации изображений является набор данных базы данных MNIST . MNIST состоит из рукописных цифр и включает 60 000 обучающих примеров и 10 000 тестовых примеров. Как и в случае с TIMIT, его небольшой размер позволяет пользователям тестировать несколько конфигураций. Доступен полный список результатов по этому набору. [ 170 ]
Распознавание изображений на основе глубокого обучения стало «сверхчеловеческим», давая более точные результаты, чем участники-люди. Впервые это произошло в 2011 году при распознавании дорожных знаков, а в 2014 году — при распознавании человеческих лиц. [ 171 ] [ 172 ]
Транспортные средства, обученные глубокому обучению, теперь интерпретируют изображения с камер на 360°. [ 173 ] Другим примером является новый анализ лицевой дисморфологии (FDNA), используемый для анализа случаев пороков развития человека, связанных с большой базой данных генетических синдромов.
Обработка визуального искусства
[ редактировать ]С прогрессом, достигнутым в распознавании изображений, тесно связано все более широкое применение методов глубокого обучения для различных задач визуального искусства. DNN доказали свою способность, например,
- определение стилевого периода данной картины [ 174 ] [ 175 ]
- Нейронная передача стиля – фиксация стиля данного произведения искусства и применение его визуально приятным образом к произвольной фотографии или видео. [ 174 ] [ 175 ]
- создание ярких изображений на основе случайных полей визуального ввода. [ 174 ] [ 175 ]
Обработка естественного языка
[ редактировать ]Нейронные сети используются для реализации языковых моделей с начала 2000-х годов. [ 136 ] LSTM помог улучшить машинный перевод и языковое моделирование. [ 137 ] [ 138 ] [ 139 ]
Другими ключевыми методами в этой области являются отрицательные выборки. [ 176 ] и встраивание слов . Встраивание слов, такое как word2vec , можно рассматривать как репрезентативный уровень в архитектуре глубокого обучения, который преобразует атомарное слово в позиционное представление слова относительно других слов в наборе данных; положение представлено как точка в векторном пространстве . Использование встраивания слов в качестве входного слоя RNN позволяет сети анализировать предложения и фразы, используя эффективную композиционную векторную грамматику. Композиционную векторную грамматику можно рассматривать как вероятностную контекстно-свободную грамматику (PCFG), реализуемую RNN. [ 177 ] Рекурсивные автокодировщики, построенные на основе встраивания слов, могут оценивать сходство предложений и обнаруживать перефразирование. [ 177 ] Глубокие нейронные архитектуры обеспечивают наилучшие результаты при анализе избирательного округа. [ 178 ] анализ настроений , [ 179 ] поиск информации, [ 180 ] [ 181 ] понимание разговорной речи, [ 182 ] машинный перевод, [ 137 ] [ 183 ] контекстное связывание сущностей, [ 183 ] распознавание стиля письма, [ 184 ] распознавание именованных объектов (классификация токенов), [ 185 ] классификация текста и другие. [ 186 ]
Недавние разработки обобщают встраивание слов в встраивание предложений .
Google Translate (GT) использует большую сквозную сеть с длинной краткосрочной памятью (LSTM). [ 187 ] [ 188 ] [ 189 ] [ 190 ] Нейронный машинный перевод Google (GNMT) использует метод машинного перевода на основе примеров , при котором система «обучается на миллионах примеров». [ 188 ] Он переводит «целые предложения за раз, а не по частям». Google Translate поддерживает более ста языков. [ 188 ] Сеть кодирует «семантику предложения, а не просто запоминает построчный перевод». [ 188 ] [ 191 ] GT использует английский как промежуточный вариант между большинством языковых пар. [ 191 ]
Открытие лекарств и токсикология
[ редактировать ]Большой процент потенциальных лекарств не получает одобрения регулирующих органов. Эти неудачи вызваны недостаточной эффективностью (нецелевой эффект), нежелательными взаимодействиями (нецелевые эффекты) или непредвиденными токсическими эффектами . [ 192 ] [ 193 ] Исследования изучали возможность использования глубокого обучения для прогнозирования биомолекулярных целей . [ 194 ] [ 195 ] нецелевые результаты и токсическое воздействие химических веществ, содержащихся в питательных веществах, предметах домашнего обихода и лекарствах. [ 196 ] [ 197 ] [ 198 ]
AtomNet — это система глубокого обучения для рационального проектирования лекарств на основе структуры . [ 199 ] AtomNet использовался для прогнозирования новых биомолекул-кандидатов для борьбы с такими болезнями, как вирус Эбола. [ 200 ] и рассеянный склероз . [ 201 ] [ 200 ]
В 2017 году графовые нейронные сети были впервые использованы для прогнозирования различных свойств молекул в большом наборе токсикологических данных. [ 202 ] В 2019 году генеративные нейронные сети были использованы для производства молекул, которые были проверены экспериментально на мышах. [ 203 ] [ 204 ]
Управление взаимоотношениями с клиентами
[ редактировать ]Глубокое обучение с подкреплением использовалось для приблизительного определения ценности возможных действий прямого маркетинга , определенной с точки зрения RFM переменных . Было показано, что функция оценочной стоимости имеет естественную интерпретацию как пожизненная ценность клиента . [ 205 ]
Рекомендательные системы
[ редактировать ]Системы рекомендаций использовали глубокое обучение для извлечения значимых функций для модели скрытых факторов для рекомендаций по музыке и журналам на основе контента. [ 206 ] [ 207 ] Глубокое обучение с несколькими представлениями применялось для изучения предпочтений пользователей из нескольких доменов. [ 208 ] Модель использует гибридный подход, основанный на совместной работе и контенте, и расширяет рекомендации для решения нескольких задач.
Биоинформатика
[ редактировать ]Автоэнкодер аннотаций ANN использовался в биоинформатике для прогнозирования онтологии генов и отношений ген-функция. [ 209 ]
В медицинской информатике глубокое обучение использовалось для прогнозирования качества сна на основе данных носимых устройств. [ 210 ] и прогнозирование осложнений со здоровьем на основе данных электронных медицинских карт . [ 211 ]
Глубокие нейронные сети продемонстрировали беспрецедентную эффективность в предсказании структуры белка в соответствии с последовательностью аминокислот, из которых он состоит. В 2020 году AlphaFold , система, основанная на глубоком обучении, достигла уровня точности, значительно превышающего все предыдущие вычислительные методы. [ 212 ] [ 213 ]
Оценки глубокой нейронной сети
[ редактировать ]Глубокие нейронные сети могут использоваться для оценки энтропии случайного процесса и называются оценщиком энтропии нейронных соединений (NJEE). [ 214 ] Такая оценка дает представление о влиянии входных случайных величин на независимую случайную величину . На практике DNN обучается как классификатор , который сопоставляет входной вектор или матрицу X с выходным распределением вероятностей по возможным классам случайной величины Y при заданных входных данных X. Например, в задачах классификации изображений NJEE отображает вектор пикселей ' значения цвета для вероятностей возможных классов изображений. На практике распределение вероятностей Y получается с помощью слоя Softmax с количеством узлов, равным размеру алфавита Y. NJEE использует непрерывно дифференцируемые функции активации , так что выполняются условия универсальной теоремы аппроксимации . Показано, что этот метод обеспечивает строго согласованную оценку и превосходит другие методы в случае больших размеров алфавита. [ 214 ]
Анализ медицинских изображений
[ редактировать ]Было показано, что глубокое обучение дает конкурентоспособные результаты в медицинских приложениях, таких как классификация раковых клеток, обнаружение поражений, сегментация органов и улучшение изображений. [ 215 ] [ 216 ] Современные инструменты глубокого обучения демонстрируют высокую точность выявления различных заболеваний и полезность их использования специалистами для повышения эффективности диагностики. [ 217 ] [ 218 ]
Мобильная реклама
[ редактировать ]Найти подходящую мобильную аудиторию для мобильной рекламы всегда непросто, поскольку необходимо учитывать и анализировать множество точек данных, прежде чем целевой сегмент можно будет создать и использовать при показе рекламы любым рекламным сервером. [ 219 ] Глубокое обучение использовалось для интерпретации больших и многомерных наборов рекламных данных. Многие данные собираются во время цикла интернет-рекламы «запрос/обслуживание/нажатие». Эта информация может лечь в основу машинного обучения для улучшения выбора рекламы.
Восстановление изображения
[ редактировать ]Глубокое обучение успешно применяется для решения обратных задач, таких как шумоподавление , суперразрешение , рисование и раскрашивание пленки . [ 220 ] Эти приложения включают в себя такие методы обучения, как «Поля усадки для эффективного восстановления изображений». [ 221 ] который обучается на наборе данных изображения, и Deep Image Prior , который обучается на изображении, требующем восстановления.
Обнаружение финансового мошенничества
[ редактировать ]Глубокое обучение успешно применяется для обнаружения финансового мошенничества , уклонения от уплаты налогов, [ 222 ] и борьба с отмыванием денег. [ 223 ]
Материаловедение
[ редактировать ]В ноябре 2023 года исследователи из Google DeepMind и Национальной лаборатории Лоуренса Беркли объявили, что разработали систему искусственного интеллекта, известную как GNoME. Эта система внесла вклад в материаловедение , открыв более 2 миллионов новых материалов за относительно короткий период времени. GNoME использует методы глубокого обучения для эффективного исследования потенциальных структур материалов, достигая значительного улучшения идентификации стабильных неорганических кристаллических структур . Предсказания системы были подтверждены в ходе автономных роботизированных экспериментов, продемонстрировавших примечательный уровень успеха — 71%. Данные о вновь обнаруженных материалах общедоступны через базу данных Materials Project , что дает исследователям возможность идентифицировать материалы с желаемыми свойствами для различных применений. Это развитие имеет последствия для будущего научных открытий и интеграции ИИ в исследования в области материаловедения, потенциально ускоряя инновации в материалах и снижая затраты на разработку продуктов. Использование искусственного интеллекта и глубокого обучения предполагает возможность свести к минимуму или исключить ручные лабораторные эксперименты и позволить ученым больше сосредоточиться на разработке и анализе уникальных соединений. [ 224 ] [ 225 ] [ 226 ]
Военный
[ редактировать ]Министерство обороны США применило глубокое обучение для обучения роботов новым задачам посредством наблюдения. [ 227 ]
Уравнения в частных производных
[ редактировать ]Нейронные сети, основанные на физике, использовались для решения уравнений в частных производных как в прямых, так и в обратных задачах на основе данных. [ 228 ] Одним из примеров является реконструкция потока жидкости, определяемая уравнениями Навье-Стокса . Использование нейронных сетей, основанных на физике, не требует часто дорогостоящего создания сетки, CFD . на котором полагаются традиционные методы [ 229 ] [ 230 ]
Метод глубокого обратного стохастического дифференциального уравнения
[ редактировать ]Метод глубокого обратного стохастического дифференциального уравнения — это численный метод, сочетающий глубокое обучение с обратным стохастическим дифференциальным уравнением (BSDE). Этот метод особенно полезен для решения многомерных задач финансовой математики. Используя мощные возможности аппроксимации функций глубоких нейронных сетей , глубокий BSDE решает вычислительные проблемы, с которыми сталкиваются традиционные численные методы в многомерных условиях. В частности, традиционные методы, такие как методы конечных разностей или моделирование Монте-Карло, часто борются с проклятием размерности, когда вычислительные затраты растут экспоненциально с увеличением количества измерений. Однако методы Deep BSDE используют глубокие нейронные сети для аппроксимации решений многомерных уравнений в частных производных (PDE), что эффективно снижает вычислительную нагрузку. [ 231 ]
Кроме того, интеграция нейронных сетей, основанных на физике (PINN), в глубокую структуру BSDE расширяет ее возможности за счет внедрения основных физических законов непосредственно в архитектуру нейронной сети. Это гарантирует, что решения не только соответствуют данным, но и соответствуют основным стохастическим дифференциальным уравнениям. PINN используют возможности глубокого обучения, соблюдая при этом ограничения, налагаемые физическими моделями, что приводит к более точным и надежным решениям задач финансовой математики.
Реконструкция изображения
[ редактировать ]Реконструкция изображения — это реконструкция основных изображений на основе измерений, связанных с изображением. Несколько работ показали лучшую и превосходящую производительность методов глубокого обучения по сравнению с аналитическими методами для различных приложений, например, спектральной визуализации. [ 232 ] и ультразвуковое исследование. [ 233 ]
Прогноз погоды
[ редактировать ]Традиционные системы прогнозирования погоды решают очень сложную систему дифференциальных уравнений Патриала. GraphCast — это модель, основанная на глубоком обучении, обученная на долгой истории погодных данных и позволяющая прогнозировать, как погодные условия изменяются с течением времени. Он способен прогнозировать погодные условия на срок до 10 дней по всему миру, на очень детальном уровне и менее чем за минуту, с точностью, аналогичной современным системам. [ 234 ] [ 235 ]
Эпигенетические часы
[ редактировать ]Эпигенетические часы — это биохимический тест , который можно использовать для измерения возраста. Галкин и др. использовали глубокие нейронные сети для обучения эпигенетических часов старения с беспрецедентной точностью, используя более 6000 образцов крови. [ 236 ] Часы используют информацию из 1000 CpG-сайтов и прогнозируют людей с определенными заболеваниями старше, чем здоровый контроль: воспалительное заболевание кишечника , лобно-височная деменция , рак яичников , ожирение . Часы старения планировалось выпустить для публичного использования в 2021 году дочерней компанией Insilico Medicine Deep Longevity.
Связь с когнитивными способностями и развитием мозга человека
[ редактировать ]Глубокое обучение тесно связано с классом теорий развития мозга (в частности, развития неокортекса), предложенных когнитивными нейробиологами в начале 1990-х годов. [ 237 ] [ 238 ] [ 239 ] [ 240 ] Эти теории развития были воплощены в вычислительных моделях, что сделало их предшественниками систем глубокого обучения. Эти модели развития обладают тем общим свойством, что различные предполагаемые динамики обучения в мозге (например, волна фактора роста нервов ) поддерживают самоорганизацию, в некоторой степени аналогичную нейронным сетям, используемым в моделях глубокого обучения. Как и неокортекс , нейронные сети используют иерархию многоуровневых фильтров, в которой каждый уровень рассматривает информацию из предыдущего уровня (или операционной среды), а затем передает ее выходные данные (и, возможно, исходные входные данные) на другие уровни. В результате этого процесса получается самоорганизующийся набор датчиков , хорошо настроенный к рабочей среде. В описании 1995 года говорилось: «...мозг младенца, по-видимому, самоорганизуется под влиянием волн так называемых трофических факторов... различные области мозга соединяются последовательно, при этом один слой ткани созревает раньше другого и так до тех пор, пока весь мозг не созреет». [ 241 ]
Для исследования правдоподобности моделей глубокого обучения с нейробиологической точки зрения использовались различные подходы. С одной стороны, обратного распространения ошибки с целью повышения реалистичности его обработки. было предложено несколько вариантов алгоритма [ 242 ] [ 243 ] Другие исследователи утверждают, что неконтролируемые формы глубокого обучения, например, основанные на иерархических генеративных моделях и сетях глубоких убеждений , могут быть ближе к биологической реальности. [ 244 ] [ 245 ] В этом отношении модели генеративных нейронных сетей связаны с нейробиологическими данными об обработке данных в коре головного мозга на основе выборки. [ 246 ]
Хотя систематическое сравнение организации человеческого мозга и кодирования нейронов в глубоких сетях еще не проведено, сообщалось о нескольких аналогиях. Например, вычисления, выполняемые модулями глубокого обучения, могут быть аналогичны вычислениям реальных нейронов. [ 247 ] и нейронные популяции. [ 248 ] Точно так же представления, разработанные моделями глубокого обучения, аналогичны тем, которые измеряются в зрительной системе приматов. [ 249 ] оба в одном блоке [ 250 ] и у населения [ 251 ] уровни.
Коммерческая деятельность
[ редактировать ]Facebook Лаборатория искусственного интеллекта выполняет такие задачи, как автоматическая пометка загруженных изображений именами людей на них. [ 252 ]
от Google Компания DeepMind Technologies разработала систему, способную научиться играть Atari, в видеоигры используя в качестве входных данных только пиксели. В 2015 году они продемонстрировали свою систему AlphaGo , которая достаточно хорошо изучила игру в го, чтобы победить профессионального игрока в го. [ 253 ] [ 254 ] [ 255 ] Google Translate использует нейронную сеть для перевода более чем на 100 языков.
В 2017 году был запущен Covariant.ai, целью которого является интеграция глубокого обучения в фабрики. [ 256 ]
По состоянию на 2008 год [ 257 ] Исследователи из Техасского университета в Остине (Юта) разработали систему машинного обучения под названием «Обучение агента вручную с помощью оценочного подкрепления» или TAMER, которая предложила новые методы, позволяющие роботам или компьютерным программам научиться выполнять задачи, взаимодействуя с человеком-инструктором. [ 227 ] Новый алгоритм под названием Deep TAMER, впервые разработанный как TAMER, был позже представлен в 2018 году в ходе сотрудничества Исследовательской лаборатории армии США (ARL) и исследователей UT. Deep TAMER использовал глубокое обучение, чтобы предоставить роботу возможность изучать новые задачи посредством наблюдения. [ 227 ] Используя Deep TAMER, робот обучался выполнению задачи вместе с тренером-человеком, просматривая видеопотоки или наблюдая, как человек выполняет задачу лично. Позже робот попрактиковался в выполнении задания под руководством тренера, который давал такие отзывы, как «хорошая работа» и «плохая работа». [ 258 ]
Критика и комментарии
[ редактировать ]Глубокое обучение вызвало как критику, так и комментарии, в некоторых случаях за пределами области информатики.
Теория
[ редактировать ]Основная критика касается отсутствия теории вокруг некоторых методов. [ 259 ] Обучение в наиболее распространенных глубоких архитектурах реализуется с помощью хорошо понятного градиентного спуска. Однако теория других алгоритмов, таких как контрастивная дивергенция, менее ясна. [ нужна ссылка ] (например, сходится ли оно? Если да, то как быстро? Что оно аппроксимирует?) Методы глубокого обучения часто рассматриваются как черный ящик , причем большинство подтверждений делается эмпирически, а не теоретически. [ 260 ]
Другие отмечают, что глубокое обучение следует рассматривать как шаг к созданию сильного ИИ , а не как всеобъемлющее решение. Несмотря на мощь методов глубокого обучения, им все еще не хватает функциональности, необходимой для полной реализации этой цели. Психолог-исследователь Гэри Маркус отметил:
На самом деле глубокое обучение — это лишь часть более масштабной задачи создания интеллектуальных машин. В таких методах отсутствуют способы представления причинно-следственных связей (...), нет очевидных способов выполнения логических выводов , а также они еще далеки от интеграции абстрактных знаний, таких как информация о том, что представляют собой объекты, для чего они предназначены и как они обычно используются. Самые мощные системы искусственного интеллекта, такие как Watson (...), используют такие методы, как глубокое обучение, как всего лишь один элемент в очень сложном ансамбле методов, начиная от статистического метода байесовского вывода и заканчивая дедуктивным рассуждением . [ 261 ]
В качестве дальнейшей ссылки на идею о том, что художественная чувствительность может быть присуща относительно низким уровням когнитивной иерархии, опубликована серия графических изображений внутренних состояний глубоких (20-30 слоев) нейронных сетей, пытающихся различить среди по существу случайных данных изображения. на котором они обучались [ 262 ] продемонстрировать визуальную привлекательность: оригинальное уведомление об исследовании получило более 1000 комментариев и стало темой статьи, которая какое-то время была наиболее часто доступной статьей в The Guardian . [ 263 ] веб-сайт.
Ошибки
[ редактировать ]Некоторые архитектуры глубокого обучения демонстрируют проблемное поведение. [ 264 ] например, уверенное отнесение неузнаваемых изображений к знакомой категории обычных изображений (2014) [ 265 ] и неправильная классификация мельчайших искажений правильно классифицированных изображений (2013). [ 266 ] Герцель предположил, что такое поведение связано с ограничениями их внутренних представлений и что эти ограничения будут препятствовать интеграции в гетерогенные многокомпонентные общего искусственного интеллекта (AGI). архитектуры [ 264 ] Эти проблемы, возможно, могут быть решены с помощью архитектур глубокого обучения, которые внутри формируют состояния, гомологичные грамматике изображения. [ 267 ] декомпозиции наблюдаемых сущностей и событий. [ 264 ] Изучение грамматики (визуальной или лингвистической) на основе обучающих данных было бы эквивалентно ограничению системы рассуждениями здравого смысла , которые оперируют понятиями с точки зрения грамматических правил производства и являются основной целью как овладения человеческим языком, так и [ 268 ] и искусственный интеллект (ИИ). [ 269 ]
Киберугроза
[ редактировать ]По мере того как глубокое обучение выходит из лабораторий в мир, исследования и опыт показывают, что искусственные нейронные сети уязвимы для хакерских атак и обмана. [ 270 ] Выявив закономерности, которые эти системы используют для функционирования, злоумышленники могут изменить входные данные ИНС таким образом, что ИНС найдет совпадение, которое люди-наблюдатели не смогут распознать. Например, злоумышленник может внести незначительные изменения в изображение, так что ИНС найдет совпадение, даже если для человека изображение выглядит совсем не так, как цель поиска. Такая манипуляция называется «состязательной атакой». [ 271 ]
В 2016 году исследователи использовали одну ИНС для обработки изображений методом проб и ошибок, определения фокусных точек другого и, таким образом, создания изображений, которые обманывали его. Модифицированные изображения ничем не отличались от человеческих глаз. Другая группа показала, что распечатки сфальсифицированных изображений, которые затем были сфотографированы, успешно обманули систему классификации изображений. [ 272 ] Одним из способов защиты является обратный поиск изображений, при котором возможное поддельное изображение отправляется на такой сайт, как TinEye , который затем может найти другие его экземпляры. Уточнение состоит в том, чтобы искать, используя только части изображения, чтобы идентифицировать изображения, из которых эта часть могла быть взята . [ 273 ]
Другая группа показала, что некоторые психоделические зрелища могут обмануть систему распознавания лиц , заставив ее думать, что обычные люди — знаменитости, что потенциально позволяет одному человеку выдавать себя за другого. В 2017 году исследователи добавили наклейки на знаки остановки , из-за чего ANN неправильно их классифицировала. [ 272 ]
Однако ИНС можно дополнительно обучить обнаружению попыток обмана , что потенциально может привести злоумышленников и защитников к гонке вооружений, подобной той, которая уже определяет индустрию защиты от вредоносного ПО . ИНС обучены побеждать антивирусное программное обеспечение на основе ИНС, неоднократно атакуя защиту с помощью вредоносного ПО, которое постоянно изменялось генетическим алгоритмом, пока оно не обмануло антивирусное ПО, сохраняя при этом свою способность наносить ущерб цели. [ 272 ]
В 2016 году другая группа продемонстрировала, что определенные звуки могут заставить систему голосовых команд Google Now открыть определенный веб-адрес, и предположила, что это может «служить трамплином для дальнейших атак (например, открытие веб-страницы, на которой размещено вредоносное ПО) ". [ 272 ]
При « отравлении данных » ложные данные постоянно вводятся в обучающий набор системы машинного обучения, чтобы помешать ей достичь мастерства. [ 272 ]
Этика сбора данных
[ редактировать ]Этот раздел нуждается в дополнительных цитатах для проверки . ( апрель 2021 г. ) |
Большинство систем глубокого обучения полагаются на данные обучения и проверки, которые генерируются и/или аннотируются людьми. [ 274 ] утверждается В философии СМИ , что для этой цели регулярно используется не только низкооплачиваемая работа с кликами (например, на Amazon Mechanical Turk ), но и неявные формы человеческой микроработы , которые часто не признаются как таковые. [ 275 ] Философ Райнер Мюльхофф различает пять типов «машинного захвата» микроработы человека для создания обучающих данных: (1) геймификация (встраивание аннотаций или вычислительных задач в ход игры), (2) «перехват и отслеживание» (например, CAPTCHA для распознавания изображений или отслеживания кликов на страницах результатов поиска Google ), (3) использование социальных мотивов (например, пометка лиц на Facebook для получения маркированных изображений лиц), (4) интеллектуальный анализ информации (например, путем использования устройств количественной самооценки , таких как трекеры активности ) и (5) кликворк . [ 275 ]
Мюльхофф утверждает, что в большинстве коммерческих приложений глубокого обучения для конечных пользователей, таких как система распознавания лиц Facebook , потребность в обучающих данных не прекращается после обучения ИНС. Скорее, существует постоянный спрос на данные проверки, созданные человеком, для постоянной калибровки и обновления ИНС. С этой целью Facebook представил функцию: как только пользователь автоматически распознается на изображении, он получает уведомление. Они могут выбрать, хотят ли они, чтобы их публично отмечали на изображении, или сказать Facebook, что на изображении не они. [ 276 ] Этот пользовательский интерфейс представляет собой механизм генерации «постоянного потока проверочных данных». [ 275 ] для дальнейшего обучения сети в режиме реального времени. Как утверждает Мюльхофф, участие пользователей-людей для создания данных обучения и проверки настолько типично для большинства коммерческих приложений глубокого обучения для конечных пользователей, что такие системы можно назвать «искусственным интеллектом, управляемым человеком». [ 275 ]
См. также
[ редактировать ]- Приложения искусственного интеллекта
- Сравнение программного обеспечения глубокого обучения
- Сжатое зондирование
- Дифференцируемое программирование
- Государственная сеть Эхо
- Список проектов искусственного интеллекта
- Машина жидкого состояния
- Список наборов данных для исследований в области машинного обучения
- Резервные вычисления
- Масштабирование пространства и глубокое обучение
- Разреженное кодирование
- Стохастический попугай
- Топологическое глубокое обучение
Ссылки
[ редактировать ]- ^ Шульц, Ханнес; Бенке, Свен (1 ноября 2012 г.). «Глубокое обучение» . ИИ – искусственный интеллект . 26 (4): 357–363. дои : 10.1007/s13218-012-0198-z . ISSN 1610-1987 . S2CID 220523562 .
- ^ Перейти обратно: а б ЛеКун, Янн; Бенджио, Йошуа; Хинтон, Джеффри (2015). «Глубокое обучение» (PDF) . Природа . 521 (7553): 436–444. Бибкод : 2015Natur.521..436L . дои : 10.1038/nature14539 . ПМИД 26017442 . S2CID 3074096 .
- ^ Перейти обратно: а б Чиресан, Д.; Мейер, У.; Шмидхубер, Дж. (2012). «Многостолбцовые глубокие нейронные сети для классификации изображений». Конференция IEEE 2012 по компьютерному зрению и распознаванию образов . стр. 3642–3649. arXiv : 1202.2745 . дои : 10.1109/cvpr.2012.6248110 . ISBN 978-1-4673-1228-8 . S2CID 2161592 .
- ^ Перейти обратно: а б Крижевский, Алекс; Суцкевер, Илья; Хинтон, Джеффри (2012). «Классификация ImageNet с глубокими сверточными нейронными сетями» (PDF) . NIPS 2012: Нейронные системы обработки информации, озеро Тахо, Невада . Архивировано (PDF) из оригинала 10 января 2017 г. Проверено 24 мая 2017 г.
- ^ «ИИ AlphaGo от Google выиграл серию из трех матчей у лучшего в мире игрока в го» . ТехКранч . 25 мая 2017 года. Архивировано из оригинала 17 июня 2018 года . Проверено 17 июня 2018 г.
- ^ «Исследование призывает к осторожности при сравнении нейронных сетей с мозгом» . Новости Массачусетского технологического института | Массачусетский технологический институт . 02.11.2022 . Проверено 6 декабря 2023 г.
- ^ Перейти обратно: а б с д Бенджио, Йошуа (2009). «Изучение глубокой архитектуры для искусственного интеллекта» (PDF) . Основы и тенденции в машинном обучении . 2 (1): 1–127. CiteSeerX 10.1.1.701.9550 . дои : 10.1561/2200000006 . S2CID 207178999 . Архивировано из оригинала (PDF) 4 марта 2016 года . Проверено 3 сентября 2015 г.
- ^ Перейти обратно: а б с д и Бенджио, Ю.; Курвиль, А.; Винсент, П. (2013). «Обучение репрезентации: обзор и новые перспективы». Транзакции IEEE по анализу шаблонов и машинному интеллекту . 35 (8): 1798–1828. arXiv : 1206.5538 . дои : 10.1109/tpami.2013.50 . ПМИД 23787338 . S2CID 393948 .
- ^ Перейти обратно: а б с д и ж г час Шмидхубер, Дж. (2015). «Глубокое обучение в нейронных сетях: обзор». Нейронные сети . 61 : 85–117. arXiv : 1404.7828 . дои : 10.1016/j.neunet.2014.09.003 . ПМИД 25462637 . S2CID 11715509 .
- ^ Сигэки, Сугияма (12 апреля 2019 г.). Человеческое поведение и другие виды сознания: новые исследования и возможности: новые исследования и возможности . IGI Global. ISBN 978-1-5225-8218-2 .
- ^ Бенджио, Йошуа; Ламблин, Паскаль; Поповичи, Дэн; Ларошель, Хьюго (2007). Жадное послойное обучение глубоких сетей (PDF) . Достижения в области нейронных систем обработки информации. стр. 153–160. Архивировано (PDF) из оригинала 20 октября 2019 г. Проверено 6 октября 2019 г.
- ^ Перейти обратно: а б Хинтон, GE (2009). «Сети глубоких убеждений» . Схоларпедия . 4 (5): 5947. Бибкод : 2009SchpJ...4.5947H . doi : 10.4249/scholarpedia.5947 .
- ^ Рина Дектер (1986). Обучение во время поиска в задачах ограничения-удовлетворения. Калифорнийский университет, факультет компьютерных наук, лаборатория когнитивных систем. Интернет- архив, заархивированный 19 апреля 2016 г., на Wayback Machine.
- ^ Айзенберг, Индиана; Айзенберг, Н.Н.; Вандевалле, Дж. (2000). Многозначные и универсальные бинарные нейроны . Научные и деловые СМИ. дои : 10.1007/978-1-4757-3115-6 . ISBN 978-0-7923-7824-2 . Проверено 27 декабря 2023 г.
- ^ Коэволюционирующие рекуррентные нейроны изучают POMDP глубокой памяти. Учеб. GECCO, Вашингтон, округ Колумбия, стр. 1795–1802, ACM Press, Нью-Йорк, Нью-Йорк, США, 2005 г.
- ^ Фрадков, Александр Львович (01.01.2020). «Ранняя история машинного обучения» . IFAC-PapersOnLine . 21-й Всемирный конгресс МФБ. 53 (2): 1385–1390. doi : 10.1016/j.ifacol.2020.12.1888 . ISSN 2405-8963 . S2CID 235081987 .
- ^ Перейти обратно: а б с Цыбенко (1989). «Приближения суперпозициями сигмоидальных функций» (PDF) . Математика управления, сигналов и систем . 2 (4): 303–314. Бибкод : 1989MCSS....2..303C . дои : 10.1007/bf02551274 . S2CID 3958369 . Архивировано из оригинала (PDF) 10 октября 2015 года.
- ^ Перейти обратно: а б с Хорник, Курт (1991). «Аппроксимационные возможности многослойных сетей прямого распространения». Нейронные сети . 4 (2): 251–257. дои : 10.1016/0893-6080(91)90009-т . S2CID 7343126 .
- ^ Перейти обратно: а б Хайкин, Саймон С. (1999). Нейронные сети: комплексная основа . Прентис Холл. ISBN 978-0-13-273350-2 .
- ^ Перейти обратно: а б Хассун, Мохаммед Х. (1995). Основы искусственных нейронных сетей . МТИ Пресс. п. 48. ИСБН 978-0-262-08239-6 .
- ^ Перейти обратно: а б Лу З., Пу Х., Ван Ф., Ху З. и Ван Л. (2017). Выразительная сила нейронных сетей: взгляд со стороны. Архивировано 13 февраля 2019 г. на Wayback Machine . Нейронные системы обработки информации, 6231-6239.
- ^ Орхан, А.Е.; Ма, WJ (2017). «Эффективный вероятностный вывод в универсальных нейронных сетях, обученных с использованием невероятностной обратной связи» . Природные коммуникации . 8 (1): 138. Бибкод : 2017NatCo...8..138O . дои : 10.1038/s41467-017-00181-8 . ПМК 5527101 . ПМИД 28743932 .
- ^ Перейти обратно: а б с д и Дэн, Л.; Ю, Д. (2014). «Глубокое обучение: методы и приложения» (PDF) . Основы и тенденции в области обработки сигналов . 7 (3–4): 1–199. дои : 10.1561/2000000039 . Архивировано (PDF) из оригинала 14 марта 2016 г. Проверено 18 октября 2014 г.
- ^ Перейти обратно: а б с д Мерфи, Кевин П. (24 августа 2012 г.). Машинное обучение: вероятностный взгляд . МТИ Пресс. ISBN 978-0-262-01802-9 .
- ^ Перейти обратно: а б Фукусима, К. (1969). «Визуальное извлечение признаков с помощью многослойной сети аналоговых пороговых элементов». Транзакции IEEE по системным наукам и кибернетике . 5 (4): 322–333. дои : 10.1109/TSSC.1969.300225 .
- ^ Сонода, Шо; Мурата, Нобору (2017). «Нейронная сеть с неограниченными функциями активации является универсальным аппроксиматором». Прикладной и вычислительный гармонический анализ . 43 (2): 233–268. arXiv : 1505.03654 . дои : 10.1016/j.acha.2015.12.005 . S2CID 12149203 .
- ^ Бишоп, Кристофер М. (2006). Распознавание образов и машинное обучение (PDF) . Спрингер. ISBN 978-0-387-31073-2 . Архивировано (PDF) из оригинала 11 января 2017 г. Проверено 6 августа 2017 г.
- ^ Розенблатт, Ф. (1958). «Персептрон: вероятностная модель хранения и организации информации в мозге» . Психологический обзор . 65 (6): 386–408. дои : 10.1037/h0042519 . ISSN 1939-1471 . ПМИД 13602029 .
- ^ Перейти обратно: а б Розенблатт, Франк (1962). Принципы нейродинамики . Спартан, Нью-Йорк.
- ^ Тапперт, Чарльз К. (2019). «Кто отец глубокого обучения?» . Международная конференция по вычислительной науке и вычислительному интеллекту (CSCI) 2019 . IEEE. стр. 343–348. дои : 10.1109/CSCI49370.2019.00067 . ISBN 978-1-7281-5584-5 . S2CID 216043128 . Проверено 31 мая 2021 г.
- ^ Ивахненко А.Г.; Лапа, В.Г. (1967). Кибернетика и методы прогнозирования . американской издательской компании Elsevier ISBN 978-0-444-00020-0 .
- ^ Ивахненко А.Г. (март 1970 г.). «Эвристическая самоорганизация в задачах инженерной кибернетики» . Автоматика . 6 (2): 207–219. дои : 10.1016/0005-1098(70)90092-0 .
- ^ Перейти обратно: а б Ивахненко, Алексей (1971). «Полиномиальная теория сложных систем» (PDF) . Транзакции IEEE по системам, человеку и кибернетике . СМК-1 (4): 364–378. дои : 10.1109/TSMC.1971.4308320 . Архивировано (PDF) из оригинала 29 августа 2017 г. Проверено 5 ноября 2019 г.
- ^ Роббинс, Х .; Монро, С. (1951). «Метод стохастической аппроксимации» . Анналы математической статистики . 22 (3): 400. дои : 10.1214/aoms/1177729586 .
- ^ Амари, Шуничи (1967). «Теория адаптивного классификатора шаблонов». IEEE-транзакции . ЕС (16): 279–307.
- ^ Перейти обратно: а б с Шмидхубер, Юрген (2022). «Аннотированная история современного искусственного интеллекта и глубокого обучения». arXiv : 2212.11279 [ cs.NE ].
- ^ Лейбниц, Готфрид Вильгельм Фрайгер фон (1920). Ранние математические рукописи Лейбница: перевод с латинских текстов, опубликованных Карлом Иммануэлем Герхардтом с критическими и историческими примечаниями (Лейбниц опубликовал цепное правило в мемуарах 1676 года) . Издательство «Открытый суд». ISBN 9780598818461 .
- ^ Келли, Генри Дж. (1960). «Градиентная теория оптимальных траекторий полета». Журнал АРС . 30 (10): 947–954. дои : 10.2514/8.5282 .
- ^ Линнаинмаа, Сеппо (1970). Представление совокупной ошибки округления алгоритма в виде разложения Тейлора локальных ошибок округления (Мастерс) (на финском языке). Университет Хельсинки. п. 6–7.
- ^ Линнаинмаа, Сеппо (1976). «Разложение Тейлора накопленной ошибки округления». БИТ Численная математика . 16 (2): 146–160. дои : 10.1007/bf01931367 . S2CID 122357351 .
- ^ Андерсон, Джеймс А.; Розенфельд, Эдвард, ред. (2000). Говорящие сети: устная история нейронных сетей . Массачусетский технологический институт Пресс. дои : 10.7551/mitpress/6626.003.0016 . ISBN 978-0-262-26715-1 .
- ^ Вербос, Пол (1982). «Применение достижений нелинейного анализа чувствительности» (PDF) . Системное моделирование и оптимизация . Спрингер. стр. 762–770. Архивировано (PDF) из оригинала 14 апреля 2016 года . Проверено 2 июля 2017 г.
- ^ Румельхарт, Дэвид Э.; Хинтон, Джеффри Э.; Уильямс, Рональд Дж. (октябрь 1986 г.). «Изучение представлений путем обратного распространения ошибок» . Природа . 323 (6088): 533–536. Бибкод : 1986Natur.323..533R . дои : 10.1038/323533a0 . ISSN 1476-4687 .
- ^ Румельхарт, Дэвид Э., Джеффри Э. Хинтон и Р. Дж. Уильямс. « Изучение внутренних представлений путем распространения ошибок. Архивировано 13 октября 2022 г. в Wayback Machine ». Дэвид Э. Румельхарт, Джеймс Л. Макклелланд и исследовательская группа НДП. (редакторы), Параллельная распределенная обработка: Исследования микроструктуры познания, Том 1: Фонд. Массачусетский технологический институт Пресс, 1986.
- ^ Фукусима, К. (1980). «Неокогнитрон: самоорганизующаяся модель нейронной сети для механизма распознавания образов, на который не влияет сдвиг положения». Биол. Киберн . 36 (4): 193–202. дои : 10.1007/bf00344251 . ПМИД 7370364 . S2CID 206775608 .
- ^ Рамачандран, Праджит; Баррет, Зоф; Куок, В. Ле (16 октября 2017 г.). «Поиск функций активации». arXiv : 1710.05941 [ cs.NE ].
- ^ Чжан, Вэй (1988). «Сдвиг-инвариантная нейронная сеть распознавания образов и ее оптическая архитектура» . Материалы ежегодной конференции Японского общества прикладной физики .
- ^ Чжан, Вэй (1990). «Модель параллельной распределенной обработки с локальными пространственно-инвариантными соединениями и ее оптическая архитектура» . Прикладная оптика . 29 (32): 4790–7. Бибкод : 1990ApOpt..29.4790Z . дои : 10.1364/AO.29.004790 . ПМИД 20577468 .
- ^ Александр Вайбель и др., Распознавание фонем с использованием нейронных сетей с временной задержкой. Транзакции IEEE по акустике, речи и обработке сигналов, том 37, № 3, стр. 328. - 339, март 1989 г.
- ^ ЛеКун и др. , «Обратное распространение ошибки, примененное к распознаванию рукописного почтового индекса», Neural Computation , 1, стр. 541–551, 1989.
- ^ Чжан, Вэй (1991). «Обработка изображений эндотелия роговицы человека на основе обучающей сети» . Прикладная оптика . 30 (29): 4211–7. Бибкод : 1991ApOpt..30.4211Z . дои : 10.1364/AO.30.004211 . ПМИД 20706526 .
- ^ Чжан, Вэй (1994). «Компьютерное обнаружение кластерных микрокальцинатов на цифровых маммограммах с использованием инвариантной к сдвигу искусственной нейронной сети» . Медицинская физика . 21 (4): 517–24. Бибкод : 1994MedPh..21..517Z . дои : 10.1118/1.597177 . ПМИД 8058017 .
- ^ ЛеКун, Янн; Леон Ботту; Джошуа Бенджио; Патрик Хаффнер (1998). «Градиентное обучение, применяемое для распознавания документов» (PDF) . Труды IEEE . 86 (11): 2278–2324. CiteSeerX 10.1.1.32.9552 . дои : 10.1109/5.726791 . S2CID 14542261 . Получено 7 , октября
- ^ Джордан, Майкл И. (1986). «Динамика аттрактора и параллелизм в коннекционистской последовательной машине» . Труды ежегодного собрания Общества когнитивных наук . 8 .
- ^ Элман, Джеффри Л. (март 1990 г.). «Нахождение структуры во времени» . Когнитивная наука . 14 (2): 179–211. дои : 10.1207/s15516709cog1402_1 . ISSN 0364-0213 .
- ^ Перейти обратно: а б с Хохрейтер С., « Исследования по динамическим нейронным сетям ». Архивировано 6 марта 2015 г. в Wayback Machine . Дипломная работа. Институт компьютерных наук Технического университета Мюнхен. Советник: Дж. Шмидхубер , 1991 г.
- ^ Хохрейтер, С.; и др. (15 января 2001 г.). «Градиентный поток в рекуррентных сетях: сложность изучения долгосрочных зависимостей» . В Колене, Джон Ф.; Кремер, Стефан К. (ред.). Полевое руководство по динамическим рекуррентным сетям . Джон Уайли и сыновья. ISBN 978-0-7803-5369-5 .
- ^ Шмидхубер, Юрген (1992). «Обучение сложных, расширенных последовательностей с использованием принципа сжатия истории (на основе ТР ФКИ-148, 1991 г.)» (PDF) . Нейронные вычисления . 4 (2): 234–242. дои : 10.1162/neco.1992.4.2.234 . S2CID 18271205 . [ постоянная мертвая ссылка ]
- ^ Шмидхубер, Юрген (1993). Кандидатская диссертация: Системное моделирование и оптимизация (PDF) . [ постоянная мертвая ссылка ] Страница 150 и далее демонстрирует присвоение кредитов по эквиваленту 1200 слоев в развернутой RNN.
- ^ Зепп Хохрайтер ; Юрген Шмидхубер (21 августа 1995 г.), Долгосрочная память , Викиданные Q98967430
- ^ Герс, Феликс; Шмидхубер, Юрген; Камминс, Фред (1999). «Учимся забывать: постоянное предсказание с помощью LSTM». 9-я Международная конференция по искусственным нейронным сетям: ICANN '99 . Том. 1999. стр. 850–855. дои : 10.1049/cp:19991218 . ISBN 0-85296-721-7 .
- ^ Экли, Дэвид Х.; Хинтон, Джеффри Э.; Сейновски, Терренс Дж. (1 января 1985 г.). «Алгоритм обучения машин Больцмана» . Когнитивная наука . 9 (1): 147–169. doi : 10.1016/S0364-0213(85)80012-4 (неактивен 7 августа 2024 г.). ISSN 0364-0213 .
{{cite journal}}
: CS1 maint: DOI неактивен по состоянию на август 2024 г. ( ссылка ) - ^ Смоленский, Павел (1986). «Глава 6: Обработка информации в динамических системах: основы теории гармонии» (PDF) . В Румельхарте, Дэвид Э.; Маклелланд, Джеймс Л. (ред.). Параллельная распределенная обработка: исследования микроструктуры познания, Том 1: Основы . МТИ Пресс. стр. 194–281 . ISBN 0-262-68053-Х .
- ^ Питер, Даян ; Хинтон, Джеффри Э .; Нил, Рэдфорд М .; Земель, Ричард С. (1995). «Машина Гельмгольца». Нейронные вычисления . 7 (5): 889–904. дои : 10.1162/neco.1995.7.5.889 . hdl : 21.11116/0000-0002-D6D3-E . ПМИД 7584891 . S2CID 1890561 .
- ^ Хинтон, Джеффри Э .; Даян, Питер ; Фрей, Брендан Дж .; Нил, Рэдфорд (26 мая 1995 г.). «Алгоритм пробуждения-сна для неконтролируемых нейронных сетей». Наука . 268 (5214): 1158–1161. Бибкод : 1995Sci...268.1158H . дои : 10.1126/science.7761831 . ПМИД 7761831 . S2CID 871473 .
- ^ Сейновски, Терренс Дж. (2018). Революция глубокого обучения . Кембридж, Массачусетс: MIT Press. ISBN 978-0-262-03803-4 .
- ^ Цянь, Нин; Сейновски, Терренс Дж. (20 августа 1988 г.). «Прогнозирование вторичной структуры глобулярных белков с помощью моделей нейронных сетей» . Журнал молекулярной биологии . 202 (4): 865–884. дои : 10.1016/0022-2836(88)90564-5 . ISSN 0022-2836 . ПМИД 3172241 .
- ^ Морган, Нельсон; Бурлар, Эрве; Реналс, Стив; Коэн, Майкл; Франко, Орасио (1 августа 1993 г.). «Гибридные нейронные сети/системы скрытых марковских моделей для распознавания непрерывной речи». Международный журнал распознавания образов и искусственного интеллекта . 07 (4): 899–916. дои : 10.1142/s0218001493000455 . ISSN 0218-0014 .
- ^ Робинсон, Т. (1992). «Система распознавания слов в сети распространения повторяющихся ошибок в реальном времени» . ИКАССП . Икасп'92: 617–620. ISBN 9780780305328 . Архивировано из оригинала 9 мая 2021 г. Проверено 12 июня 2017 г.
- ^ Вайбель, А.; Ханадзава, Т.; Хинтон, Г.; Сикано, К.; Ланг, К.Дж. (март 1989 г.). «Распознавание фонем с использованием нейронных сетей с задержкой» (PDF) . Транзакции IEEE по акустике, речи и обработке сигналов . 37 (3): 328–339. дои : 10.1109/29.21701 . hdl : 10338.dmlcz/135496 . ISSN 0096-3518 . S2CID 9563026 . Архивировано (PDF) из оригинала 27 апреля 2021 г. Проверено 24 сентября 2019 г.
- ^ Бейкер, Дж.; Дэн, Ли; Гласс, Джим; Худанпур, С.; Ли, Ч.-Х.; Морган, Н.; О'Шонесси, Д. (2009). «Научные разработки и направления в области распознавания и понимания речи, Часть 1». Журнал обработки сигналов IEEE . 26 (3): 75–80. Бибкод : 2009ISPM...26...75B . дои : 10.1109/msp.2009.932166 . hdl : 1721.1/51891 . S2CID 357467 .
- ^ Бенджио, Ю. (1991). «Искусственные нейронные сети и их применение для распознавания речи/последовательностей» . Доктор философии Университета Макгилла. диссертация. Архивировано из оригинала 9 мая 2021 г. Проверено 12 июня 2017 г.
- ^ Дэн, Л.; Хасанейн, К.; Элмасри, М. (1994). «Анализ корреляционной структуры модели нейронного прогнозирования с применением к распознаванию речи». Нейронные сети . 7 (2): 331–339. дои : 10.1016/0893-6080(94)90027-2 .
- ^ Доддингтон, Г.; Пшибоцкий, М.; Мартин, А.; Рейнольдс, Д. (2000). «Оценка распознавания ораторов NIST – Обзор, методология, системы, результаты, перспективы». Речевое общение . 31 (2): 225–254. дои : 10.1016/S0167-6393(99)00080-1 .
- ^ Перейти обратно: а б Черт возьми, Л.; Кениг, Ю.; Сонмез, М.; Вайнтрауб, М. (2000). «Устойчивость к искажениям телефонной трубки при распознавании говорящего посредством дискриминационного дизайна». Речевое общение . 31 (2): 181–192. дои : 10.1016/s0167-6393(99)00077-1 .
- ^ LP Heck и Р. Теунен. «Безопасные и удобные транзакции с Nuance Verifier». Конференция пользователей Nuance, апрель 1998 г.
- ^ «Акустическое моделирование с помощью глубоких нейронных сетей с использованием необработанного сигнала времени для LVCSR (доступна загрузка в формате PDF)» . Исследовательские ворота . Архивировано из оригинала 9 мая 2021 года . Проверено 14 июня 2017 г.
- ^ Перейти обратно: а б Грейвс, Алекс; Эк, Дуглас; Беринджер, Николь; Шмидхубер, Юрген (2003). «Биологически правдоподобное распознавание речи с помощью нейронных сетей LSTM» (PDF) . 1-й международный Семинар по биологическим подходам к передовым информационным технологиям, Bio-ADIT 2004, Лозанна, Швейцария . стр. 175–184. Архивировано (PDF) из оригинала 9 мая 2021 г. Проверено 9 апреля 2016 г.
- ^ Грейвс, Алекс ; Фернандес, Сантьяго; Гомес, Фаустино; Шмидхубер, Юрген (2006). «Временная классификация коннекционистов: маркировка данных несегментированных последовательностей с помощью рекуррентных нейронных сетей». Материалы Международной конференции по машинному обучению, ICML 2006 : 369–376. CiteSeerX 10.1.1.75.6306 .
- ^ Сантьяго Фернандес, Алекс Грейвс и Юрген Шмидхубер (2007). Применение рекуррентных нейронных сетей для различительного определения ключевых слов. Архивировано 18 ноября 2018 г. в Wayback Machine . Протоколы ICANN (2), стр. 220–229.
- ^ Грейвс, Алекс; и Шмидхубер, Юрген; Автономное распознавание рукописного ввода с помощью многомерных рекуррентных нейронных сетей , Бенджио, Йошуа; Шурманс, Дейл; Лафферти, Джон; Уильямс, Крис К.И.; и Кулотта, Арон (ред.), «Достижения в области систем нейронной обработки информации 22» (NIPS'22), 7–10 декабря 2009 г., Ванкувер, Британская Колумбия , Фонд систем нейронной обработки информации (NIPS), 2009 г., стр. 545–552.
- ^ Хинтон, Джеффри Э. (1 октября 2007 г.). «Изучение нескольких уровней представления» . Тенденции в когнитивных науках . 11 (10): 428–434. дои : 10.1016/j.tics.2007.09.004 . ISSN 1364-6613 . ПМИД 17921042 . S2CID 15066318 . Архивировано из оригинала 11 октября 2013 года . Проверено 12 июня 2017 г.
- ^ Хинтон, Джорджия ; Осиндеро, С.; Тех, YW (2006). «Алгоритм быстрого обучения для сетей глубокого доверия» (PDF) . Нейронные вычисления . 18 (7): 1527–1554. дои : 10.1162/neco.2006.18.7.1527 . ПМИД 16764513 . S2CID 2309950 . Архивировано (PDF) из оригинала 23 декабря 2015 г. Проверено 20 июля 2011 г.
- ^ GE Hinton., « Изучение нескольких уровней представления ». Архивировано 22 мая 2018 г. в Wayback Machine . Тенденции в когнитивных науках , 11, стр. 428–434, 2007 г.
- ^ Хинтон, Джеффри Э. (октябрь 2007 г.). «Изучение нескольких уровней представления» . Тенденции в когнитивных науках . 11 (10): 428–434. дои : 10.1016/j.tics.2007.09.004 . ПМИД 17921042 .
- ^ Хинтон, Джеффри Э.; Осиндеро, Саймон; Да, Йи-Почему (июль 2006 г.). «Алгоритм быстрого обучения для сетей глубоких убеждений» . Нейронные вычисления . 18 (7): 1527–1554. дои : 10.1162/neco.2006.18.7.1527 . ISSN 0899-7667 . ПМИД 16764513 .
- ^ Хинтон, Джеффри Э. (31 мая 2009 г.). «Сети глубоких убеждений» . Схоларпедия . 4 (5): 5947. Бибкод : 2009SchpJ...4.5947H . doi : 10.4249/scholarpedia.5947 . ISSN 1941-6016 .
- ^ Янн ЛеКун (2016). Слайды по глубокому обучению в Интернете, заархивированные 23 апреля 2016 г. на Wayback Machine
- ^ Перейти обратно: а б с Хинтон, Г.; Дэн, Л.; Ю, Д.; Даль, Г.; Мохамед, А.; Джейтли, Н.; Старший, А.; Ванхук, В.; Нгуен, П.; Сайнат, Т. ; Кингсбери, Б. (2012). «Глубокие нейронные сети для акустического моделирования в распознавании речи: общие взгляды четырех исследовательских групп». Журнал обработки сигналов IEEE . 29 (6): 82–97. Бибкод : 2012ISPM...29...82H . дои : 10.1109/msp.2012.2205597 . S2CID 206485943 .
- ^ Перейти обратно: а б с Дэн, Л.; Хинтон, Г.; Кингсбери, Б. (май 2013 г.). «Новые типы глубокого обучения нейронных сетей для распознавания речи и связанных с ним приложений: обзор (ICASSP)» (PDF) . Майкрософт. Архивировано (PDF) из оригинала 26 сентября 2017 г. Проверено 27 декабря 2023 г.
- ^ Перейти обратно: а б с Ю, Д.; Дэн, Л. (2014). Автоматическое распознавание речи: подход к глубокому обучению (Издатель: Springer) . Спрингер. ISBN 978-1-4471-5779-3 .
- ^ «Дэн получает престижную награду IEEE за технические достижения — Microsoft Research» . Исследования Майкрософт . 3 декабря 2015 г. Архивировано из оригинала 16 марта 2018 г. Проверено 16 марта 2018 г.
- ^ Перейти обратно: а б Ли, Дэн (сентябрь 2014 г.). «Основной доклад: «Достижения и проблемы глубокого обучения — от анализа и распознавания речи к языку и мультимодальной обработке» » . Интерспич . Архивировано из оригинала 26 сентября 2017 г. Проверено 12 июня 2017 г.
- ^ Ю, Д.; Дэн, Л. (2010). «Роль предварительного обучения и тонкой настройки контекстно-зависимых DBN-HMM для реального распознавания речи» . Семинар NIPS по глубокому обучению и обучению функций без учителя . Архивировано из оригинала 12 октября 2017 г. Проверено 14 июня 2017 г.
- ^ Сейде, Ф.; Ли, Г.; Ю, Д. (2011). «Транскрипция разговорной речи с использованием контекстно-зависимых глубоких нейронных сетей» . Интерспич : 437–440. doi : 10.21437/Interspeech.2011-169 . S2CID 398770 . Архивировано из оригинала 12 октября 2017 г. Проверено 14 июня 2017 г.
- ^ Дэн, Ли; Ли, Цзиньюй; Хуан, Цзюй-Тин; Яо, Кайшэн; Ю, Донг; Сейде, Фрэнк; Зельцер, Майк; Цвейг, Джефф; Хэ, Сяодун (1 мая 2013 г.). «Последние достижения в области глубокого обучения для исследования речи в Microsoft» . Исследования Майкрософт . Архивировано из оригинала 12 октября 2017 года . Проверено 14 июня 2017 г.
- ^ Перейти обратно: а б Ох, К.-С.; Юнг, К. (2004). «ГПУ-реализация нейронных сетей». Распознавание образов . 37 (6): 1311–1314. Бибкод : 2004PatRe..37.1311O . дои : 10.1016/j.patcog.2004.01.013 .
- ^ Перейти обратно: а б Челлапилья, Кумар; Пури, Сидд; Симард, Патрис (2006), Высокопроизводительные сверточные нейронные сети для обработки документов , заархивировано из оригинала 18 мая 2020 г. , получено 14 февраля 2021 г.
- ^ Сзе, Вивьен ; Чен, Ю-Синь; Ян, Тянь-Джу; Эмер, Джоэл (2017). «Эффективная обработка глубоких нейронных сетей: учебное пособие и обзор». arXiv : 1703.09039 [ cs.CV ].
- ^ Райна, Раджат; Мадхаван, Ананд; Нг, Эндрю Ю. (14 июня 2009 г.). «Масштабное глубокое обучение без учителя с использованием графических процессоров» . Материалы 26-й ежегодной международной конференции по машинному обучению . ICML '09. Нью-Йорк, штат Нью-Йорк, США: Ассоциация вычислительной техники. стр. 873–880. дои : 10.1145/1553374.1553486 . ISBN 978-1-60558-516-1 .
- ^ Чирешан, Дэн Клаудиу; Мейер, Ули; Гамбарделла, Лука Мария; Шмидхубер, Юрген (21 сентября 2010 г.). «Глубокие, большие и простые нейронные сети для распознавания рукописных цифр». Нейронные вычисления . 22 (12): 3207–3220. arXiv : 1003.0358 . дои : 10.1162/neco_a_00052 . ISSN 0899-7667 . ПМИД 20858131 . S2CID 1918673 .
- ^ Чиресан, округ Колумбия; Мейер, У.; Маски, Дж.; Гамбарделла, LM; Шмидхубер, Дж. (2011). «Гибкие, высокопроизводительные сверточные нейронные сети для классификации изображений» (PDF) . Международная совместная конференция по искусственному интеллекту . дои : 10.5591/978-1-57735-516-8/ijcai11-210 . Архивировано (PDF) из оригинала 29 сентября 2014 г. Проверено 13 июня 2017 г.
- ^ Чиресан, Дэн; Джусти, Алессандро; Гамбарделла, Лука М.; Шмидхубер, Юрген (2012). Перейра, Ф.; Берджес, CJC; Ботту, Л.; Вайнбергер, KQ (ред.). Достижения в области нейронных систем обработки информации 25 (PDF) . Curran Associates, Inc., стр. 2843–2851. Архивировано (PDF) из оригинала 9 августа 2017 г. Проверено 13 июня 2017 г.
- ^ Чиресан, Д.; Джусти, А.; Гамбарделла, LM; Шмидхубер, Дж. (2013). «Обнаружение митоза на гистологических изображениях рака молочной железы с помощью глубоких нейронных сетей». Вычисление медицинских изображений и компьютерное вмешательство – MICCAI 2013 . Конспекты лекций по информатике. Том. 7908. стр. 411–418. дои : 10.1007/978-3-642-40763-5_51 . ISBN 978-3-642-38708-1 . ПМИД 24579167 .
- ^ Нг, Эндрю; Дин, Джефф (2012). «Создание функций высокого уровня с использованием крупномасштабного обучения без учителя». arXiv : 1112.6209 [ cs.LG ].
- ^ Симонян, Карен; Эндрю, Зиссерман (2014). «Сети очень глубокой свертки для крупномасштабного распознавания изображений». arXiv : 1409.1556 [ cs.CV ].
- ^ Сегеди, Кристиан (2015). «Углубляемся в извилины» (PDF) . Квпр2015 .
- ^ Виньялс, Ориол; Тошев, Александр; Бенджио, Сами; Эрхан, Дмитрий (2014). «Покажи и расскажи: нейронный генератор подписей к изображениям». arXiv : 1411.4555 [ cs.CV ]. .
- ^ Фанг, Хао; Гупта, Саураб; Яндола, Форрест; Шривастава, Рупеш; Дэн, Ли; Доллар, Петр; Гао, Цзяньфэн; Он, Сяодун; Митчелл, Маргарет; Платт, Джон С; Лоуренс Зитник, центральный; Цвейг, Джеффри (2014). «От подписей к визуальным концепциям и обратно». arXiv : 1411.4952 [ cs.CV ]. .
- ^ Кирос, Райан; Салахутдинов Руслан; Земель, Ричард С. (2014). «Объединение визуально-семантических вложений с мультимодальными моделями нейронного языка». arXiv : 1411.2539 [ cs.LG ]. .
- ^ Симонян, Карен; Зиссерман, Эндрю (10 апреля 2015 г.), Очень глубокие сверточные сети для крупномасштабного распознавания изображений , arXiv : 1409.1556
- ^ Он, Кайминг; Чжан, Сянъюй; Рен, Шаоцин; Сунь, Цзянь (2016). «Углубление выпрямителей: превосходство производительности человеческого уровня в классификации ImageNet». arXiv : 1502.01852 [ cs.CV ].
- ^ , Шаоцин; Сунь, Цзянь (10 декабря 2015 г. . Сянюй ; Рен Хэ, Каймин; Чжан , )
- ^ Шривастава, Рупеш Кумар; Грефф, Клаус; Шмидхубер, Юрген (2 мая 2015 г.). «Дорожные сети». arXiv : 1505.00387 [ cs.LG ].
- ^ Он, Кайминг; Чжан, Сянъюй; Рен, Шаоцин; Сунь, Цзянь (2016). Глубокое остаточное обучение для распознавания изображений . Конференция IEEE 2016 по компьютерному зрению и распознаванию образов (CVPR) . Лас-Вегас, Невада, США: IEEE. стр. 770–778. arXiv : 1512.03385 . дои : 10.1109/CVPR.2016.90 . ISBN 978-1-4673-8851-1 .
- ^ Линн, Эллисон (10 декабря 2015 г.). «Исследователи Microsoft выиграли конкурс компьютерного зрения ImageNet» . Блог AI . Проверено 29 июня 2024 г.
- ^ Гатис, Леон А.; Экер, Александр С.; Бетге, Матиас (26 августа 2015 г.). «Нейронный алгоритм художественного стиля». arXiv : 1508.06576 [ cs.CV ].
- ^ Гудфеллоу, Ян; Пуже-Абади, Жан; Мирза, Мехди; Сюй, Бин; Вард-Фарли, Дэвид; Озаир, Шерджил; Курвиль, Аарон; Бенджио, Йошуа (2014). Генеративно-состязательные сети (PDF) . Материалы Международной конференции по нейронным системам обработки информации (NIPS 2014). стр. 2672–2680. Архивировано (PDF) из оригинала 22 ноября 2019 года . Проверено 20 августа 2019 г.
- ^ «GAN 2.0: гиперреалистичный генератор лиц NVIDIA» . SyncedReview.com . 14 декабря 2018 года . Проверено 3 октября 2019 г.
- ^ Каррас, Т.; Айла, Т.; Лейн, С.; Лехтинен, Дж. (26 февраля 2018 г.). «Прогрессивное развитие GAN для повышения качества, стабильности и разнообразия». arXiv : 1710.10196 [ cs.NE ].
- ^ «Готовьтесь, не паникуйте: синтетические медиа и дипфейки» . свидетель.орг. Архивировано из оригинала 2 декабря 2020 года . Проверено 25 ноября 2020 г.
- ^ Золь-Дикштейн, Яша; Вайс, Эрик; Махешваранатан, Ниру; Гангули, Сурья (01 июня 2015 г.). «Глубокое обучение без учителя с использованием неравновесной термодинамики» (PDF) . Материалы 32-й Международной конференции по машинному обучению . 37 . ПМЛР: 2256–2265.
- ^ Блог исследований Google. Нейронные сети, лежащие в основе транскрипции Google Voice. 11 августа 2015 г. Автор: Франсуаза Бофе http://googleresearch.blogspot.co.at/2015/08/the-neural-networks-behind-google-voice.html
- ^ Перейти обратно: а б Сак, Хашим; Старший, Эндрю; Рао, Канишка; Бофе, Франсуаза; Шалквик, Йохан (сентябрь 2015 г.). «Голосовой поиск Google: быстрее и точнее» . Архивировано из оригинала 9 марта 2016 г. Проверено 9 апреля 2016 г.
- ^ Сингх, Премджит; Саха, Гутам; Сахидулла, Мэриленд (2021). «Нелинейное искажение частоты с использованием преобразования с постоянной добротностью для распознавания речевых эмоций». Международная конференция по компьютерной связи и информатике (ICCCI) 2021 . стр. 1–4. arXiv : 2102.04029 . дои : 10.1109/ICCCI50826.2021.9402569 . ISBN 978-1-7281-5875-4 . S2CID 231846518 .
- ^ Сак, Хасим; Старший, Эндрю; Бофе, Франсуаза (2014). «Архитектуры рекуррентных нейронных сетей с долгосрочной кратковременной памятью для крупномасштабного акустического моделирования» (PDF) . Архивировано из оригинала (PDF) 24 апреля 2018 года.
- ^ Ли, Сянган; Ву, Сихун (2014). «Построение глубоких рекуррентных нейронных сетей на основе долговременной памяти для распознавания речи с большим словарным запасом». arXiv : 1410.4281 [ cs.CL ].
- ^ Дзен, Хейга; Сак, Хасим (2015). «Однонаправленная рекуррентная нейронная сеть с долговременной краткосрочной памятью и рекуррентным выходным слоем для синтеза речи с малой задержкой» (PDF) . Google.com . ИКАССП. стр. 4470–4474. Архивировано (PDF) из оригинала 9 мая 2021 г. Проверено 13 июня 2017 г.
- ^ «Лауреаты премии Тьюринга ACM AM 2018» . Награды.acm.org . Проверено 7 августа 2024 г.
- ^ Ферри К. и Кайзер С. (2019). Нейронные сети для детей . Справочники. ISBN 978-1492671206 .
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - ^ Сильвер, Дэвид; Хуанг, Аджа; Мэддисон, Крис Дж.; Гез, Артур; Сифре, Лоран; Дрессе, Джордж ван ден; Шритвизер, Джулиан; Антоноглу, Иоаннис; Паннеершелвам, Веда (январь 2016 г.). «Освоение игры в го с помощью глубоких нейронных сетей и поиска по дереву». Природа . 529 (7587): 484–489. Бибкод : 2016Natur.529..484S . дои : 10.1038/nature16961 . ISSN 1476-4687 . ПМИД 26819042 . S2CID 515925 .
- ^ Руководство по глубокому обучению и нейронным сетям , заархивировано из оригинала 2 ноября 2020 г. , получено 16 ноября 2020 г.
- ^ Сегеди, Кристиан; Тошев, Александр; Эрхан, Дмитрий (2013). «Глубокие нейронные сети для обнаружения объектов» . Достижения в области нейронных систем обработки информации : 2553–2561. Архивировано из оригинала 29 июня 2017 г. Проверено 13 июня 2017 г.
- ^ Рольник, Дэвид; Тегмарк, Макс (2018). «Сила более глубоких сетей для выражения естественных функций» . Международная конференция по обучению представлений . ICLR 2018. Архивировано из оригинала 07 января 2021 г. Проверено 05 января 2021 г.
- ^ Хоф, Роберт Д. «Искусственный интеллект наконец-то вступает в свои права?» . Обзор технологий Массачусетского технологического института . Архивировано из оригинала 31 марта 2019 года . Проверено 10 июля 2018 г.
- ^ Перейти обратно: а б Герс, Феликс А.; Шмидхубер, Юрген (2001). «Рекуррентные сети LSTM изучают простые контекстно-свободные и контекстно-зависимые языки» . Транзакции IEEE в нейронных сетях . 12 (6): 1333–1340. дои : 10.1109/72.963769 . ПМИД 18249962 . S2CID 10192330 . Архивировано из оригинала 26 января 2020 г. Проверено 25 февраля 2020 г.
- ^ Перейти обратно: а б с Суцкевер, Л.; Виньялс, О.; Ле, К. (2014). «Последовательное обучение с помощью нейронных сетей» (PDF) . Учеб. НИПС . arXiv : 1409.3215 . Бибкод : 2014arXiv1409.3215S . Архивировано (PDF) из оригинала 9 мая 2021 г. Проверено 13 июня 2017 г.
- ^ Перейти обратно: а б Йозефович, Рафаль; Виньялс, Ориол; Шустер, Майк; Шазир, Ноам; Ву, Юнхуэй (2016). «Изучение пределов языкового моделирования». arXiv : 1602.02410 [ cs.CL ].
- ^ Перейти обратно: а б Гиллик, Дэн; Бранк, Клифф; Виньялс, Ориол; Субраманья, Амарнаг (2015). «Многоязычная языковая обработка из байтов». arXiv : 1512.00103 [ cs.CL ].
- ^ Миколов Т.; и др. (2010). «Языковая модель на основе рекуррентной нейронной сети» (PDF) . Интерспич : 1045–1048. doi : 10.21437/Interspeech.2010-343 . S2CID 17048224 . Архивировано (PDF) из оригинала 16 мая 2017 г. Проверено 13 июня 2017 г.
- ^ Хохрейтер, Зепп; Шмидхубер, Юрген (1 ноября 1997 г.). «Долгая кратковременная память». Нейронные вычисления . 9 (8): 1735–1780. дои : 10.1162/neco.1997.9.8.1735 . ISSN 0899-7667 . ПМИД 9377276 . S2CID 1915014 .
- ^ Перейти обратно: а б «Изучение точного времени с помощью рекуррентных сетей LSTM (доступна загрузка в формате PDF)» . Исследовательские ворота . Архивировано из оригинала 9 мая 2021 года . Проверено 13 июня 2017 г.
- ^ ЛеКун, Ю.; и др. (1998). «Градиентное обучение применительно к распознаванию документов» . Труды IEEE . 86 (11): 2278–2324. дои : 10.1109/5.726791 . S2CID 14542261 .
- ^ Сайнат, Тара Н .; Мохамед, Абдель-Рахман; Кингсбери, Брайан; Рамабхадран, Бхувана (2013). «Глубокие сверточные нейронные сети для LVCSR». Международная конференция IEEE 2013 по акустике, речи и обработке сигналов . стр. 8614–8618. дои : 10.1109/icassp.2013.6639347 . ISBN 978-1-4799-0356-6 . S2CID 13816461 .
- ^ Бенджио, Йошуа; Буланже-Левандовски, Николя; Паскану, Разван (2013). «Достижения в оптимизации рекуррентных сетей». Международная конференция IEEE 2013 по акустике, речи и обработке сигналов . стр. 8624–8628. arXiv : 1212.0901 . CiteSeerX 10.1.1.752.9151 . дои : 10.1109/icassp.2013.6639349 . ISBN 978-1-4799-0356-6 . S2CID 12485056 .
- ^ Даль, Г.; и др. (2013). «Улучшение DNN для LVCSR с использованием выпрямленных линейных единиц и исключения» (PDF) . ИКАССП . Архивировано (PDF) из оригинала 12 августа 2017 г. Проверено 13 июня 2017 г.
- ^ «Расширение данных — deeplearning.ai | Coursera» . Курсера . Архивировано из оригинала 1 декабря 2017 года . Проверено 30 ноября 2017 г.
- ^ Хинтон, GE (2010). «Практическое руководство по обучению ограниченных машин Больцмана» . Тех. Реп. УТМЛ ТР 2010-003 . Архивировано из оригинала 9 мая 2021 г. Проверено 13 июня 2017 г.
- ^ Ты, Ян; Булуч, Айдын; Деммель, Джеймс (ноябрь 2017 г.). «Масштабирование глубокого обучения на графических процессорах и кластерах рыцарей» . Материалы Международной конференции по высокопроизводительным вычислениям, сетям, хранению и анализу - SC '17 . СЦ '17, АКМ. стр. 1–12. дои : 10.1145/3126908.3126912 . ISBN 9781450351140 . S2CID 8869270 . Архивировано из оригинала 29 июля 2020 года . Проверено 5 марта 2018 г.
- ^ Вибке, Андре; Мемети, Суэйб; Планана, Сабри; Авраам, Аджит (2019). «ХАОС: схема распараллеливания для обучения сверточных нейронных сетей на Intel Xeon Phi». Журнал суперкомпьютеров . 75 : 197–227. arXiv : 1702.07908 . Бибкод : 2017arXiv170207908V . дои : 10.1007/s11227-017-1994-x . S2CID 14135321 .
- ^ Тин Цинь и др. «Алгоритм обучения CMAC на основе RLS». Письма о нейронной обработке 19.1 (2004): 49-61.
- ^ Тин Цинь и др. « Непрерывный CMAC-QRLS и его систолический массив ». Архивировано 18 ноября 2018 г. в Wayback Machine . Письма о нейронной обработке 22.1 (2005): 1-16.
- ^ Исследования, AI (23 октября 2015 г.). «Глубокие нейронные сети для акустического моделирования в распознавании речи» . airesearch.com . Архивировано из оригинала 1 февраля 2016 года . Проверено 23 октября 2015 г.
- ^ «Графические процессоры продолжают доминировать на рынке ускорителей искусственного интеллекта» . Информационная неделя . Декабрь 2019. Архивировано из оригинала 10 июня 2020 года . Проверено 11 июня 2020 г.
- ^ Рэй, Тирнан (2019). «ИИ меняет всю природу вычислений» . ЗДНет . Архивировано из оригинала 25 мая 2020 года . Проверено 11 июня 2020 г.
- ^ «ИИ и вычисления» . ОпенАИ . 16 мая 2018 г. Архивировано из оригинала 17 июня 2020 г. . Проверено 11 июня 2020 г.
- ^ «HUAWEI раскрывает будущее мобильного искусственного интеллекта на IFA 2017 | Последние новости HUAWEI | HUAWEI Global» . потребитель.huawei.com .
- ^ П, Жуппи Норман; ЯнгКлифф; ПатилНишант; ПаттерсонДэвид; Агравал Гаурав; БаджваРаминдер; БейтсСара; Бхатия Суреш; БоденНан; БорхерсАл; БойлРик (24 июня 2017 г.). «Анализ производительности тензорного процессора в центре обработки данных» . Новости компьютерной архитектуры ACM SIGARCH . 45 (2): 1–12. arXiv : 1704.04760 . дои : 10.1145/3140659.3080246 .
- ^ Вуди, Алекс (01 ноября 2021 г.). «Cerebras использует ускоритель для рабочих нагрузок глубокого обучения» . Датанами . Проверено 3 августа 2022 г.
- ^ «Cerebras запускает новый суперкомпьютерный процессор искусственного интеллекта с 2,6 триллионами транзисторов» . ВенчурБит . 20 апреля 2021 г. Проверено 3 августа 2022 г.
- ^ Марега, Гильерме Мильято; Чжао, Яньфэй; Авсар, Ахмет; Ван, Чжэньюй; Трипати, Мукеш; Раденович, Александра; Кис, Анрас (2020). «Логика в памяти на основе атомарно тонкого полупроводника» . Природа . 587 (2): 72–77. Бибкод : 2020Природа.587...72М . дои : 10.1038/s41586-020-2861-0 . ПМЦ 7116757 . ПМИД 33149289 .
- ^ Перейти обратно: а б с Фельдманн, Дж.; Янгблад, Н.; Карпов, М.; и др. (2021). «Параллельная сверточная обработка с использованием интегрированного фотонного тензора». Природа . 589 (2): 52–58. arXiv : 2002.00281 . дои : 10.1038/s41586-020-03070-1 . ПМИД 33408373 . S2CID 211010976 .
- ^ Гарофоло, Дж.С.; Ламель, ЛФ; Фишер, В.М.; Фискус, Дж. Г.; Паллетт, Д.С.; Дальгрен, Нидерланды; Зуэ, В. (1993). ТИМИТ Акустико-фонетический корпус непрерывной речи . Консорциум лингвистических данных. дои : 10.35111/17gk-bn40 . ISBN 1-58563-019-5 . Проверено 27 декабря 2023 г.
- ^ Робинсон, Тони (30 сентября 1991 г.). «Несколько улучшений в системе распознавания сетевых телефонов с распространением периодических ошибок». Технический отчет инженерного факультета Кембриджского университета . CUED/F-INFENG/TR82. дои : 10.13140/RG.2.2.15418.90567 .
- ^ Абдель-Хамид, О.; и др. (2014). «Сверточные нейронные сети для распознавания речи» . Транзакции IEEE/ACM по обработке звука, речи и языка . 22 (10): 1533–1545. дои : 10.1109/taslp.2014.2339736 . S2CID 206602362 . Архивировано из оригинала 22 сентября 2020 г. Проверено 20 апреля 2018 г.
- ^ Дэн, Л.; Платт, Дж. (2014). «Ансамбль глубокого обучения для распознавания речи». Учеб. Интерспич : 1915–1919. doi : 10.21437/Interspeech.2014-433 . S2CID 15641618 .
- ^ Тот, Ласло (2015). «Распознавание телефона с помощью иерархических сверточных сетей Deep Maxout» (PDF) . Журнал EURASIP по обработке звука, речи и музыки . 2015 . дои : 10.1186/s13636-015-0068-3 . S2CID 217950236 . Архивировано (PDF) из оригинала 24 сентября 2020 г. Проверено 1 апреля 2019 г.
- ^ Макмиллан, Роберт (17 декабря 2014 г.). «Как Skype использовал искусственный интеллект для создания своего удивительного нового языкового переводчика | WIRED» . Проводной . Архивировано из оригинала 8 июня 2017 года . Проверено 14 июня 2017 г.
- ^ Ханнун, Ауни; Кейс, Карл; Каспер, Джаред; Катандзаро, Брайан; Диамос, Грег; Элсен, Эрих; Пренгер, Райан; Сатиш, Санджив; Сенгупта, Шубхо; Коутс, Адам; Нг, Эндрю Ю (2014). «Глубокая речь: расширение сквозного распознавания речи». arXiv : 1412.5567 [ cs.CL ].
- ^ «База данных рукописных цифр MNIST, Ян ЛеКун, Коринна Кортес и Крис Берджес» . yann.lecun.com . Архивировано из оригинала 13 января 2014 г. Проверено 28 января 2014 г.
- ^ Чирешан, Дэн; Мейер, Ули; Маски, Джонатан; Шмидхубер, Юрген (август 2012 г.). «Многоколоночная глубокая нейронная сеть для классификации дорожных знаков». Нейронные сети . Избранные статьи IJCNN 2011. 32 : 333–338. CiteSeerX 10.1.1.226.8219 . дои : 10.1016/j.neunet.2012.02.023 . ПМИД 22386783 .
- ^ Чаочао Лу; Сяоу Тан (2014). «Превосходящее распознавание лиц на человеческом уровне». arXiv : 1404.3840 [ cs.CV ].
- ^ Nvidia демонстрирует автомобильный компьютер, обученный с помощью «глубокого обучения» (6 января 2015 г.), Дэвид Талбот, MIT Technology Review
- ^ Перейти обратно: а б с Г.В. Смит; Фредерик Фол Леймари (10 апреля 2017 г.). «Машина как художник: Введение» . Искусство . 6 (4): 5. doi : 10.3390/arts6020005 .
- ^ Перейти обратно: а б с Блез Агуэра-и-Аркас (29 сентября 2017 г.). «Искусство в эпоху машинного интеллекта» . Искусство . 6 (4): 18. дои : 10.3390/arts6040018 .
- ^ Гольдберг, Йоав; Леви, Омар (2014). «Объяснение word2vec: получение метода встраивания слов с отрицательной выборкой Миколова и др.» . arXiv : 1402.3722 [ cs.CL ].
- ^ Перейти обратно: а б Сошер, Ричард; Мэннинг, Кристофер. «Глубокое обучение для НЛП» (PDF) . Архивировано (PDF) из оригинала 6 июля 2014 года . Проверено 26 октября 2014 г.
- ^ Сошер, Ричард; Бауэр, Джон; Мэннинг, Кристофер; Нг, Эндрю (2013). «Разбор с помощью композиционных векторных грамматик» (PDF) . Материалы конференции ACL 2013 . Архивировано (PDF) из оригинала 27 ноября 2014 г. Проверено 3 сентября 2014 г.
- ^ Сочер, Р.; Перелыгин А.; Ву, Дж.; Чуанг, Дж.; Мэннинг, CD; Нг, А.; Поттс, К. (октябрь 2013 г.). «Рекурсивные глубокие модели семантической композиционности в древовидном банке настроений» (PDF) . Материалы конференции 2013 года по эмпирическим методам обработки естественного языка . Ассоциация компьютерной лингвистики. Архивировано (PDF) из оригинала 28 декабря 2016 года . Проверено 21 декабря 2023 г.
- ^ Шен, Йелун; Он, Сяодун; Гао, Цзяньфэн; Дэн, Ли; Мениль, Грегуар (1 ноября 2014 г.). «Скрытая семантическая модель со структурой сверточного пула для поиска информации» . Исследования Майкрософт . Архивировано из оригинала 27 октября 2017 года . Проверено 14 июня 2017 г.
- ^ Хуанг, По-Сен; Он, Сяодун; Гао, Цзяньфэн; Дэн, Ли; Асеро, Алекс; Черт возьми, Ларри (1 октября 2013 г.). «Изучение глубоко структурированных семантических моделей для веб-поиска с использованием данных о кликах» . Исследования Майкрософт . Архивировано из оригинала 27 октября 2017 года . Проверено 14 июня 2017 г.
- ^ Мениль, Г.; Дофин, Ю.; Яо, К.; Бенджио, Ю.; Дэн, Л.; Хаккани-Тур, Д. ; Он, Х.; Черт возьми, Л.; Тур, Г.; Ю, Д.; Цвейг, Г. (2015). «Использование рекуррентных нейронных сетей для заполнения слотов в понимании разговорной речи». Транзакции IEEE по обработке звука, речи и языка . 23 (3): 530–539. дои : 10.1109/taslp.2014.2383614 . S2CID 1317136 .
- ^ Перейти обратно: а б Гао, Цзяньфэн; Он, Сяодун; Да, Скотт Вен-тау; Дэн, Ли (1 июня 2014 г.). «Изучение представлений непрерывных фраз для моделирования перевода» . Исследования Майкрософт . Архивировано из оригинала 27 октября 2017 года . Проверено 14 июня 2017 г.
- ^ Брокардо, Марсело Луис; Траоре, Исса; Вунганг, Исаак; Обайдат, Мохаммад С. (2017). «Проверка авторства с использованием сетевых систем глубокого доверия». Международный журнал систем связи . 30 (12): е3259. дои : 10.1002/dac.3259 . S2CID 40745740 .
- ^ Кариампужа, Уильям; Алия, Джоконда; Цюй, Сью; Санджак, Джалеал; Мате, Эви; Сид, Эрик; Шатлен, Хейли; Ядо, Арджун; Сюй, Яньцзи; Чжу, Цянь (2023). «Точное извлечение информации для масштабной эпидемиологии редких заболеваний» . Журнал трансляционной медицины . 21 (1): 157. doi : 10.1186/s12967-023-04011-y . ПМЦ 9972634 . ПМИД 36855134 .
- ^ «Глубокое обучение для обработки естественного языка: теория и практика (учебное пособие CIKM2014) — Microsoft Research» . Исследования Майкрософт . Архивировано из оригинала 13 марта 2017 года . Проверено 14 июня 2017 г.
- ^ Туровский, Барак (15 ноября 2016 г.). «Найдено в переводе: более точные и беглые предложения в Google Translate» . Ключевое слово Блог Google . Архивировано из оригинала 7 апреля 2017 года . Проверено 23 марта 2017 г.
- ^ Перейти обратно: а б с д Шустер, Майк; Джонсон, Мелвин; Торат, Нихил (22 ноября 2016 г.). «Нулевой перевод с помощью многоязычной нейронной системы машинного перевода Google» . Блог исследований Google . Архивировано из оригинала 10 июля 2017 года . Проверено 23 марта 2017 г.
- ^ Ву, Юнхуэй; Шустер, Майк; Чен, Чжифэн; Ле, Куок V; Норузи, Мохаммед; Машери, Вольфганг; Крикун, Максим; Цао, Юань; Гао, Цинь; Машери, Клаус; Клингнер, Джефф; Шах, Апурва; Джонсон, Мелвин; Лю, Сяобин; Кайзер, Лукаш; Гаус, Стефан; Като, Ёсикиё; Кудо, Таку; Казава, Хидето; Стивенс, Кейт; Куриан, Джордж; Патил, Нишант; Ван, Вэй; Янг, Клифф; Смит, Джейсон; Риза, Джейсон; Рудник, Алекс; Виньялс, Ориол; Коррадо, Грег; и др. (2016). «Система нейронного машинного перевода Google: преодоление разрыва между человеческим и машинным переводом». arXiv : 1609.08144 [ cs.CL ].
- ^ Мец, Кейд (27 сентября 2016 г.). «Внедрение искусственного интеллекта делает Google Translate более мощным, чем когда-либо» . Проводной . Архивировано из оригинала 8 ноября 2020 года . Проверено 12 октября 2017 г.
- ^ Перейти обратно: а б Бойте, Кристиан; Бланшон, Эрве; Селигман, Марк; Беллинк, Валери (2010). «MT для Интернета» (PDF) . Архивировано из оригинала (PDF) 29 марта 2017 года . Проверено 1 декабря 2016 г.
- ^ Эроусмит, Дж; Миллер, П. (2013). «Пробное наблюдение: темпы отсева на этапах II и III в 2011–2012 годах» . Nature Reviews Открытие лекарств . 12 (8): 569. дои : 10.1038/nrd4090 . ПМИД 23903212 . S2CID 20246434 .
- ^ Вербист, Б; Кламбауэр, Г; Верворт, Л; Таллоен, В; Qstar, Консорциум; Шкеди, З; Это, О; Бендер, А; Гёльманн, Х.В.; Хохрайтер, С (2015). «Использование транскриптомики для оптимизации потенциальных клиентов в проектах по открытию лекарств: уроки, извлеченные из проекта QSTAR» . Открытие наркотиков сегодня . 20 (5): 505–513. дои : 10.1016/j.drudis.2014.12.014 . HDL : 1942/18723 . ПМИД 25582842 .
- ^ «Проблема молекулярной активности компании Merck» . kaggle.com . Архивировано из оригинала 16 июля 2020 г. Проверено 16 июля 2020 г.
- ^ «Многозадачные нейронные сети для прогнозов QSAR | Ассоциация науки о данных» . www.datascienceassn.org . Архивировано из оригинала 30 апреля 2017 года . Проверено 14 июня 2017 г.
- ^ «Токсикология в вызове данных XXI века»
- ^ «NCATS объявляет победителей конкурса данных Tox21» . Архивировано из оригинала 8 сентября 2015 г. Проверено 05 марта 2015 г.
- ^ «NCATS объявляет победителей конкурса данных Tox21» . Архивировано из оригинала 28 февраля 2015 года . Проверено 5 марта 2015 г.
- ^ Валлах, Ижар; Дзамба, Майкл; Хейфец, Авраам (9 октября 2015 г.). «AtomNet: глубокая сверточная нейронная сеть для прогнозирования биологической активности при открытии лекарств на основе структуры». arXiv : 1510.02855 [ cs.LG ].
- ^ Перейти обратно: а б «У стартапа из Торонто есть более быстрый способ найти эффективные лекарства» . Глобус и почта . Архивировано из оригинала 20 октября 2015 года . Проверено 9 ноября 2015 г.
- ^ «Стартап использует суперкомпьютеры для поиска лекарств» . KQED Ваше будущее . 27 мая 2015 года. Архивировано из оригинала 24 декабря 2015 года . Проверено 9 ноября 2015 г.
- ^ Гилмер, Джастин; Шенхольц, Сэмюэл С.; Райли, Патрик Ф.; Виньялс, Ориол; Даль, Джордж Э. (12 июня 2017 г.). «Нейронная передача сообщений для квантовой химии». arXiv : 1704.01212 [ cs.LG ].
- ^ Жаворонков, Алексей (2019). «Глубокое обучение позволяет быстро идентифицировать мощные ингибиторы киназы DDR1». Природная биотехнология . 37 (9): 1038–1040. дои : 10.1038/s41587-019-0224-x . ПМИД 31477924 . S2CID 201716327 .
- ^ Грегори, Барбер. «Молекула, созданная искусственным интеллектом, обладает свойствами, подобными лекарству» . Проводной . Архивировано из оригинала 30 апреля 2020 г. Проверено 5 сентября 2019 г.
- ^ Ткаченко, Егор (8 апреля 2015 г.). «Автономное управление CRM посредством приближения CLV с глубоким обучением с подкреплением в пространстве дискретных и непрерывных действий». arXiv : 1504.01840 [ cs.LG ].
- ^ ван ден Оорд, Аарон; Дилеман, Сандер; Шраувен, Бенджамин (2013). Берджес, CJC; Ботту, Л.; Веллинг, М.; Гахрамани, З.; Вайнбергер, KQ (ред.). Достижения в области нейронных систем обработки информации 26 (PDF) . Curran Associates, Inc., стр. 2643–2651. Архивировано (PDF) из оригинала 16 мая 2017 г. Проверено 14 июня 2017 г.
- ^ Фэн, XY; Чжан, Х.; Рен, YJ; Шан, штат Пенсильвания; Чжу, Ю.; Лян, ЮК; Гуань, RC; Сюй, Д. (2019). «Рекомендательная система на основе глубокого обучения «Pubmender» для выбора места проведения биомедицинских публикаций: исследование разработки и проверки» . Журнал медицинских интернет-исследований . 21 (5): e12957. дои : 10.2196/12957 . ПМК 6555124 . ПМИД 31127715 .
- ^ Элькахки, Али Мамдух; Сун, Ян; Хэ, Сяодун (1 мая 2015 г.). «Многопредставленный подход к глубокому обучению для междоменного моделирования пользователей в рекомендательных системах» . Исследования Майкрософт . Архивировано из оригинала 25 января 2018 года . Проверено 14 июня 2017 г.
- ^ Чикко, Давиде; Садовский, Питер; Бальди, Пьер (1 января 2014 г.). «Нейронные сети глубокого автокодирования для прогнозирования аннотаций онтологии генов». Материалы 5-й конференции ACM по биоинформатике, вычислительной биологии и медицинской информатике . АКМ. стр. 533–540. дои : 10.1145/2649387.2649442 . hdl : 11311/964622 . ISBN 9781450328944 . S2CID 207217210 . Архивировано из оригинала 9 мая 2021 года . Проверено 23 ноября 2015 г.
- ^ Сатьянараяна, Аарти (1 января 2016 г.). «Прогнозирование качества сна на основе данных носимых устройств с использованием глубокого обучения» . JMIR mHealth и uHealth . 4 (4): е125. дои : 10.2196/mhealth.6562 . ПМК 5116102 . ПМИД 27815231 . S2CID 3821594 .
- ^ Чой, Эдвард; Шуец, Энди; Стюарт, Уолтер Ф.; Сунь, Джимэн (13 августа 2016 г.). «Использование рекуррентных моделей нейронных сетей для раннего выявления сердечной недостаточности» . Журнал Американской ассоциации медицинской информатики . 24 (2): 361–370. дои : 10.1093/jamia/ocw112 . ISSN 1067-5027 . ПМК 5391725 . ПМИД 27521897 .
- ^ «ИИ компании DeepMind, сворачивающий белки, решил грандиозную проблему биологии, возникшую 50 лет назад» . Обзор технологий Массачусетского технологического института . Проверено 10 мая 2024 г.
- ^ Шид, Сэм (30 ноября 2020 г.). «DeepMind решает 50-летнюю «большую задачу» с помощью искусственного интеллекта по сворачиванию белков», CNBC . Проверено 10 мая 2024 г.
- ^ Перейти обратно: а б Шалев Ю.; Паинский, А.; Бен-Гал, И. (2022). «Нейронная совместная оценка энтропии» (PDF) . Транзакции IEEE в нейронных сетях и системах обучения . ПП (4): 5488–5500. arXiv : 2012.11197 . дои : 10.1109/TNNLS.2022.3204919 . ПМИД 36155469 . S2CID 229339809 .
- ^ Литженс, Герт; Коой, Тайс; Бейнорди, Бабак Эхтешами; Сетио, Арно Ариндра Адийосо; Чомпи, Франческо; Гафурян, Мохсен; ван дер Лаак, Йерун АВМ; ван Гиннекен, Брэм; Санчес, Клара И. (декабрь 2017 г.). «Опрос по глубокому обучению в области анализа медицинских изображений». Анализ медицинских изображений . 42 : 60–88. arXiv : 1702.05747 . Бибкод : 2017arXiv170205747L . дои : 10.1016/j.media.2017.07.005 . ПМИД 28778026 . S2CID 2088679 .
- ^ Форслид, Густав; Висландер, Хакан; Бенгтссон, Эверт; Уолби, Каролина; Хирш, Ян-Майкл; Старк, Кристина Руноу; Саданандан, Саджит Кечерил (2017). «Глубокие сверточные нейронные сети для обнаружения клеточных изменений, вызванных злокачественными новообразованиями» . Международная конференция IEEE по компьютерному зрению, 2017 г. (ICCVW) . стр. 82–89. дои : 10.1109/ICCVW.2017.18 . ISBN 9781538610343 . S2CID 4728736 . Архивировано из оригинала 9 мая 2021 г. Проверено 12 ноября 2019 г.
- ^ Донг, Синь; Чжоу, Ичжао; Ван, Ланьтянь; Пэн, Цзинфэн; Лу, Янбо; Фань, Ицюнь (2020). «Обнаружение рака печени с использованием гибридизированной полностью сверточной нейронной сети на основе платформы глубокого обучения» . Доступ IEEE . 8 : 129889–129898. Бибкод : 2020IEEA...8l9889D . дои : 10.1109/ACCESS.2020.3006362 . ISSN 2169-3536 . S2CID 220733699 .
- ^ Ляхов Павел Алексеевич; Ляхова Ульяна Алексеевна; Нагорнов Николай Николаевич (03.04.2022). «Система распознавания пигментных поражений кожи с объединением и анализом гетерогенных данных на основе мультимодальной нейронной сети» . Раки . 14 (7): 1819. doi : 10.3390/cancers14071819 . ISSN 2072-6694 . ПМЦ 8997449 . ПМИД 35406591 .
- ^ Де, Шонак; Майти, Абхишек; Гоэл, Вритти; Шитоле, Санджай; Бхаттачарья, Авик (2017). «Прогнозирование популярности постов в Instagram для журнала о стиле жизни с помощью глубокого обучения». 2017 2-я Международная конференция по системам связи, вычислительной технике и ИТ-приложениям (CSCITA) . стр. 174–177. дои : 10.1109/CSCITA.2017.8066548 . ISBN 978-1-5090-4381-1 . S2CID 35350962 .
- ^ «Раскрашивание и восстановление старых изображений с помощью глубокого обучения» . Блог FloydHub . 13 ноября 2018 года. Архивировано из оригинала 11 октября 2019 года . Проверено 11 октября 2019 г.
- ^ Шмидт, Уве; Рот, Стефан. Поля усадки для эффективного восстановления изображений (PDF) . Компьютерное зрение и распознавание образов (CVPR), конференция IEEE 2014 г. Архивировано (PDF) из оригинала 02 января 2018 г. Проверено 1 января 2018 г.
- ^ Клеантус, Христос; Хацис, Сотириос (2020). «Вариационные автоэнкодеры с контролируемой смесью для выбора случая проверки налога на добавленную стоимость». Системы, основанные на знаниях . 188 : 105048. doi : 10.1016/j.knosys.2019.105048 . S2CID 204092079 .
- ^ Чех, Томаш (28 июня 2018 г.). «Глубокое обучение: новый рубеж в обнаружении отмывания денег» . Глобальный обзор банковского дела и финансов . Архивировано из оригинала 16 ноября 2018 г. Проверено 15 июля 2018 г.
- ^ Нуньес, Майкл (29 ноября 2023 г.). «Материалы Google DeepMind ИИ уже обнаружил 2,2 миллиона новых кристаллов» . ВенчурБит . Проверено 19 декабря 2023 г.
- ^ Купец Амиль; Бацнер, Саймон; Шенхольц, Сэмюэл С.; Айколь, Муратахан; Чхон, Говун; Чубук, Экин Догус (декабрь 2023 г.). «Масштабирование глубокого обучения для открытия материалов» . Природа . 624 (7990): 80–85. Бибкод : 2023Природа.624...80М . дои : 10.1038/s41586-023-06735-9 . ISSN 1476-4687 . ПМК 10700131 . ПМИД 38030720 .
- ^ Пеплоу, Марк (29 ноября 2023 г.). «ИИ Google и роботы объединяют усилия для создания новых материалов» . Природа . дои : 10.1038/d41586-023-03745-5 . ПМИД 38030771 . S2CID 265503872 .
- ^ Перейти обратно: а б с «Армейские исследователи разрабатывают новые алгоритмы для обучения роботов» . ЭврекАлерт! . Архивировано из оригинала 28 августа 2018 года . Проверено 29 августа 2018 г.
- ^ Раисси, М.; Пердикарис, П.; Карниадакис, GE (01 февраля 2019 г.). «Нейронные сети, основанные на физике: система глубокого обучения для решения прямых и обратных задач, включающих нелинейные уравнения в частных производных» . Журнал вычислительной физики . 378 : 686–707. Бибкод : 2019JCoPh.378..686R . дои : 10.1016/j.jcp.2018.10.045 . ISSN 0021-9991 . ОСТИ 1595805 . S2CID 57379996 .
- ^ Мао, Чжипин; Джагтап, Амея Д.; Карниадакис, Джордж Эм (01 марта 2020 г.). «Нейронные сети, основанные на физике, для высокоскоростных потоков» . Компьютерные методы в прикладной механике и технике . 360 : 112789. Бибкод : 2020CMAME.360k2789M . дои : 10.1016/j.cma.2019.112789 . ISSN 0045-7825 . S2CID 212755458 .
- ^ Раисси, Мазиар; Яздани, Алиреза; Карниадакис, Джордж Эм (28 февраля 2020 г.). «Скрытая механика жидкости: изучение полей скорости и давления на основе визуализации потока» . Наука . 367 (6481): 1026–1030. Бибкод : 2020Sci...367.1026R . дои : 10.1126/science.aaw4741 . ПМК 7219083 . ПМИД 32001523 .
- ^ Хан, Дж.; Дженцен, А.; Э, В. (2018). «Решение многомерных уравнений в частных производных с использованием глубокого обучения» . Труды Национальной академии наук . 115 (34): 8505–8510. arXiv : 1707.02568 . Бибкод : 2018PNAS..115.8505H . дои : 10.1073/pnas.1718942115 . ПМК 6112690 . ПМИД 30082389 .
- ^ Октем, Фиген С.; Кар, Огужан Фатих; Безек, Кан Дениз; Камалабади, Фарзад (2021). «Мультиспектральная визуализация высокого разрешения с помощью дифракционных линз и обученная реконструкция» . Транзакции IEEE по вычислительной визуализации . 7 : 489–504. arXiv : 2008.11625 . дои : 10.1109/TCI.2021.3075349 . ISSN 2333-9403 . S2CID 235340737 .
- ^ Бернхардт, Мелани; Вишневский, Валерий; Рау, Ричард; Гоксель, Оркун (декабрь 2020 г.). «Обучение вариационных сетей с помощью многодоменного моделирования: реконструкция изображения со скоростью звука» . Транзакции IEEE по ультразвуку, сегнетоэлектрике и контролю частоты . 67 (12): 2584–2594. arXiv : 2006.14395 . дои : 10.1109/TUFFC.2020.3010186 . ISSN 1525-8955 . ПМИД 32746211 . S2CID 220055785 .
- ^ Лам, Реми; Санчес-Гонсалес, Альваро; Уилсон, Мэтью; Вирнсбергер, Питер; Фортунато, Мейре; Пятница, Ферран; Четверг, Суман; Эвальдс, Тимоти; Итон-Розен, Зак; Ху, Вэйхуа; Мерозе, Александр; Хойер, Стивен; Холланд, Джордж; Виньялс, Ориол; Стотт, Джеклинн (22 декабря 2023 г.). «Обучение умелому среднесрочному глобальному прогнозу погоды» . Наука 382 (6677): 1416–1421. arXiv : 2212.12794 . Бибкод : 2023Научный... 382.1416L дои : 10.1126/science.adi2336 . ISSN 0036-8075 . ПМИД 37962497 .
- ^ Сивакумар, Рамакришнан (27 ноября 2023 г.). «GraphCast: прорыв в прогнозировании погоды» . Середина . Проверено 19 мая 2024 г.
- ^ Галкин Ф.; Мамошина П.; Кочетов, К.; Сидоренко Д.; Жаворонков, А. (2020). «DeepMAge: часы старения метилирования, разработанные с помощью глубокого обучения» . Старение и болезни . дои : 10.14336/AD .
- ^ Утгофф, ЧП; Стракуцци, диджей (2002). «Многоуровневое обучение». Нейронные вычисления . 14 (10): 2497–2529. дои : 10.1162/08997660260293319 . ПМИД 12396572 . S2CID 1119517 .
- ^ Элман, Джеффри Л. (1998). Переосмысление врожденности: коннекционистский взгляд на развитие . МТИ Пресс. ISBN 978-0-262-55030-7 .
- ^ Шрагер, Дж.; Джонсон, Миннесота (1996). «Динамическая пластичность влияет на возникновение функций в простом кортикальном массиве». Нейронные сети . 9 (7): 1119–1129. дои : 10.1016/0893-6080(96)00033-0 . ПМИД 12662587 .
- ^ Кварц, СР; Сейновский, Т.Дж. (1997). «Нейронная основа когнитивного развития: конструктивистский манифест». Поведенческие и мозговые науки . 20 (4): 537–556. CiteSeerX 10.1.1.41.7854 . дои : 10.1017/s0140525x97001581 . ПМИД 10097006 . S2CID 5818342 .
- ^ С. Блейксли, «На раннем этапе развития мозга график может иметь решающее значение», The New York Times, Science Division , стр. B5–B6, 1995.
- ^ Маццони, П.; Андерсен, РА; Джордан, Мичиган (15 мая 1991 г.). «Более биологически правдоподобное правило обучения для нейронных сетей» . Труды Национальной академии наук . 88 (10): 4433–4437. Бибкод : 1991PNAS...88.4433M . дои : 10.1073/pnas.88.10.4433 . ISSN 0027-8424 . ПМК 51674 . ПМИД 1903542 .
- ^ О'Рейли, Рэндалл К. (1 июля 1996 г.). «Биологически правдоподобное обучение, основанное на ошибках, с использованием различий локальной активации: обобщенный алгоритм рециркуляции». Нейронные вычисления . 8 (5): 895–938. дои : 10.1162/neco.1996.8.5.895 . ISSN 0899-7667 . S2CID 2376781 .
- ^ Тестолин, Альберто; Зорзи, Марко (2016). «Вероятностные модели и генеративные нейронные сети: на пути к единой структуре для моделирования нормальных и нарушенных нейрокогнитивных функций» . Границы вычислительной нейронауки . 10:73 . дои : 10.3389/fncom.2016.00073 . ISSN 1662-5188 . ПМЦ 4943066 . ПМИД 27468262 . S2CID 9868901 .
- ^ Тестолин, Альберто; Стоянов, Ивилин; Зорзи, Марко (сентябрь 2017 г.). «Восприятие букв возникает в результате неконтролируемого глубокого обучения и переработки естественных особенностей изображения». Природа человеческого поведения . 1 (9): 657–664. дои : 10.1038/s41562-017-0186-2 . ISSN 2397-3374 . ПМИД 31024135 . S2CID 24504018 .
- ^ Бюзинг, Ларс; Билл, Йоханнес; Несслер, Бернхард; Маасс, Вольфганг (3 ноября 2011 г.). «Нейронная динамика как выборка: модель стохастических вычислений в рекуррентных сетях импульсных нейронов» . PLOS Вычислительная биология . 7 (11): e1002211. Бибкод : 2011PLSCB...7E2211B . дои : 10.1371/journal.pcbi.1002211 . ISSN 1553-7358 . ПМК 3207943 . ПМИД 22096452 . S2CID 7504633 .
- ^ Кэш, С.; Юсте, Р. (февраль 1999 г.). «Линейное суммирование возбуждающих входов пирамидными нейронами CA1» . Нейрон . 22 (2): 383–394. дои : 10.1016/s0896-6273(00)81098-3 . ISSN 0896-6273 . ПМИД 10069343 . S2CID 14663106 .
- ^ Ольсхаузен, Б; Филд, Д. (1 августа 2004 г.). «Разреженное кодирование сенсорных входов». Современное мнение в нейробиологии . 14 (4): 481–487. дои : 10.1016/j.conb.2004.07.007 . ISSN 0959-4388 . ПМИД 15321069 . S2CID 16560320 .
- ^ Яминс, Дэниел Л.К.; ДиКарло, Джеймс Дж (март 2016 г.). «Использование целенаправленных моделей глубокого обучения для понимания сенсорной коры». Природная неврология . 19 (3): 356–365. дои : 10.1038/nn.4244 . ISSN 1546-1726 . ПМИД 26906502 . S2CID 16970545 .
- ^ Зорзи, Марко; Тестолин, Альберто (19 февраля 2018 г.). «Эмерджентистский взгляд на происхождение чувства числа» . Фил. Пер. Р. Сок. Б. 373 (1740): 20170043. doi : 10.1098/rstb.2017.0043 . ISSN 0962-8436 . ПМК 5784047 . ПМИД 29292348 . S2CID 39281431 .
- ^ Гючлю, Умут; ван Гервен, Марсель А.Дж. (8 июля 2015 г.). «Глубокие нейронные сети выявляют градиент сложности нейронных представлений в вентральном потоке» . Журнал неврологии . 35 (27): 10005–10014. arXiv : 1411.6422 . doi : 10.1523/jneurosci.5023-14.2015 . ПМК 6605414 . ПМИД 26157000 .
- ^ Мец, К. (12 декабря 2013 г.). «Гуру глубокого обучения Facebook раскрывает будущее искусственного интеллекта» . Проводной . Архивировано из оригинала 28 марта 2014 года . Проверено 26 августа 2017 г.
- ^ Гибни, Элизабет (2016). «Алгоритм Google AI освоил древнюю игру го» . Природа . 529 (7587): 445–446. Бибкод : 2016Natur.529..445G . дои : 10.1038/529445а . ПМИД 26819021 . S2CID 4460235 .
- ^ Сильвер, Дэвид ; Хуанг, Аджа ; Мэддисон, Крис Дж.; Гез, Артур; Сифре, Лоран; Дрессе, Джордж ван ден; Шритвизер, Джулиан; Антоноглу, Иоаннис; Паннеершелвам, Веда; Ланкто, Марк; Дилеман, Сандер; Греве, Доминик; Нэм, Джон; Кальхбреннер, Нал; Суцкевер, Илия ; Лилликрап, Тимоти; Лич, Мадлен; Кавукчуоглу, Корай; Грепель, Торе; Хассабис, Демис (28 января 2016 г.). «Освоение игры в го с помощью глубоких нейронных сетей и поиска по дереву». Природа . 529 (7587): 484–489. Бибкод : 2016Natur.529..484S . дои : 10.1038/nature16961 . ISSN 0028-0836 . ПМИД 26819042 . S2CID 515925 .
- ^ «Алгоритм Google DeepMind использует глубокое обучение и многое другое, чтобы освоить игру в го | Обзор технологий MIT» . Обзор технологий Массачусетского технологического института . Архивировано из оригинала 1 февраля 2016 года . Проверено 30 января 2016 г.
- ^ Мец, Кейд (6 ноября 2017 г.). «Исследователи искусственного интеллекта покидают лабораторию Илона Маска, чтобы начать стартап в области робототехники» . Нью-Йорк Таймс . Архивировано из оригинала 7 июля 2019 года . Проверено 5 июля 2019 г.
- ^ Брэдли Нокс, В.; Стоун, Питер (2008). «Укротитель: обучение агента вручную посредством оценочного подкрепления». 2008 г. 7-я Международная конференция IEEE по развитию и обучению . стр. 292–297. дои : 10.1109/devlrn.2008.4640845 . ISBN 978-1-4244-2661-4 . S2CID 5613334 .
- ^ «Поговорите с алгоритмами: искусственный интеллект учится быстрее» . Governmentciomedia.com . 16 мая 2018 г. Архивировано из оригинала 28 августа 2018 г. . Проверено 29 августа 2018 г.
- ^ Маркус, Гэри (14 января 2018 г.). «В защиту скептицизма по поводу глубокого обучения» . Гэри Маркус . Архивировано из оригинала 12 октября 2018 года . Проверено 11 октября 2018 г.
- ^ Найт, Уилл (14 марта 2017 г.). «DARPA финансирует проекты, которые попытаются открыть черные ящики ИИ» . Обзор технологий Массачусетского технологического института . Архивировано из оригинала 4 ноября 2019 года . Проверено 2 ноября 2017 г.
- ^ Маркус, Гэри (25 ноября 2012 г.). «Является ли «глубокое обучение» революцией в искусственном интеллекте?» . Житель Нью-Йорка . Архивировано из оригинала 27 ноября 2009 г. Проверено 14 июня 2017 г.
- ^ Александр Мордвинцев; Кристофер Ола; Майк Тыка (17 июня 2015 г.). «Инцепционизм: углубляясь в нейронные сети» . Блог исследований Google. Архивировано из оригинала 3 июля 2015 года . Проверено 20 июня 2015 г.
- ^ Алекс Херн (18 июня 2015 г.). «Да, андроиды мечтают об электрических овцах» . Хранитель . Архивировано из оригинала 19 июня 2015 года . Проверено 20 июня 2015 г.
- ^ Перейти обратно: а б с Герцель, Бен (2015). «Есть ли глубокие причины, лежащие в основе патологий современных алгоритмов глубокого обучения?» (PDF) . Архивировано (PDF) из оригинала 13 мая 2015 г. Проверено 10 мая 2015 г.
- ^ Нгуен, Ань; Йосински, Джейсон; Клюн, Джефф (2014). «Глубокие нейронные сети легко обмануть: прогнозы с высокой достоверностью для неузнаваемых изображений». arXiv : 1412.1897 [ cs.CV ].
- ^ Сегеди, Кристиан; Заремба, Войцех; Суцкевер, Илья; Бруна, Джоан; Эрхан, Дмитрий; Гудфеллоу, Ян; Фергус, Роб (2013). «Интригующие свойства нейронных сетей». arXiv : 1312.6199 [ cs.CV ].
- ^ Чжу, Южная Каролина; Мамфорд, Д. (2006). «Стохастическая грамматика изображений». Найденный. Тенденции Компьютер. Граф. Вис . 2 (4): 259–362. CiteSeerX 10.1.1.681.2190 . дои : 10.1561/0600000018 .
- ^ Миллер, Г.А., и Н. Хомский. «Концепция шаблона». Доклад для конференции по обнаружению закономерностей, Мичиганский университет. 1957.
- ^ Эйснер, Джейсон. «Глубокое изучение рекурсивной структуры: грамматическая индукция» . Архивировано из оригинала 30 декабря 2017 г. Проверено 10 мая 2015 г.
- ^ «Хакеры уже начали использовать искусственный интеллект в качестве оружия» . Гизмодо . 11 сентября 2017 года. Архивировано из оригинала 11 октября 2019 года . Проверено 11 октября 2019 г.
- ^ «Как хакеры могут заставить ИИ совершать глупые ошибки» . Ежедневная точка . 18 июня 2018 года. Архивировано из оригинала 11 октября 2019 года . Проверено 11 октября 2019 г.
- ^ Перейти обратно: а б с д и «ИИ легко обмануть — почему это нужно изменить» . Центр сингулярности . 10 октября 2017 года. Архивировано из оригинала 11 октября 2017 года . Проверено 11 октября 2017 г.
- ^ Гибни, Элизабет (2017). «Ученый, который обнаруживает фейковые видео» . Природа . дои : 10.1038/nature.2017.22784 . Архивировано из оригинала 10 октября 2017 г. Проверено 11 октября 2017 г.
- ^ Тубаро, Паола (2020). «Чей интеллект — искусственный интеллект?» . Глобальный диалог : 38–39.
- ^ Перейти обратно: а б с д Мюльхофф, Райнер (6 ноября 2019 г.). «Искусственный интеллект, управляемый человеком: или как выполнять большие вычисления в человеческом мозге? На пути к медиасоциологии машинного обучения» . Новые медиа и общество . 22 (10): 1868–1884. дои : 10.1177/1461444819885334 . ISSN 1461-4448 . S2CID 209363848 .
- ^ «Facebook теперь может найти ваше лицо, даже если оно не отмечено тегами» . Проводной . ISSN 1059-1028 . Архивировано из оригинала 10 августа 2019 года . Проверено 22 ноября 2019 г.
Дальнейшее чтение
[ редактировать ]- Бишоп Кристофер М.; Бишоп, Хью (2024). Глубокое обучение: основы и концепции . Спрингер. ISBN 978-3-031-45467-7 .
- Принс, Саймон Джей Ди (2023). Понимание глубокого обучения . Массачусетский технологический институт Пресс. ISBN 9780262048644 .
- Гудфеллоу, Ян ; Бенджио, Йошуа ; Курвиль, Аарон (2016). Глубокое обучение . МТИ Пресс. ISBN 978-0-26203561-3 . Архивировано из оригинала 16 апреля 2016 г. Проверено 9 мая 2021 г. , вводный учебник.
{{cite book}}
: CS1 maint: постскриптум ( ссылка )