~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ 77FDBDDA2DAC0E42784736A169F28B06__1715058000 ✰
Заголовок документа оригинал.:
✰ Neural machine translation - Wikipedia ✰
Заголовок документа перевод.:
✰ Нейронный машинный перевод — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Neural_machine_translation ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/77/06/77fdbdda2dac0e42784736a169f28b06.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/77/06/77fdbdda2dac0e42784736a169f28b06__translat.html ✰
Дата и время сохранения документа:
✰ 09.06.2024 13:31:35 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 7 May 2024, at 08:00 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Нейронный машинный перевод — Википедия Jump to content

Нейронный машинный перевод

Из Википедии, бесплатной энциклопедии

Нейронный машинный перевод ( NMT ) — это подход к машинному переводу , который использует искусственную нейронную сеть для прогнозирования вероятности последовательности слов, обычно моделируя целые предложения в единой интегрированной модели.

Сегодня это доминирующий подход [1] : 293  [2] : 1  и могут создавать переводы, которые могут конкурировать с человеческими переводами при переводе между языками с высокими ресурсами в определенных условиях. [3] Однако проблемы все еще остаются, особенно с языками, по которым доступны менее качественные данные. [4] [5] [1] : 293  и со сдвигом предметной области между данными, на которых обучалась система, и текстами, которые она должна переводить. [1] : 293  Системы NMT также имеют тенденцию производить довольно буквальный перевод. [5]

Обзор [ править ]

В задании на перевод предложение (состоящий из жетоны ) на исходном языке необходимо перевести в предложение (состоящий из жетоны ) на целевом языке. Исходные и целевые токены (которые в простом случае используются друг для друга для векторов конкретной игры), поэтому их можно обрабатывать математически.

Модели NMT присваивают вероятность [2] : 5  [6] : 1  к потенциальным переводам y, а затем искать в подмножестве потенциальных переводов тот, который имеет наибольшую вероятность. Большинство моделей NMT являются авторегрессионными : они моделируют вероятность каждого целевого токена как функцию исходного предложения и ранее предсказанных целевых токенов. Тогда вероятность всего перевода является произведением вероятностей отдельных предсказанных токенов: [2] : 5  [6] : 2 

Модели NMT различаются тем, как именно они моделируют эту функцию. , но большинство из них используют некоторые варианты архитектуры кодера-декодера : [6] : 2  [7] : 469  Сначала они используют сеть кодировщиков для обработки и закодировать его в векторное или матричное представление исходного предложения. Затем они используют сеть декодера, которая обычно производит одно целевое слово за раз, принимая во внимание исходное представление и ранее созданные токены. Как только декодер выдает специальный токен конца предложения , процесс декодирования завершается. Поскольку декодер во время работы обращается к своим предыдущим выводам, такой способ декодирования называется авторегрессионным .

История [ править ]

Ранние подходы

В 1987 году Роберт Б. Аллен продемонстрировал использование нейронных сетей прямого распространения для перевода автоматически сгенерированных английских предложений с ограниченным словарным запасом в 31 слово на испанский. В этом эксперименте размер входного и выходного слоев сети был выбран достаточно большим для самых длинных предложений на исходном и целевом языках соответственно, поскольку в сети не было какого-либо механизма для кодирования последовательностей произвольной длины в фиксированную длину. -размерное представление. В своем резюме Аллен также уже намекнул на возможность использования автоассоциативных моделей: одной для кодирования источника, а другой — для декодирования цели. [8]

Лонни Крисман опирался на работу Аллена в 1991 году, обучая отдельные сети рекурсивной автоассоциативной памяти (RAAM) (разработанные Джорданом Б. Поллаком). [9] ) для исходного и целевого языка. Каждая из сетей RAAM обучена кодировать предложение произвольной длины в скрытое представление фиксированного размера и снова декодировать исходное предложение из этого представления. Кроме того, обе сети обучены делиться своим скрытым представлением; таким образом, исходный кодер может создать представление, которое может декодировать целевой декодер. [10] Форкада и Сэко упростили эту процедуру в 1997 году, чтобы напрямую обучать исходный кодировщик и целевой декодер в том, что они назвали рекурсивной гетероассоциативной памятью . [11]

Также в 1997 году Кастаньо и Касакуберта использовали рекуррентную нейронную сеть Элмана в другой задаче машинного перевода с очень ограниченным словарным запасом и сложностью. [12] [13]

Несмотря на то, что эти ранние подходы уже были похожи на современный NMT, вычислительных ресурсов того времени было недостаточно для обработки наборов данных, достаточно больших для вычислительной сложности задачи машинного перевода реальных текстов. [1] : 39  [14] : 2  другие методы, такие как статистический машинный перевод Вместо этого в 1990-х и 2000-х годах стали использоваться .

Гибридные подходы [ править ]

В то время, когда статистический машинный перевод был распространен, в некоторых работах использовались нейронные методы для замены различных частей статистического машинного перевода, при этом для их связи все еще использовался лог-линейный подход. [1] : 39  [2] : 1  Например, в различных работах совместно с другими исследователями Хольгер Швенк заменил привычную n-граммную модель языка на нейронную. [15] [16] и оцененные вероятности перевода фраз с использованием сети прямой связи. [17]

NMT доминирующим становится

CNN и RNN [ править ]

В 2013 и 2014 годах в области сквозного нейронного машинного перевода произошел прорыв благодаря компании Kalchbrenner & Blunsom, использовавшей сверточную нейронную сеть (CNN) для кодирования источника. [18] и Чо и др. и Суцкевер и др. вместо этого используя рекуррентную нейронную сеть (RNN). [19] [20] Все трое использовали RNN, обусловленную фиксированной кодировкой источника, в качестве декодера для выполнения перевода. Однако эти модели плохо работали с длинными предложениями. [21] : 107  [1] : 39  [2] : 7  Эта проблема была решена, когда Богданау и др. обратили внимание на их архитектуру кодера-декодера: на каждом этапе декодирования состояние декодера используется для расчета представления источника, которое фокусируется на различных частях источника и использует это представление при вычислении вероятностей для следующего токена. [22] На основе этих архитектур на основе RNN Baidu запустила «первую крупномасштабную систему NMT». [23] : 144  в 2015 году, а затем Google в 2016 году. [23] : 144  [24] С этого года нейронные модели также стали преобладающим выбором на основной конференции по машинному переводу «Семинар по статистическому машинному переводу». [25]

Геринг и др. объединили кодер CNN с механизмом внимания в 2017 году, который обрабатывал дальние зависимости в источнике лучше, чем предыдущие подходы, а также увеличивал скорость трансляции, поскольку кодер CNN можно распараллеливать, тогда как кодер RNN должен кодировать один токен за раз из-за его рецидивирующий характер. [26] : 230  В том же году «Microsoft Translator» выпустила онлайн-нейронный машинный перевод (NMT) на базе искусственного интеллекта. [27] DeepL Translator , который в то время был основан на кодере CNN , также был выпущен в том же году и был оценен несколькими новостными агентствами как превосходящий своих конкурентов. [28] [29] [30] Также было замечено, что OpenAI GPT -3 , выпущенный в 2020 году, может функционировать как система нейронного машинного перевода. Можно заметить, что некоторые другие системы машинного перевода, такие как переводчик Microsoft и SYSTRAN, также интегрировали нейронные сети в свои операции.

Трансформатор [ править ]

Другая сетевая архитектура, поддающаяся распараллеливанию, — это преобразователь , предложенный Васвани и др. также в 2017 году. [31] Как и предыдущие модели, преобразователь по-прежнему использует механизм внимания для взвешивания выходного сигнала кодера на этапах декодирования. Однако сами сети кодера и декодера преобразователя также основаны на внимании, а не на повторении или свертке: каждый уровень взвешивает и преобразует выходные данные предыдущего уровня в процессе, называемом самообслуживанием . Поскольку в механизме внимания нет никакого понятия о порядке токенов, но порядок слов в предложении явно важен, встраивания токенов комбинируются с явным кодированием их положения в предложении . [2] : 15  [6] : 7  Поскольку и кодер, и декодер преобразователя не содержат повторяющихся элементов, их можно распараллелить во время обучения. Однако декодер исходного преобразователя по-прежнему является авторегрессионным, а это означает, что декодирование по-прежнему необходимо выполнять по одному токену во время вывода.

Модель трансформатора быстро стала доминирующим выбором для систем машинного перевода. [2] : 44  и по-прежнему оставалась наиболее часто используемой архитектурой на семинаре по статистическому машинному переводу в 2022 и 2023 годах. [32] : 35–40  [33] : 28–31 

Обычно веса моделей NMT инициализируются случайным образом, а затем изучаются путем обучения на параллельных наборах данных. Однако, поскольку использование больших языковых моделей (LLM), таких как BERT, предварительно обученных на больших объемах одноязычных данных, в качестве отправной точки для изучения других задач, оказалось очень успешным в более широком НЛП , эта парадигма также становится все более распространенной в НМТ. Это особенно полезно для языков с низким уровнем ресурсов, где не существуют большие параллельные наборы данных. [4] : 689–690  Примером этого является модель mBART, которая сначала обучает один преобразователь на многоязычном наборе данных восстанавливать замаскированные токены в предложениях, а затем настраивает полученный автокодировщик на задачу перевода. [34]

Генеративные LLM [ править ]

Вместо точной настройки предварительно обученной языковой модели для задачи перевода можно также напрямую предложить достаточно большим генеративным моделям перевести предложение на желаемый язык. Этот подход был впервые всесторонне протестирован и оценен для GPT 3.5 в 2023 году Hendy et al. Они обнаружили, что «системы GPT могут производить очень плавные и конкурентоспособные результаты перевода даже при нулевых условиях, особенно для переводов на языки с высокими ресурсами». [35] : 22  WMT23 оценил тот же подход (но с использованием GPT-4 ) и обнаружил, что он находится на одном уровне с современным уровнем техники при переводе на английский, но не совсем при переводе на языки с более низкими ресурсами. [33] : 16–17  Это вполне правдоподобно, учитывая, что модели GPT обучаются в основном на английском тексте. [36]

машинным переводом Сравнение со статистическим

NMT преодолел несколько проблем, которые присутствовали в статистическом машинном переводе (SMT):

  • Полная уверенность NMT в непрерывном представлении токенов позволила преодолеть проблемы разреженности, вызванные редкими словами или фразами. Модели смогли более эффективно обобщать. [18] : 1  [37] : 900–901 
  • Ограниченная длина n-грамм, используемая в моделях языка n-грамм SMT, привела к потере контекста. Системы NMT преодолевают эту проблему, поскольку не имеют жесткого ограничения после фиксированного количества токенов и уделяют внимание выбору токенов, на которых следует сосредоточиться при создании следующего токена. [37] : 900–901 
  • Сквозное обучение одной модели улучшило производительность перевода, а также упростило весь процесс. [ нужна цитата ]
  • Огромные n-граммовые модели (до 7 грамм), используемые в SMT, требовали больших объемов памяти, [38] : 88  тогда как NMT требует меньше.

Процедура обучения [ править ]

Перекрестная потеря энтропийная

Модели NMT обычно обучаются, чтобы максимизировать вероятность наблюдения обучающих данных. Т.е. для набора данных исходные предложения и соответствующие целевые предложения , цель – найти параметры модели которые максимизируют сумму вероятности каждого целевого предложения в обучающих данных с учетом соответствующего исходного предложения:

Расширение до уровня токена дает:

Поскольку нас интересует только максимум, мы можем вместо этого искать максимум логарифма (что имеет то преимущество, что позволяет избежать опустошения чисел с плавающей запятой , которое может произойти с произведением низких вероятностей).

Использование того факта, что логарифм произведения представляет собой сумму логарифмов факторов, и изменение знака дает классическую кросс-энтропийную потерю :

На практике эта минимизация выполняется итеративно на небольших подмножествах (мини-пакетах) обучающего набора с использованием стохастического градиентного спуска .

Учитель заставляет [ править ]

Во время вывода авторегрессивные декодеры используют токен, сгенерированный на предыдущем шаге, в качестве входного токена. Однако словарь целевых токенов обычно очень велик. Таким образом, в начале этапа обучения необученные модели почти всегда выбирают неправильный токен; и последующие шаги тогда должны будут работать с неправильными входными токенами, что значительно замедлит обучение. Вместо этого на этапе обучения используется принуждение учителя : модель («ученик» в метафоре принуждения учителя) всегда получает предыдущие жетоны базовой истины в качестве входных данных для следующего токена, независимо от того, что было предсказано на предыдущем шаге.

Перевод, выполненный LLM по быстрому инжинирингу [ править ]

Как указано в разделе истории выше, вместо использования системы NMT, обученной на параллельном тексте, можно также предложить генеративному LLM перевести текст. Эти модели отличаются от системы NMT кодер-декодер по ряду причин: [35] : 1 

  • Генеративные языковые модели не обучаются решению задач перевода, не говоря уже о параллельном наборе данных. Вместо этого их обучают задачам языкового моделирования, например, предсказанию следующего слова в последовательности, взятой из большого набора текстовых данных. Этот набор данных может содержать документы на многих языках, но на практике в нем преобладает текст на английском языке. [36] После предварительной подготовки они настраиваются на выполнение другой задачи , обычно следуя инструкциям. [39]
  • Поскольку они не обучены переводу, они также не имеют архитектуры кодировщика-декодера. Вместо этого они просто состоят из декодера трансформатора.
  • Чтобы быть конкурентоспособными в области машинного перевода, LLM должны быть намного крупнее других систем NMT. Например, GPT-3 имеет 175 миллиардов параметров, [40] : 5  в то время как mBART имеет 680 миллионов [34] : 727  а у оригинального трансформера «всего» 213 миллионов. [31] : 9  Это означает, что их обучение и использование требуют больших вычислительных затрат.

Генеративный LLM можно запустить с нуля, просто попросив его перевести текст на другой язык, не приводя никаких дополнительных примеров в подсказке. Или можно включить в подсказку один или несколько примеров перевода, прежде чем просить перевести рассматриваемый текст. Тогда это называется однократным или малократным обучением соответственно. Например, Hendy et al. использовали следующие подсказки. (2023) для нулевого и однократного перевода: [35]

### Переведите это предложение с [исходный язык] на [целевой язык], Источник:
 [исходное предложение]
 ### Цель:
 
Переведите это на 1. [целевой язык]:
 [источник кадра 1]
 1. [отсылка к кадру 1]
 Переведите это на 1. [целевой язык]:
 [вход]
 1. 

Литература [ править ]

См. также [ править ]

Ссылки [ править ]

  1. ^ Перейти обратно: а б с д Это ж Коэн, Филипп (2020). Нейронный машинный перевод . Издательство Кембриджского университета.
  2. ^ Перейти обратно: а б с д Это ж г Штальберг, Феликс (29 сентября 2020 г.). «Нейронный машинный перевод: обзор и обзор». arXiv : 1912.02047v2 [ cs.CL ].
  3. ^ Эш, Мартин; Томкова, Маркета; Томек, Якуб; Кайзер, Лукаш; Ушкорейт, Якоб; Бояр, Ондрей; Жабокртский, Зденек (01.09.2020). «Трансформация машинного перевода: система глубокого обучения достигает качества перевода новостей, сравнимого с качеством перевода людей-профессионалов» . Природные коммуникации . 11 (1): 4381. doi : 10.1038/s41467-020-18073-9 . hdl : 11346/BIBLIO@id=368112263610994118 . ISSN   2041-1723 . ПМЦ   7463233 . ПМИД   32873773 .
  4. ^ Перейти обратно: а б Хэддоу, Барри; Боуден, Рэйчел; Мичели Бароне, Антонио Валерио; Хельц, Йиндржих; Береза, Александра (2022). «Обзор малоресурсного машинного перевода» . Компьютерная лингвистика . 48 (3): 673–732. arXiv : 2109.00486 . дои : 10.1162/coli_a_00446 .
  5. ^ Перейти обратно: а б Пуабо, Тьерри (2022). Кальцолари, Николетта; Беше, Фредерик; Блаш, Филипп; Шукри, Халид; Сиери, Кристофер; Деклерк, Тьерри; Гогги, Сара; Исахара, Хитоши; Мегаард, Бенте (ред.). «О «человеческом паритете» и «сверхчеловеческой деятельности» в оценке машинного перевода» . Материалы тринадцатой конференции по языковым ресурсам и оценке . Марсель, Франция: Европейская ассоциация языковых ресурсов: 6018–6023.
  6. ^ Перейти обратно: а б с д Тан, Чжисин; Ян, Цзунхан; Хуан, Сюаньчэн; Сунь, Маосун, Ян (31 декабря 2020 г.). .arXiv : [ 2012.15515 ] cs.CL .
  7. ^ Гудфеллоу, Ян; Бенджио, Йошуа; Курвиль, Аарон (2016). «12.4.5 Нейронный машинный перевод» . Глубокое обучение . МТИ Пресс. стр. 468–471 . Проверено 29 декабря 2022 г.
  8. ^ Аллен, Роберт Б. (1987). Несколько исследований естественного языка и обратного распространения ошибки . Первая международная конференция IEEE по нейронным сетям. Том. 2. Сан-Диего. стр. 335–341 . Проверено 30 декабря 2022 г.
  9. ^ Крисман, Лонни (1991). «Изучение рекурсивных распределенных представлений для целостных вычислений» . Наука о связях . 3 (4): 345–366. дои : 10.1080/09540099108946592 . ISSN   0954-0091 .
  10. ^ Поллак, Джордан Б. (1990). «Рекурсивные распределенные представления» . Искусственный интеллект . 46 (1): 77–105. дои : 10.1016/0004-3702(90)90005-К .
  11. ^ Форкад, Микель Л.; Нью-Йорк, Рамон П. (1997). Рекурсивная гетероассоциативная память для перевода . Конспекты лекций по информатике. Том. 1240. стр. 1241-1. 453–462. дои : 10.1007/BFb0032504 . ISBN  978-3-540-63047-0 . {{cite book}}: |journal= игнорируется ( помогите )
  12. ^ Кастаньо, Асунсьон; Касакуберта, Франциско (1997). Коннекционистский подход к машинному переводу . 5-я Европейская конференция по речевой коммуникации и технологиям (Eurospech, 1997). Родос, Греция. стр. 91–94. doi : 10.21437/Eurospech.1997-50 .
  13. ^ Кастаньо, Асунсьон; Касакуберта, Франциско; Видаль, Энрике (23 июля 1997 г.). Машинный перевод с использованием нейронных сетей и моделей конечных состояний . Материалы 7-й конференции по теоретико-методологическим проблемам машинного перевода естественных языков. Колледж Святого Иоанна, Санта-Фе.
  14. ^ Ян, Шуохэн; Ван, Юсинь; Чу, Сяовэнь (18 февраля 2020 г.). «Обзор методов глубокого обучения для нейронного машинного перевода». arXiv : 2002.07526 [ cs.CL ].
  15. ^ Швенк, Хольгер; Дешелотт, Дэниел; Говен, Жан-Люк (2006). Модели языка непрерывного пространства для статистического машинного перевода . Материалы стендовых докладов основной конференции COLING/ACL 2006. Сидней, Австралия. стр. 723–730.
  16. ^ Швенк, Хольгер (2007). «Модели непрерывного пространства». Компьютерная речь и язык . 3 (21): 492–518. дои : 10.1016/j.csl.2006.09.003 .
  17. ^ Швенк, Хольгер (2012). Модели непрерывного пространственного перевода для фразового статистического машинного перевода . Материалы COLING 2012: Плакаты. Мумбаи, Индия. стр. 1071–1080.
  18. ^ Перейти обратно: а б Кальхбреннер, Нал; Блансом, Филип (2013). «Рекуррентные модели непрерывного перевода» . Труды Ассоциации компьютерной лингвистики : 1700–1709.
  19. ^ Чо, Кёнхён; ван Мерриенбур, Барт; Гульчере, Чаглар; Богданов Дмитрий; Бугарес, Фетхи; Швенк, Хольгер; Бенджио, Йошуа (2014). Изучение представлений фраз с использованием кодера-декодера RNN для статистического машинного перевода . Материалы конференции 2014 года по эмпирическим методам обработки естественного языка (EMNLP). Доха, Катар: Ассоциация компьютерной лингвистики. стр. 1724–1734. arXiv : 1406.1078 . дои : 10.3115/v1/D14-1179 .
  20. ^ Суцкевер, Илья; Виньялс, Ориол; Ле, Куок В. (2014). «Последовательное обучение с помощью нейронных сетей» . Достижения в области нейронных систем обработки информации . 27 . Карран Ассошиэйтс, Инк.
  21. ^ Чо, Кёнхён; ван Мерриенбур, Барт; Богданов Дмитрий; Бенджио, Йошуа (2014). О свойствах нейронного машинного перевода: подходы кодировщика-декодера . Материалы SSST-8, Восьмого семинара по синтаксису, семантике и структуре статистического перевода. Доха, Катар: Ассоциация компьютерной лингвистики. стр. 103–111. arXiv : 1409.1259 . дои : 10.3115/v1/W14-4012 .
  22. ^ Богданов Дмитрий; Чо, Кёнхён; Бенджио, Йошуа (2014). «Нейронный машинный перевод путем совместного обучения выравниванию и переводу». arXiv : 1409.0473 [ cs.CL ].
  23. ^ Перейти обратно: а б ; Хуан, Лян; Черч, Кеннет Уорд (01.11.2022 г.), машинном переводе» . « Ван, Хайфэн; Ву, Хуа 18 143–153. в : Прогресс .2021.03.023 .
  24. ^ Ву, Юнхуэй; Шустер, Майк; Чен, Чжифэн; Ле, Куок В.; Норузи, Мохаммед; Машери, Вольфганг; Крикун, Максим; Цао, Юань; Гао, Цинь; Машери, Клаус; Клингнер, Джефф; Шах, Апурва; Джонсон, Мелвин; Лю, Сяобин; Кайзер, Лукаш (2016). «Система нейронного машинного перевода Google: преодоление разрыва между человеческим и машинным переводом». arXiv : 1609.08144 [ cs.CL ].
  25. ^ Бояр, Ондрей; Чаттерджи, Раджен; Федерманн, Кристиан; Грэм, Иветт; Хэддоу, Барри; Гек, Матиас; Йепес, Антонио Химено; Коэн, Филипп; Логачева Варвара; Монц, Кристоф; Негри, Маттео; Невеоль, Орели; Невес, Мариана; Попель, Мартин; Пост, Мэтт; Рубино, Рафаэль; Скартон, Каролина; Специя, Люсия; Турки, Марко; Верспур, Карин; Зампиери, Маркос (2016). «Итоги конференции по машинному переводу 2016 г.» (PDF) . Первая конференция ACL 2016 по машинному переводу (WMT16) . Ассоциация компьютерной лингвистики: 131–198. Архивировано из оригинала (PDF) 27 января 2018 г. Проверено 27 января 2018 г.
  26. ^ Геринг, Йонас; Аули, Майкл; Гранжер, Дэвид; Дофин, Янн (2017). Модель сверточного кодировщика для нейронного машинного перевода . Материалы 55-го ежегодного собрания Ассоциации компьютерной лингвистики (Том 1: Длинные статьи). Ванкувер, Канада: Ассоциация компьютерной лингвистики. стр. 123–135. arXiv : 1611.02344 . дои : 10.18653/v1/P17-1012 .
  27. ^ Переводчик, Microsoft (18 апреля 2018 г.). «Microsoft предоставляет конечным пользователям и разработчикам возможность перевода на основе искусственного интеллекта независимо от того, подключены ли вы к сети или офлайн» . Блог переводчика Microsoft . Проверено 19 апреля 2024 г. {{cite web}}: |last= имеет общее имя ( справка )
  28. ^ Колдьюи, Девин (29 августа 2017 г.). «DeepL обучает других онлайн-переводчиков умному машинному обучению» . ТехКранч . Проверено 26 декабря 2023 г.
  29. ^ Лелуп, Дэмиен; Ларуссери, Дэвид (29 августа 2022 г.). «Какой сервис онлайн-перевода лучший?» . Мир . Проверено 10 января 2023 г.
  30. ^ Пакальски, Инго (29 августа 2017 г.). «DeepL на практике: новый инструмент переводит намного лучше, чем Google и Microsoft» . Голем . Проверено 10 января 2023 г.
  31. ^ Перейти обратно: а б Васван, Ашиш; Шазир, Ноам; Пармар, Ник; Ушкорейт, Джейкоб; Гомес, Эйдан Н.; Кайзер, Лукаш; Полосухин, Илья (2017). Внимание — это все, что вам нужно Достижения в области нейронных систем обработки информации 30 (NIPS 2017). стр. 100-1 5998–6008.
  32. ^ Кочми, Том; Боуден, Рэйчел; Бояр, Ондржей; Дворкович, Антон; Федерманн, Кристиан; Фишел, Марк; Гауда, Тамме; Грэм, Иветт; Грундкевич, Роман; Хэддоу, Барри; Ноулз, Ребекка; Коэн, Филипп; Монц, Кристоф; Моришита, Макото; Нагата, Масааки (2022). Коэн, Филипп; Барро, Лоик; Бояр, Ондржей; Бугарес, Фетхи; Чаттерджи, Раджен; Коста-Хусса, Марта Р.; Федерманн, Кристиан; Фишел, Марк; Фрейзер, Александр (ред.). Результаты конференции по машинному переводу 2022 года (WMT22) . Материалы седьмой конференции по машинному переводу (WMT). Абу-Даби, Объединенные Арабские Эмираты (гибрид): Ассоциация компьютерной лингвистики. стр. 1–45.
  33. ^ Перейти обратно: а б Кочми, Том; Аврамидис, Элефтериос; Боуден, Рэйчел; Бояр, Ондржей; Дворкович, Антон; Федерманн, Кристиан; Фишел, Марк; Фрайтаг, Маркус; Гауда, Тамме; Грундкевич, Роман; Хэддоу, Барри; Коэн, Филипп; Мари, Бенджамин; Монц, Кристоф; Моришита, Макото (2023). Коэн, Филипп; Хэддоу, Барри; Кочми, Том; Монц, Кристоф (ред.). Результаты конференции по машинному переводу 2023 года (WMT23): степень магистра права здесь, но еще не совсем там . Материалы восьмой конференции по машинному переводу . Сингапур: Ассоциация компьютерной лингвистики. стр. 1–42. дои : 10.18653/v1/2023.wmt-1.1 .
  34. ^ Перейти обратно: а б Лю, Иньхан; Гу, Цзятао; Гоял, Наман; Ли, Сиань; Эдунов Сергей; Газвининежад, Марджан; Льюис, Майк; Зеттлмойер, Люк (2020). «Предварительная тренировка по многоязычному шумоподавлению для нейронного машинного перевода» . Труды Ассоциации компьютерной лингвистики . 8 : 726–742. arXiv : 2001.08210 . дои : 10.1162/tacl_a_00343 .
  35. ^ Перейти обратно: а б с Хенди, Амр; Абдельрехим, Мохамед; Шараф, Амр; Раунак, Викас; Габр, Мохамед; Мацусита, Хитокадзу; Ким, Ён Джин; Афифи, Мохамед; Авадалла, Хани (18 февраля 2023 г.). «Насколько хороши модели GPT при машинном переводе? Комплексная оценка». arXiv : 2302.09210 [ cs.CL ].
  36. ^ Перейти обратно: а б «Статистика набора данных GPT 3: языки по количеству символов» . ОпенАИ. 01.06.2020 . Проверено 23 декабря 2023 г.
  37. ^ Перейти обратно: а б Рассел, Стюарт; Норвиг, Питер. Искусственный интеллект: современный подход (4-е, глобальное изд.). Пирсон.
  38. ^ Федерико, Марчелло; Четтоло, Мауро (2007). Каллисон-Берч, Крис; Коэн, Филипп; Фордайс, Кэмерон Шоу; Монц, Кристоф (ред.). «Эффективная обработка N-граммных языковых моделей для статистического машинного перевода» . Материалы второго семинара по статистическому машинному переводу . Прага, Чехия: Ассоциация компьютерной лингвистики: 88–95. дои : 10.3115/1626355.1626367 .
  39. ^ Рэдфорд, Алек; Нарасимхан, Картик; Салиманс, Тим; Суцкевер, Илья (2018). Улучшение понимания языка посредством генеративной предварительной подготовки (PDF) (Технический отчет). ОпенАИ . Проверено 26 декабря 2023 г.
  40. ^ Браун, Том; Манн, Бенджамин; Райдер, Ник; Суббия, Мелани; Каплан, Джаред Д.; Дхаривал, Прафулла; Нилакантан, Арвинд; Шьям, Пранав; Састри, Гириш; Аскелл, Аманда; Агарвал, Сандхини; Герберт-Восс, Ариэль; Крюгер, Гретхен; Хениган, Том; Чайлд, Ревон (2020). «Языковые модели изучаются немногими» . Достижения в области нейронных систем обработки информации . 33 . Curran Associates, Inc.: 1877–1901.
Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: 77FDBDDA2DAC0E42784736A169F28B06__1715058000
URL1:https://en.wikipedia.org/wiki/Neural_machine_translation
Заголовок, (Title) документа по адресу, URL1:
Neural machine translation - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)