Jump to content

Закон нейронного масштабирования

В машинном обучении закон нейронного масштабирования — это эмпирический закон масштабирования , который описывает, как изменяется производительность нейронной сети при увеличении или уменьшении ключевых факторов. Эти факторы обычно включают количество параметров, размер набора обучающих данных, [1] [2] и стоимость обучения.

Введение

[ редактировать ]

В целом нейронную модель можно охарактеризовать 4 параметрами: размер модели, размер набора обучающих данных, стоимость обучения, частота ошибок после обучения. Каждую из этих четырех переменных можно точно определить как действительное число, и эмпирически установлено, что они связаны простыми статистическими законами , называемыми «законами масштабирования». [ нужна ссылка ] Обычно они записываются как (количество параметров, размер набора данных, стоимость вычислений, потери).

Размер модели

[ редактировать ]

В большинстве случаев размер модели — это просто количество параметров. Однако при использовании разреженных моделей, таких как модели смешанных экспертов , возникает одна сложность . [3] В разреженных моделях при каждом выводе используется только часть параметров. Для сравнения, большинство других типов нейронных сетей, таких как сети-трансформеры, всегда используют все свои параметры во время каждого вывода.

Размер набора обучающих данных

[ редактировать ]

Размер набора обучающих данных обычно определяется количеством содержащихся в нем точек данных. Обычно предпочтительны более крупные наборы обучающих данных, поскольку они предоставляют более богатый и разнообразный источник информации для модели, на которой можно учиться. Это, в свою очередь, может привести к повышению производительности обобщения, когда модель применяется к невидимым данным. [4] Однако увеличение размера набора обучающих данных также увеличивает вычислительные ресурсы и время, необходимые для обучения модели.

При использовании метода «предварительное обучение, затем точная настройка», используемого в большинстве больших языковых моделей , существует два типа набора обучающих данных: набор данных для предварительного обучения и набор данных для точной настройки. Их размеры будут по-разному влиять на производительность модели. Как правило, размер набора данных точной настройки составляет менее 1% от размера набора данных для предварительной подготовки. [5]

В некоторых случаях для точной настройки достаточно небольшого объема данных высокого качества, а увеличение количества данных не приводит к повышению производительности. [5]

Стоимость обучения

[ редактировать ]

Стоимость обучения обычно измеряется с точки зрения времени (сколько времени требуется для обучения модели) и вычислительных ресурсов (сколько вычислительной мощности и памяти требуется для обучения модели). Важно отметить, что стоимость обучения можно значительно снизить за счет эффективных алгоритмов обучения, оптимизированных программных библиотек и параллельных вычислений на специализированном оборудовании, таком как графические процессоры или TPU .

Стоимость обучения нейронной модели зависит от нескольких факторов, включая размер модели, размер набора обучающих данных, сложность алгоритма обучения и доступные вычислительные ресурсы. [4] В частности, удвоение набора обучающих данных не обязательно удваивает стоимость обучения, поскольку модель можно обучать несколько раз на одном и том же наборе данных (каждый из которых представляет собой « эпоху »).

Производительность

[ редактировать ]

Производительность нейронной модели оценивается на основе ее способности точно прогнозировать выходные данные с учетом входных данных. Общие метрики для оценки эффективности модели включают в себя: [4]

Производительность можно повысить за счет использования большего количества данных, более крупных моделей, различных алгоритмов обучения, регуляризации модели во избежание переобучения и ранней остановки с использованием набора проверки.

(Хестнесс, Наранг и др., 2017 г.)

[ редактировать ]

Документ 2017 года [2] является общей отправной точкой для законов нейронного масштабирования, определяемых статистическим анализом экспериментальных данных. Предыдущие работы до 2000-х годов, как цитируется в статье, были либо теоретическими, либо на несколько порядков меньшими по масштабу. В то время как в предыдущих работах обычно было обнаружено, что показатель масштабирования масштабируется как , с , в газете было обнаружено, что .

Из факторов, которые они варьировали, только задача может изменить показатель степени . Изменение оптимизаторов архитектуры, регуляризаторов и функций потерь приведет только к изменению коэффициента пропорциональности, а не показателя степени. Например, для одной и той же задачи одна архитектура может иметь в то время как другой мог бы иметь . Также было обнаружено, что для данной архитектуры количество параметров, необходимых для достижения минимального уровня потерь при фиксированном размере набора данных, растет как для другого показателя .

Они изучали машинный перевод с помощью LSTM ( ), моделирование генеративного языка с помощью LSTM ( ), классификация ImageNet с помощью ResNet ( ) и распознавание речи ( ).

(Хениган, Каплан и др., 2020 г.)

[ редактировать ]

Анализ 2020 года [8] изучал статистические связи между в широком диапазоне значений и обнаружили аналогичные законы масштабирования в диапазоне , и в нескольких модальностях (текст, видео, изображение, преобразование текста в изображение и т. д.). [8]

В частности, обнаруженные им законы масштабирования таковы (табл. 1). [8] ):

  • Для каждой модальности они зафиксировали одну из двух , и варьируя другой ( варьируется в зависимости от использования ), достижимые потери при тестировании удовлетворяют где – варьируемая переменная, а — параметры, которые необходимо найти путем статистической аппроксимации. Параметр является самым важным.
    • Когда – варьируемая переменная, варьируется от к в зависимости от модальности модели. Это соответствует из бумаги для чешуи шиншиллы.
    • Когда – варьируемая переменная, варьируется от к в зависимости от модальности модели. Это соответствует из бумаги для чешуи шиншиллы.
  • При фиксированном вычислительном бюджете оптимальное количество параметров модели постоянно составляет около Параметр варьируется в 10 раз для разных модальностей. Параметр экспоненты варьируется от к для разных модальностей. Этот показатель соответствует из бумаги для чешуи шиншиллы.
  • «Настоятельно рекомендуется» (но не проверено статистически), что . Этот показатель соответствует из бумаги для чешуи шиншиллы.

Закон масштабирования было подтверждено в ходе обучения GPT-3 (рис. 3.1). [9] ).

Чешуя шиншиллы (Хоффманн и др., 2022 г.)

[ редактировать ]

Один конкретный закон масштабирования (« Шиншилловое масштабирование ») гласит, что для большой языковой модели (LLM), авторегрессионно обученной для одной эпохи, с косинусным графиком скорости обучения , мы имеем: [10] где переменные

  • — стоимость обучения модели в FLOPS .
  • количество параметров в модели.
  • — количество токенов в обучающем наборе.
  • — это средняя отрицательная логарифмическая потеря правдоподобия на токен ( nats /token), достигнутая обученным LLM на тестовом наборе данных.
    • представляет собой потерю идеального генеративного процесса на тестовых данных
    • отражает тот факт, что модель языка Transformer с параметры отстают от идеального генеративного процесса
    • отражает тот факт, что модель обучалась на токены отстают от идеального генеративного процесса

а статистические параметры

  • Это означает, что обучение на одном токене стоит 6 флопов на каждый параметр. Это оценено Kaplan et al. [11] Обратите внимание, что стоимость обучения намного выше, чем стоимость вывода, поскольку обучение включает в себя как прямые, так и обратные проходы , тогда как вывод требует от 1 до 2 флопс на каждый параметр для вывода по одному токену.
  • .

Хотя Бесироглу и др. ал. [12] утверждает, что статистическая оценка немного ошибочна и ее следует .

Статистические законы аппроксимировались экспериментальными данными с .

Поскольку существует 4 переменные, связанные двумя уравнениями, наложение 1 дополнительного ограничения и 1 дополнительной цели оптимизации позволяет нам найти решение для всех четырех переменных. В частности, для любого фиксированного , мы можем однозначно решить для всех 4 переменных, что минимизирует . Это обеспечивает нам оптимальную для любого фиксированного : Подставляя числовые значения, мы получаем «эффективный для шиншиллы» размер модели и размер набора обучающих данных, а также достижимые потери при тестировании: Аналогичным образом мы можем найти оптимальный размер набора обучающих данных и бюджет обучающих вычислений для любого фиксированного размера параметров модели и так далее.

Существуют и другие оценки размера «эффективной для шиншиллы» модели и размера набора обучающих данных. Вышеизложенное основано на статистической модели . Можно также напрямую подогнать статистический закон для не проходя обходного пути, за что получаем: или как указано в таблице:

/ ФЛОП / Флопов обучения Gopher
400 миллионов 1.92e+19 1/29968 8,0 миллиардов
1 миллиард 1.21e+20 1/5706 20,2 миллиарда
10 миллиардов 1.23е+22 1/2819 205,1 миллиарда
67 миллиардов 5.76е+23 1 1,5 триллиона
175 миллиардов 3.85е+24 6.7 3,7 триллиона
280 миллиардов 9.90e+24 17.2 5,9 триллиона
520 миллиардов 3.43e+25 59.5 11,0 триллионов
1 триллион 1.27e+26 221.3 21,2 триллиона
10 триллионов 1.30e+28 22515.9 216,2 триллиона

Проще говоря, закон масштабирования Chinchilla для обучения моделей языка Transformer предполагает, что при увеличении бюджета (в FLOP ) для достижения оптимального по вычислениям количества параметров модели (N) и количества токенов для обучения модели (D ) должно масштабироваться примерно в равных пропорциях. Этот вывод отличается от предыдущего закона масштабирования для моделей нейронного языка: [11] в котором говорится, что N следует масштабировать быстрее, чем D. Несоответствие возникает из-за установки разной длины цикла для планировщиков скорости косинусного обучения . При оценке масштабирования Шиншиллы авторы установили длину цикла такой же, как и шаги обучения, поскольку экспериментальные результаты показывают, что более крупные циклы переоценивают потери моделей.

За пределами масштабирования шиншиллы

[ редактировать ]

Поскольку масштабирование Шиншиллы было ориентиром для многих крупномасштабных тренировочных запусков, одновременно предпринимались попытки выйти «за рамки масштабирования Шиншиллы», то есть изменить некоторые части обучающего конвейера, чтобы получить те же потери с меньшими усилиями, или намеренно тренируйтесь дольше, чем «оптимально для шиншиллы».

Обычно цель состоит в том, чтобы увеличить показатель закона масштабирования, что означает, что те же потери можно обучить с гораздо меньшими вычислительными затратами. Например, фильтрация данных может увеличить показатель закона масштабирования. [13]

Другое направление исследований посвящено тому, как обращаться с ограниченными данными: согласно законам масштабирования Шиншиллы, размер обучающего набора данных для крупнейших языковых моделей уже приближается к тому, что доступно в Интернете. [14] обнаружил, что дополнение набора данных набором «целей шумоподавления», построенных на основе набора данных, повышает производительность. [15] изучает оптимальное масштабирование, когда все доступные данные уже исчерпаны (например, в редких языках), поэтому необходимо обучать несколько эпох на одном и том же наборе данных (тогда как для масштабирования Шиншиллы требуется только одна эпоха). Серия небольших языковых моделей Phi была обучена на данных, подобных учебникам, сгенерированных большими языковыми моделями, для которых данные ограничены только объемом доступных вычислений. [16]

Оптимальность шиншиллы была определена как «оптимальная для обучающих вычислений», тогда как в реальных моделях производственного качества после завершения обучения будет сделано много выводов. «Перетренированность» во время тренировки означает лучшую производительность при выводе. [17] LLaMA По этой причине модели были перетренированы. Последующие исследования обнаружили законы масштабирования в режиме перетренировки для размеров наборов данных до 32 раз больше, чем оптимальный для Шиншиллы. [18]

Нарушенные законы нейронного масштабирования (BNSL)

[ редактировать ]

Анализ 2022 года [19] обнаружил, что многие масштабируемые поведения искусственных нейронных сетей подчиняются плавно нарушенной функциональной форме степенного закона :

в котором относится к масштабируемой величине (т.е. , , , количество шагов обучения, количество шагов вывода или размер входных данных модели) и относится к нисходящего интересующей метрике оценки производительности (или восходящего потока) (например, ошибка прогнозирования, перекрестная энтропия , ошибка калибровки, AUROC , процент оценки BLEU , оценка F1 , вознаграждение, рейтинг Elo , скорость решения или оценка FID ) в нулевом выстреле , запрос или точные настройки. Параметры находятся методом статистической аппроксимации.

На логарифмическом графике , когда не слишком велик и вычитается из оси Y, эта функциональная форма выглядит как серия линейных сегментов, соединенных дугами; тот переходы между сегментами называются «разрывами», отсюда и название « Законы сломанного нейронного масштабирования» (BNSL) .

Сценарии, в которых масштабируемое поведение искусственных нейронных сетей соответствует этой функциональной форме, включают крупномасштабное зрение , язык , аудио, видео, диффузию , генеративное моделирование , мультимодальное обучение , контрастное обучение , согласование ИИ , возможности ИИ, робототехнику и т. д. обобщение нераспределенного распределения (OOD), непрерывное обучение, трансферное обучение , неопределенности оценка / калибровка , обнаружение внераспределения , состязательная устойчивость , дистилляция , разреженность, извлечение, квантование, обрезка , справедливость , молекулы, компьютерное программирование/кодирование, математика словесные задачи, арифметика, возникающие способности , двойное спуск , обучение с учителем , обучение без учителя / самоконтроля и обучение с подкреплением (один агент и несколько агентов ).

Архитектуры, для которых поведение масштабирования искусственных нейронных сетей соответствует этой функциональной форме, включают ResNets , Transformers , MLP , MLP-Mixers , рекуррентные нейронные сети , сверточные нейронные сети , графовые нейронные сети , U-сети , кодировщик-декодер (и Модели только для кодировщика (и только для декодера), ансамбли (и не-ансамбли), модели MoE (смесь экспертов) (и не-MoE), а также модели с разреженным сокращением (и неразреженным необрезанным).

Другие примеры

[ редактировать ]

Трансформаторы зрения

[ редактировать ]

Трансформаторы зрения , как и преобразователи языка, демонстрируют законы масштабирования. Преобразователи машинного зрения, прошедшие исследовательскую подготовку в 2022 году, со счетчиком параметров. , на наборах изображений размеров , для вычислений (в единицах TPUv3-ядро-дней). [20]

После обучения модели она настраивается на ImageNet обучающем наборе . Позволять быть вероятностью ошибки точно настроенной модели, классифицирующей набор тестов ImageNet. Они нашли .

Нейронный машинный перевод

[ редактировать ]

Горбани, Бехруз и др. [21] изучали законы масштабирования для нейронного машинного перевода (в частности, английский в качестве источника и немецкий в качестве целевого) в моделях кодировщика-декодера Transformer , обучались до сходимости на одних и тех же наборах данных (таким образом, они не соответствовали законам масштабирования для расчета стоимости или размер набора данных ). Они различались Они нашли три результата:

  • является функцией закона масштабирования , где — количество параметров кодера и декодера. Это не просто функция общего количества параметров. . Функция имеет вид , где являются подогнанными параметрами. Они обнаружили, что минимизирует потери, если держится фиксированным.
  • «насыщает» (то есть достигает ) для меньших моделей, когда наборы данных обучения и тестирования являются «естественными для источника», чем «естественными для цели». Точка данных «естественный источник» означает пару англо-немецких предложений, и модели предлагается перевести английское предложение на немецкий язык, при этом английское предложение пишется писателем-естественником английского языка, а немецкое предложение переводится с Английское предложение машинного переводчика. [22] Чтобы создать два типа наборов данных, авторы собрали в Интернете естественные английские и немецкие предложения, а затем использовали машинный перевод для их перевода.
  • По мере того, как модели становятся больше, модели, обученные на исходных наборах данных, могут достичь низких потерь, но плохого показателя BLEU . Напротив, модели, обученные на целевых и исходных наборах данных, одновременно достигают низких потерь и хорошего показателя BLEU (рис. 10, 11). [21] ).

Авторы предполагают, что исходные наборы данных имеют однородные и скучные целевые предложения, и поэтому модель, обученная прогнозировать целевые предложения, быстро переобучится.

[23] обученные Трансформеры для машинного перевода с размерами по размерам набора данных . Они нашли Каплана и др. (2020) [11] закон масштабирования, применяемый к машинному переводу: . Они также обнаружили, что оценка BLEU масштабируется как .

Трансферное обучение

[ редактировать ]

Эрнандес, Дэнни и др. [24] изучал законы масштабирования для трансферного обучения в языковых моделях. Они обучали семью Трансформеров тремя способами:

  • предобучение английскому языку, доводка Python
  • предварительное обучение английскому языку и Python, тонкая настройка Python
  • обучение на Python

Идея состоит в том, что предварительное обучение английскому языку должно помочь модели добиться минимальных потерь на тестовом наборе текста Python. Предположим, что модель имеет количество параметров , и после точной настройки Токены Python, это приводит к некоторым потерям . Мы говорим, что его «количество переданных токенов» равно , если другая модель с таким же достигает того же после тренировки на Токены Python.

Они нашли для предварительной подготовки по английскому тексту и для предварительного обучения английскому языку и коду, отличному от Python.

См. также

[ редактировать ]
  1. ^ Бахри, Ясаман; Дайер, Итан; Каплан, Джаред; Ли, Джехун; Шарма, Уткарш (2024). «Объяснение законов нейронного масштабирования» . Труды Национальной академии наук . 121 (27). arXiv : 2102.06701 . дои : 10.1073/pnas.2311878121 .
  2. ^ Jump up to: а б Хестнесс, Джоэл; Наранг, Шаран; Ардалани, Ньюша; Диамос, Грегори; Джун, Хиу; Кианинежад, Хасан; Патвари, доктор Мостофа Али; Ян, Ян; Чжоу, Яньци (01 декабря 2017 г.). «Масштабирование глубокого обучения предсказуемо эмпирически». arXiv : 1712.00409 [ cs.LG ].
  3. ^ Раджбхандари, Самьям; Ли, Цунлун; Яо, Чжэвэй; Чжан, Минцзя; Аминабади, Реза Яздани; Аван, Аммар Ахмад; Рэсли, Джефф; Хэ, Юйсюн (28 июня 2022 г.). «DeepSpeed-MoE: развитие умозаключений и обучения смешанных экспертов для создания масштабов искусственного интеллекта следующего поколения» . Материалы 39-й Международной конференции по машинному обучению . ПМЛР: 18332–18346. arXiv : 2201.05596 .
  4. ^ Jump up to: а б с Гудфеллоу И., Бенджио Ю. и Курвиль А. (2016). Глубокое обучение. МТИ Пресс.
  5. ^ Jump up to: а б Чжоу, Пэнфэй; Иер, Срини; Мао, Сюэчэ, Авиа; Юй, Лили; Чжан, Гош, Гарги; Майк; Зеттлмойер, Люк; Леви, Омер (01 мая 2023 г.). «ЛИМА: меньше согласования значит больше . для »
  6. ^ Джонс, Энди Л. (2021). «Масштабирование законов масштабирования с помощью настольных игр». arXiv : 2104.03113 [ cs.LG ].
  7. ^ Таблица лидеров чат-бота LMSYS
  8. ^ Jump up to: а б с Сэм, Хениган, Том Каплан, Джаред Кац, Мор Чен, Марк Хессе, Кристофер Джексон, Джейкоб Джун, Хиву Браун, Том Б. Дхаривал, Прафулла Грей, Скотт Холласи, Крис Манн, Бенджамин Рэдфорд, Алек Рамеш, Адитья Райдер, Ник Зиглер , Дэниел М. Шульман, Джон Амодей, Дарио МакКэндлиш (27 октября 2020 г.). Законы масштабирования для авторегрессионного генеративного моделирования . OCLC   1228442047 . {{cite book}}: CS1 maint: несколько имен: список авторов ( ссылка )
  9. ^ Браун, Том Б.; Манн, Бенджамин; Райдер, Ник; Суббия, Мелани; Каплан, Дж.; Дхаривал, Прафулла; Нилакантан, Арвинд; Шьям, Пранав; Састри, Гириш; Аскелл, Аманда; Агарвал, Сандхини; Герберт-Восс, Ариэль; Крюгер, Гретхен; Хениган, Т.; Чайлд, Ревон (28 мая 2020 г.). «Языковые модели изучаются немногими». arXiv : 2005.14165 [ cs.CL ].
  10. ^ Хоффманн, Иордания; Боржо, Себастьян; Менш, Артур; Бучацкая Елена; Кай, Тревор; Резерфорд, Элиза; Касас, Диего де Лас; Хендрикс, Лиза Энн; Вельбл, Йоханнес; Кларк, Эйдан; Хенниган, Том; Ноланд, Эрик; Милликан, Кэти; Дрессе, Джордж ван ден; Дамок, Богдан (29 марта 2022 г.). «Обучение оптимальных для вычислений моделей большого языка». arXiv : 2203.15556 [ cs.CL ].
  11. ^ Jump up to: а б с Каплан, Джаред; МакКэндлиш, Сэм; Хениган, Том; Браун, Том Б.; Шахматы, Бенджамин; Дитя, Ревон; Грей, Скотт; Рэдфорд, Алек; Ву, Джеффри; Амодей, Дарио (2020). «Законы масштабирования для моделей нейронного языка». КОРР . абс/2001.08361. arXiv : 2001.08361 .
  12. ^ Бесироглу, Тамай; Эрдил, Эге; Барнетт, Мэтью; Вы, Джош (15 апреля 2024 г.), Масштабирование шиншиллы: попытка репликации , arXiv : 2404.10102
  13. ^ Соршер, Бен; Гейрос, Роберт; Шекхар, Шашанк; Гангули, Сурья; Моркос, Ари С. (21 апреля 2023 г.), За пределами законов нейронного масштабирования: масштабирование по степенному закону посредством обрезки данных , arXiv : 2206.14486
  14. ^ Тай, Йи; Вэй, Джейсон; Чунг, Хён Вон; Тран, Винь К.; Итак, Дэвид Р.; Шакери, Сиамак; Гарсия, Ксавьер; Чжэн, Хуайсю Стивен; Рао, Цзиньфэн (16 ноября 2022 г.), Преодоление законов масштабирования с дополнительными вычислениями на 0,1% , arXiv : 2210.11399
  15. ^ Мюннигофф, Никлас; Раш, Александр; Барак, Вооз; Ле Скао, Тевен; Тази, Нуаман; Пиктус, Александра; Пыйсало, Сампо; Вольф, Томас; Раффель, Колин А. (15 декабря 2023 г.). «Масштабирование языковых моделей с ограничением данных» . Достижения в области нейронных систем обработки информации . 36 : 50358–50376. arXiv : 2305.16264 .
  16. ^ Ли, Юаньчжи; Бубек, Себастьян; Эльдан, Ронен; Дель Джорно, Элли; Гунасекар, Сурия; Ли, Инь Тат (11 сентября 2023 г.), Учебники - все, что вам нужно II: технический отчет phi-1.5 , arXiv : 2309.05463
  17. ^ Сардана, Нихил; Франкл, Джонатан (31 декабря 2023 г.), За пределами оптимального для шиншиллы: учет выводов в законах масштабирования языковой модели , arXiv : 2401.00448
  18. ^ Гадре, Самир Ицхак; Смирнис, Георгиос; Шанкар, Вайшаал; Гуруранган, Сучин; Вортсман, Митчелл; Шао, Рулин; Меркат, Жан; Фанг, Алекс; Ли, Джеффри (13 марта 2024 г.), Языковые модели надежно масштабируются при чрезмерном обучении и выполнении последующих задач , arXiv : 2403.08540
  19. ^ Кабальеро, Итан; Гупта, Кшитидж; Риш, Ирина; Крюгер, Дэвид (2022). «Нарушенные законы нейронного масштабирования». arXiv : 2210.14891 [ cs.LG ].
  20. ^ Чжай, Сяохуа; Колесников, Александр; Хоулсби, Нил; Бейер, Лукас (2022). «Масштабирование преобразователей зрения» . ЦВПР : 12104–12113.
  21. ^ Jump up to: а б Горбани, Бехруз; Фират, Орхан; Фрайтаг, Маркус; Бапна, Анкур; Крикун, Максим; Гарсия, Ксавьер; Чельба, Киприан; Черри, Колин (01 сентября 2021 г.). «Законы масштабирования для нейронного машинного перевода». arXiv : 2109.07740 [ cs.LG ].
  22. ^ Чен, Миа Сюй; Фират, Орхан; Бапна, Анкур; Джонсон, Мелвин; Машери, Вольфганг; Фостер, Джордж; Джонс, Лион; Шустер, Майк; Шазир, Ноам; Пармар, Ники; Васвани, Ашиш; Ушкорейт, Якоб; Кайзер, Лукаш; Чен, Чжифэн; У, Юнхуэй (июль 2018 г.). «Лучшее из обоих миров: объединение последних достижений в области нейронного машинного перевода» . Материалы 56-го ежегодного собрания Ассоциации компьютерной лингвистики (Том 1: Длинные статьи) . Мельбурн, Австралия: Ассоциация компьютерной лингвистики: 76–86. arXiv : 1804.09849 . дои : 10.18653/v1/P18-1008 .
  23. ^ Гордон, Митчелл А; Да, Кевин; Каплан, Джаред (2021). «Законы масштабирования данных и параметров для нейронного машинного перевода». Материалы конференции 2021 года по эмпирическим методам обработки естественного языка . Страудсбург, Пенсильвания, США: Ассоциация компьютерной лингвистики. стр. 5915–5922. doi : 10.18653/v1/2021.emnlp-main.478 .
  24. ^ Эрнандес, Дэнни; Каплан, Джаред; Хениган, Том; МакКэндлиш, Сэм (01 февраля 2021 г.). «Законы масштабирования для передачи». arXiv : 2102.01293 [ cs.LG ].
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: c821f14ac299a66feb74d58ea1fd5415__1721583660
URL1:https://arc.ask3.ru/arc/aa/c8/15/c821f14ac299a66feb74d58ea1fd5415.html
Заголовок, (Title) документа по адресу, URL1:
Neural scaling law - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)