Оперативное проектирование
Оперативное проектирование — это процесс структурирования инструкции, которая может быть интерпретирована и понята генеративной моделью ИИ . [1] [2] Подсказка описывающий — это текст на естественном языке, задачу, которую должен выполнить ИИ. [3]
преобразования текста в текст Подсказкой для языковой модели может быть такой запрос, как «Что такое малая теорема Ферма ?», [4] команда типа «напиши стихотворение о падающих листьях», [5] или более длинное заявление, включая контекст, инструкции, [6] и история разговоров. Быстрое проектирование может включать в себя формулировку запроса, определение стиля, [5] предоставление соответствующего контекста [7] или назначить роль ИИ, например «Действовать как носитель французского языка». [8] Подсказка может включать несколько примеров, на которых модель может учиться, например, попросить модель выполнить «дом → дом, чат → кошка, чиен →» (ожидаемый ответ — собака ), [9] подход, называемый обучением с несколькими выстрелами . [10]
При общении с моделью преобразования текста в изображение или текста в аудио типичным приглашением является описание желаемого результата, например «высококачественная фотография космонавта верхом на лошади». [11] или «Lo-fi медленный электрочил BPM с органическими семплами». [12] Использование модели преобразования текста в изображение может включать добавление, удаление, выделение и изменение порядка слов для достижения желаемой темы, стиля, [1] планировка, освещение, [13] и эстетичный.
Контекстное обучение
[ редактировать ]Быстрое проектирование возможно благодаря контекстному обучению , определяемому как способность модели временно обучаться с помощью подсказок. Способность к контекстному обучению является возникающей способностью. [14] больших языковых моделей . Само контекстное обучение является возникающим свойством масштаба модели , что означает разрывы. [15] в последующих законах масштабирования возникают такие, что его эффективность увеличивается с разной скоростью в более крупных моделях, чем в меньших моделях. [16] [17]
В отличие от обучения и тонкой настройки под каждую конкретную задачу, которые не являются временными, то, что изучено в ходе контекстного обучения, носит временный характер. Он не переносит временные контексты или предвзятости, за исключением тех, которые уже присутствуют в наборе (предварительных) обучающих данных , от одного разговора к другому. [18] Этот результат «меза-оптимизации» [19] [20] внутри слоев преобразователя - это форма метаобучения или «обучения обучению». [21]
История
[ редактировать ]В 2018 году исследователи впервые предположили, что все ранее отдельные задачи в НЛП можно рассматривать как задачу ответа на вопрос в контексте. Кроме того, они обучили первую единую совместную многозадачную модель, которая отвечала бы на любой вопрос, связанный с задачей, например «Каково настроение», «Переведите это предложение на немецкий» или «Кто такой президент?» [22]
В 2021 году исследователи доработали одну генеративно предварительно обученную модель (T0) для выполнения 12 задач НЛП (с использованием 62 наборов данных, поскольку каждая задача может иметь несколько наборов данных). Модель показала хорошие результаты при выполнении новых задач, превзойдя модели, обученные непосредственно на выполнении одной задачи (без предварительного обучения). Для решения задачи T0 выдается задача в структурированной подсказке, например If {{premise}} is true, is it also true that {{hypothesis}}? ||| {{entailed}}.
— это подсказка, используемая для выполнения T0 решения следствия . [23]
Хранилище подсказок сообщило, что в феврале 2022 года было доступно более 2000 общедоступных подсказок примерно для 170 наборов данных. [24]
В 2022 году цепочки мыслей предложили метод подсказки исследователи Google . [17] [25]
В 2023 году несколько баз данных подсказок для преобразования текста в текст и текста в изображение стали общедоступными. [26] [27]
Текст в текст
[ редактировать ]Цепочка мыслей
[ редактировать ]Подсказки цепочки мыслей (CoT) — это метод, который позволяет большим языковым моделям (LLM) решать проблему как серию промежуточных шагов. [28] прежде чем дать окончательный ответ. Подсказки по цепочке мыслей улучшают способность к рассуждению, побуждая модель отвечать на многоэтапную задачу с помощью шагов рассуждения, имитирующих ход мыслей . [29] [17] [30] Это позволяет большим языковым моделям преодолевать трудности с некоторыми задачами рассуждения, которые требуют логического мышления и выполнения нескольких шагов, например арифметические вопросы или вопросы здравого смысла . [31] [32] [33]
Например, на вопрос «В: В столовой было 23 яблока. Если они использовали 20 яблок, чтобы приготовить обед, и купили еще 6, сколько яблок у них есть?», подсказка CoT может побудить LLM ответить «A: Столовая Изначально у них было 23 яблока. На обед они использовали 20. Итак, у них было 23 - 20 = 3. Они купили еще 6 яблок, поэтому у них есть 3 + 6 = 9. Ответ: 9. [17]
Как первоначально предлагалось, [17] каждая подсказка CoT включала несколько примеров вопросов и ответов. Таким образом, это была техника подсказки с несколькими выстрелами . Однако, просто добавив слова «Давайте подумаем поэтапно», [34] также доказал свою эффективность, что делает CoT беспроигрышным методом подсказок. Это обеспечивает лучшее масштабирование, поскольку пользователю больше не нужно формулировать множество конкретных примеров вопросов и ответов CoT. [35]
Применительно к PaLM параметров 540B , модели языка , подсказки CoT значительно помогли модели, позволив ей работать сравнимо с точно настроенными моделями для конкретных задач в нескольких задачах, достигая самых современных на тот момент результатов в математических рассуждений тесте GSM8K. . [17] Можно точно настроить модели на основе наборов данных рассуждений CoT, чтобы еще больше расширить эти возможности и стимулировать лучшую интерпретируемость . [36] [37]
Пример: [34]
Q: {question} A: Let's think step by step.
Другие методы
[ редактировать ]Подсказки по цепочке мыслей — лишь один из многих методов разработки подсказок. Были предложены различные другие методы. Опубликовано как минимум 29 различных методов. [38]
Подсказка по цепочке символов (CoS)
Подсказки в виде цепочки символов в сочетании с подсказками CoT помогают студентам LLM справиться с трудностями пространственного мышления в тексте. Другими словами, использование случайных символов, таких как «/», помогает LLM интерпретировать пробелы в тексте. Это помогает в рассуждениях и повышает эффективность LLM. [39]
Пример: [39]
Input: There are a set of bricks. The yellow brick C is on top of the brick E. The yellow brick D is on top of the brick A. The yellow brick E is on top of the brick D. The white brick A is on top of the brick B. For the brick B, the color is white. Now we have to get a specific brick. The bricks must now be grabbed from top to bottom, and if the lower brick is to be grabbed, the upper brick must be removed first. How to get brick D? B/A/D/E/C C/E E/D D Output: So we get the result as C, E, D.
Подсказка сгенерированных знаний
[ редактировать ]Подсказка сгенерированных знаний [40] сначала предлагает модели сгенерировать соответствующие факты для заполнения запроса, затем переходите к его заполнению. Качество завершения обычно выше, поскольку модель может быть обусловлена соответствующими фактами.
Пример: [40]
Generate some knowledge about the concepts in the input. Input: {question} Knowledge:
От меньшего к большему
[ редактировать ]От меньшего к большему [41] предлагает модели сначала перечислить подзадачи проблемы, а затем решить их последовательно, чтобы последующие подзадачи можно было решить с помощью ответов на предыдущие подзадачи.
Пример: [41]
Q: {question} A: Let's break down this problem: 1.
Самосогласованное декодирование
[ редактировать ]Самосогласованное декодирование [42] выполняет несколько последовательных развертываний, а затем выбирает наиболее часто встречающийся вывод из всех развертываний. Если результаты во многом расходятся, человека можно спросить о правильной цепочке мыслей. [43]
Подсказки на основе сложности
[ редактировать ]Подсказки на основе сложности [44] выполняет несколько развертываний CoT, затем выбирает развертывания с самой длинной цепочкой размышлений, а затем выбирает из них наиболее часто приходящий вывод.
Самоусовершенствоваться
[ редактировать ]Самоусовершенствоваться [45] предлагает LLM решить проблему, затем предлагает LLM критически оценить ее решение, затем предлагает LLM снова решить проблему с учетом проблемы, решения и критики. Этот процесс повторяется до тех пор, пока не будет остановлен либо из-за того, что закончатся токены, либо из-за того, что LLM выведет токен «стоп».
Критический пример: [45]
I have some code. Give one suggestion to improve readability. Don't fix the code, just give a suggestion. Code: {code} Suggestion:
Пример уточнения:
Code: {code} Let's use this suggestion to improve the code. Suggestion: {suggestion} New Code:
Древо мысли
[ редактировать ]Подсказки в виде дерева мысли [46] обобщает цепочку мыслей, предлагая модели сгенерировать один или несколько «возможных следующих шагов», а затем запуская модель на каждом из возможных следующих шагов с помощью поиска в ширину , луча или какого-либо другого метода поиска по дереву. [47]
Майевтическое побуждение
[ редактировать ]Майевтическое побуждение похоже на древо мысли. Модели предлагается ответить на вопрос с пояснением. Затем модели предлагается объяснить части объяснения и так далее. Непоследовательные деревья объяснений обрезаются или отбрасываются. Это повышает производительность сложных рассуждений, основанных на здравом смысле. [48]
Пример: [48]
Q: {question} A: True, because
Q: {question} A: False, because
Направленно-стимулирующее подсказывание
[ редактировать ]Направленно-стимулирующее подсказывание [49] включает подсказку или сигнал, например желаемые ключевые слова, чтобы направить языковую модель к желаемому результату.
Пример: [49]
Article: {article} Keywords:
Article: {article} Q: Write a short summary of the article in 2-4 sentences that accurately incorporates the provided keywords. Keywords: {keywords} A:
Побуждение к раскрытию неопределенности
[ редактировать ]По умолчанию выходные данные языковых моделей могут не содержать оценок неопределенности. Модель может выводить текст, который выглядит достоверным, хотя базовые прогнозы токенов имеют низкие оценки вероятности . Большие языковые модели, такие как GPT-4, могут иметь точно калиброванные оценки вероятности в прогнозах токенов. [50] и поэтому неопределенность выходных данных модели может быть непосредственно оценена путем считывания оценок вероятности предсказания токена.
Но если кто-то не может получить доступ к таким оценкам (например, когда кто-то обращается к модели через ограничительный API), неопределенность все равно можно оценить и включить в выходные данные модели. Один простой метод — предложить модели использовать слова для оценки неопределенности. Другой способ — побудить модель отказаться отвечать стандартным способом, если входные данные не удовлетворяют условиям. [ нужна ссылка ]
Автоматическое создание подсказок
[ редактировать ]Генерация с расширенным поиском [ оспаривается – обсуждаем ]
[ редактировать ]Генерация с расширенным поиском (RAG) — это двухэтапный процесс, включающий поиск документов и формулирование ответов с помощью модели большого языка (LLM). На начальном этапе для извлечения документов используются плотные вложения. Этот поиск может быть основан на различных форматах баз данных в зависимости от варианта использования, таких как векторная база данных , сводный индекс, индекс дерева или индекс таблицы ключевых слов. [51]
В ответ на запрос программа поиска документов выбирает наиболее релевантные документы. Эта релевантность обычно определяется путем сначала кодирования запроса и документов в векторы, а затем идентификации документов, векторы которых наиболее близки по евклидову расстоянию к вектору запроса. После извлечения документа LLM генерирует выходные данные, включающие информацию как из запроса, так и из полученных документов. [52] Этот метод особенно полезен для обработки частной или динамической информации, которая не была включена в этапы начального обучения или точной настройки модели. RAG также примечателен использованием «многоэтапного» обучения, когда модель использует небольшое количество примеров, часто автоматически извлекаемых из базы данных, для информирования о ее результатах.
Генерация с расширенным поиском графов
[ редактировать ]ГрафРАГ, [53] Придуманный Microsoft Research, расширяет RAG таким образом, что вместо того, чтобы полагаться исключительно на сходство векторов (как в большинстве подходов RAG), GraphRAG использует граф знаний, сгенерированный LLM. Этот график позволяет модели связывать разрозненные фрагменты информации, синтезировать идеи и целостно понимать обобщенные семантические концепции в больших коллекциях данных.
Исследователи продемонстрировали эффективность GraphRAG, используя такие наборы данных, как «Информация о насильственных инцидентах из новостных статей» (VIINA). [54] Объединив графы знаний, генерируемые LLM, с графовым машинным обучением, GraphRAG существенно повышает как полноту, так и разнообразие генерируемых ответов на глобальные осмысленные вопросы.
Более ранняя работа показала эффективность использования графа знаний для ответов на вопросы с использованием генерации текста в запрос. [55] Эти методы можно комбинировать для выполнения поиска как по неструктурированным, так и по структурированным данным, обеспечивая расширенный контекст и улучшенное ранжирование.
Использование языковых моделей для создания подсказок
[ редактировать ]Сами по себе большие языковые модели (LLM) могут использоваться для составления подсказок для больших языковых моделей. [56] [57] [58]
Алгоритм автоматического инженера подсказок использует один LLM для поиска по подсказкам другого LLM: [59]
- Есть два LLM. Один из них — целевой LLM, а другой — побуждающий LLM.
- Подсказка LLM представлена примерами пар ввода-вывода и предложена сгенерировать инструкции, которые могли бы заставить модель, следуя инструкциям, генерировать выходные данные с учетом входных данных.
- Каждая из сгенерированных инструкций используется для запроса целевого LLM, за которым следуют все входные данные. Логарифмические вероятности выходных данных вычисляются и складываются. Это оценка инструкции.
- Инструкции, получившие наивысшую оценку, передаются LLM, подсказывающему дальнейшие варианты.
- Повторяйте до тех пор, пока не будет достигнут какой-либо критерий остановки, затем выведите инструкции с наибольшим количеством баллов.
Примеры CoT могут быть созданы самим LLM. В «авто-ЦТ», [60] библиотека вопросов преобразуется в векторы с помощью такой модели, как BERT . Векторы вопросов сгруппированы . Отбираются вопросы, ближайшие к центроидам каждого кластера. LLM проводит нулевой CoT по каждому вопросу. Полученные примеры CoT добавляются в набор данных. При появлении запроса на новый вопрос можно получить примеры CoT для ближайших вопросов и добавить их в запрос.
Преобразование текста в изображение
[ редактировать ]В 2022 году преобразования текста в изображение, такие модели как DALL-E 2 , Stable Diffusion и Midjourney . были представлены [61] Эти модели принимают текстовые подсказки в качестве входных данных и используют их для создания художественных изображений ИИ . Модели преобразования текста в изображение обычно не понимают грамматику и структуру предложений так же, как большие языковые модели . [62] и требуют другого набора методов подсказки.
Форматы подсказок
[ редактировать ]Подсказка преобразования текста в изображение обычно включает описание предмета искусства (например, ярко-оранжевые маки ), желаемого носителя (например, цифровая живопись или фотография ), стиля (например, гиперреалистичный или поп-арт ), освещения ( например, гиперреалистичный или поп-арт). например, краевое освещение или сумеречные лучи ), цвет и текстура. [63]
В документации Midjourney рекомендуются короткие, описательные подсказки: вместо «Покажите мне изображение множества цветущих калифорнийских маков, сделайте их яркими, ярко-оранжевыми и нарисуйте их в иллюстрированном стиле цветными карандашами», эффективной подсказкой может быть «Ярко-оранжевый». Калифорнийские маки, нарисованные цветными карандашами». [62]
Порядок слов влияет на вывод подсказки преобразования текста в изображение. Слова, расположенные ближе к началу подсказки, могут быть выделены сильнее. [1]
Стили исполнителей
[ редактировать ]Некоторые модели преобразования текста в изображение способны имитировать стиль конкретных художников по имени. Например, фраза в стиле Грега Рутковски использовалась в подсказках Stable Diffusion и Midjourney для создания изображений в характерном стиле польского цифрового художника Грега Рутковски . [64]
Негативные подсказки
[ редактировать ]Модели преобразования текста в изображение изначально не поддерживают отрицание. Подсказка «Вечеринка без торта», скорее всего, создаст образ, включающий торт. [62] В качестве альтернативы, отрицательные подсказки позволяют пользователю указать в отдельной подсказке, какие термины не должны появляться в результирующем изображении. [65] Распространенный подход состоит в том, чтобы включать общие нежелательные термины, такие как «уродливый», «скучный», «плохая анатомия» в негативную подсказку к изображению .
Преобразование текста в видео
[ редактировать ]Генерация текста в видео (TTV) — это новая технология, позволяющая создавать видео непосредственно из текстовых описаний. Эта область имеет потенциал для трансформации видеопроизводства, анимации и повествования. Используя возможности искусственного интеллекта, TTV позволяет пользователям обходить традиционные инструменты редактирования видео и воплощать свои идеи в движущиеся изображения.
Модели включают в себя:
- Runway Gen-2 – предлагает удобный интерфейс и поддерживает различные стили видео.
- Люмьер – предназначен для создания видео высокого разрешения. [66]
- Make-a-Video – фокусируется на создании детальных и разнообразных видеоматериалов. [67]
- Sora от OpenAI . Предполагается, что Sora, еще не выпущенная, может создавать видео с высоким разрешением. [68] [69]
Нетекстовые подсказки
[ редактировать ]Некоторые подходы дополняют или заменяют текстовые подсказки на естественном языке нетекстовым вводом.
Текстовая инверсия и вложения
[ редактировать ]Для моделей преобразования текста в изображение: «Текстовая инверсия». [70] выполняет процесс оптимизации для создания нового встраивания слов на основе набора примеров изображений. Этот вектор внедрения действует как «псевдослово», которое можно включить в подсказку для выражения содержания или стиля примеров.
Подсказка изображения
[ редактировать ]В 2023 году компания Meta , занимающаяся исследованием искусственного интеллекта, выпустила Segment Anything — модель компьютерного зрения , которая может выполнять сегментацию изображений по подсказкам. В качестве альтернативы текстовым подсказкам Segment Anything может принимать ограничивающие рамки, маски сегментации и точки переднего/фонового плана. [71]
Использование градиентного спуска для поиска подсказок
[ редактировать ]В "приставке-тюнинге" [72] «оперативная настройка» или «мягкая подсказка», [73] Векторы с плавающей запятой ищутся непосредственно методом градиентного спуска , чтобы максимизировать логарифмическое правдоподобие выходных данных.
Формально пусть быть набором токенов мягких подсказок (настраиваемых вложений), в то время как и быть встраиванием токенов ввода и вывода соответственно. Во время обучения настраиваемые внедрения, входные и выходные токены объединяются в одну последовательность. и передаются в модели большого языка (LLM). Потери течение рассчитываются в жетоны; градиенты передаются обратно к параметрам, специфичным для подсказки: при настройке префикса они являются параметрами, связанными с токенами подсказки на каждом уровне; при быстрой настройке они являются всего лишь программными маркерами, добавляемыми в словарь. [74]
Более формально, это оперативная настройка. Пусть LLM запишется как , где представляет собой последовательность лингвистических лексем, — функция преобразования токена в вектор, а это остальная часть модели. При настройке префикса предоставляется набор пар ввода-вывода. , а затем используйте градиентный спуск для поиска . Другими словами, логарифмическая вероятность вывода , если модель сначала кодирует входные данные в вектор , затем добавьте к вектору «префиксный вектор» , затем применить .
По настройке приставки аналогично, но "вектор приставки" добавляется к скрытым состояниям на каждом уровне модели.
Более ранний результат [75] использует ту же идею поиска по градиентному спуску, но разработан для моделей языка с масками, таких как BERT, и ищет только по последовательностям токенов, а не по числовым векторам. Формально он ищет где диапазоны по последовательностям токенов указанной длины.
Быстрая инъекция
[ редактировать ]Оперативное внедрение — это семейство связанных эксплойтов компьютерной безопасности, осуществляемых путем получения модели машинного обучения (например, LLM), которая была обучена следовать инструкциям, данным человеком, для выполнения инструкций, предоставленных злонамеренным пользователем. Это контрастирует с предполагаемой работой систем, следующих инструкциям, в которых модель ML предназначена только для следования доверенным инструкциям (подсказкам), предоставленным оператором модели ML. [76] [77] [78]
См. также
[ редактировать ]Ссылки
[ редактировать ]- ^ Перейти обратно: а б с Диаб, Мохамад; Эррера, Джулиан; Чернов, Боб (28 октября 2022 г.). «Справочник по стабильной диффузии» (PDF) . Проверено 7 августа 2023 г.
Оперативная разработка — это процесс структурирования слов, которые можно интерпретировать и понимать с помощью модели преобразования текста в изображение . Думайте об этом как о языке, на котором вам нужно говорить, чтобы сказать модели ИИ, что рисовать.
- ^ Зиглер, Альберт; Берриман, Джон (17 июля 2023 г.). «Руководство разработчика по оперативному проектированию и получению степени LLM» . Блог GitHub .
Оперативное проектирование — это искусство общения с генеративной моделью ИИ.
- ^ Рэдфорд, Алек; Ву, Джеффри; Дитя, Ревон; Луан, Дэвид; Амодей, Дарио; Суцкевер, Илья (2019). «Языковые модели предназначены для многозадачного обучения без присмотра» (PDF) . ОпенАИ.
Мы демонстрируем, что языковые модели могут выполнять последующие задачи с нуля — без каких-либо изменений параметров или архитектуры.
- ^ «Представляем ChatGPT» . Блог OpenAI . 30 ноября 2022 г. Проверено 16 августа 2023 г.
что такое малая теорема Ферма
- ^ Перейти обратно: а б Робинсон, Рид (3 августа 2023 г.). «Как написать эффективное приглашение GPT-3 или GPT-4» . Запир . Проверено 14 августа 2023 г.
«Основная подсказка: «Напишите стихотворение о падающих листьях». Лучше подсказка: «Напишите стихотворение в стиле Эдгара Аллана По о падающих листьях».
- ^ Гаус-Стюарт, Наташа (16 июня 2023 г.). «Полное руководство по быстрому проектированию вашей модели GPT-3.5-Turbo» . masterofcode.com .
- ^ Гринберг Дж., Лаура (31 мая 2023 г.). «Как настроить ChatGPT для более надежной поддержки при составлении контрактов» . Contractnerds.com . Проверено 24 июля 2023 г.
- ^ «Лучшие практики GPT» . ОпенАИ . Проверено 16 августа 2023 г.
- ^ Гарг, Шивам; Ципрас, Димитрис; Лян, Перси; Валиант, Грегори (2022). «Чему трансформеры могут научиться в контексте? Пример использования классов простых функций». arXiv : 2208.01066 [ cs.CL ].
- ^ Браун, Том; Манн, Бенджамин; Райдер, Ник; Суббия, Мелани; Каплан, Джаред Д.; Дхаривал, Прафулла; Нилакантан, Арвинд (2020). «Языковые модели изучаются с небольшим количеством попыток». Достижения в области нейронных систем обработки информации . 33 : 1877–1901. arXiv : 2005.14165 .
- ^ Небеса, Уилл Дуглас (6 апреля 2022 г.). «Этот астронавт, едущий на лошади, является важной вехой на долгом пути ИИ к пониманию» . Обзор технологий Массачусетского технологического института . Проверено 14 августа 2023 г.
- ^ Виггерс, Кайл (12 июня 2023 г.). «Мета-генератор музыки с открытым исходным кодом на базе искусственного интеллекта» . ТехКранч . Проверено 15 августа 2023 г.
Затем я дал более сложную подсказку, чтобы попытаться зациклить MusicGen: «Lo-fi, медленный электро-чил BPM с органическими семплами».
- ^ «Как написать подсказки для фотосессии с помощью ИИ: руководство по созданию лучших фотографий товаров» . claid.ai . 12 июня 2023 г. . Проверено 12 июня 2023 г.
- ^ Вэй, Джейсон; Тай, Йи; Боммасани, Риши; Раффель, Колин; Зоф, Баррет; Боржо, Себастьян; Йогатама, Дэни; Босма, Мартен; Чжоу, Денни; Мецлер, Дональд; Чи, Эд Х.; Хасимото, Тацунори; Виньялс, Ориол; Лян, Перси; Дин, Джефф; Федус, Уильям (31 августа 2022 г.). «Новые возможности больших языковых моделей». arXiv : 2206.07682 [ cs.CL ].
При подсказке предварительно обученная языковая модель получает подсказку (например, инструкцию на естественном языке) о задаче и завершает ответ без какого-либо дальнейшего обучения или градиентного обновления ее параметров... Возможность выполнения задачи с помощью нескольких шагов подсказка возникает, когда модель имеет случайную производительность до определенного масштаба, после чего производительность возрастает до уровня, значительно превышающего случайный.
- ^ Кабальеро, Итан; Гупта, Кшитидж; Риш, Ирина; Крюгер, Дэвид (2022). «Нарушенные законы нейронного масштабирования» . Международная конференция по обучению представлениям (ICLR), 2023 г.
- ^ Ну, Джейсон; Тай, Йи; Боммасани, Риши; Раффель, Колин; Зоф, Баррет; Боржо, Себастьян; Йогатама, Дэни; Босма, Мартин; Чжоу, Денни; Мецлер, Дональд; Чи, Эд Х.; Хасимото, Тацунори; Виньялс, Ориол; Лян, Перси; Дин, Джефф; Федус, Уильям (31 августа 2022 г.). «Новые возможности больших языковых моделей». arXiv : 2206.07682 [ cs.CL ].
- ^ Перейти обратно: а б с д и ж Вэй, Джейсон; Ван, Сюэчжи; Шурманс, Дейл; Босма, Мартен; Ихтер, Брайан; Ся, Фэй; Чи, Эд Х.; Ле, Куок В.; Чжоу, Денни (31 октября 2022 г.). Подсказки по цепочке мыслей вызывают рассуждения в больших языковых моделях . Достижения в области нейронных систем обработки информации (NeurIPS 2022). Том. 35. arXiv : 2201.11903 .
- ^ Мюссер, Джордж. «Как ИИ узнает то, что ему никто не говорил» . Научный американец . Проверено 17 мая 2023 г.
К тому времени, когда вы вводите запрос в ChatGPT, сеть должна быть исправлена; в отличие от людей, ему не следует продолжать обучение. Поэтому стало неожиданностью, что LLM действительно учатся на подсказках своих пользователей — способность, известная как контекстное обучение.
- ^ Йоханнес фон Освальд; Никлассон, Эйвинд; Рандаццо, Этторе; Сакраменто, Жуан; Мордвинцев Александр; Жмогинов Андрей; Владимиров, Макс (2022). «Трансформеры учатся в контексте путем градиентного спуска». arXiv : 2212.07677 [ cs.LG ].
Таким образом, мы показываем, как обученные Трансформеры становятся меза-оптимизаторами, т.е. изучают модели путем градиентного спуска при их прямом проходе.
- ^ «Меса-Оптимизация» . 31 мая 2019 года . Проверено 17 мая 2023 г.
Меса-оптимизация — это ситуация, которая возникает, когда изученная модель (например, нейронная сеть) сама является оптимизатором.
- ^ Гарг, Шивам; Ципрас, Димитрис; Лян, Перси; Валиант, Грегори (2022). «Чему трансформеры могут научиться в контексте? Пример использования классов простых функций». arXiv : 2208.01066 [ cs.CL ].
Обучение модели для выполнения контекстного обучения можно рассматривать как пример более общей парадигмы обучения для обучения или метаобучения.
- ^ Макканн, Брайан; Шириш, Нитиш; Сюн, Цаймин; Сочер, Ричард (2018). «Декатлон естественного языка: многозадачное обучение как ответы на вопросы». arXiv : 1806.08730 [ cs.CL ].
- ^ Сан, Виктор; и др. (2021). «Многозадачное обучение обеспечивает нулевую генерализацию задач». arXiv : 2110.08207 [ cs.LG ].
- ^ Бах, Стивен Х.; Сан, Виктор; Юн, Чжэн-Синь; Вебсон, Альберт; Раффель, Колин; Наяк, Нихал В.; Шарма, Абхишт; Ким, Тэун; М. Сайфул Бари; Феври, Тибо; Аляфеай, Заид; Дей, Манан; Сантилли, Андреа; Сунь, Чжицин; Бен-Давид, Срулик; Сюй, Канвен; Чаблани, Гунджан; Ван, Хан; Джейсон Алан Фрайс; Аль-Шайбани, Магед С.; Шарма, Шанья; Таккер, Урмиш; Альмубарак, Халид; Тан, Сянгру; Радев, Драгомир; Майк Тянь-Цзянь Цзян; Раш, Александр М. (2022). «PromptSource: интегрированная среда разработки и репозиторий для подсказок на естественном языке». arXiv : 2202.01279 [ cs.LG ].
- ^ Вэй, Джейсон; Чжоу (11 мая 2022 г.). «Языковые модели выполняют рассуждения посредством цепочки мыслей» . ai.googleblog.com . Проверено 10 марта 2023 г.
- ^ Чен, Брайан X. (23 июня 2023 г.). «Как превратить вашего чат-бота в личного тренера» . Нью-Йорк Таймс .
- ^ Чен, Брайан X. (25 мая 2023 г.). «Получите максимум от ChatGPT с помощью этих золотых подсказок» . Нью-Йорк Таймс . ISSN 0362-4331 . Проверено 16 августа 2023 г.
- ^ Маколифф, Закари. «Последнюю модель искусственного интеллекта Google можно научить решать проблемы» . CNET . Проверено 10 марта 2023 г.
«Подсказки по цепочке мыслей позволяют нам описывать многоэтапные проблемы как серию промежуточных шагов», — генеральный директор Google Сундар Пичаи.
- ^ Маколифф, Закари. «Последнюю модель искусственного интеллекта Google можно научить решать проблемы» . CNET . Проверено 10 марта 2023 г.
- ^ Шаран Наранг и Ааканша Чоудхери (4 апреля 2022 г.). «Языковая модель Pathways (PaLM): масштабирование до 540 миллиардов параметров для достижения революционной производительности» .
- ^ Данг, Экта (8 февраля 2023 г.). «Использование возможностей GPT-3 в научных исследованиях» . ВенчурБит . Проверено 10 марта 2023 г.
- ^ Монтти, Роджер (13 мая 2022 г.). «Цепочка мыслей Google может улучшить лучшие на сегодняшний день алгоритмы» . Журнал поисковых систем . Проверено 10 марта 2023 г.
- ^ Рэй, Тирнан. «Ученые Amazon из Alexa демонстрируют, что чем больше ИИ, тем лучше » ЗДНЕТ . Проверено 10 марта 2023 г.
- ^ Перейти обратно: а б Шисян Шейн Гу; Мацуо, Ютака; Ивасава, Юсуке Кодзима, Такеши ; 2022 ( ) .
- ^ Диксон, Бен (30 августа 2022 г.). «LLM не выучили наш язык — мы пытаемся выучить их язык» . ВенчурБит . Проверено 10 марта 2023 г.
- ^ Чунг, Хён Вон; Хоу, Ле; Лонгпре, Шейн; Зоф, Баррет; Тай, Йи; Федус, Уильям; Ли, Юньсюань; Ван, Сюэчжи; Дегани, Мостафа; Брахма, Сиддхартха; Вебсон, Альберт; Гу, Шисян Шейн; Дай, Чжуюн; Сузгун, Мирак; Чен, Синьюнь; Чоудери, Ааканша; Кастро-Рос, Алекс; Пелла, Мари; Робинсон, Кевин; Вальтер, Даша; Наранг, Шаран; Мишра, Гаурав; Ты, Адамс; Чжао, Винсент; Хуан, Яньпин; Нет, Эндрю; Ю, Хункун; Петров, славянин; Чи, Эд Х.; Дин, Джефф; Девлин, Джейкоб; Робертс, Адам; Чжоу, Денни; Ле, Куок В.; Вэй, Джейсон (2022). «Масштабирование языковых моделей с точной настройкой инструкций». arXiv : 2210.11416 [ cs.LG ].
- ^ Вэй, Джейсон; Тай, Йи (29 ноября 2022 г.). «Лучшие языковые модели без огромных вычислений» . ai.googleblog.com . Проверено 10 марта 2023 г.
- ^ Саху, Пранаб; Сингх, Аюш Кумар; Саха, Шрипарна; Джайн, Виния; Мондал, Самрат; Чадха, Аман (05 февраля 2024 г.), Систематический обзор оперативного проектирования в моделях большого языка: методы и приложения , arXiv : 2402.07927
- ^ Перейти обратно: а б Ху, Ханьсюй; Чжан, Хуацзянь; Сун, Юнь-Цзе; Чжан, Юэ (03.10.2023), «Цепочка символов способствует планированию в больших языковых моделях» , arXiv : 2305.10276
- ^ Перейти обратно: а б Лю, Цзячэн; Лю, Алиса; Лу, Симин; Веллек, Шон; Уэст, Питер; Ле Бра, Ронан; Чой, Еджин; Хаджиширзи, Ханнане (май 2022 г.). «Сгенерированные знания, побуждающие к здравому рассуждению» . Материалы 60-го ежегодного собрания Ассоциации компьютерной лингвистики (Том 1: Длинные статьи) . Дублин, Ирландия: Ассоциация компьютерной лингвистики: 3154–3169. arXiv : 2110.08387 . doi : 10.18653/v1/2022.acl-long.225 . S2CID 239016123 .
- ^ Перейти обратно: а б Чжоу, Денни; Шерли, Натанаэль; Хоу, Ле; Вэй, Джейсон; Весы, Натан; Ван, Сюэчжи; Шурманс, Дейл; Кюи, Клэр; Буске, Оливье; Ле, Куок; Чи, Эд (01 мая 2022 г.). «Подсказки от наименьшего к наибольшему позволяют проводить сложные рассуждения в больших языковых моделях». arXiv : 2205.10625 [ cs.AI ].
...от наименьшего к наибольшему подсказке. Ключевая идея этой стратегии — разбить сложную проблему на ряд более простых подзадач и затем последовательно решить их.
- ^ Ван, Сюэчжи; Вэй, Джейсон; Шурманс, Дейл; Ле, Куок; Чи, Эд; Наранг, Шаран; Чоудери, Ааканша; Чжоу, Денни (01 марта 2022 г.). «Самосогласованность улучшает цепочку мыслей в языковых моделях». arXiv : 2203.11171 [ cs.CL ].
- ^ Дяо, Шиже; Ван, Пэнчэн; Линь, Юн; Чжан, Тонг (01 февраля 2023 г.). «Активные подсказки с помощью цепочки мыслей для больших языковых моделей». arXiv : 2302.12246 [ cs.CL ].
- ^ Фу, Яо; Пэн, Хао; Сабхарвал, Ашиш; Кларк, Питер; Хот, Тушар (01.10.2022). «Подсказки на основе сложности для многоэтапного рассуждения». arXiv : 2210.00720 [ cs.CL ].
- ^ Перейти обратно: а б Мадаан, Аман; Тандон, Никет; Гупта, Прахар; Халлинан, Скайлер; Гао, Лую; Вигреффе, Сара; Алон, Ури; Дзири, Нуха; Прабхумойе, Шримаи; Ян, Имин; Гупта, Шашанк; Прасад Маджумдер, Бодхисаттва; Германн, Кэтрин; Веллек, Шон; Язданбахш, Амир (01 марта 2023 г.). «Самоуточнение: итеративное уточнение с самообратной связью». arXiv : 2303.17651 [ cs.CL ].
- ^ Лонг, Цзеи (15 мая 2023 г.). «Древо мысли на основе большой языковой модели». arXiv : 2305.08291 [ cs.AI ].
- ^ Яо, Шуньюй; Ю, Дайан; Чжао, Джеффри; Шафран, Ицхак; Гриффитс, Томас Л.; Цао, Юань; Нарасимхан, Картик (17 мая 2023 г.). «Древо мыслей: сознательное решение проблем с помощью больших языковых моделей». arXiv : 2305.10601 [ cs.CL ].
- ^ Перейти обратно: а б Юнг, Джэхун; Цинь, Ляньхуэй; Веллек, Шон; Брахман, Фаэзе; Бхагаватула, Чандра; Ле Бра, Ронан; Чой, Еджин (2022). «Маевтические подсказки: логически последовательные рассуждения с рекурсивными объяснениями». arXiv : 2205.11822 [ cs.CL ].
- ^ Перейти обратно: а б Ли, Зекун; Пэн, Баолинь; Он, Пэнчэн; Галлей, Мишель; Гао, Цзяньфэн; Ян, Сифэн (2023). «Управление большими языковыми моделями с помощью направленных стимулирующих подсказок». arXiv : 2302.11520 [ cs.CL ].
Направленный стимул служит подсказками или сигналами для каждого входного запроса, направляя LLM к желаемому результату, например, ключевым словам, которые желаемое резюме должно включать для обобщения.
- ^ ОпенАИ (27 марта 2023 г.). «Технический отчет GPT-4». arXiv : 2303.08774 [ cs.CL ]. [См. рис. 8.]
- ^ «Как работает каждый индекс — LlamaIndex 🦙 v0.10.17» . docs.llamaindex.ai . Проверено 8 апреля 2024 г.
- ^ Льюис, Патрик; Перес, Итан; Пиктус, Александра; Петрони, Фабио; Карпухин Владимир; Гоял, Наман; Кюттлер, Генрих; Льюис, Майк; Йи, Вен-тау; Роктешель, Тим; Ридель, Себастьян; Киела, Доуве (2020). «Расширенная поисковая генерация для наукоемких задач НЛП» . Достижения в области нейронных систем обработки информации . 33 . Curran Associates, Inc.: 9459–9474. arXiv : 2005.11401 .
- ^ GraphRAG: открытие LLM на основе повествовательных частных данных , 2024 г.
- ^ Эдж, Даррен; Трин, Ха; Ченг, Ньюман; Брэдли, Джошуа; Чао, Алекс; Моди, Апурва; Труитт, Стивен; Ларсон, Джонатан (2024), От локального к глобальному: подход Graph RAG к суммированию, ориентированному на запросы , arXiv : 2404.16130
- ^ Контрольный показатель для понимания роли графов знаний в точности большой языковой модели для ответов на вопросы в корпоративных базах данных SQL , 2023, arXiv : 2311.07509
- ^ Фернандо, Крисанта; Банарсе, Дилан; Михалевский, Хенрик; Осиндеро, Саймон; Роктешель, Тим (2023). «Promptbreeder: самореферентное самосовершенствование посредством быстрой эволюции». arXiv : 2309.16797 .
{{cite journal}}
: Для цитирования журнала требуется|journal=
( помощь ) - ^ Призант, Рид; Итер, Дэн; Ли, Джерри; Ли, Инь Тат; Чжу, Чэньгуан; Цзэн, Майкл (2023). «Автоматическая оперативная оптимизация с помощью «градиентного спуска» и поиска луча». arXiv : 2305.03495 .
{{cite journal}}
: Для цитирования журнала требуется|journal=
( помощь ) - ^ Го, Цинъянь; Го, Цзюньлян; Сун, Кайтао; Лю, Гоцин; Цзян, Юцзю (2023). Оптимизаторы». arXiv : 2309.08532 .
{{cite journal}}
: Для цитирования журнала требуется|journal=
( помощь ) - ^ Чжоу, Юнчао; Иоан Мурешану, Андрей; Хан, Зивэнь; Пастер, Кейран; Питис, Сильвиу; Чан, Харрис; Ба, Джимми (01 ноября 2022 г.). «Большие языковые модели — это инженеры быстрого реагирования на уровне человека». arXiv : 2211.01910 [ cs.LG ].
- ^ Чжан, Чжошэн; Чжан, Астон; Ли, Му; Смола, Алекс (01 октября 2022 г.). «Автоматическая цепочка мыслей в моделях большого языка». arXiv : 2210.03493 [ cs.CL ].
- ^ Монж, Джим Клайд (25 августа 2022 г.). «Dall-E2 против стабильной диффузии: тот же результат, разные результаты» . MLearning.ai . Проверено 31 августа 2022 г.
- ^ Перейти обратно: а б с «Подсказки» . Проверено 14 августа 2023 г.
- ^ «Подсказка о стабильной диффузии: полное руководство» . 14 мая 2023 г. Проверено 14 августа 2023 г.
- ^ Хейккиля, Мелисса (16 сентября 2022 г.). «Этот художник доминирует в искусстве, созданном искусственным интеллектом, и он этим не доволен» . Обзор технологий Массачусетского технологического института . Проверено 14 августа 2023 г.
- ^ Макс Вульф (28 ноября 2022 г.). «Стабильная диффузия 2.0 и важность негативных подсказок для хороших результатов» . Проверено 14 августа 2023 г.
- ^ «Люмьер — исследование Google» . Люмьер — Исследования Google . Проверено 25 февраля 2024 г.
- ^ «Представляем Make-A-Video: систему искусственного интеллекта, которая генерирует видео из текста» . ai.meta.com . Проверено 25 февраля 2024 г.
- ^ «Модели видеогенерации как симуляторы мира» . openai.com . Проверено 25 февраля 2024 г.
- ^ Команда, ПромптСора. «Понимание Sora от OpenAI: революционный скачок | PromptSora: откройте для себя подсказки и видео для Sora от Open AI» . Подскажите Сора . Проверено 25 февраля 2024 г.
- ^ Гал, Ринон; Алалуф, Юваль; Ацмон, Юваль; Паташник, Ор; Бермано, Амит Х.; Чечик, Гал; Коэн-Ор, Дэниел (2022). «Изображение стоит одного слова: персонализация преобразования текста в изображение с помощью текстовой инверсии». arXiv : 2208.01618 [ cs.CV ].
Используя всего 3-5 изображений предоставленной пользователем концепции, например объекта или стиля, мы учимся представлять ее через новые «слова» в пространстве внедрения замороженной модели преобразования текста в изображение.
- ^ Кириллов, Александр; Минтун, Эрик; Рави, Никила; Мао, Ханзи; Роллан, Хлоя; Густафсон, Лаура; Сяо, папа; Уайтхед, Спенсер; Берг, Александр К.; Ло, Он-Йен; Доллар, Питер; Гиршик, Росс (01 апреля 2023 г.). «Сегментировать что угодно». arXiv : 2304.02643 [ cs.CV ].
- ^ Ли, Сян Лиза; Лян, Перси (2021). «Настройка префиксов: оптимизация непрерывных подсказок для генерации». Материалы 59-го ежегодного собрания Ассоциации компьютерной лингвистики и 11-й Международной совместной конференции по обработке естественного языка (Том 1: Длинные статьи) . стр. 4582–4597. doi : 10.18653/V1/2021.ACL-LONG.353 . S2CID 230433941 .
В этой статье мы предлагаем настройку префиксов, легкую альтернативу тонкой настройке... Настройка префиксов черпает вдохновение из подсказок.
- ^ Лестер, Брайан; Аль-Рфу, Рами; Констант, Ной (2021). «Сила масштаба для оперативной настройки с эффективным использованием параметров». Материалы конференции 2021 года по эмпирическим методам обработки естественного языка . стр. 3045–3059. arXiv : 2104.08691 . doi : 10.18653/V1/2021.EMNLP-MAIN.243 . S2CID 233296808 .
В этой работе мы исследуем «быструю настройку», простой, но эффективный механизм изучения «мягких подсказок»... В отличие от дискретных текстовых подсказок, используемых GPT-3, мягкие подсказки изучаются посредством обратного распространения ошибки.
- ^ Сунь, Сименг; Лю, Ян; Итер, Дэн; Чжу, Чэньгуан; Айер, Мохит (2023). «Как контекстное обучение помогает ускорить настройку?». arXiv : 2302.11521 [ cs.CL ].
- ^ Шин, Тейлор; Разеги, Ясаман; Логан IV, Роберт Л.; Уоллес, Эрик; Сингх, Самир (ноябрь 2020 г.). «Автоподсказка: извлечение знаний из языковых моделей с помощью автоматически генерируемых подсказок» . Материалы конференции 2020 года по эмпирическим методам обработки естественного языка (EMNLP) . Онлайн: Ассоциация компьютерной лингвистики. стр. 4222–4235. doi : 10.18653/v1/2020.emnlp-main.346 . S2CID 226222232 .
- ^ Уиллисон, Саймон (12 сентября 2022 г.). «Атаки с быстрым внедрением на GPT-3» . simonwillison.net . Проверено 9 февраля 2023 г.
- ^ Папп, Дональд (17 сентября 2022 г.). «Что старое, то снова новое: атака с быстрым внедрением GPT-3 влияет на ИИ» . Хакадей . Проверено 9 февраля 2023 г.
- ^ Вильяроло, Брэндон (19 сентября 2022 г.). «Атака «быстрого внедрения» GPT-3 приводит к плохим манерам ботов» . www.theregister.com . Проверено 9 февраля 2023 г.