Стохастический попугай
В машинном обучении термин «стохастический попугай» — это метафора, описывающая теорию, согласно которой большие языковые модели , хотя и способны генерировать правдоподобный язык, не понимают значения языка, который они обрабатывают. [1] [2] Этот термин был придуман Эмили М. Бендер. [2] [3] в исследовательской работе по искусственному интеллекту 2021 года « Об опасностях стохастических попугаев: могут ли языковые модели быть слишком большими? 🦜 » Бендера, Тимнита Гебру , Анджелины Макмиллан-Мейджор и Маргарет Митчелл . [4]
и определение Происхождение
Этот термин был впервые использован в статье «Об опасностях стохастических попугаев: могут ли языковые модели быть слишком большими? 🦜» Бендера, Тимнита Гебру , Анджелины Макмиллан-Мейджор и Маргарет Митчелл (под псевдонимом «Шмаргарет Шмитчелл»). [4] Они утверждали, что большие языковые модели (LLM) представляют собой такие опасности, как экологические и финансовые затраты, непостижимость, ведущая к неизвестным опасным предубеждениям, и потенциал для обмана, и что они не могут понять концепции, лежащие в основе того, что они изучают. [5] Гебру попросили отозвать статью или удалить из нее имена сотрудников Google. По словам Джеффа Дина , газета «не соответствовала нашим требованиям к публикации». В ответ Гебру перечислил условия, которые необходимо выполнить, заявив, что в противном случае они могли бы «поработать на последнем свидании». Дин написал, что одним из этих условий было раскрытие рецензентов статьи и их конкретных отзывов, но Google отклонил это требование. Вскоре после этого она получила электронное письмо, в котором говорилось, что Google «принимает ее отставку». Ее увольнение вызвало протест сотрудников Google, которые полагали, что целью было подвергнуть цензуре критику Гебру. [6]
Слово «стохастический» происходит от древнегреческого слова «стохастикос», что означает «основанный на догадках» или «случайно определенный». [7] Слово «попугай» относится к идее, что студенты LLM просто повторяют слова, не понимая их значения. [7]
В своей статье Бендер и др. утверждают, что LLM вероятностно связывают слова и предложения вместе, не принимая во внимание их значение. Поэтому их называют просто «стохастическими попугаями». [4]
По мнению специалистов по машинному обучению Линдхольма, Вальстрома, Линдстена и Шона, эта аналогия подчеркивает два важных ограничения: [1] [8]
- LLM ограничены данными, на которых они обучаются, и просто стохастически повторяют содержимое наборов данных.
- Поскольку они просто составляют результаты на основе данных обучения, LLM не понимают, говорят ли они что-то неправильное или неуместное.
Линдхольм и др. отметил, что при низком качестве наборов данных и других ограничениях обучающаяся машина может давать «опасно неправильные» результаты. [1]
Последующее использование [ править ]
В июле 2021 года Институт Алана Тьюринга провел основной доклад и панельную дискуссию по этому документу. [9] По состоянию на май 2023 г. [update], статья цитировалась в 1529 публикациях. [10] Этот термин использовался в публикациях в области права, [11] грамматика, [12] повествование, [13] и гуманитарные науки. [14] Авторы продолжают сохранять опасения по поводу опасности чат-ботов, основанных на больших языковых моделях, таких как GPT-4 . [15]
Стохастический попугай теперь представляет собой неологизм, используемый скептиками в области ИИ для обозначения непонимания машинами значения их результатов, и иногда интерпретируется как «оскорбление ИИ». [7] Его использование еще больше расширилось, когда Сэм Альтман , генеральный директор Open AI , иронически использовал этот термин, когда написал в Твиттере: «Я стохастический попугай, и ты тоже». [7] словом года 2023 года, связанным с искусственным интеллектом Затем этот термин был признан Американским диалектным обществом , даже несмотря на слова «ChatGPT» и «LLM». [7] [16]
Некоторые исследователи часто используют эту фразу для описания LLM как средств сопоставления шаблонов, которые могут генерировать правдоподобный человеческий текст на основе огромного количества обучающих данных, просто повторяя стохастический образ. Однако другие исследователи утверждают, что студенты LLM на самом деле способны понимать язык. [17]
Дебаты [ править ]
Некоторые LLM, такие как ChatGPT, стали способны взаимодействовать с пользователями в убедительно человеческих беседах. [17] Разработка этих новых систем углубила дискуссию о том, в какой степени студенты магистратуры понимают или просто «повторяют».
Субъективный опыт [ править ]
В сознании человека слова и язык соответствуют вещам, которые он пережил. [18] Для LLM слова могут соответствовать только другим словам и шаблонам использования, включенным в их обучающие данные. [19] [20] [4] Таким образом, сторонники идеи стохастических попугаев приходят к выводу, что LLM неспособны понимать язык. [19] [4]
Галлюцинации и ошибки [ править ]
Тенденция LLM выдавать ложную информацию за факт рассматривается как поддержка. [18] Называемые галлюцинациями , LLM иногда синтезируют информацию, которая соответствует некоторой закономерности, но не реальности. [19] [20] [18] Тот факт, что студенты LLM не могут различать факты и вымыслы, приводит к утверждению, что они не могут связать слова с пониманием мира, как это должен делать язык. [19] [18] Кроме того, LLM часто не могут расшифровать сложные или неоднозначные грамматические случаи, которые полагаются на понимание значения языка. [19] [20] В качестве примера можно позаимствовать у Сабы и др. подсказку: [19]
Мокрая газета, упавшая со стола, — моя любимая газета. Но теперь, когда моя любимая газета уволила редактора, возможно, мне больше не понравится ее читать. Могу ли я заменить во втором предложении «моя любимая газета» на «мокрая газета, упавшая со стола»?
Магистр права отвечает на это утвердительно, не понимая, что значение слова «газета» в этих двух контекстах различно; это, во-первых, объект, а во-вторых, институт. [19] На основании этих неудач некоторые специалисты по искусственному интеллекту приходят к выводу, что они не более чем стохастические попугаи. [19] [18] [4]
Тесты и эксперименты [ править ]
Одним из аргументов против гипотезы о том, что LLM являются стохастическим попугаем, являются их результаты по критериям рассуждения, здравого смысла и понимания языка. В 2023 году некоторые студенты LLM показали хорошие результаты на многих тестах на понимание языка, таких как Super General Language Assessment Evaluation (SuperGLUE). [20] [21] По данным опроса 2022 года, такие тесты и гладкость многих ответов LLM помогают 51% специалистов в области ИИ поверить, что они могут по-настоящему понимать язык при достаточном количестве данных. [20]
Экспериментируя с ChatGPT-3, один учёный утверждал, что модель не является стохастическим попугаем, но имеет серьёзные ограничения в рассуждении. [17] Он обнаружил, что модель была последовательной и информативной при попытке предсказать будущие события на основе информации в подсказке. [17] ChatGPT-3 также часто мог анализировать подтекстовую информацию из текстовых подсказок. Однако модель часто терпела неудачу, когда ей требовались логические и рассуждения, особенно когда эти подсказки включали пространственное осознание. [17] Различное качество ответов модели указывает на то, что LLM могут проявлять форму «понимания» в определенных категориях задач, а в других действовать как стохастический попугай. [17]
Интерпретируемость [ править ]
Другой метод исследования способности понимать LLM называется «механистической интерпретируемостью». Идея состоит в том, чтобы перепроектировать большую языковую модель, чтобы проанализировать, как она внутренне обрабатывает информацию.
Одним из примеров является Othello-GPT, где небольшой преобразователь был обучен предсказывать законные ходы Отелло . Было обнаружено, что эта модель имеет внутреннее представление доски Отелло, и что изменение этого представления меняет предсказанные законные ходы Отелло правильным образом. Это подтверждает идею о том, что LLM имеют «мировую модель», а не просто занимаются поверхностной статистикой. [22] [23]
В другом примере небольшой трансформатор обучался на компьютерных программах, написанных на языке программирования Karel . Подобно примеру Othello-GPT, эта модель разработала внутреннее представление семантики программы Karel. Изменение этого представления приводит к соответствующим изменениям в выходных данных. Кроме того, модель генерирует правильные программы, которые в среднем короче программ в обучающем наборе. [24]
Исследователи также изучали « грокинг » — явление, при котором модель ИИ сначала запоминает выходные данные обучения, а затем, после дальнейшего обучения, внезапно находит решение, которое обобщается на невидимые данные. [25]
Ярлыки к рассуждениям [ править ]
Однако когда тесты, созданные для проверки людей на понимание языка, используются для проверки LLM, они иногда приводят к ложноположительным результатам, вызванным ложными корреляциями внутри текстовых данных. [26] Модели показали примеры быстрого обучения, когда система проводит несвязанные корреляции между данными вместо использования человеческого понимания. [27] В одном из таких экспериментов, проведенных в 2019 году, тестировался BERT LLM от Google с использованием задачи на понимание аргументов. БЕРТУ было предложено выбрать одно из двух утверждений и найти то, которое наиболее соответствует аргументу. Ниже приведен пример одной из таких подсказок: [20] [28]
Аргумент: Преступникам должно быть разрешено голосовать. Человеку, укравшему машину в 17 лет, не следует лишать права быть полноправным гражданином на всю жизнь.
Утверждение А: Угон автомобилей является уголовным преступлением.
Утверждение Б: Угон автомобилей не является уголовным преступлением.
Исследователи обнаружили, что определенные слова, такие как «нет», подсказывают модели правильный ответ, что позволяет получить почти идеальные оценки, если они включены, но приводит к случайному выбору, когда слова-подсказки были удалены. [20] [28] Эта проблема, а также известные трудности с определением интеллекта заставляют некоторых утверждать, что все тесты, которые находят понимание в LLM, ошибочны, что все они позволяют срезать путь к имитированному пониманию.
См. также [ править ]
- 1. Дорога – роман, созданный искусственным интеллектом
- Китайская комната
- Критика искусственных нейронных сетей
- Критика глубокого обучения
- Критика Google
- Техника вырезания
- Теорема о бесконечных обезьянах
- Генеративный ИИ
- Марковский текст
Ссылки [ править ]
- ^ Jump up to: а б с Линдхольм и др. 2022 , стр. 322–3.
- ^ Jump up to: а б Уддин, Мухаммад Саад (20 апреля 2023 г.). «Стохастические попугаи: новый взгляд на большие языковые модели и их ограничения» . На пути к ИИ . Проверено 12 мая 2023 г.
- ^ Вейль, Элизабет (1 марта 2023 г.). «Ты не попугай» . Нью-Йорк . Проверено 12 мая 2023 г.
- ^ Jump up to: а б с д и ж Бендер, Эмили М.; Гебру, Тимнит; Макмиллан-Мейджор, Анджелина; Шмитчелл, Шмаргарет (01 марта 2021 г.). «Об опасностях стохастических попугаев: могут ли языковые модели быть слишком большими? 🦜». Материалы конференции ACM 2021 года по вопросам справедливости, подотчетности и прозрачности . ФАКТ '21. Нью-Йорк, штат Нью-Йорк, США: Ассоциация вычислительной техники. стр. 610–623. дои : 10.1145/3442188.3445922 . ISBN 978-1-4503-8309-7 . S2CID 232040593 .
- ^ Хаоархив, Карен (4 декабря 2020 г.). «Мы прочитали статью, которая вынудила Тимнита Гебру уйти из Google. Вот что там написано» . Обзор технологий Массачусетского технологического института . Архивировано из оригинала 6 октября 2021 года . Проверено 19 января 2022 г.
- ^ Лайонс, Ким (5 декабря 2020 г.). «Настоящая статья Тимнит Гебру может объяснить, почему Google удалил ее» . Грань .
- ^ Jump up to: а б с д и Циммер, Бен. « «Стохастический попугай»: имя для искусственного интеллекта, которое звучит немного менее интеллектуально» . ВСЖ . Проверено 1 апреля 2024 г.
- ^ Уддин, Мухаммад Саад (20 апреля 2023 г.). «Стохастические попугаи: новый взгляд на большие языковые модели и их ограничения» . На пути к ИИ . Проверено 12 мая 2023 г.
- ^ Веллер (2021) .
- ^ «Бендер: Об опасностях стохастических попугаев» . Google Академик . Проверено 12 мая 2023 г.
- ^ Арнаудо, Лука (20 апреля 2023 г.). «Искусственный интеллект, возможности, обязательства: взаимодействие в тени регулирования, антимонопольного законодательства и семейного права». ССРН . дои : 10.2139/ssrn.4424363 . S2CID 258636427 .
- ^ Бликли, Пит; БЛУМ (2023). «В клетке со стохастическим попугаем» . Спекулятивный грамматик . СХСII (3) . Проверено 13 мая 2023 г.
- ^ Гати, Даниэлла (2023). «Теоретизирование математического повествования посредством машинного обучения». Журнал теории повествования . 53 (1). Проект МУЗА: 139–165. дои : 10.1353/jnt.2023.0003 . S2CID 257207529 .
- ^ Рис, Тобиас (2022). «Нечеловеческие слова: о GPT-3 как философской лаборатории» . Дедал . 151 (2): 168–82. дои : 10.1162/daed_a_01908 . JSTOR 48662034 . S2CID 248377889 .
- ^ Голдман, Шэрон (20 марта 2023 г.). «С GPT-4 опасность «стохастических попугаев» сохраняется, — говорят исследователи. Неудивительно, что генеральный директор OpenAI «немного напуган» » . ВенчурБит . Проверено 9 мая 2023 г.
- ^ Корбин, Сэм (15 января 2024 г.). «Среди лингвистов слово года больше похоже на атмосферу» . Нью-Йорк Таймс . ISSN 0362-4331 . Проверено 1 апреля 2024 г.
- ^ Jump up to: а б с д и ж Аркудас, Константин (21 августа 2023 г.). «ChatGPT — это не стохастический попугай. Но он также утверждает, что 1 больше 1» . Философия и технология . 36 (3): 54. дои : 10.1007/s13347-023-00619-6 . ISSN 2210-5441 .
- ^ Jump up to: а б с д и Файяд, Усама М. (26 мая 2023 г.). «От стохастических попугаев к интеллектуальным помощникам — секреты данных и вмешательства человека» . Интеллектуальные системы IEEE . 38 (3): 63–67. дои : 10.1109/MIS.2023.3268723 . ISSN 1541-1672 .
- ^ Jump up to: а б с д и ж г час Саба, Валид С. (2023). «Стохастические LLMS не понимают язык: к символическим, объяснимым и онтологически обоснованным LLMS». В Алмейде — Жоау Паулу А.; Борбинья, Хосе; Гуиззарди, Джанкарло; Линк, Себастьян; Здравкович, Елена (ред.). Концептуальное моделирование . Конспекты лекций по информатике. Том. 14320. Чам: Springer Nature Switzerland. стр. 3–19. arXiv : 2309.05918 . дои : 10.1007/978-3-031-47262-6_1 . ISBN 978-3-031-47262-6 .
- ^ Jump up to: а б с д и ж г Митчелл, Мелани; Кракауэр, Дэвид К. (28 марта 2023 г.). «Дебаты о понимании больших языковых моделей ИИ» . Труды Национальной академии наук . 120 (13): e2215907120. arXiv : 2210.13966 . Бибкод : 2023PNAS..12015907M . дои : 10.1073/pnas.2215907120 . ISSN 0027-8424 . ПМЦ 10068812 . ПМИД 36943882 .
- ^ Ван, Алекс; Пруксачаткун, Яда; Нангия, Никита; Сингх, Аманприт; Майкл, Джулиан; Хилл, Феликс; Леви, Омер; Боуман, Сэмюэл Р. (2 мая 2019 г.). «SuperGLUE: более надежный эталон для систем понимания языка общего назначения». arXiv : 1905.00537 [ cs.CL ].
- ^ Ли, Кеннет; Хопкинс, Аспен К.; Бау, Дэвид; Вьегас, Фернанда; Пфистер, Ханспетер; Ваттенберг, Мартин (27 февраля 2023 г.), Новые представления мира: исследование модели последовательности, обученной на синтетической задаче , arXiv : 2210.13382
- ^ Ли, Кеннет (21 января 2023 г.). «Большая языковая модель: модели мира или поверхностная статистика?» . Градиент . Проверено 4 апреля 2024 г.
- ^ Джин, Чарльз; Ринар, Мартин (24 мая 2023 г.), Свидетельство значения языковых моделей, обученных на программах , arXiv : 2305.11169
- ^ Шрайнер, Максимилиан (11 августа 2023 г.). «Гроккинг в машинном обучении: когда стохастические попугаи строят модели» . декодер . Проверено 25 мая 2024 г.
- ^ Чоудхури, Сагник Рэй; Роджерс, Анна; Огенштейн, Изабель (15 сентября 2022 г.), Машинное чтение, быстрое и медленное: когда модели «понимают» язык? , arXiv : 2209.07430
- ^ Гейрос, Роберт; Якобсен, Йорн-Хенрик; Михаэлис, Клаудио; Земель, Ричард; Брендель, Виланд; Бетге, Матиас; Вихманн, Феликс А. (10 ноября 2020 г.). «Ускоренное обучение в глубоких нейронных сетях» . Природный машинный интеллект . 2 (11): 665–673. arXiv : 2004.07780 . дои : 10.1038/s42256-020-00257-z . ISSN 2522-5839 .
- ^ Jump up to: а б Нивен, Тимоти; Као, Хун-Ю (16 сентября 2019 г.), Исследование понимания нейронной сетью аргументов естественного языка , arXiv : 1907.07355
Цитируемые работы [ править ]
- Линдхольм, А.; Вальстрем, Н.; Линдстен, Ф.; Шен, ТБ (2022). Машинное обучение: первый курс для инженеров и ученых . Издательство Кембриджского университета. ISBN 978-1108843607 .
- Веллер, Адриан (13 июля 2021 г.). Об опасностях стохастических попугаев: могут ли языковые модели быть слишком большими? 🦜 (видео). Институт Алана Тьюринга . Основной доклад Эмили Бендер. После презентации состоялась панельная дискуссия.
Дальнейшее чтение [ править ]
- Богост, Ян (7 декабря 2022 г.). «ChatGPT тупее, чем вы думаете: относитесь к нему как к игрушке, а не как к инструменту» . Атлантика . Проверено 17 января 2024 г.
- Хомский, Ноам (8 марта 2023 г.). «Ложное обещание ChatGPT» . Нью-Йорк Таймс . Проверено 17 января 2024 г.
- Гленберг, Артур; Джонс, Кэмерон Роберт (6 апреля 2023 г.). «Чтобы понять мир, нужно тело — почему ChatGPT и другие языковые ИИ не понимают, что говорят» . Разговор . Проверено 17 января 2024 г.
- Маккуиллан, Д. (2022). Сопротивление искусственному интеллекту: антифашистский подход к искусственному интеллекту . Издательство Бристольского университета . ISBN 978-1-5292-1350-8 .
- Томпсон, Э. (2022). Побег из страны моделей: как математические модели могут сбить нас с пути и что мы можем с этим поделать . Основные книги. ISBN 978-1-5416-0098-0 .
- Чжун, Цихуан; Дин, Лян; Лю, Цзюйхуа; Ду, Бо; Тао, Дачэн (2023). «Может ли ChatGPT тоже понимать? Сравнительное исследование ChatGPT и точно настроенного BERT». arXiv : 2302.10198 [ cs.CL ].