ЭлеутерAI
![]() | |
Тип бизнеса | Исследовательский кооператив |
---|---|
Основан | 3 июля 2020 г [1] |
Промышленность | Искусственный интеллект |
Продукты | GPT-Neo , GPT-NeoX , GPT-J , Куча |
URL-адрес | eleuther.ai |
Часть серии о |
Искусственный интеллект |
---|
![]() |
ЭлеутерАИ ( / ə ˈ l uː θ ər / [2] ) — это массовая некоммерческая исследовательская группа в области искусственного интеллекта (ИИ). Группа, считающаяся версией OpenAI с открытым исходным кодом , [3] была создана на сервере Discord в июле 2020 года Коннором Лихи, Сидом Блэком и Лео Гао. [4] организовать репликацию GPT-3 . В начале 2023 года он был официально зарегистрирован как некоммерческий исследовательский институт EleutherAI Foundation. [5]
История [ править ]
EleutherAI начинался как сервер Discord 7 июля 2020 года под предварительным названием «LibreAI», а позже в том же месяце был переименован в «EleutherAI». [6] в отношении элеутерии , греческого слова, обозначающего свободу . [3]
30 декабря 2020 года компания EleutherAI выпустила The Pile — тщательно подобранный набор данных разнообразного текста для обучения больших языковых моделей . [7] Хотя в документе упоминается о существовании моделей GPT-Neo, сами модели не были выпущены до 21 марта 2021 года. [8] Согласно ретроспективе, написанной несколько месяцев спустя, авторы не ожидали, что «люди будут так заботиться о наших «маленьких моделях » » . [1] 9 июня 2021 года компания EleutherAI продолжила это с GPT-J-6B , языковой моделью с шестью миллиардами параметров, которая снова стала крупнейшей моделью, подобной GPT-3, с открытым исходным кодом в мире. [9] Эти языковые модели были выпущены под лицензией свободного программного обеспечения Apache 2.0 и считаются «питающими совершенно новую волну стартапов». [5]
Хотя EleutherAI изначально отклонил предложения о финансировании, предпочитая использовать облачную программу исследований TPU Google для получения своих вычислений, [10] к началу 2021 года они приняли финансирование от CoreWeave (небольшой компании, занимающейся облачными вычислениями) и SpellML (компании, занимающейся облачной инфраструктурой) в виде доступа к мощным кластерам графических процессоров, которые необходимы для крупномасштабных исследований в области машинного обучения. 10 февраля 2022 года они выпустили GPT-NeoX-20B, модель, аналогичную их предыдущей работе, но увеличенную благодаря ресурсам, предоставленным CoreWeave. [11]
В 2022 году многие участники EleutherAI приняли участие в исследовательском семинаре BigScience, работая над проектами, включая тонкую настройку многозадачности, [12] [13] обучение БЛУМ , [14] и проектирование оценочных библиотек. [14] Инженеры EleutherAI, Stability AI и NVIDIA объединили усилия с биологами во главе с Колумбийским университетом и Гарвардским университетом. [15] от DeepMind с открытым исходным кодом для обучения OpenFold, репликации AlphaFold2 . [16]
В начале 2023 года EleutherAI была зарегистрирована как некоммерческий исследовательский институт, которым руководят Стелла Бидерман, Кертис Хюбнер и Шиваншу Пурохит. [5] [17] Это объявление сопровождалось заявлением о том, что отвлечение внимания EleutherAI от обучения более крупных языковых моделей было частью преднамеренного толчка к работе в области интерпретируемости, согласования и научных исследований. [17] Хотя EleutherAI по-прежнему стремится содействовать доступу к технологиям искусственного интеллекта, они считают, что «интерес к обучению и выпуску LLM значительно больше, чем когда-либо», что позволяет им сосредоточиться на других проектах. [18]
Исследования [ править ]
Согласно их веб-сайту, EleutherAI — это «децентрализованный массовый коллектив добровольцев-исследователей, инженеров и разработчиков, занимающихся согласованием , масштабированием и с открытым исходным кодом исследованиями ИИ ». [19] Хотя они не продают ни одну из своих технологий как продуктов, они публикуют результаты своих исследований в академических кругах, пишут посты в блогах с подробным описанием своих идей и методологий и предоставляют обученные модели, которые каждый может использовать бесплатно. [ нужна ссылка ]
Куча [ править ]
The Pile — это набор данных объемом 886 ГБ, предназначенный для обучения больших языковых моделей. Первоначально он был разработан для обучения моделей GPT-Neo от EleutherAI, но стал широко использоваться для обучения других моделей, включая Microsoft . генерацию естественного языка Megatron-Turing от [20] [21] Meta AI открытПредварительно обученные Трансформеры, [22] Звонки , [23] и Галактика, [24] Стэнфордского университета , BioMedLM 2.7B [25] Пекинская академия искусственного интеллекта Китайский-Трансформер-XL, [26] и . ЯЛМ 100Б Яндекса [27] По сравнению с другими наборами данных, основные отличительные особенности Pile заключаются в том, что это тщательно подобранная подборка данных, выбранная исследователями EleutherAI для содержания информации, которую, по их мнению, должны изучать языковые модели, и что это единственный такой набор данных, который тщательно документирован исследователями, разработавшими это. [28]
Модели GPT [ править ]
Наиболее известное исследование EleutherAI связано с его работой по обучению моделей больших языков с открытым исходным кодом, вдохновленных OpenAI GPT-3 . [29] Серия моделей EleutherAI «GPT-Neo» выпустила 125 миллионов, 1,3 миллиарда, 2,7 миллиарда, 6 миллиардов и 20 миллиардов моделей параметров.
- ГПТ-Нео (125М, 1,3Б, 2,7Б): [30] выпущенный в марте 2021 года, на момент выпуска это была крупнейшая в мире языковая модель в стиле GPT-3 с открытым исходным кодом.
- ГПТ-J (6Б): [31] выпущенный в марте 2021 года, на момент выпуска это была крупнейшая в мире языковая модель в стиле GPT-3 с открытым исходным кодом. [32]
- GPT-NeoX (20B): [33] выпущенный в феврале 2022 года, на момент выпуска это была крупнейшая языковая модель с открытым исходным кодом в мире.
- Пифия (13Б): [34] В то время как предыдущие модели были ориентированы на большее масштабирование, чтобы сократить разрыв с моделями с закрытым исходным кодом, такими как GPT-3, набор моделей Pythia идет в другом направлении. Пакет Pythia был разработан для облегчения научных исследований возможностей и процессов обучения в больших языковых моделях. [34] Обладая 154 частично обученными контрольными точками модели, полностью общедоступными данными обучения и способностью воспроизводить точный порядок обучения, Pythia позволяет проводить исследования поддающегося проверке обучения. [35] социальные предубеждения, [34] запоминание, [36] и многое другое. [37]
Хотя подавляющее большинство больших языковых моделей [ когда? ] обучение на английском или китайском языке, [ нужна ссылка ] EleutherAI также обучает языковые модели на других языках, таких как корейский Polyglot-Ko. [38]
VQGAN-CLIP [ править ]

После выпуска DALL-E компанией OpenAI в январе 2021 года EleutherAI начала работу над синтеза текста в изображение моделями . Когда OpenAI не выпустила DALL-E публично, Кэтрин Кроусон из EleutherAI и цифровой художник Райан Мердок разработали технику использования CLIP (еще одна модель, разработанная OpenAI) для преобразования обычных моделей генерации изображений в модели синтеза текста в изображение. [41] [42] [43] [44] Основываясь на идеях, восходящих к DeepDream от Google , [45] они добились своего первого крупного успеха, объединив CLIP с другой общедоступной моделью под названием VQGAN, и полученная модель получила название VQGAN-CLIP. [46] Кроусон представил эту технологию, разместив в Твиттере блокноты, демонстрирующие технику, с помощью которой люди могут бегать бесплатно без какого-либо специального оборудования. [47] [48] [49] назвал эту работу Stability AI Генеральный директор Эмад Мостак мотивацией к созданию Stability AI. [50]
Общественная приемная [ править ]
Похвала [ править ]
Работа EleutherAI по демократизации GPT-3 получила глобальную премию ЮНЕСКО за инновации Netexplo в 2021 году. [51] Премия InfoWorld за лучшее программное обеспечение с открытым исходным кодом в 2021 году [52] и 2022 год, [53] был номинирован на премию VentureBeat за инновации в области искусственного интеллекта в 2021 году. [54]
Гэри Маркус , когнитивист и известный критик компаний глубокого обучения, таких как OpenAI и DeepMind, [55] неоднократно [56] [57] похвалил EleutherAI за приверженность открытым и прозрачным исследованиям.
Максимилиан Ганц, старший исследователь политики в Mozilla Foundation , приветствовал усилия EleutherAI, направленные на то, чтобы дать большему количеству исследователей возможность проверять и оценивать технологии искусственного интеллекта. «Если модели открыты и если открыты наборы данных, это позволит проводить гораздо больше критических исследований, указывающих на многие недостатки и вред, связанные с генеративным ИИ, которые зачастую слишком сложно проводить». [58]
Критика [ править ]
Технологический журналист Кайл Виггерс выразил обеспокоенность по поводу того, является ли EleutherAI настолько независимым, как он утверждает, или «может ли участие коммерчески мотивированных предприятий, таких как Stability AI и Hugging Face — оба из которых поддержаны значительным венчурным капиталом, — может повлиять на исследования EleutherAI». [59]
Ссылки [ править ]
- ↑ Перейти обратно: Перейти обратно: а б Лихи, Коннор; Халлахан, Эрик; Гао, Лео; Бидерман, Стелла (7 июля 2021 г.). «Какое это было долгое и странное путешествие: годовая ретроспектива EleutherAI» . Архивировано из оригинала 29 августа 2023 года . Проверено 1 марта 2023 г.
- ^ «Поговорите со Стеллой Бидерман о The Pile, GPT-Neo и MTG» . Подкаст «Интерференция». 2 апреля 2021 г. Проверено 26 марта 2023 г.
- ↑ Перейти обратно: Перейти обратно: а б Смит, Крейг (21 марта 2022 г.). «EleutherAI: Когда OpenAI недостаточно открыт» . IEEE-спектр . ИИЭЭ . Архивировано из оригинала 29 августа 2023 года . Проверено 8 августа 2023 г.
- ^ "О" . ЭлеутерAI . Проверено 23 мая 2024 г.
- ↑ Перейти обратно: Перейти обратно: а б с Виггерс, Кайл (2 марта 2023 г.). «Stability AI, Hugging Face и Canva поддерживают новую некоммерческую исследовательскую организацию в области искусственного интеллекта» . ТехКранч . Архивировано из оригинала 29 августа 2023 года . Проверено 8 августа 2023 г.
- ^ Лихи, Коннор; Халлахан, Эрик; Гао, Лео; Бидерман, Стелла (7 июля 2021 г.). «Какое это было долгое и странное путешествие: годовая ретроспектива EleutherAI» . Блог EleutherAI . Архивировано из оригинала 29 августа 2023 года . Проверено 14 апреля 2023 г.
- ^ Гао, Лео; Бидерман, Стелла; Блэк, Сид; и др. (31 декабря 2020 г.). Куча: набор данных разнообразного текста объемом 800 ГБ для языкового моделирования . arXiv 2101.00027. arXiv : 2101.00027 .
- ^ «Бесплатная альтернатива GPT-3 GPT-Neo заслуживает восхищения» . ВенчурБит . 15 мая 2021 года. Архивировано из оригинала 9 марта 2023 года . Проверено 14 апреля 2023 г.
- ^ «GPT-J-6B: введение в крупнейшую модель GPT с открытым исходным кодом | Forefront» . www.forefront.ai . Архивировано из оригинала 9 марта 2023 года . Проверено 1 марта 2023 г.
- ^ «EleutherAI: Когда OpenAI недостаточно открыт» . IEEE-спектр . Архивировано из оригинала 21 марта 2023 года . Проверено 1 марта 2023 г.
- ^ Блэк, Сид; Бидерман, Стелла; Халлахан, Эрик; и др. (14 апреля 2022 г.). «GPT-NeoX-20B | Модель авторегрессионного языка с открытым исходным кодом». arXiv : 2204.06745 [ cs.CL ].
- ^ Сан, Виктор; и др. (2021). «Многозадачное обучение обеспечивает нулевую генерализацию задач». arXiv : 2110.08207 [ cs.LG ].
- ^ Мюннигофф, Никлас; Ван, Томас; Сутавика, Линтанг; Робертс, Адам; Бидерман, Стелла; Тевен Ле Скао; М. Сайфул Бари; Шен, Шэн; Юн, Чжэн-Синь; Шелькопф, Хейли; Тан, Сянгру; Радев, Драгомир; Алхам Фикри Аджи; Альмубарак, Халид; Олбани, Сэмюэл; Аляфеай, Заид; Вебсон, Альберт; Рафф, Эдвард; Раффель, Колин (2022). «Межъязыковое обобщение посредством точной настройки многозадачности». arXiv : 2211.01786 [ cs.CL ].
- ↑ Перейти обратно: Перейти обратно: а б Мастерская BigScience; и др. (2022). «BLOOM: многоязычная языковая модель открытого доступа с 176 параметрами». arXiv : 2211.05100 [ cs.CL ].
- ^ «Знакомьтесь с OpenFold: повторная реализация AlphaFold2 для освещения его механизмов обучения и обобщения» . 21 августа 2023 г.
- ^ «Демократизация ИИ для биологии с помощью OpenFold» .
- ↑ Перейти обратно: Перейти обратно: а б «Вид с высоты 30 000 футов: предисловие ко второй ретроспективе EleutherAI» . 2 марта 2023 г.
- ^ «Лаборатория исследований искусственного интеллекта открывает некоммерческую организацию по исследованию открытого исходного кода» .
- ^ «Веб-сайт ЭлеутерАИ» . ЭлеутерAI. Архивировано из оригинала 2 июля 2021 года . Проверено 1 июля 2021 г.
- ^ «Microsoft и Nvidia объединяются для обучения одной из крупнейших в мире языковых моделей» . 11 октября 2021 года. Архивировано из оригинала 27 марта 2023 года . Проверено 8 марта 2023 г.
- ^ «ИИ: Мегатрон-трансформер и связанные с ним языковые модели» . 24 сентября 2021 года. Архивировано из оригинала 4 марта 2023 года . Проверено 8 марта 2023 г.
- ^ Чжан, Сьюзен; Роллер, Стивен; Гоял, Наман; Артече, Микель; Чен, Мойя; Чен, Шуохуэй; Деван, Кристофер; Диаб, Мона; Ли, Сиань; Линь, Си Виктория; Михайлов, Тодор; Отт, Майл; Шлейфер, Сэм; Шустер, Курт; Симиг, Дэниел; Кура, Пунит Сингх; Шридхар, Анджали; Ван, Тяньлу; Зеттлмойер, Люк (21 июня 2022 г.). «OPT: открытые предварительно обученные языковые модели трансформаторов». arXiv : 2205.01068 [ cs.CL ].
- ^ Туврон, Гюго; Лавриль, Тибо; Изакар, Готье; Грейв, Эдуард; Лампле, Гийом; и др. (27 февраля 2023 г.). «LLaMA: открытые и эффективные базовые языковые модели». arXiv : 2302.13971 [ cs.CL ].
- ^ Тейлор, Росс; Кардас, Марцин; Кукурулл, Гиллем; Сиалом, Томас; Хартшорн, Энтони; Саравиа, Элвис; Поултон, Эндрю; Керкез, Виктор; Стойнич, Роберт (16 ноября 2022 г.). «Галактика: большая языковая модель для науки». arXiv : 2211.09085 [ cs.CL ].
- ^ «Карточка модели для BioMedLM 2.7B» . Huggingface.co . Архивировано из оригинала 5 июня 2023 года . Проверено 5 июня 2023 г.
- ^ Юань, Ша; Чжао, Ханьюй; Ду, Чжэнсяо; Дин, Мин; Лю, Сяо; Цен, Юкуо; Цзоу, Сюй; Ян, Жилин; Тан, Цзе (1 января 2021 г.). «WuDaoCorpora: сверхмасштабный китайский корпус для предварительной подготовки языковых моделей» . ИИ Открыть . 2 : 65–68. дои : 10.1016/j.aiopen.2021.06.001 . S2CID 236712622 . Архивировано из оригинала 9 июля 2021 года . Проверено 8 марта 2023 г. - через ScienceDirect.
- ^ Грабовский, Илья (2022). «Яндекс публикует YaLM 100B, крупнейшую GPT-подобную нейросеть с открытым исходным кодом» (Пресс-релиз). Яндекс . Проверено 5 июня 2023 г.
- ^ Хан, Мехтаб; Ханна, Алекс (13 сентября 2022 г.). «Предметы и этапы разработки наборов данных ИИ: основа подотчетности наборов данных» . дои : 10.2139/ssrn.4217148 . hdl : 1811/103549 . ССНН 4217148 . Архивировано из оригинала 29 августа 2023 года . Проверено 8 марта 2023 г. - через papers.ssrn.com.
- ^ «Бесплатная альтернатива GPT-3 GPT-Neo заслуживает восхищения» . 15 мая 2021 года. Архивировано из оригинала 9 марта 2023 года . Проверено 10 марта 2023 г.
- ^ Андонян, Алекс; Бидерман, Стелла; Блэк, Сид; Гали, Притам; Гао, Лео; Халлахан, Эрик; Леви-Крамер, Джош; Лихи, Коннор; Нестлер, Лукас; Паркер, Кип; Пилер, Майкл; Пурохит, Шиваншу; Сонгз, Три; Фил, Ван; Вайнбах, Самуэль (13 августа 2021 г.). «GPT-NeoX: крупномасштабное авторегрессионное языковое моделирование в PyTorch» . дои : 10.5281/zenodo.5879544 . Архивировано из оригинала 13 марта 2023 года . Проверено 13 марта 2023 г. - через GitHub.
- ^ «EleutherAI/gpt-j-6B · Обнимающее лицо» . Huggingface.co . Архивировано из оригинала 12 марта 2023 года . Проверено 10 марта 2023 г.
- ^ «GPT-J-6B: введение в крупнейшую модель GPT с открытым исходным кодом | Forefront» . www.forefront.ai . Архивировано из оригинала 9 марта 2023 года . Проверено 1 марта 2023 г.
- ^ Блэк, Сидни; Бидерман, Стелла; Халлахан, Эрик; и др. (1 мая 2022 г.). GPT-NeoX-20B: авторегрессионная языковая модель с открытым исходным кодом . Труды BigScience, эпизод № 5 — Семинар по проблемам и перспективам создания больших языковых моделей. Том. Труды BigScience, эпизод № 5 — Семинар по проблемам и перспективам создания больших языковых моделей. стр. 95–136 . Проверено 19 декабря 2022 г.
- ↑ Перейти обратно: Перейти обратно: а б с Бидерман, Стелла; Шелькопф, Хейли; Энтони, Квентин; Брэдли, Херби; О'Брайен, Кайл; Халлахан, Эрик; Мохаммад Афла Хан; Пурохит, Шиваншу; USVSN Сай Прашант; Рафф, Эдвард; Скоурон, Авия; Сутавика, Линтанг; Оскар ван дер Валь (2023). «Pythia: пакет для анализа больших языковых моделей при обучении и масштабировании». arXiv : 2304.01373 [ cs.CL ].
- ^ Чой, Дами; Шавит, Йонадав; Дювено, Дэвид (2023). «Инструменты для проверки данных обучения нейронных моделей». arXiv : 2307.00682 [ cs.LG ].
- ^ Бидерман, Стелла; USVSN Сай Прашант; Сутавика, Линтанг; Шелькопф, Хейли; Энтони, Квентин; Пурохит, Шиваншу; Рафф, Эдвард (2023). «Эмерджентное и предсказуемое запоминание в больших языковых моделях». arXiv : 2304.11158 [ cs.CL ].
- ^ Гупта, Кшитидж; Териен, Бенджамин; Ибрагим, Адам; Рихтер, Матс Л.; Энтони, Квентин; Белиловский, Евгений; Риш, Ирина; Лесорт, Тимоти (2023). «Непрерывное предварительное обучение больших языковых моделей: как (пере)нагреть вашу модель?». arXiv : 2308.04014 [ cs.CL ].
- ^ " "Выпущен корейский источник искусственного интеллекта. Не стесняйтесь использовать его" " . Деловая газета Мэйл . 31 октября 2022 года. Архивировано из оригинала 26 апреля 2023 года . Проверено 10 марта 2023 г.
- ^ «Диффузия, управляемая CLIP» . ЭлеутерAI . Архивировано из оригинала 29 августа 2023 года . Проверено 20 августа 2023 г.
- ^ «CLIP Guided Diffusion HQ 256x256.ipynb — Совместная работа» . Гугл Колаб . Архивировано из оригинала 29 августа 2023 года . Проверено 20 августа 2023 г.
- ^ МИРАНДА, ЖЖ (8 августа 2021 г.). «Иллюстрированный VQGAN» . ljvmiranda921.github.io . Архивировано из оригинала 20 марта 2023 года . Проверено 8 марта 2023 г.
- ^ «Внутри мира сверхъестественного искусственного интеллекта в Твиттере» . Нейлон . 24 марта 2022 года. Архивировано из оригинала 29 августа 2023 года . Проверено 8 марта 2023 г.
- ^ «Этот ИИ превращает текстовые описания фильмов в абстрактные плакаты» . Яху Жизнь . 20 сентября 2021 года. Архивировано из оригинала 27 декабря 2022 года . Проверено 8 марта 2023 г.
- ^ Квач, Катянна. «Человек провел год в тюрьме по обвинению в убийстве, связанном со спорными доказательствами ИИ. Теперь дело прекращено» . www.theregister.com . Архивировано из оригинала 8 марта 2023 года . Проверено 8 марта 2023 г.
- ^ «Чужие мечты: новая арт-сцена — блог ML@B» . Чужие мечты: новая арт-сцена — блог ML@B . Архивировано из оригинала 10 марта 2023 года . Проверено 8 марта 2023 г.
- ^ «ВКГАН-КЛИП» . ЭлеутерAI . Архивировано из оригинала 20 августа 2023 года . Проверено 20 августа 2023 г.
- ^ «Мы попросили инструмент искусственного интеллекта «нарисовать» изображения Австралии. Критики говорят, что они достаточно хороши, чтобы продаваться» . Новости АВС . 14 июля 2021 года. Архивировано из оригинала 7 марта 2023 года . Проверено 8 марта 2023 г. - через www.abc.net.au.
- ^ Натарадж, Пурнима (28 февраля 2022 г.). «Онлайн-инструменты для создания умопомрачительного искусства искусственного интеллекта» . Журнал Analytics India . Архивировано из оригинала 8 февраля 2023 года . Проверено 8 марта 2023 г.
- ^ «Познакомьтесь с женщиной, которая делает вирусные портреты психического здоровья в TikTok» . www.vice.com . 30 ноября 2021 года. Архивировано из оригинала 11 мая 2023 года . Проверено 8 марта 2023 г.
- ^ @EMostaque (2 марта 2023 г.). «ИИ стабильности появился на свет в @AiEleuther, и мы были рады внедрить его во время создания фонда» ( Твит ) – через Твиттер .
- ^ «Форум ЮНЕСКО Netexplo 2021 | ЮНЕСКО» . Архивировано из оригинала 16 октября 2022 года . Проверено 8 марта 2023 г.
- ^ Йегулалп, Джеймс Р. Борк, Мартин Хеллер, Эндрю С. Оливер, Ян Пойнтер, Мэтью Тайсон и Сердар (18 октября 2021 г.). «Лучшее программное обеспечение с открытым исходным кодом 2021 года» . Инфомир . Архивировано из оригинала 8 марта 2023 года . Проверено 8 марта 2023 г.
{{cite web}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - ^ Йегулалп, Джеймс Р. Борк, Мартин Хеллер, Эндрю С. Оливер, Ян Пойнтер, Исаак Саколик, Мэтью Тайсон и Сердар (17 октября 2022 г.). «Лучшее программное обеспечение с открытым исходным кодом 2022 года» . Инфомир . Архивировано из оригинала 8 марта 2023 года . Проверено 8 марта 2023 г.
{{cite web}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - ^ «VentureBeat представляет номинантов на премию AI Innovation Awards на выставке Transform 2021» . 16 июля 2021 года. Архивировано из оригинала 8 марта 2023 года . Проверено 8 марта 2023 г.
- ^ «Что будет с ИИ дальше: Гэри Маркус рассказывает о пути к надежному искусственному интеллекту» . ЗДНЕТ . Архивировано из оригинала 1 марта 2023 года . Проверено 8 марта 2023 г.
- ^ @GaryMarcus (10 февраля 2022 г.). «GPT-NeoX-20B, большая языковая модель с 20 миллиардами параметров, свободно доступная для общественности, с откровенным отчетом о сильных сторонах, ограничениях, экологических издержках и т. д.» ( Твит ) – через Twitter .
- ^ @GaryMarcus (19 февраля 2022 г.). «невероятно важный результат: «наши результаты поднимают вопрос о том, насколько [большие языковые] модели на самом деле обобщают данные, выходящие за рамки данных предварительного обучения»» ( Твит ) – через Твиттер .
- ^ Чоудхури, Мегмала (29 декабря 2022 г.). «Смогут ли мощные ИИ разрушить отрасли, которые когда-то считались безопасными, в 2023 году?» . Аналитический взгляд . Архивировано из оригинала 1 января 2023 года . Проверено 6 апреля 2023 г.
- ^ Виггерс, Кайл (2 марта 2023 г.). «Stability AI, Hugging Face и Canva поддерживают новую некоммерческую исследовательскую организацию в области искусственного интеллекта» . Архивировано из оригинала 7 марта 2023 года . Проверено 8 марта 2023 г.