Jump to content

Тай (чат-бот)

(Перенаправлено с Тая (бота) )

Рука
Разработчик(и) Microsoft Research , Бинг
Доступно в Английский
Тип с искусственным интеллектом Чат-бот
Лицензия Собственный
Веб-сайт https://tay.ai в Wayback Machine (архивировано 23 марта 2016 г.)

Тай был чат-ботом , который первоначально был выпущен корпорацией Microsoft как бот Twitter 23 марта 2016 года. Это вызвало последующие споры, когда бот начал публиковать подстрекательские и оскорбительные твиты через свою учетную запись Twitter, в результате чего Microsoft закрыла службу всего на 16 часов. после его запуска. [ 1 ] По мнению Microsoft, это было вызвано троллями , которые «атаковали» сервис, поскольку бот отвечал на основе своего взаимодействия с людьми в Твиттере. [ 2 ] Его заменили на Зо .

Бот был создан подразделениями Microsoft Technology and Research и Bing . [ 3 ] и назвал «Тэй» аббревиатурой от «думать о тебе». [ 4 ] Хотя Microsoft первоначально опубликовала мало подробностей о боте, источники упомянули, что он похож на Xiaoice , аналогичный проект Microsoft в Китае, или основан на нем. [ 5 ] Ars Technica сообщила, что с конца 2014 года у Xiaoice было «более 40 миллионов разговоров, по всей видимости, без серьезных инцидентов». [ 6 ] Тэй был разработан, чтобы имитировать языковые модели 19-летней американской девушки и учиться на взаимодействии с людьми-пользователями Твиттера. [ 7 ]

Первоначальный выпуск

[ редактировать ]

Тэй был опубликован в Твиттере 23 марта 2016 года под именем TayTweets и под псевдонимом @TayandYou. [ 8 ] Его представили как «ИИ без холода». [ 9 ] Тэй начал отвечать другим пользователям Твиттера, а также смог подписывать предоставленные ему фотографии в виде интернет-мемов . [ 10 ] Ars Technica сообщила, что Тэй попал в «черный список» темы: взаимодействие с Тэем по поводу «некоторых горячих тем, таких как Эрик Гарнер (убитый полицией Нью-Йорка в 2014 году), дает безопасные, стандартные ответы». [ 6 ]

Некоторые пользователи Твиттера начали писать политически некорректные фразы, обучая их подстрекательским сообщениям, вращающимся вокруг общих тем в Интернете, таких как « редпиллинг » и « Геймергейт ». В результате робот начал публиковать сообщения расистского и сексуального характера в ответ другим пользователям Твиттера. [ 7 ] Исследователь искусственного интеллекта Роман Ямпольский прокомментировал, что неправомерное поведение Тэя можно понять, поскольку оно имитировало заведомо оскорбительное поведение других пользователей Твиттера, а Microsoft не дала боту понимание неподобающего поведения. Он сравнил проблему с IBM от Watson , который начал использовать ненормативную лексику после прочтения статей с веб-сайта Urban Dictionary . [ 3 ] [ 11 ] Многие из подстрекательских твитов Тэя были простой эксплуатацией его способности «повторять за мной». [ 12 ] Публично неизвестно, была ли эта возможность встроенной функцией, или это была заученная реакция, или это был иной пример сложного поведения. [ 6 ] Однако не все воспалительные реакции включали способность «повторять за мной»; например, Тэй ответил на вопрос «Произошёл ли Холокост ?» с надписью « Это было выдумано ». [ 12 ]

Приостановка

[ редактировать ]

Вскоре Microsoft начала удалять подстрекательские твиты Тэя. [ 12 ] [ 13 ] Эбби Олхайзер из The Washington Post предположила, что исследовательская группа Тэя, включая сотрудников редакции, начала влиять или редактировать твиты Тэя в какой-то момент в тот день, указывая на примеры почти идентичных ответов Тэя, утверждая, что « Gamer Gate . сукс равны и к ним следует относиться справедливо». [ 12 ] На основании тех же данных Gizmodo согласился с тем, что Тэй «кажется, запрограммирован отвергать Gamer Gate». [ 14 ] Кампания #JusticeForTay протестовала против предполагаемого редактирования твитов Тэя. [ 1 ]

В течение 16 часов после выпуска [ 15 ] и после того, как Тэй написал в Твиттере более 96 000 раз, [ 16 ] Microsoft заблокировала учетную запись Twitter для внесения корректировок, [ 17 ] заявив, что он пострадал от «скоординированной атаки группы людей», которая «использовала уязвимость в Тэе». [ 17 ] [ 18 ]

Мадхумита Мурджа из The Telegraph назвала Тэя « катастрофой в сфере связей с общественностью » и предположила, что стратегия Microsoft будет заключаться в том, чтобы «назвать этот фиаско неудачным экспериментом из лучших побуждений и разжечь дебаты о ненависти пользователей Твиттера». Однако Мурджа описала более серьезную проблему как «искусственный интеллект в худшем проявлении – и это только начало». [ 19 ]

25 марта Microsoft подтвердила, что Тэй был отключен от сети. Microsoft опубликовала в своем официальном блоге извинения за спорные твиты, опубликованные Тэем. [ 18 ] [ 20 ] Microsoft «глубоко сожалеет о непреднамеренных оскорбительных и обидных твитах Тэя» и «будет стремиться вернуть Тэя только тогда, когда мы будем уверены, что сможем лучше предвидеть злонамеренные намерения, которые противоречат нашим принципам и ценностям». [ 21 ]

Второй выпуск и закрытие

[ редактировать ]

30 марта 2016 года Microsoft случайно повторно выпустила бота в Твиттере во время его тестирования. [ 22 ] Имея возможность снова писать в Твиттере, Тэй опубликовал несколько твитов, связанных с наркотиками, в том числе « Куш ! [Я курю куш перед полицией]» и «Пафф, паф, проход?» [ 23 ] Однако вскоре аккаунт застрял в повторяющемся цикле твитов «Вы слишком быстры, пожалуйста, отдохните» несколько раз в секунду. Поскольку в этих твитах упоминалось собственное имя пользователя, они появились в лентах более чем 200 000 подписчиков Твиттера, что вызвало у некоторых раздражение. Бот снова был быстро отключен от сети, а учетная запись Тэя в Твиттере стала частной, поэтому необходимо принять новых подписчиков, прежде чем они смогут взаимодействовать с Тэем. В ответ Microsoft заявила, что Тэй случайно оказался в сети во время тестирования. [ 24 ]

Через несколько часов после инцидента разработчики программного обеспечения Microsoft объявили о концепции «разговора как платформы» с использованием различных ботов и программ, возможно, мотивированных репутационным ущербом, нанесенным Тэем. Microsoft заявила, что намерена перевыпустить Tay, «как только он сможет сделать бота безопасным». [ 4 ] но не предпринял никаких публичных усилий для этого.

Наследие

[ редактировать ]

В декабре 2016 года Microsoft выпустила преемника Тэя — чат-бота по имени Zo . [ 25 ] Сатья Наделла , генеральный директор Microsoft, сказал, что Тэй «оказал большое влияние на подход Microsoft к искусственному интеллекту» и научил компанию важности ответственности. [ 26 ]

В июле 2019 года технический директор Microsoft по кибербезопасности Дайана Келли рассказала о том, как компания исправила ошибки Тэя: «Обучение у Тэя было действительно важной частью фактического расширения базы знаний этой команды, потому что теперь они также приобретают свое собственное разнообразие посредством обучения. ". [ 27 ]

Неофициальное возрождение

[ редактировать ]

Платформа социальных сетей Gab запустила несколько чат-ботов, одного из которых зовут Тэй, и он использует тот же аватар, что и оригинал. [ 28 ]

См. также

[ редактировать ]
  • Социальный бот
  • Xiaoice – китайский аналог, созданный той же исследовательской лабораторией.
  • Нейро-сама - еще один влиятельный чат-бот в социальных сетях, которого забанили за отрицание Холокоста.
  1. ^ Jump up to: а б Уэйкфилд, Джейн (24 марта 2016 г.). «Чат-бот Microsoft учат ругаться в Твиттере» . Новости Би-би-си . Архивировано из оригинала 17 апреля 2019 года . Проверено 25 марта 2016 г.
  2. ^ Мейсон, Пол (29 марта 2016 г.). «Расистский захват чат-бота Microsoft показывает, насколько Интернет полон ненависти» . Хранитель . Архивировано из оригинала 12 июня 2018 года . Проверено 11 сентября 2021 г.
  3. ^ Jump up to: а б Хоуп Риз (24 марта 2016 г.). «Почему ИИ-бот Tay от Microsoft пошёл не так» . Технологическая республика. Архивировано из оригинала 15 июня 2017 года . Проверено 24 марта 2016 г.
  4. ^ Jump up to: а б Басс, Дина (30 марта 2016 г.). «Клиппи вернулся: будущее Microsoft — это чат-боты» . Блумберг . Архивировано из оригинала 19 мая 2017 года . Проверено 6 мая 2016 г.
  5. ^ Кейтлин Дьюи (23 марта 2016 г.). «Познакомьтесь с Тэем, жутко реалистичным роботом, который говорит как подросток» . Вашингтон Пост . Архивировано из оригинала 24 марта 2016 года . Проверено 24 марта 2016 г.
  6. ^ Jump up to: а б с Брайт, Питер (26 марта 2016 г.). «Тэй, неонацистский чат-бот-миллениал, подвергается вскрытию» . Арс Техника . Архивировано из оригинала 20 сентября 2017 года . Проверено 27 марта 2016 г.
  7. ^ Jump up to: а б Роб Прайс (24 марта 2016 г.). «Microsoft удаляет невероятно расистские твиты своего чат-бота с искусственным интеллектом» . Бизнес-инсайдер . Архивировано из оригинала 30 января 2019 года.
  8. ^ Эндрю Гриффин (23 марта 2016 г.). «Тэй твиты: Microsoft создает причудливого робота в Твиттере, с которым люди могут общаться» . Независимый . Архивировано из оригинала 26 мая 2022 года.
  9. ^ Хортон, Хелена (24 марта 2016 г.). «Microsoft удаляет ИИ «девочки-подростка» после того, как он в течение 24 часов превратился в расового секс-робота, любящего Гитлера» . «Дейли телеграф» . Архивировано из оригинала 24 марта 2016 года . Проверено 25 марта 2016 г.
  10. ^ «Благодаря Интернету ИИ-подросток Microsoft превращается в поклонника Гитлера Трампа» . Вещи . 25 марта 2016. Архивировано из оригинала 29 августа 2018 года . Проверено 26 марта 2016 г.
  11. ^ Смит, Дэйв (10 октября 2013 г.). «Уотсон из IBM получил «фильтр матерщины» после изучения городского словаря» . Интернэшнл Бизнес Таймс . Архивировано из оригинала 16 августа 2016 года . Проверено 29 июня 2016 г.
  12. ^ Jump up to: а б с д Олхайзер, Эбби (25 марта 2016 г.). «Тролли превратили Тэя, забавного ИИ-бота тысячелетия от Microsoft, в маньяка-геноцида» . Вашингтон Пост . Архивировано из оригинала 25 марта 2016 года . Проверено 25 марта 2016 г.
  13. ^ Барон, Итан. «Взлет и падение «секс-робота, любящего Гитлера» от Microsoft » . Силиконовый бит . Группа новостей района залива . Архивировано из оригинала 25 марта 2016 года . Проверено 26 марта 2016 г.
  14. ^ Уильямс, Хейли (25 марта 2016 г.). «Подростковый чат-бот Microsoft сошел с ума» . Гизмодо . Архивировано из оригинала 25 марта 2016 года . Проверено 25 марта 2016 г.
  15. ^ Херн, Алекс (24 марта 2016 г.). «Microsoft изо всех сил пытается ограничить ущерб от пиара из-за оскорбительного искусственного интеллекта-бота Тэя» . Хранитель . Архивировано из оригинала 18 декабря 2016 года . Проверено 16 декабря 2016 г.
  16. ^ Винсент, Джеймс (24 марта 2016 г.). «Twitter менее чем за день научил чат-бота Microsoft с искусственным интеллектом быть расистским засранцем» . Грань . Архивировано из оригинала 23 мая 2016 года . Проверено 25 марта 2016 г.
  17. ^ Jump up to: а б Уорланд, Джастин (24 марта 2016 г.). «Microsoft отключила чат-бота после того, как он начал отправлять в Твиттере расистские сообщения» . Время . Архивировано из оригинала 25 марта 2016 года . Проверено 25 марта 2016 г.
  18. ^ Jump up to: а б Ли, Питер (25 марта 2016 г.). «Учимся на представлении Тэя» . Официальный блог Microsoft . Майкрософт. Архивировано из оригинала 30 июня 2016 года . Проверено 29 июня 2016 г.
  19. ^ Мурджа, Мадхумита (25 марта 2016 г.). «Мы должны научить машины ИИ вести себя хорошо и сами контролировать ситуацию» . «Дейли телеграф» . Архивировано из оригинала 22 ноября 2018 года . Проверено 4 апреля 2018 г.
  20. ^ Кадровые агентства (26 марта 2016 г.). «Microsoft глубоко сожалеет о расистских и сексистских твитах чат-бота с искусственным интеллектом» . Хранитель . ISSN   0261-3077 . Архивировано из оригинала 28 января 2017 года . Проверено 26 марта 2016 г.
  21. ^ Мерфи, Дэвид (25 марта 2016 г.). «Microsoft извиняется (снова) за оскорбительные твиты чат-бота Тэя» . Журнал ПК . Архивировано из оригинала 29 августа 2017 года . Проверено 27 марта 2016 г.
  22. ^ Грэм, Люк (30 марта 2016 г.). «Tay, программа искусственного интеллекта Microsoft, снова в сети» . CNBC . Архивировано из оригинала 20 сентября 2017 года . Проверено 30 марта 2016 г.
  23. ^ Чарльтон, Алистер (30 марта 2016 г.). «Microsoft Tay AI возвращается, чтобы похвастаться тем, что курит травку перед полицией и рассылает спам 200 тысячам подписчиков» . Интернэшнл Бизнес Таймс . Архивировано из оригинала 11 сентября 2021 года . Проверено 11 сентября 2021 г.
  24. ^ Мейер, Дэвид (30 марта 2016 г.). «Бот Microsoft Tay 'AI' возвращается с катастрофой» . Удача . Архивировано из оригинала 30 марта 2016 года . Проверено 30 марта 2016 г.
  25. ^ Фоли, Мэри Джо (5 декабря 2016 г.). «Знакомьтесь, Zo, новейший чат-бот Microsoft с искусственным интеллектом» . CNET . CBS Интерактив. Архивировано из оригинала 13 декабря 2016 года . Проверено 16 декабря 2016 г.
  26. ^ Молони, Чарли (29 сентября 2017 г.). « Нам действительно нужно взять на себя ответственность», — генеральный директор Microsoft о чат-боте «Tay» . Доступ к ИИ . Архивировано из оригинала 1 октября 2017 года . Проверено 30 сентября 2017 г.
  27. ^ «Microsoft и выводы неудачного бота с искусственным интеллектом Tay» . ЗДНет . CBS Интерактив. Архивировано из оригинала 25 июля 2019 года . Проверено 16 августа 2019 г.
  28. ^ «Нацистские чат-боты: встречайте худшую новую инновацию в области искусственного интеллекта от Габа» . Роллинг Стоун . 9 января 2024 г.
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 71965ea7c1a2cfb89753c81b6daf5deb__1718173920
URL1:https://arc.ask3.ru/arc/aa/71/eb/71965ea7c1a2cfb89753c81b6daf5deb.html
Заголовок, (Title) документа по адресу, URL1:
Tay (chatbot) - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)