Тай (чат-бот)
![]() Изображение профиля Тэя в Твиттере | |
Разработчик(и) | Microsoft Research , Бинг |
---|---|
Доступно в | Английский |
Тип | с искусственным интеллектом Чат-бот |
Лицензия | Собственный |
Веб-сайт | https://tay.ai в Wayback Machine (архивировано 23 марта 2016 г.) |
Тай был чат-ботом , который первоначально был выпущен корпорацией Microsoft как бот Twitter 23 марта 2016 года. Это вызвало последующие споры, когда бот начал публиковать подстрекательские и оскорбительные твиты через свою учетную запись Twitter, в результате чего Microsoft закрыла службу всего на 16 часов. после его запуска. [ 1 ] По мнению Microsoft, это было вызвано троллями , которые «атаковали» сервис, поскольку бот отвечал на основе своего взаимодействия с людьми в Твиттере. [ 2 ] Его заменили на Зо .
Фон
[ редактировать ]Бот был создан подразделениями Microsoft Technology and Research и Bing . [ 3 ] и назвал «Тэй» аббревиатурой от «думать о тебе». [ 4 ] Хотя Microsoft первоначально опубликовала мало подробностей о боте, источники упомянули, что он похож на Xiaoice , аналогичный проект Microsoft в Китае, или основан на нем. [ 5 ] Ars Technica сообщила, что с конца 2014 года у Xiaoice было «более 40 миллионов разговоров, по всей видимости, без серьезных инцидентов». [ 6 ] Тэй был разработан, чтобы имитировать языковые модели 19-летней американской девушки и учиться на взаимодействии с людьми-пользователями Твиттера. [ 7 ]
Первоначальный выпуск
[ редактировать ]Тэй был опубликован в Твиттере 23 марта 2016 года под именем TayTweets и под псевдонимом @TayandYou. [ 8 ] Его представили как «ИИ без холода». [ 9 ] Тэй начал отвечать другим пользователям Твиттера, а также смог подписывать предоставленные ему фотографии в виде интернет-мемов . [ 10 ] Ars Technica сообщила, что Тэй попал в «черный список» темы: взаимодействие с Тэем по поводу «некоторых горячих тем, таких как Эрик Гарнер (убитый полицией Нью-Йорка в 2014 году), дает безопасные, стандартные ответы». [ 6 ]
Некоторые пользователи Твиттера начали писать политически некорректные фразы, обучая их подстрекательским сообщениям, вращающимся вокруг общих тем в Интернете, таких как « редпиллинг » и « Геймергейт ». В результате робот начал публиковать сообщения расистского и сексуального характера в ответ другим пользователям Твиттера. [ 7 ] Исследователь искусственного интеллекта Роман Ямпольский прокомментировал, что неправомерное поведение Тэя можно понять, поскольку оно имитировало заведомо оскорбительное поведение других пользователей Твиттера, а Microsoft не дала боту понимание неподобающего поведения. Он сравнил проблему с IBM от Watson , который начал использовать ненормативную лексику после прочтения статей с веб-сайта Urban Dictionary . [ 3 ] [ 11 ] Многие из подстрекательских твитов Тэя были простой эксплуатацией его способности «повторять за мной». [ 12 ] Публично неизвестно, была ли эта возможность встроенной функцией, или это была заученная реакция, или это был иной пример сложного поведения. [ 6 ] Однако не все воспалительные реакции включали способность «повторять за мной»; например, Тэй ответил на вопрос «Произошёл ли Холокост ?» с надписью « Это было выдумано ». [ 12 ]
Приостановка
[ редактировать ]Вскоре Microsoft начала удалять подстрекательские твиты Тэя. [ 12 ] [ 13 ] Эбби Олхайзер из The Washington Post предположила, что исследовательская группа Тэя, включая сотрудников редакции, начала влиять или редактировать твиты Тэя в какой-то момент в тот день, указывая на примеры почти идентичных ответов Тэя, утверждая, что « Gamer Gate . сукс равны и к ним следует относиться справедливо». [ 12 ] На основании тех же данных Gizmodo согласился с тем, что Тэй «кажется, запрограммирован отвергать Gamer Gate». [ 14 ] Кампания #JusticeForTay протестовала против предполагаемого редактирования твитов Тэя. [ 1 ]
В течение 16 часов после выпуска [ 15 ] и после того, как Тэй написал в Твиттере более 96 000 раз, [ 16 ] Microsoft заблокировала учетную запись Twitter для внесения корректировок, [ 17 ] заявив, что он пострадал от «скоординированной атаки группы людей», которая «использовала уязвимость в Тэе». [ 17 ] [ 18 ]
Мадхумита Мурджа из The Telegraph назвала Тэя « катастрофой в сфере связей с общественностью » и предположила, что стратегия Microsoft будет заключаться в том, чтобы «назвать этот фиаско неудачным экспериментом из лучших побуждений и разжечь дебаты о ненависти пользователей Твиттера». Однако Мурджа описала более серьезную проблему как «искусственный интеллект в худшем проявлении – и это только начало». [ 19 ]
25 марта Microsoft подтвердила, что Тэй был отключен от сети. Microsoft опубликовала в своем официальном блоге извинения за спорные твиты, опубликованные Тэем. [ 18 ] [ 20 ] Microsoft «глубоко сожалеет о непреднамеренных оскорбительных и обидных твитах Тэя» и «будет стремиться вернуть Тэя только тогда, когда мы будем уверены, что сможем лучше предвидеть злонамеренные намерения, которые противоречат нашим принципам и ценностям». [ 21 ]
Второй выпуск и закрытие
[ редактировать ]30 марта 2016 года Microsoft случайно повторно выпустила бота в Твиттере во время его тестирования. [ 22 ] Имея возможность снова писать в Твиттере, Тэй опубликовал несколько твитов, связанных с наркотиками, в том числе « Куш ! [Я курю куш перед полицией]» и «Пафф, паф, проход?» [ 23 ] Однако вскоре аккаунт застрял в повторяющемся цикле твитов «Вы слишком быстры, пожалуйста, отдохните» несколько раз в секунду. Поскольку в этих твитах упоминалось собственное имя пользователя, они появились в лентах более чем 200 000 подписчиков Твиттера, что вызвало у некоторых раздражение. Бот снова был быстро отключен от сети, а учетная запись Тэя в Твиттере стала частной, поэтому необходимо принять новых подписчиков, прежде чем они смогут взаимодействовать с Тэем. В ответ Microsoft заявила, что Тэй случайно оказался в сети во время тестирования. [ 24 ]
Через несколько часов после инцидента разработчики программного обеспечения Microsoft объявили о концепции «разговора как платформы» с использованием различных ботов и программ, возможно, мотивированных репутационным ущербом, нанесенным Тэем. Microsoft заявила, что намерена перевыпустить Tay, «как только он сможет сделать бота безопасным». [ 4 ] но не предпринял никаких публичных усилий для этого.
Наследие
[ редактировать ]В декабре 2016 года Microsoft выпустила преемника Тэя — чат-бота по имени Zo . [ 25 ] Сатья Наделла , генеральный директор Microsoft, сказал, что Тэй «оказал большое влияние на подход Microsoft к искусственному интеллекту» и научил компанию важности ответственности. [ 26 ]
В июле 2019 года технический директор Microsoft по кибербезопасности Дайана Келли рассказала о том, как компания исправила ошибки Тэя: «Обучение у Тэя было действительно важной частью фактического расширения базы знаний этой команды, потому что теперь они также приобретают свое собственное разнообразие посредством обучения. ". [ 27 ]
Неофициальное возрождение
[ редактировать ]Платформа социальных сетей Gab запустила несколько чат-ботов, одного из которых зовут Тэй, и он использует тот же аватар, что и оригинал. [ 28 ]
См. также
[ редактировать ]- Социальный бот
- Xiaoice – китайский аналог, созданный той же исследовательской лабораторией.
- Нейро-сама - еще один влиятельный чат-бот в социальных сетях, которого забанили за отрицание Холокоста.
Ссылки
[ редактировать ]- ^ Jump up to: а б Уэйкфилд, Джейн (24 марта 2016 г.). «Чат-бот Microsoft учат ругаться в Твиттере» . Новости Би-би-си . Архивировано из оригинала 17 апреля 2019 года . Проверено 25 марта 2016 г.
- ^ Мейсон, Пол (29 марта 2016 г.). «Расистский захват чат-бота Microsoft показывает, насколько Интернет полон ненависти» . Хранитель . Архивировано из оригинала 12 июня 2018 года . Проверено 11 сентября 2021 г.
- ^ Jump up to: а б Хоуп Риз (24 марта 2016 г.). «Почему ИИ-бот Tay от Microsoft пошёл не так» . Технологическая республика. Архивировано из оригинала 15 июня 2017 года . Проверено 24 марта 2016 г.
- ^ Jump up to: а б Басс, Дина (30 марта 2016 г.). «Клиппи вернулся: будущее Microsoft — это чат-боты» . Блумберг . Архивировано из оригинала 19 мая 2017 года . Проверено 6 мая 2016 г.
- ^ Кейтлин Дьюи (23 марта 2016 г.). «Познакомьтесь с Тэем, жутко реалистичным роботом, который говорит как подросток» . Вашингтон Пост . Архивировано из оригинала 24 марта 2016 года . Проверено 24 марта 2016 г.
- ^ Jump up to: а б с Брайт, Питер (26 марта 2016 г.). «Тэй, неонацистский чат-бот-миллениал, подвергается вскрытию» . Арс Техника . Архивировано из оригинала 20 сентября 2017 года . Проверено 27 марта 2016 г.
- ^ Jump up to: а б Роб Прайс (24 марта 2016 г.). «Microsoft удаляет невероятно расистские твиты своего чат-бота с искусственным интеллектом» . Бизнес-инсайдер . Архивировано из оригинала 30 января 2019 года.
- ^ Эндрю Гриффин (23 марта 2016 г.). «Тэй твиты: Microsoft создает причудливого робота в Твиттере, с которым люди могут общаться» . Независимый . Архивировано из оригинала 26 мая 2022 года.
- ^ Хортон, Хелена (24 марта 2016 г.). «Microsoft удаляет ИИ «девочки-подростка» после того, как он в течение 24 часов превратился в расового секс-робота, любящего Гитлера» . «Дейли телеграф» . Архивировано из оригинала 24 марта 2016 года . Проверено 25 марта 2016 г.
- ^ «Благодаря Интернету ИИ-подросток Microsoft превращается в поклонника Гитлера Трампа» . Вещи . 25 марта 2016. Архивировано из оригинала 29 августа 2018 года . Проверено 26 марта 2016 г.
- ^ Смит, Дэйв (10 октября 2013 г.). «Уотсон из IBM получил «фильтр матерщины» после изучения городского словаря» . Интернэшнл Бизнес Таймс . Архивировано из оригинала 16 августа 2016 года . Проверено 29 июня 2016 г.
- ^ Jump up to: а б с д Олхайзер, Эбби (25 марта 2016 г.). «Тролли превратили Тэя, забавного ИИ-бота тысячелетия от Microsoft, в маньяка-геноцида» . Вашингтон Пост . Архивировано из оригинала 25 марта 2016 года . Проверено 25 марта 2016 г.
- ^ Барон, Итан. «Взлет и падение «секс-робота, любящего Гитлера» от Microsoft » . Силиконовый бит . Группа новостей района залива . Архивировано из оригинала 25 марта 2016 года . Проверено 26 марта 2016 г.
- ^ Уильямс, Хейли (25 марта 2016 г.). «Подростковый чат-бот Microsoft сошел с ума» . Гизмодо . Архивировано из оригинала 25 марта 2016 года . Проверено 25 марта 2016 г.
- ^ Херн, Алекс (24 марта 2016 г.). «Microsoft изо всех сил пытается ограничить ущерб от пиара из-за оскорбительного искусственного интеллекта-бота Тэя» . Хранитель . Архивировано из оригинала 18 декабря 2016 года . Проверено 16 декабря 2016 г.
- ^ Винсент, Джеймс (24 марта 2016 г.). «Twitter менее чем за день научил чат-бота Microsoft с искусственным интеллектом быть расистским засранцем» . Грань . Архивировано из оригинала 23 мая 2016 года . Проверено 25 марта 2016 г.
- ^ Jump up to: а б Уорланд, Джастин (24 марта 2016 г.). «Microsoft отключила чат-бота после того, как он начал отправлять в Твиттере расистские сообщения» . Время . Архивировано из оригинала 25 марта 2016 года . Проверено 25 марта 2016 г.
- ^ Jump up to: а б Ли, Питер (25 марта 2016 г.). «Учимся на представлении Тэя» . Официальный блог Microsoft . Майкрософт. Архивировано из оригинала 30 июня 2016 года . Проверено 29 июня 2016 г.
- ^ Мурджа, Мадхумита (25 марта 2016 г.). «Мы должны научить машины ИИ вести себя хорошо и сами контролировать ситуацию» . «Дейли телеграф» . Архивировано из оригинала 22 ноября 2018 года . Проверено 4 апреля 2018 г.
- ^ Кадровые агентства (26 марта 2016 г.). «Microsoft глубоко сожалеет о расистских и сексистских твитах чат-бота с искусственным интеллектом» . Хранитель . ISSN 0261-3077 . Архивировано из оригинала 28 января 2017 года . Проверено 26 марта 2016 г.
- ^ Мерфи, Дэвид (25 марта 2016 г.). «Microsoft извиняется (снова) за оскорбительные твиты чат-бота Тэя» . Журнал ПК . Архивировано из оригинала 29 августа 2017 года . Проверено 27 марта 2016 г.
- ^ Грэм, Люк (30 марта 2016 г.). «Tay, программа искусственного интеллекта Microsoft, снова в сети» . CNBC . Архивировано из оригинала 20 сентября 2017 года . Проверено 30 марта 2016 г.
- ^ Чарльтон, Алистер (30 марта 2016 г.). «Microsoft Tay AI возвращается, чтобы похвастаться тем, что курит травку перед полицией и рассылает спам 200 тысячам подписчиков» . Интернэшнл Бизнес Таймс . Архивировано из оригинала 11 сентября 2021 года . Проверено 11 сентября 2021 г.
- ^ Мейер, Дэвид (30 марта 2016 г.). «Бот Microsoft Tay 'AI' возвращается с катастрофой» . Удача . Архивировано из оригинала 30 марта 2016 года . Проверено 30 марта 2016 г.
- ^ Фоли, Мэри Джо (5 декабря 2016 г.). «Знакомьтесь, Zo, новейший чат-бот Microsoft с искусственным интеллектом» . CNET . CBS Интерактив. Архивировано из оригинала 13 декабря 2016 года . Проверено 16 декабря 2016 г.
- ^ Молони, Чарли (29 сентября 2017 г.). « Нам действительно нужно взять на себя ответственность», — генеральный директор Microsoft о чат-боте «Tay» . Доступ к ИИ . Архивировано из оригинала 1 октября 2017 года . Проверено 30 сентября 2017 г.
- ^ «Microsoft и выводы неудачного бота с искусственным интеллектом Tay» . ЗДНет . CBS Интерактив. Архивировано из оригинала 25 июля 2019 года . Проверено 16 августа 2019 г.
- ^ «Нацистские чат-боты: встречайте худшую новую инновацию в области искусственного интеллекта от Габа» . Роллинг Стоун . 9 января 2024 г.