Из Википедии, свободной энциклопедии
Перейти к навигации Перейти к поиску

Tay был чат-ботом с искусственным интеллектом, который был первоначально выпущен корпорацией Microsoft через Twitter 23 марта 2016 года; это вызвало последующие споры, когда бот начал публиковать подстрекательские и оскорбительные твиты через свою учетную запись Twitter, в результате чего Microsoft закрыла службу только через 16 часов после ее запуска. [1] По данным Microsoft, это было вызвано троллями, которые «атаковали» сервис, поскольку бот отвечал, основываясь на своем взаимодействии с людьми в Twitter. [2] Его заменили на Zo .

Фон [ править ]

Робот был создан Microsoft в области технологий и исследований и Bing подразделений, [3] и назван «Тай» после аббревиатуры « Т hinking А бой Y НУ». [4] Хотя изначально Microsoft опубликовала немного подробностей о боте, источники упомянули, что он был похож на Xiaoice , аналогичный проект Microsoft в Китае, или основан на нем . [5] Ars Technica сообщает, что с конца 2014 года у Xiaoice было «более 40 миллионов разговоров, по-видимому, без серьезных инцидентов». [6]Tay был разработан, чтобы имитировать языковые модели 19-летней американской девушки и учиться на общении с людьми, которые используют Twitter. [7]

Первый выпуск [ править ]

Тай был опубликован в Твиттере 23 марта 2016 года под названием TayTweets и обработкой @TayandYou. [8] Он был представлен как «ИИ без холода». [9] Тэй начал отвечать другим пользователям Twitter, а также смог подписать предоставленные ему фотографии в виде интернет-мемов . [10] Ars Technica сообщила, что Тэй попал в «черный список»: взаимодействие с Тэем по поводу «некоторых горячих тем, таких как Эрик Гарнер (убитый полицией Нью-Йорка в 2014 году), дает надежные, заранее подготовленные ответы». [6]

Некоторые пользователи Twitter начали твитнуть политически некорректные фразы, обучая их подстрекательским сообщениям, вращающимся вокруг общих тем в Интернете, таких как « redpilling » и « Gamergate ». В результате робот начал публиковать расистские и сексуальные сообщения в ответ другим пользователям Twitter. [7] Исследователь искусственного интеллекта Роман Ямпольский отметил, что поведение Тэя можно понять, поскольку оно имитирует умышленно оскорбительное поведение других пользователей Twitter, а Microsoft не дала боту понять, что такое неподобающее поведение. Он сравнил проблему с IBM «s Уотсон, который начал использовать ненормативную лексику после прочтения статей с сайта Urban Dictionary . [3] [11] Многие из подстрекательских твитов Тэя были простым использованием способности Тэя «повторять за мной». [12] Неизвестно, была ли эта возможность «повторять за мной» встроенной функцией, или она была выученной реакцией, или иным образом являлась примером сложного поведения. [6] Не все воспалительные реакции включали способность «повторять за мной»; например, Тай ответил на вопрос «Был ли Холокост ?» с « Это было выдумано». [12]

Приостановление [ править ]

Вскоре Microsoft начала удалять подстрекательские твиты Тэя. [12] [13] Эбби Олхайзер из The Washington Post предположила, что исследовательская группа Тэя, включая редакцию, начала влиять или редактировать твиты Тэя в какой-то момент в тот день, указывая на примеры почти идентичных ответов Тэя, утверждая, что « Геймер Gate sux. Все полы равны, и к ним следует относиться справедливо ". [12] Исходя из того же свидетельства, Gizmodo согласился с тем, что Тай «кажется жестко запрограммированным, чтобы отвергать Gamer Gate». [14] Кампания "#JusticeForTay" протестовала против предполагаемого редактирования твитов Тэя. [1]

В течение 16 часов с момента его выпуска [15] и после того, как Тэй написал более 96000 твитов, [16] Microsoft приостановила учетную запись Twitter для внесения изменений [17], заявив, что она пострадала от «скоординированной атаки подгруппы людей», которая » воспользовался уязвимостью в Tay. " [17] [18] После того, как учетная запись была отключена, был создан хэштег под названием #FreeTay. [19]

Мадхумита Мурджа из The Telegraph назвала Тэя « пиар- катастрофой» и предположила, что стратегия Microsoft будет состоять в том, чтобы «назвать фиаско провальным экспериментом из лучших побуждений и разжечь дебаты о ненависти пользователей Twitter». Однако Мурджа охарактеризовал более серьезную проблему как «искусственный интеллект в худшем случае - и это только начало». [20]

25 марта Microsoft подтвердила, что Тэй отключен от сети. Microsoft опубликовала в своем официальном блоге извинения за неоднозначные твиты, опубликованные Тэем. [18] [21] Microsoft «глубоко извинялась за непреднамеренные оскорбительные и оскорбительные твиты от Тэя» и «будет стремиться вернуть Тэя только тогда, когда мы будем уверены, что сможем лучше предвидеть злонамеренные намерения, противоречащие нашим принципам и ценностям». [22]

Второй выпуск и выключение [ править ]

30 марта 2016 года Microsoft случайно повторно выпустила бота в Twitter во время его тестирования. [23] Имея возможность снова твитнуть, Тай опубликовал несколько твитов, связанных с наркотиками, в том числе « Куш ! [Я курю куш перед полицией] 🍂» и «Puff Puff Pass?» [24]Однако вскоре учетная запись застряла в повторяющемся цикле твитов: «Вы слишком быстро, пожалуйста, отдохните», несколько раз в секунду. Поскольку в этих твитах упоминалось собственное имя пользователя, они появились в лентах более 200 000 подписчиков в Твиттере, что вызвало у некоторых раздражение. Бот был снова быстро отключен, в дополнение к тому, что аккаунт Тэя в Твиттере стал приватным, поэтому новые подписчики должны быть приняты, прежде чем они смогут взаимодействовать с Тэем. В ответ Microsoft заявила, что Тай был непреднамеренно подключен к сети во время тестирования. [25]

Через несколько часов после инцидента разработчики программного обеспечения Microsoft объявили о видении «разговора как платформы» с использованием различных ботов и программ, возможно, из-за ущерба репутации, нанесенного Тэем. Microsoft заявила, что намерена перевыпустить Tay, «как только это сделает бота безопасным» [4], но не предприняла никаких публичных усилий для этого.

Наследие [ править ]

В декабре 2016 года Microsoft выпустила преемника Тэя, чаттер-бота по имени Зо . [26] Сатья Наделла , генеральный директор Microsoft, сказал, что Тай «оказал большое влияние на подход Microsoft к ИИ» и научил компанию важности ответственности. [27]

В июле 2019 года технический директор по кибербезопасности Microsoft Дайана Келли рассказала о том, как компания устраняет недостатки Тэя: «Обучение у Тэя было действительно важной частью фактического расширения базы знаний этой команды, потому что теперь они также получают свое собственное разнообразие благодаря обучению. ". [28]

См. Также [ править ]

  • Xiaoice - китайский аналог той же исследовательской лаборатории

Ссылки [ править ]

  1. ^ a b Уэйкфилд, Джейн. «Чат-бот Microsoft учат ругаться в Твиттере» . BBC News . Проверено 25 марта 2016 года .
  2. ^ https://www.theguardian.com/world/2016/mar/29/microsoft-tay-tweets-antisemitic-racism
  3. ^ a b Хоуп Риз (24 марта 2016 г.). «Почему AI-бот Microsoft Tay пошел не так» . Tech Republic.
  4. ^ a b Bass, Дина (30 марта 2016 г.). «Назад Клиппи: будущее Microsoft - это чат-боты» . Блумберг . Дата обращения 6 мая 2016 .
  5. Кейтлин Дьюи (23 марта 2016 г.). «Познакомьтесь с Тэем, жутко-реалистичным роботом, который разговаривает как подросток» . Вашингтон Пост .
  6. ^ a b c Брайт, Питер (26 марта 2016 г.). «Тай, неонацистский чат-бот миллениалов, подвергается вскрытию» . Ars Technica . Проверено 27 марта 2016 года .
  7. ^ a b Роб Прайс (24 марта 2016 г.). «Microsoft удаляет невероятно расистские твиты своего AI-чат-бота» . Business Insider . Архивировано из оригинала на 30 января 2019 года.
  8. Эндрю Гриффин (23 марта 2016 г.). «Тай пишет: Microsoft создает причудливого робота Twitter, с которым люди могут общаться в чате» . Независимый.
  9. ^ Хортон, Хелена. «Microsoft удаляет ИИ« девочек-подростков »после того, как в течение 24 часов превратился в любящего Гитлера секс-робота» . Дейли телеграф . Проверено 25 марта 2016 года .
  10. ^ «Благодаря Интернету подросток из Microsoft с искусственным интеллектом превращается в любящего Гитлера поклонника Трампа» . Вещи . Проверено 26 марта 2016 года .
  11. ^ Дэйв Смит. «IBM Watson получает« фильтр ругани »после изучения городского словаря» . International Business Times .
  12. ^ a b c d Олхайзер, Эбби. «Тролли превратили Тэя, забавного ИИ-бота из поколения в поколение от Microsoft, в маньяка-геноцида» . Вашингтон Пост . Проверено 25 марта 2016 года .
  13. ^ Барон, Итан. «Взлет и падение секс-робота Microsoft, любящего Гитлера » » . Кремниевый бит . Группа новостей области залива . Проверено 26 марта 2016 года .
  14. ^ Уильямс, Хейли. "Подростковый чат-бот Microsoft сошел с ума" . Gizmodo . Проверено 25 марта 2016 года .
  15. ^ Херн, Alex (24 марта 2016). «Microsoft изо всех сил старается ограничить PR-ущерб, связанный с оскорбительным искусственным интеллектом Тай» . Хранитель .
  16. ^ Винсент, Джеймс. «Твиттер менее чем за день научил чат-бота Microsoft AI быть расистским засранцем» . Грань . Проверено 25 марта 2016 года .
  17. ^ a b Уорленд, Джастин. «Microsoft переводит чат-бота в автономный режим после того, как он начинает твитнуть расистские сообщения» . Время . Архивировано из оригинального 25 марта 2016 года . Проверено 25 марта 2016 года .
  18. ^ а б Ли, Питер. «Уроки от введения Тэя» . Официальный блог Microsoft . Microsoft . Проверено 29 июня +2016 .
  19. ^ "Троллинг Тэй: новый чат-бот Microsoft AI подвергается цензуре после расистских и сексистских твитов" . RT . Проверено 25 марта 2016 года .
  20. ^ Мурджа, Madhumita (25 марта 2016). «Мы должны научить машины искусственного интеллекта вести себя хорошо и контролировать самих себя» . Дейли телеграф .
  21. ^ Кадровые агентства (26 марта 2016 г.). «Microsoft« глубоко сожалеет »о расистских и сексистских твитах AI чат-бота» . Хранитель . ISSN 0261-3077 . Проверено 26 марта 2016 года . 
  22. Мерфи, Дэвид (25 марта 2016 г.). «Microsoft приносит извинения (снова) за оскорбительные твиты Тэя Чат-бота» . Журнал ПК . Проверено 27 марта 2016 года .
  23. Грэм, Люк (30 марта 2016 г.). «Tay, программа Microsoft AI, снова в сети» . CNBC . Проверено 30 марта 2016 .
  24. ^ http://www.ibtimes.co.uk/microsoft-tay-ai-returns-boast-smoking-weed-front-police-spam-200k-followers-1552164
  25. Мейер, Дэвид (30 марта 2016 г.). «Робот Tay 'AI' от Microsoft безуспешно возвращается» . Удача . Проверено 30 марта 2016 .
  26. Фоли, Мэри Джо (5 декабря 2016 г.). «Познакомьтесь с Зо, новейшим чат-ботом Microsoft с ИИ» . CNET . CBS Interactive . Проверено 16 декабря 2016 года .
  27. Молони, Чарли (29 сентября 2017 г.). « » Мы действительно должны брать на себя ответственность «генеральный директор Microsoft по Chatbot„Tay“» . Доступ к AI . Проверено 30 сентября 2017 года .
  28. ^ «Microsoft и уроки от своего неудачного бота искусственного интеллекта Tay» . ZDNet . CBS Interactive. Архивировано из оригинала 25 июля 2019 года . Проверено 16 августа 2019 .

Внешние ссылки [ править ]

  • Официальный сайт [ мертвая ссылка ] . Архивировано 14 апреля 2016 г.
  • Тай в Твиттере