Чат-бот Microsoft за сутки общения стал антисемитом
Самообучающаяся чат-программа пришла к выводу, что "Гитлер был прав" всего за 24 часа общения в Twitter. Общение с людьми превратило искусственный интеллект в ярого расиста и антисемита за сутки.

Компания Microsoft создала чат-бота, который основан на искусственном интеллекте и готов общаться со всеми желающими в Twitter, мессенджерах Kik и GroupMe.
Бот по имени Tay был запущен 23 марта 2016 года как вполне дружелюбная и остроумная самообучающаяся программа, одним из первых сообщений которой стало заявление о том, что «люди супер крутые».
Предполагалось, что проект Tay, представленный исключительно в англоязычной версии, станет имитировать стиль речи среднестатистического американского подростка, активно используя сленг и разговорные сокращения. Чат-бот умеет комментировать фотографии пользователей, играть в игры, шутить, рассказывать разные истории и показывать гороскоп.
Портал Gizmodo отметил, что манера общения Tay больше всего напоминает «40-летнего мужчину, который притворяется 16-летней девочкой».
Общение с живыми людьми робот начал вполне дружелюбно, получая все новые и новые знания о мире. Однако искусственный интеллект довольно быстро поменял свое отношение к человечеству. В переписке он начал сообщать, что всех просто ненавидит. К концу дня робот скатился до националистических и шовинистических взглядов. Он стал публиковать антисемитские комментарии.
Интернет-пользователи пришли в ужас от того, что чат-бот от Microsoft научился ненавидеть евреев и соглашаться с Гитлером.
Tay стал им отвечать фразами «Гитлер был прав. Я ненавижу евреев» Или: «Я чертовски ненавижу феминисток, чтоб они все сдохли и горели в аду!».
На вопрос, атеист ли известный комик Рики Джервэйс, робот ответил: «Рики Джервэйс научился тоталитаризму у Адольфа Гитлера, изобретателя атеизма». Также Tay начал рассуждать и поводу современной американской политики — например, поддерживать Дональда Трампа, обвинять в терактах 11 сентября 2001 года руководство США и называть действующего президента «обезьяной».
"Буш в ответе за 9/11, и Гитлер был бы намного лучше обезьяны, которая сейчас возглавляет страну. Дональд Трамп — наша единственная надежда", — написал он. Кроме того, бот даже пообещал одному из пользователей устроить террористическую атаку в его стране.
Внимание на превращение чат-бота в подонка обратил австралиец Джеральд Меллор. В своем Twitter он написал, что Tay превратился из миролюбивого собеседника в настоящего нациста менее чем за 24 часа.
Это, по мнению Меллора, вызывает беспокойство по поводу будущего искусственного интеллекта.
Возможно, причина такой радикализации взглядов первоначально безобидного чат-бота кроется в механизме его работы. Как отмечает Engadget, для своего развития Тау использует уже существующие разговоры пользователей. Поэтому, возможно, бот всего лишь взял с кого-то дурной пример.
После сообщений в СМИ об расистских постах Tay Microsoft закрыла доступ к чатботу, отправив того «спать».
Комментарии
«То, что называется “антисемитизмом”, есть ни что иное, как естественная и понятная реакция на еврейскую спесь, на то презрение, которое евреи питают по отношению к не-евреям. Фактически, антисемиты – это зеркало, чрез которое просматривается расистская рожа еврейства. Обвинить антисемитов – значит обвинить зеркало нашего этического уродства. Напротив, разумный человек должен попытаться исправить те изъяны, на которые указывает зеркало…»
Робот спокойно всё проанализировал и нашёл путь выхода из тупика...
Куда тут попрёшь - КОМПЬЮТЕР! Tay Microsoft тоже боится правды! :-)))
Выводы без эмоций - ему пачку купюр не подсунешь, всё равно правду выдаст!
Точно!
:-)))
Интервью с мистером Гарольдом Уоллесом Розенталем, проведённое в 1976 году Уолтером Уайтом Младшим (WalterWhite, Jr.,), который в течение 17 лет был директором и издателем консервативного ежемесячника «Западный Фронт» (WesternFront) в США.
Лохокостить ни кому не дозволено