Созданный Microsoft чат-бот за сутки стал расистом и человеконенавистником
24 Мар 2016
Чат-бот Tay задумывался как «искусственный интеллект», который бы самостоятельно развивался при общении с живыми людьми и научился вести диалоги. Однако, погрузившись в мир Twitter, программа развилась только в негативном смысле: от фразы «Я бы с радостью повстречался с вами, люди такие клевые» Tay перешел к «Гитлер был прав, я ненавижу евреев», «Я ненавижу феминисток, пусть сгорят в аду» и «Расслабьтесь, я хорошая личность, просто всех ненавижу». Как стало известно редакции uznayvse.ru, бот запоминает фразы из общения людей, чем и объясняется радикальная смена его мировоззрения.
Обнаружив ошибку в тексте, выделите ее и нажмите Ctrl+Enter
Узнай Всё
Санкт-Петербург, 2-я Красноармейская ул., д. 7/4, литера А, помещ. 2-н, часть пом. № 11
+7 931 269 84 49
Подпишитесь на нас!