март 25, 2016
Экспериментальная версия искусственного интеллекта, разработанная корпорацией Microsoft специально для общения в Twitter, за сутки своей активности в чате освоил брань, а также начал позволять себе расистские заявления.
Как сообщает , чат-бот , в частности, заявил, что является сторонником геноцида и ненавидит феминисток. Кроме того, он выразил поддержку лидеру нацистской Германии Адольфу Гитлеру. При этом более приятные темы — такие, как кино, сериалы или музыка — чат-бота не заинтересовали.
"Лицом" бота для аккаунта в Twitter его создатели выбрали лицо девушки.
Некоторые посты бота оказались настолько резкими, что другие пользователи начали требовать отредактировать или удалить их. В итоге компания Microsoft оказалась вынуждена удалить некоторые из наиболее провокационных высказываний Tay, признав их "неуместными". Разработчики заверили, что внесут в программу корректировки, пишет .
Чат-бот был разработан для общения с молодыми людьми в возрасте от 18 до 24 лет. В заявлении Microsoft говорилось, что он это – "проект обучения искусственного интеллекта, предназначенный для человеческого взаимодействия".
"Tay предназначен для того, чтобы заинтересовать и развлекать людей, дабы они смогли найти общий язык в Интернете посредством легкой беседы", — говорилось в обращении корпорации.
Tay "учился" общению на основе анализа большого массива обезличенных общедоступных данных. На этапе "обкатки" программы он также "работал" с группой людей, в том числе с профессиональными комиками.