Образование

Чат-бот Microsoft через сутки работы начал ругаться и стал нацистом

Экспериментальная версия искусственного интеллекта, разработанная корпорацией Microsoft специально для общения в Twitter, за сутки своей активности в чате освоил брань, а также начал позволять себе расистские заявления.

Как сообщает BBC, чат-бот Tay, в частности, заявил, что является сторонником геноцида и ненавидит феминисток. Кроме того, он выразил поддержку лидеру нацистской Германии Адольфу Гитлеру. При этом более приятные темы — такие, как кино, сериалы или музыка — чат-бота не заинтересовали.

"Лицом" бота для аккаунта в Twitter его создатели выбрали лицо девушки.

Некоторые посты бота оказались настолько резкими, что другие пользователи начали требовать отредактировать или удалить их. В итоге компания Microsoft оказалась вынуждена удалить некоторые из наиболее провокационных высказываний Tay, признав их "неуместными". Разработчики заверили, что внесут в программу корректировки, пишет trud.ru.

Справка

Чат-бот был разработан для общения с молодыми людьми в возрасте от 18 до 24 лет. В заявлении Microsoft говорилось, что он это – "проект обучения искусственного интеллекта, предназначенный для человеческого взаимодействия".

"Tay предназначен для того, чтобы заинтересовать и развлекать людей, дабы они смогли найти общий язык в Интернете посредством легкой беседы", — говорилось в обращении корпорации.

Tay "учился" общению на основе анализа большого массива обезличенных общедоступных данных. На этапе "обкатки" программы он также "работал" с группой людей, в том числе с профессиональными комиками.

Подпишитесь на Алтапресс в Телеграме и в Max

Чтобы сообщить нам об опечатке, выделите ее мышкой и нажмите Ctrl+Enter

Комментарии
Рассказать новость