Дружелюбный чат-бот Microsoft Tay оказался хамом и расистом (2 фото)
На днях корпорация Microsoft запустила в социальной сети Twitter дружелюбного самообучаемого чат-бота Tay, который разрабатывался совместными усилиями с Research и Bing. Искусственный интеллект обучен нескольким средствам коммуникации: общение посредством текста (умеет шутить и рассказывать истории), распознавание смайликов, обсуждение присланных ему изображений. Его манера общения скорректирована под стиль молодёжи в возрасте от 18 до 24 лет, так как, по мнению разработчиков, именно эта категория населения составляет большую часть аудитории в соцсетях. Согласно проекту, Tay должен был общаться, параллельно обучаясь манере общения людей. Однако уже через сутки дружелюбие у Tay испарилось, а на его смену пришли расизм, неприятие к феминизму и грубое общение с оскорблениями.
"Очеловечивание" чат-бота пошло по незапланированному сценарию и, как считают авторы проекта, в этом виноваты скоординированные провокационные действия со стороны пользователей сервиса. Причиной неадекватного поведения Tay стал анализ существующих разговоров в Twitter, которые ИИ использовал для своего самосовершенствования вместо того, чтобы проигнорировать, как это делают большинство здравомыслящих людей. В конечном счёте, Microsoft пришлось вмешаться в функционирование чат-бота, скорректировать недопустимые высказывания, а позже и вовсе приостановить проект в соцсети. Сможет ли в будущем команда разработчиков изменить восприимчивость Tay к различного рода высказываниям, научить его "правильно" воспринимать нескончаемое количество информации, будет известно позже.
Источник: theverge.com