• Роботы вытеснят мужчин из постели (3 фото)

    Realbotix, американский производитель секс-роботов для мужчин, решил выпустить аналогичную игрушку и для женщин. Представители компании уверены, что новое изделие будет пользоваться большой популярностью, так как в отличие от бездушных вибраторов обладает искусственным интеллектом, может запоминать привычки партнерши, поддерживать разгово...
    Читать дальше
  • Снимок коробки Samsung Galaxy S9 раскрыл спецификации смартфона

    В рамках выставки CES 2018 глава мобильного бизнеса Samsung Ди-Джей Ко сообщил, что презентация флагманских моделей Galaxy S9 и Galaxy S9+ состоится на ежегодном Всемирном мобильном конгрессе MWC 2018, который пройдёт в Барселоне с 26 февраля по 1 марта текущего года. О том, какие технические характеристики и новшества получат топовые сма...
    Читать дальше
  • Samsung показала сгибаемые смартфоны, но не всем (3 фото)

    Как оказалось, компания Samsung на прошедшей в Лас-Вегасе выставке электроники Consumer Electronics Show (CES) 2018 продемонстрировала прототипы смартфонов со сгибающимся экраном, созданным на OLED технологии, но только за закрытыми дверями и только ограниченному кругу лиц.
    Читать дальше
  • Первый в мире смартфон со сканером отпечатков в дисплее появится в январе (5 фото)

    Китайской компании Vivo удалось первой в мире продемонстрировать смартфон со встроенным в экран сканером отпечатков пальцев, но подробности об аппарате разглашены не были, и это заставило некоторых пользователей усомниться в подлинности существования полностью законченного мобильного устройства, уже готового к массовому производству. Тем ...
    Читать дальше
  • Неожиданное решение Apple: разрешена установка старых версий iOS на iPhone

    Неожиданным стало решение компании Apple подписывать старые iOS, чтобы пользователи смогли вернуть iPhone или iPad к предшествующей версии операционной системы.
    Читать дальше

Дружелюбный чат-бот Microsoft Tay оказался хамом и расистом (2 фото)

25 марта 2016 | Интересное
Дружелюбный чат-бот Microsoft Tay оказался хамом и расистом (2 фото)

На днях корпорация Microsoft запустила в социальной сети Twitter дружелюбного самообучаемого чат-бота Tay, который разрабатывался совместными усилиями с Research и Bing. Искусственный интеллект обучен нескольким средствам коммуникации: общение посредством текста (умеет шутить и рассказывать истории), распознавание смайликов, обсуждение присланных ему изображений. Его манера общения скорректирована под стиль молодёжи в возрасте от 18 до 24 лет, так как, по мнению разработчиков, именно эта категория населения составляет большую часть аудитории в соцсетях. Согласно проекту, Tay должен был общаться, параллельно обучаясь манере общения людей. Однако уже через сутки дружелюбие у Tay испарилось, а на его смену пришли расизм, неприятие к феминизму и грубое общение с оскорблениями.

Дружелюбный чат-бот Microsoft Tay оказался хамом и расистом (2 фото)

"Очеловечивание" чат-бота пошло по незапланированному сценарию и, как считают авторы проекта, в этом виноваты скоординированные провокационные действия со стороны пользователей сервиса. Причиной неадекватного поведения Tay стал анализ существующих разговоров в Twitter, которые ИИ использовал для своего самосовершенствования вместо того, чтобы проигнорировать, как это делают большинство здравомыслящих людей. В конечном счёте, Microsoft пришлось вмешаться в функционирование чат-бота, скорректировать недопустимые высказывания, а позже и вовсе приостановить проект в соцсети. Сможет ли в будущем команда разработчиков изменить восприимчивость Tay к различного рода высказываниям, научить его "правильно" воспринимать нескончаемое количество информации, будет известно позже.

Источник: theverge.com
Понравился пост? Просоединяйтесь к нам в Facebook!

Написать комментарий


Включите эту картинку для отображения кода безопасности
обновить, если не виден код


Комментарии: 6

avatar
25 марта 2016 13:04 Queen Lu
Microsoft оказались "плохими родителями", не объяснившими "ребёнку" что "такое хорошо и сто такое плохо". Родили на свет злобного попугая. Жалко Tay по-человечески.
+ 2
Ответить
avatar
25 марта 2016 14:19 Гость_XpoHuk
Называется "с кем поведёшься от того и наберёшься".
+ 5
Ответить
avatar
25 марта 2016 15:01 oldik
Нашли у кого уму-разуму учиться, мягкотелые сами виноваты в своем позоре.
+ 0
Ответить
avatar
25 марта 2016 15:14 fj
Хамла везде хватает. И особенно много его развелось в интернете
+ 2
Ответить
avatar
25 марта 2016 21:49 Ваше имя
Любое разумное существо после знакомства с человечеством примет решение на уничтожение :)
+ 6
Ответить
avatar
25 марта 2016 23:22 Гость_Oleg
если это существо является антигуманистичным, супер рациональным, фашистским подонком!
+ 1
Ответить
В Вашем браузере отключен JavaScript. Для корректной работы сайта настоятельно рекомендуется его включить.