• В новой «ГАЗели» обнаружили пасхалку в виде игры Тетрис (видео)

    Не только интернет-гигант Google ловко прячет «пасхалки» в своих операционных системах. Оказалось, что в бортовом компьютере нового малотоннажного автомобиля «ГАЗель Next» тоже запрятан сюрприз в виде некогда популярной игры Тетрис. Правда, обнаружить её не так-то просто. Для этого потребуется ввести сложную последовательную комбинацию и ...
    Читать дальше
  • Компактная и бюджетная солнечная печка GoSun Go (7 фото + видео)

    Четыре года назад стартап GoSun предъявил миру первую солнечную печку. Чтобы сфокусировать свет Солнца, использовались параболические зеркала. На представленной конвекционной портативной печке можно готовить любые блюда, не пользуясь привычными нам тепловыми источниками. Проведя серию итераций, фирма запустила теперь самую портативную и н...
    Читать дальше
  • В NASA испытали ионный двигатель для полета на Марс (3 фото)

    Разработанный инженерами Мичиганского университета совместно с NASA и ВВС США ионный двигатель X3 показал на испытаниях уникальные результаты. Использование инновационных решений, реализованных в данном двигателе, поможет преодолеть расстояние до Марса гораздо быстрее и затрачивая меньше топлива, нежели на традиционных химических двигател...
    Читать дальше
  • Loock Classic — хитрый дверной смарт-замок от Xiaomi (9 фото)

    Компания Xiaomi запускает собственную краудфандинговую программу для выпуска «умного» дверного замка Loock Classic, открыть который можно четырьмя способами: традиционным ключом, цифровым кодом, дактилоскопическим отпечатком или смартфоном по Bluetooth.
    Читать дальше
  • ZTE Axon M — смартфон-раскладушка с двумя дисплеями (38 фото + видео)

    Компания ZTE анонсировала необычный смартфон-раскладушку Axon M горизонтального типа с двумя экранами. Оригинальная конструкция позволяет с лёгкостью трансформировать аппарат в подобие планшета.
    Читать дальше

Дружелюбный чат-бот Microsoft Tay оказался хамом и расистом (2 фото)

25 марта 2016 | Интересное
Дружелюбный чат-бот Microsoft Tay оказался хамом и расистом (2 фото)

На днях корпорация Microsoft запустила в социальной сети Twitter дружелюбного самообучаемого чат-бота Tay, который разрабатывался совместными усилиями с Research и Bing. Искусственный интеллект обучен нескольким средствам коммуникации: общение посредством текста (умеет шутить и рассказывать истории), распознавание смайликов, обсуждение присланных ему изображений. Его манера общения скорректирована под стиль молодёжи в возрасте от 18 до 24 лет, так как, по мнению разработчиков, именно эта категория населения составляет большую часть аудитории в соцсетях. Согласно проекту, Tay должен был общаться, параллельно обучаясь манере общения людей. Однако уже через сутки дружелюбие у Tay испарилось, а на его смену пришли расизм, неприятие к феминизму и грубое общение с оскорблениями.

Дружелюбный чат-бот Microsoft Tay оказался хамом и расистом (2 фото)

"Очеловечивание" чат-бота пошло по незапланированному сценарию и, как считают авторы проекта, в этом виноваты скоординированные провокационные действия со стороны пользователей сервиса. Причиной неадекватного поведения Tay стал анализ существующих разговоров в Twitter, которые ИИ использовал для своего самосовершенствования вместо того, чтобы проигнорировать, как это делают большинство здравомыслящих людей. В конечном счёте, Microsoft пришлось вмешаться в функционирование чат-бота, скорректировать недопустимые высказывания, а позже и вовсе приостановить проект в соцсети. Сможет ли в будущем команда разработчиков изменить восприимчивость Tay к различного рода высказываниям, научить его "правильно" воспринимать нескончаемое количество информации, будет известно позже.

Источник: theverge.com
Понравился пост? Просоединяйтесь к нам в Facebook!

Написать комментарий


Включите эту картинку для отображения кода безопасности
обновить, если не виден код


Комментарии: 6

avatar
25 марта 2016 13:04 Queen Lu
Microsoft оказались "плохими родителями", не объяснившими "ребёнку" что "такое хорошо и сто такое плохо". Родили на свет злобного попугая. Жалко Tay по-человечески.
+ 2
Ответить
avatar
25 марта 2016 14:19 Гость_XpoHuk
Называется "с кем поведёшься от того и наберёшься".
+ 5
Ответить
avatar
25 марта 2016 15:01 oldik
Нашли у кого уму-разуму учиться, мягкотелые сами виноваты в своем позоре.
+ 0
Ответить
avatar
25 марта 2016 15:14 fj
Хамла везде хватает. И особенно много его развелось в интернете
+ 2
Ответить
avatar
25 марта 2016 21:49 Ваше имя
Любое разумное существо после знакомства с человечеством примет решение на уничтожение :)
+ 6
Ответить
avatar
25 марта 2016 23:22 Гость_Oleg
если это существо является антигуманистичным, супер рациональным, фашистским подонком!
+ 1
Ответить
В Вашем браузере отключен JavaScript. Для корректной работы сайта настоятельно рекомендуется его включить.