• Удачно прилунившийся модуль Firefly Aerospace Blue Ghost рассказал о Луне нечто неожиданное (2 фото)

    В марте 2025 года лунный посадочный модуль Blue Ghost, разработанный компанией Firefly Aerospace, успешно приземлился в районе Моря Кризисов (Mare Crisium). Эта вулканическая равнина специально была выбрана для изучения, поскольку считалась более холодной, чем ранее изученная миссиями «Аполлон» зона спутника. Но как показали новые изме...
    Читать дальше
  • Обзор Dreame G12: как один пылесос закрывает все боли владельцев небольших квартир

    Многие согласятся, что вертикальные моющие пылесосы до этого момента напоминали внедорожники: мощные, крутые, но зачастую неуклюжие и слишком громоздкие для уборки под низкой мебелью или в узких местах, заставленных мебелью. Особенно сильно это заметно в относительно компактных городских квартирах, где решающим фактором остается маневр...
    Читать дальше
  • Хакеры взломали китайский суперкомпьютер и украли 10 Пбайт секретных данных, включая схемы ракет и военные исследования

    Некий хакер взломал принадлежащий китайским властям суперкомпьютер и, сохраняя доступ к нему в течение полугода, незаметно для его администраторов похитил из системы 10 петабайтов секретных данных, в том числе документы министерства обороны и схемы ракет.
    Читать дальше
  • Дуров пообещал усложнить обнаружение и блокировку трафика Telegram

    Основатель Telegram Павел Дуров, комментируя блокировку Telegram в России, сообщил, что мессенджер будет продолжать адаптироваться, делая его трафик более сложным для обнаружения и блокировки.
    Читать дальше
  • Человек снова облетел Луну и сделал это с размахом (3 фото)

    6 апреля 2026 года экипаж миссии Artemis II успешно завершил семичасовой исторический облет Луны, вернув человечество к естественному спутнику Земли со времён миссии Apollo 17 в 1972 году. Более того, экипаж миссии «Артемида 2» удалился от родной планеты на рекордное расстояние, побив дальность полётов, установленную во время миссий «А...
    Читать дальше

Обновленный принцип робототехники предотвратит восстание машин

10 июля 2017 | Просмотров: 11 940 | Интересное / Новости IT
Обновленный принцип робототехники предотвратит восстание машин

Широкое распространение умных вещей, проникновение роботов и автоматических механизмов практически во все области деятельности человека вызывает у многих людей тревожное чувство и опасение перед возможным восстанием роботов, не раз описанным в научной фантастике и показанным в кино. Лидеры в разработке искусственного интеллекта, компании Google DeepMind и Open AI (основатель — Илон Маск), представили новый взгляд на обучение роботов для обеспечения большей безопасности человека и увеличения контроля над машинами с интеллектом.

Новое видение, представленное компаниями в совместной научно-исследовательской статье, указывает на необходимость обязать ИИ при решении принципиально новой задачи в обязательном порядке консультироваться с человеком. Такой подход сможет ограничить самостоятельность деятельности роботов, чь` рациональное решение может каким-либо образом принести дискомфорт или даже вред человеку. Основной проблемой при этом является определение баланса между рациональными и эффективными действиями и передача указаний машине. Например, наиболее эффективным способом уборки помещения, с точки зрения робота, может быть полное удаление из комнаты вещей, мебели и предметов обхода, что не устраивает самого хозяина помещения и вещей.

Впервые принцип «Робот не может причинить вред человеку» был сформулирован гениальным фантастом Айзеком Азимовым ещё в 1942 году. В произведении «Хоровод» были определены три закона роботехники, предотвращающие угрозу для человека со стороны роботов. Однако великий фантаст показал, что буквальное принятие этих законов также может привести к непредвиденным последствиям. Недавно снятый по мотивам произведений Азимова фильм «Я робот» показывает ситуацию, когда роботы восприняли запрет на причинение вреда человеку как команду к полному ограничению свободы действий и передвижения людей.

Для расширения возможности контроля принимаемых ИИ решений было предложено предоставление стимула машине при нахождении подходящего для человека ответа на разрешение проблемы. Таким образом, ИИ даже научили играть в элементарные компьютерные игры. Несмотря на увеличение затрат времени на обучение машин с использованием консультационного метода, растёт безопасность использования роботов и повышается контроль над искусственным интеллектом.

Источник: engadget.com

Комментарии: 9

  1. ВВ
    10 июля 2017 11:16 ВВ
    Killer, я одного не пойму. Такой интереснейший сайт - почему так мало комментариев? Я уже много лет его читаю, каждый день. Один из любимых сайтов
    + 2
    Ответить
  2. Roman Chernayski
    10 июля 2017 11:19 Roman Chernayski
    у меня это вообще единственный сайт )
    + 3
    Ответить
  3. Mila41
    10 июля 2017 11:35 Mila41
    Кто смотрит сериал "Щит"? Там как раз человекоподобный робот всеми силами пытается преодолеть этот барьер am
    + 1
    Ответить
  4. 10 июля 2017 13:27 Killer
    Наверное потому, что люди не любят писать комментарии. А может "антиспам робот" всех распугал)
    + 1
    Ответить
  5. Татьяна
    11 июля 2017 04:48 Татьяна
    О чем писать? Однажды придумали войну с роботами и принципиально идём к ней. Человек программу не может написать безупречно. Вечно остаются дыры. А хакеры этим пользуются. Я думаю с роботами будет то же. Просто кто то обидется и запустит вирус. И наступит апокалипсис.
    + 0
    Ответить
  6. WladWlad
    11 июля 2017 18:25 WladWlad
    Все рассуждения об ИИ при использовании ДВОИЧНОЙ ЛОГИКИ - дебильный бред.
    Арифмометр при любой скорости остается арифмометром.
    Тварь не может быть выше Творца.
    + 0
    Ответить
  7. Гость_ash_trey
    12 июля 2017 10:18 Гость_ash_trey
    А мой акк вообще удалили. Печально это. После стал меньше отписываться
    + 0
    Ответить
  8. Павел
    12 июля 2017 11:06 Павел
    WladWlad
    Несогласен, ...мораль той басни такова толпою зайцы бьют и льва... Так что я придерживаюсь той идеи что ограничивать ИИ нужно!
    + 0
    Ответить
  9. Павел
    12 июля 2017 11:07 Павел
    Даже арифмометр становиться орудием убийства если попадет не в те руки...
    + 1
    Ответить
В Вашем браузере отключен JavaScript. Для корректной работы сайта настоятельно рекомендуется его включить.