В сети всё чаще появляются фейковые порно со звёздами (2 видео)
Причиной повышения активности любителей «клубнички» стала появившаяся возможность для каждого пользователя интернета создавать фальшивое видео со знаменитостями в главных ролях. Специалисты разглядели в новой технологии серьёзную опасность для общества.
Декабрь 2017 года принёс известие о появлении технологии, основанной на машинном интеллекте, позволяющей заменять лица на видео. Изобретение было предложено пользователем с ником deepfakes и выложено на форуме Reddit. Презентацию пользователь провёл при помощи показа порно ролика со знаменитостями. Показанная технология основана на алгоритме, генерирующем анимационные изображения известных людей с использованием фото и видеоматериалов, находящихся в достаточном количестве в открытом доступе. Алгоритм интегрирует все доступные данные и создаёт максимально возможное по достоверности видео, поэтому выявить фальшивку можно только при более внимательном рассмотрении. В демонстрационном ролике изобретатель алгоритма заменил лицо порноактрисы на лицо Галь Гадот, сыгравшей Чудо-Женщину в одноимённом фильме.
За прошедшие после презентации месяцы использование искусственного интеллекта в процессе выпуска фальшивых порнороликов только набирает обороты. Появились последователи deepfakes, которые предложили упрощённый интерфейс для алгоритма, позволяющий практически любому человеку создавать поддельное видео с любой знаменитостью.
Дальше больше – появляются специальные обучающие ролики и инструкции по работе с алгоритмом. Сама технология находится в открытом доступе и бесплатна, что ещё больше способствует популярности программы. Алгоритм работает настолько эффективно, что для создания фальшивого видео достаточно всего пару роликов хорошего качества, в которых присутствует желанная звезда.
В первое время специалисты нейтрально отнеслись к алгоритму от deepfakes, однако последующие события, появление массового тиражирования фальшивого порно, стали вызывать беспокойство. Сам «изобретатель» утверждает, что его алгоритм привлёк многих людей к использованию новых технологий, что само по себе является положительным фактом.
По заявлению специалиста из правозащитной организации «Фонд электронных рубежей» Питера Экерсли, новая технология, использующая нейронные сети, позволяет создать фейковые видео, но несовершенство самого продукта не сможет обмануть пользователей по причине наличия многих неточностей в видеоряде. Специалист надеялся, что такое положение продлится хотя бы пару лет. Однако уже через два месяца на Reddit были представлены ролики с фальшивыми актрисами Джессикой Альбой и Дэйзи Ридли, выполненные на качественно более высоком уровне. Достоверность появляющихся роликов настолько велика, что даже специальные ресурсы, распространяющие интимные фото знаменитостей, начали размещать такие видео. Так недавно появилось видео актрисы Эммы Уотсон (Геомиона из эпопеи про Гарри Поттера), принимающей душ. Однако на самом деле это фальшивка, изготовленная по технологии deepfakes.
Среди людей, заинтересовавшихся алгоритмом deepfakes, есть не только любители интимного видео. Так, пользователь Z3ROCOOL22 создал «нового политика» на основе видео выступлений Адольфа Гитлера и президента Аргентины Маурисио Макри.
Использование технологии создания фейкового видео может окончательно подорвать доверие к публикуемой в интернете информации. Быстрое распространение и постоянное совершенствование алгоритма deepfakes приведёт к тому, что рядовой посетитель всемирной сети не сможет отличить фальшивое видео от настоящего. По мнению специалиста по этике Деборы Джонсон такое положение вещей и общедоступность технологии приведут к общему обрушению доверия между людьми.
Создатели фейкового видео в конечном счёте перейдут от создания порно версий к формированию лживых новостей о политике, технологиях и сфере безопасности. Уже сейчас многие социальные сети и правительства начинают борьбу с фальшивыми новостями. Однако подрывающие моральный облик звёзд фейковые интим-ролики пока остаются за рамками сферы интересов контролирующих организаций.
Источник: gazeta.ru, motherboard.vice.com