Эксперты опасаются, что видео, созданные с помощью ИИ, будут манипулировать людьми

Специалисты предупреждают: видео с участием фейковых мировых лидеров в скором времени будут использоваться как инструмент для управления общественным сознанием.

13 мар Евгения Чернышёва Комментариев: 0
5 111
Выбор редакции

Поддельные видеоролики создаются с помощью технологии Deepfakes, работающей на основе машинного обучения. На протяжении нескольких лет она применялась в исследовательских лабораториях, но не так давно стала доступной для широкой публики. По сути, это простое в использовании приложение, которое можно легко скачать из Сети и установить на персональный компьютер, поэтому неудивительно, что фейковые видеозаписи сейчас настолько популярны.

 

В 2017 один из пользователей платформы Reddit опубликовал несколько порнографических сюжетов, в которых «засветились» ненастоящие Эмма Уотсон, Дейзи Ридли, Кэти Пэрри и другие голливудские актрисы. После этого администрации Reddit, Pornhub и Twitter начали предпринимать шаги, чтобы предотвратить появление подобного контента на своих платформах, однако любители Deepfakes не останавливаются, и теперь они используют возможности нейросетей, чтобы делать ролики с участием политиков.

 

«Идея о том, что кто-то может наложить лицо одного человека на тело другого, сразу наводит на мысль о попытках вмешаться в естественный ход жизни, – говорит сенатор штата Вирджиния Марк Уорнер (Mark Warner), возглавивший группу по борьбе с Deepfakes в социальных медиа. – Это новая реальность, с которой нужно бороться, потому что в противном случае к 2020 году последствия могут стать необратимыми». Кроме того, за видео, публикуемыми на YouTube, в данный момент следят эксперты, такие как, например, профессор Дартмутского колледжа Хани Фарид (Hany Farid), который специализируется на цифровой криминалистике и анализе изображений.

 


Процесс «наложения» лиц друг на друга / © Niessnerlab

Процесс «наложения» лиц друг на друга / © Niessnerlab

 

Возможность использования искусственного интеллекта в медиапроизводстве еще в 2015 году изучалась исследователями из Стэнфорда, Института информатики общества Макса Планка и Университета Эрлангена-Нюрнберга. Они разработали программу Face2Face, которая следит за мимикой двух людей с помощью самой обыкновенной веб-камеры, а затем проецирует лица друг на друга. Похожее приложение, выпущенное компанией Adobe и называемое VoCo, дает возможность пользователям легко редактировать аудиозаписи, и его уже использовали, чтобы имитировать голос Барака Обамы.

 

«То есть я, обычный человек, могу стать президентом Соединенных Штатов и пропагандировать все, что угодно, – беспокоится Фарид. – Это идеальный способ манипулирования людьми, который может усугубить и без того непростую ситуацию с поддельными новостями». Он его коллеги планируют активно бороться с текущими тенденциями.

 

 

Наука

Naked Science Facebook VK Twitter
5 111
Комментарии
Аватар пользователя Константин Юрич
27 мин
Не стоит особо отчитываться перед этим искренним и...
Аватар пользователя Юлия Ривера
39 мин
Есть Экотехнопарк, где уже сейчас можно испытать...
Аватар пользователя Юлия Ривера
41 мин
А в чем собственно мошенничество? В ОАЭ заказ на...
Комментарии

Быстрый вход

или зарегистрируйтесь, чтобы отправлять комментарии
Вы сообщаете об ошибке в следующем тексте:
Нажмите Отправить ошибку