Эксперты опасаются, что видео, созданные с помощью ИИ, будут манипулировать людьми

Специалисты предупреждают: видео с участием фейковых мировых лидеров в скором времени будут использоваться как инструмент для управления общественным сознанием.

13 мар Евгения Чернышёва Комментариев: 0
4 812
Выбор редакции

Поддельные видеоролики создаются с помощью технологии Deepfakes, работающей на основе машинного обучения. На протяжении нескольких лет она применялась в исследовательских лабораториях, но не так давно стала доступной для широкой публики. По сути, это простое в использовании приложение, которое можно легко скачать из Сети и установить на персональный компьютер, поэтому неудивительно, что фейковые видеозаписи сейчас настолько популярны.

 

В 2017 один из пользователей платформы Reddit опубликовал несколько порнографических сюжетов, в которых «засветились» ненастоящие Эмма Уотсон, Дейзи Ридли, Кэти Пэрри и другие голливудские актрисы. После этого администрации Reddit, Pornhub и Twitter начали предпринимать шаги, чтобы предотвратить появление подобного контента на своих платформах, однако любители Deepfakes не останавливаются, и теперь они используют возможности нейросетей, чтобы делать ролики с участием политиков.

 

«Идея о том, что кто-то может наложить лицо одного человека на тело другого, сразу наводит на мысль о попытках вмешаться в естественный ход жизни, – говорит сенатор штата Вирджиния Марк Уорнер (Mark Warner), возглавивший группу по борьбе с Deepfakes в социальных медиа. – Это новая реальность, с которой нужно бороться, потому что в противном случае к 2020 году последствия могут стать необратимыми». Кроме того, за видео, публикуемыми на YouTube, в данный момент следят эксперты, такие как, например, профессор Дартмутского колледжа Хани Фарид (Hany Farid), который специализируется на цифровой криминалистике и анализе изображений.

 


Процесс «наложения» лиц друг на друга / © Niessnerlab

Процесс «наложения» лиц друг на друга / © Niessnerlab

 

Возможность использования искусственного интеллекта в медиапроизводстве еще в 2015 году изучалась исследователями из Стэнфорда, Института информатики общества Макса Планка и Университета Эрлангена-Нюрнберга. Они разработали программу Face2Face, которая следит за мимикой двух людей с помощью самой обыкновенной веб-камеры, а затем проецирует лица друг на друга. Похожее приложение, выпущенное компанией Adobe и называемое VoCo, дает возможность пользователям легко редактировать аудиозаписи, и его уже использовали, чтобы имитировать голос Барака Обамы.

 

«То есть я, обычный человек, могу стать президентом Соединенных Штатов и пропагандировать все, что угодно, – беспокоится Фарид. – Это идеальный способ манипулирования людьми, который может усугубить и без того непростую ситуацию с поддельными новостями». Он его коллеги планируют активно бороться с текущими тенденциями.

 

 

4 812

Комментарии

Быстрый вход

или зарегистрируйтесь, чтобы отправлять комментарии
Вы сообщаете об ошибке в следующем тексте:
Нажмите Отправить ошибку