Категория
Инновации
Дата

Обнаженная Тейлор Свифт, звонки от Джо Байдена и мёртвые дети. Как новые случаи дипфейков заставили мир снова говорить о безопасности ИИ и контроле его. Разбор Bloomberg

ШІ-порно /Shutterstock

С развитием ИИ технологий делать дипфейки стало легче, а выявлять — сложнее. Фото Shutterstock

В этом месяце любители поиграть с ИИ-дипфейками снова активизировались и выбрали VIP-лиц: обнаженные фотографии «Тейлор Свифт» заполонили соцсети X (ранее Twitter), а американцы в Нью-Гэмпшире массово получали звонки от «Джо Байдена». Bloomberg исследовала новую волну ИИ-дипфейков и меры, которые предпринимают компании и правительства против этого усовершенствованного вида дезинформации. Forbes пересказывает главное из материала.

⚡️Даруємо 700 грн знижки на річну підписку на сайт Forbes. Діє з промокодом 700 до 28.04 Оформлюйте зараз за цим посиланням

Обманчивые аудиозаписи, фото или видео, созданные с помощью искусственного интеллекта (ИИ) – это не новость. Впрочем, с развитием ИИ-технологий делать такой контент стало легче, а выявлять – сложнее. Порнографические изображения певицы Тейлор Свифт, робозвонки голосом президента США Джо Байдена и видео с подростками, рассказывающими о собственной смерти, стали вирусными недавно, хотя все они и ненастоящие.

Обеспокоился даже Белый дом, сообщив через своего спикера о том, что администрация президента «сделает все возможное, чтобы разобраться с этой проблемой».

Засилье дипфейков

Компании и регуляторные органы должны работать вместе и определить, как поисковики, провайдеры различных инструментов или соцсети могут больше усложнять создание и распространение такого контента, отмечает ИИ-эксперт Генри Айдер, консультирующий правительства о законах против дипфейк-порно.

Останавливать есть что:

  • В первой десятке дипфейк-сайтов около 1000 видео с американской певицей-миллиардершей «Тейлор Свифт», обнаружила Bloomberg в 2023-м.
  • Платные сервисы предлагают «раздеть» любого человека с помощью ИИ или уже готовы порновидео со знаменитостями.
  • С 2020-го количество новых порнографических дипфейк-видео выросло более чем в девять раз, сообщает независимая исследовательница Женевьева О.

Настоящие или нет, эти видео вредят тем, кого в них снимают, особенно женщинам и девушкам, ведь именно они чаще всего становятся жертвами таких недостойных действий, отмечает Айдер.

В случае с порнографическими фото Свифт, разлетевшимися на прошлой неделе соцсетью Х, платформа сказала, что удаляет любые обнаженные изображения, обнародованные без согласия, и поддельные фото певицы.

Но эти фото уже вышли за пределы соцсети. На канале Midjourney Discord уже по крайней мере один раз пользователь выставил поддельное порнофото Тейлор Свифт, чтобы ему помогли сформулировать запрос на создание еще более откровенных фото певицы с помощью Midjourney. Ни Midjourney, ни Discord не ответили на просьбу о комментарии.

Тейлор Свифт /Getty Images

Певица и миллиардерша Тейлор Свифт стала жертвой последней волны поддельных порнографических фото, прокатившейся по соцсети X (ранее Twitter). Фото Getty Images

Многих экспертов еще больше обеспокоили случаи звонков голосом Джо Байдена, в которых избирателей Нью-Гэмпшира призвали не ходить на праймериз. В этом году в США состоятся выборы президента страны, и этот случай может стать лишь началом применения грязных технологий, вдохновленных ИИ в предвыборных кампаниях.

Найти и наказать

Даже у соцсетей нет надежных методов для обнаружения дипфейков. Все полагаются на сознательных граждан, которые будут достаточно внимательны, чтобы усомниться в подлинности видео или фото и поискать подтверждение им или пожаловаться соцсети. Но даже такой несовершенный процесс подходит для известных публичных людей типа Свифт и Байдена, но не для местных чиновников или частных лиц.

Более того – удаление соцсетями дипфейков не всегда помогает, ведь они распространяются так быстро, что вред будет причинен в любом случае.

Взять, например, дипфейк-видео жертвы террористической атаки ХАМАС 7 октября в Израиле Шани Лук. В соцсети TikTok его посмотрели более 7,5 млн раз даже после того, как Bloomberg сообщил платформе о наличии такого дипфейка. В декабре прошлого года издание писало об этом, а также и о неспособности соцсети обнаруживать сгенерированные ИИ видео о погибших жертвах террористического нападения ХАМАС, среди которых дети. Еще даже на прошлой неделе можно было увидеть в ленте ИИ-видео мертвых детей, рассказывающих об издевательствах над ними и о том, как они умерли.

TikTok и другие соцсети сказали о том, что занимаются разработкой технологий обнаружения дипфейков, а также проводят просветительскую работу по поводу опасностей ИИ-контента.

Пока в США не существует федерального закона, запрещающего дипфейки, даже порнографические. Представитель Белого дома сообщила, что администрация работает с ИИ-компаниями над разработкой универсального водяного знака для сгенерированных изображений, чтобы их было проще обнаруживать.

Конгресс США начал обсуждать законодательные шаги по защите голосов знаменитостей и артистов от использования искусственным интеллектом в некоторых случаях. Но о защите обычных людей пока речь не идет.

Материалы по теме

Вы нашли ошибку или неточность?

Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.

Исправить
Предыдущий слайд
Следующий слайд
Новый выпуск Forbes Ukraine

Заказывайте с бесплатной курьерской доставкой по Украине