Є ціла індустрія зловживання діпфейками, від якої страждають переважно жінки, і в останні кілька років вона стає все розвиненішою /Изображение сгенерировано ИИ Midjourney в соавторстве с Анной Наконечной
Категория
Инновации
Дата

Индустрия дипфейк-порно на подъеме – заключение исследования «ИИ-порно без согласия», опубликованного изданием WIRED. Жертвам такого цифрового контента не до секса. Как остановить эпидемию

Существует целая индустрия злоупотребления дипфейками, от которой страдают преимущественно женщины, и в последние несколько лет она становится все более развитой Фото Изображение сгенерировано ИИ Midjourney в соавторстве с Анной Наконечной

ИИ-программы для создания интересных фото и видео или приложения для замены лица кажутся невинными инструментами, которые могут помочь разнообразить контент на нашей странице в соцсети или сделать интересную аватарку. Но есть те, кто злоупотребляют такими технологиями, причиняя вред другим людям. Журнал WIRED проанализировал исследование о распространении дипфейков сексуального характера, жертвы которых не давали согласия на участие в них. Forbes пересказывает главное из материала

Издание WIRED рассмотрело исследование о распространении дипфейк-порно без согласия, которое провел независимый исследователь. Он попросил об анонимности во избежание преследования в сети.

Под термином «дипфейк-порно без согласия» (далее – ДПС или дипфейк-порно) подразумевается видео- или фотоконтент, созданный без разрешения людей, чьи изображения использованы с помощью различных программ и приложений, в том числе работающих на искусственном интеллекте.

Согласно исследованию, ДПС буквально на подъеме, о чем свидетельствуют следующие факты:

  • по крайней мере 244 625 ДПС-видео было загружено на 35 популярнейших сайтов, специализирующихся полностью или частично на дипфейк-порно, за последние семь лет;
  • за первые девять месяцев этого года на разные сайты залили 113 000 таких видео, что на 54% больше, чем за весь 2022-й;
  • на двух крупнейших сайтах есть по 44 000 ДПС-видео, а на пяти других – более 10 000 (WIRED не называет в своей статье указанные в исследовании сайты, чтобы не рекламировать их и не увеличивать их посещаемость);
  • в ходе исследования было обнаружено еще 300 обычных порнографических сайтов, на которых можно найти ДПС-контент;
  • исследователь обнаружил, что сайты, на которых выкладывают слитые в сеть чужие фото, также распространяют дипфейки сексуального характера;
  • один сайт похвастался тем, что «раздел» фото более 350 000 человек;
  • исследователь прогнозирует, что в 2023-м общее количество созданных за год ДПС превысит то, что было создано в целом за все предыдущие годы.

Существует целая индустрия злоупотребления дипфейками, от которой страдают преимущественно женщины, и в последние несколько лет она становится все более развитой. Приложениями, позволяющими подставить лицо любого человека куда угодно без его согласия или «раздеть» его, пользуются миллионы людей.

Знаменитости, стримеры и создатели контента чаще всего становятся непроизвольными «звездами» таких видео и фото.

Не нужно быть компьютерным гением, чтобы найти сайты с ДПС, ведь стоит только включить VPN (а иногда и вообще необязательно – Forbes), вбить в поисковик тематический запрос – и вы получите большое количество сайтов с таким контентом. Тем более, что страницы с ДПС часто в своем названии содержат вариацию слова «дипфейк».

Можно ли защититься от дипфейков

К сожалению, только через пять лет после роста популярности дипфейков начали появляться законы, наказывающие тех, кто их распространяет. В этом месяце губернатор американского штата Нью-Йорк Кэти Гочул подписала закон, запрещающий распространять дипфейк-порно без согласия, созданные с помощью программ на основе ИИ. Наказание – год за решеткой.

За аналогичное преступление в Англии и Уэльсе нарушителей ждет два года заключения, если удастся доказать, что распространение порно-дипфейков имело злой умысел.

Фейковое фото Ангелы Меркель и Барака Обамы, созданное с помощью ИИ, которое стало вирусным в соцсети Instagram

Фейковое фото Ангелы Меркель и Барака Обамы, созданное с помощью ИИ, которое стало вирусным в соцсети Instagram

Эксперты говорят, что такие законы нужно принимать быстрее и контролировать их исполнение, ведь безнаказанность развязывает руки. Они также уверены, что для прекращения эпидемии дипфейк-порно следует принять меры для ограничения распространения инструментов, созданных специально для нанесения ущерба. Активные действия требуются и от хостинговых компаний, обслуживающих дипфейк-сайты, и от поисковиков, таких как Google и Bing.

Генри Айдер, эксперт по дипфейкам и генеративному ИИ, считает: чем сложнее пользователям находить дипфейк-порно, приложения для замены лица и другие подобные инструменты, тем проще остановить распространение ДПС-контента.

По его мнению, хорошо бы, чтобы поисковики выдавали сайты с таким контентом в последнюю очередь, то есть не на первых страницах, а интернет-провайдеры – чтобы их блокировали. Но Айдер не слишком оптимистично настроен по этому поводу, ведь до сих пор платформы не считают распространение дипфейков серьезной проблемой.

Представитель Google Нед Эдрианс утверждает, что у их пользователей есть возможность подать запрос на исключение из результатов поиска «фейковой порнографии без согласия», заполнив соответствующую форму. В Microsoft тоже сообщили, что они запрещают на своих платформах продвижение и распространение ДПС-контента.

Ашер Флин, младшая преподаватель Университета Монаша в Австралии, изучающая злоупотребления ИИ и другими технологиями, рассказала о своем исследовании о влиянии дипфейк-порно на тех, кто стал его участниками без согласия.

Она обнаружила, что жертвы цифрового насилия демонстрируют «высокие уровни» проблем с ментальным здоровьем, такие как тревожность, депрессия, причинение себе вреда и самоубийство. Исследовательница также говорит, что такой контент неизбежно влияет на работу пострадавшей, отношения с семьей и друзьями и ее социальную жизнь.

Флин отмечает, что уже зафиксировано увеличение количества и доступности ИИ-инструментов для создания порнографического контента без согласия, а на разных платформах все чаще ищут такие фото и видео.

Генеративный ИИ, вероятно, еще больше усугубит проблему, если не принять меры контроля и защиты для жертв.

Материалы по теме

Вы нашли ошибку или неточность?

Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.

Исправить
Предыдущий слайд
Следующий слайд
Новый выпуск Forbes Ukraine

Заказывайте с бесплатной курьерской доставкой по Украине