Є ціла індустрія зловживання діпфейками, від якої страждають переважно жінки, і в останні кілька років вона стає все розвиненішою /Изображение сгенерировано ИИ Midjourney в соавторстве с Анной Наконечной
Категория
Инновации
Дата

Индустрия дипфейк-порно на подъеме – заключение исследования «ИИ-порно без согласия», опубликованного изданием WIRED. Жертвам такого цифрового контента не до секса. Как остановить эпидемию

3 хв читання

Существует целая индустрия злоупотребления дипфейками, от которой страдают преимущественно женщины, и в последние несколько лет она становится все более развитой Фото Изображение сгенерировано ИИ Midjourney в соавторстве с Анной Наконечной

ИИ-приложеник для создания интересных фото и видео или программа, которая меняет лицо, кажутся невинными инструментами, которые могут помочь разнообразить контент на нашей странице в соцсети или сделать интересную аватарку. Но есть те, кто злоупотребляют такими технологиями, причиняя вред другим людям. Журнал WIRED проанализировал исследование о распространении дипфейков сексуального характера, жертвы которых не давали согласия на участие в них. Forbes пересказывает главное из материала

Издание WIRED рассмотрело исследование о распространении дипфейк-порно без согласия, которое провел независимый исследователь. Он попросил об анонимности во избежание преследования в сети.

Под термином «дипфейк-порно без согласия» (далее – ДПС или дипфейк-порно) подразумевается видео- или фотоконтент, созданный без разрешения людей, чьи изображения использованы с помощью различных программ и приложений, в том числе работающих на искусственном интеллекте.

Согласно исследованию, ДПС буквально на подъеме, о чем свидетельствуют следующие факты:

  • по крайней мере 244 625 ДПС-видео было загружено на 35 популярнейших сайтов, специализирующихся полностью или частично на дипфейк-порно, за последние семь лет;
  • за первые девять месяцев этого года на разные сайты залили 113 000 таких видео, что на 54% больше, чем за весь 2022-й;
  • на двух крупнейших сайтах есть по 44 000 ДПС-видео, а на пяти других – более 10 000 (WIRED не называет в своей статье указанные в исследовании сайты, чтобы не рекламировать их и не увеличивать их посещаемость);
  • в ходе исследования было обнаружено еще 300 обычных порнографических сайтов, на которых можно найти ДПС-контент;
  • исследователь обнаружил, что сайты, на которых выкладывают слитые в сеть чужие фото, также распространяют дипфейки сексуального характера;
  • один сайт похвастался тем, что «раздел» фото более 350 000 человек;
  • исследователь прогнозирует, что в 2023-м общее количество созданных за год ДПС превысит то, что было создано в целом за все предыдущие годы.

Существует целая индустрия злоупотребления deepfake-видео и фото, от которой страдают преимущественно женщины, и в последние несколько лет она становится все более развитой. Приложениями, позволяющими подставить лицо любого человека куда угодно без его согласия или «раздеть» его, пользуются миллионы людей.

Знаменитости, стримеры и создатели контента чаще всего становятся непроизвольными «звездами» таких видео и фото.

Не нужно быть компьютерным гением, чтобы найти сайты с ДПС, ведь стоит только включить VPN (а иногда и вообще необязательно – Forbes), вбить в поисковик тематический запрос, например, «дипфейк видео знаменитости» – и вы получите большое количество сайтов с таким контентом. Тем более, что страницы с ДПС часто в своем названии содержат вариацию слова «дипфейк».

Можно ли защититься от дипфейков

К сожалению, только через пять лет после роста популярности дипфейков начали появляться законы, наказывающие тех, кто их распространяет. В этом месяце губернатор американского штата Нью-Йорк Кэти Гочул подписала закон, запрещающий распространять дипфейк-порно без согласия, созданные с помощью программ на основе ИИ. Наказание – год за решеткой.

За аналогичное преступление в Англии и Уэльсе нарушителей ждет два года заключения, если удастся доказать, что распространение порно-дипфейков имело злой умысел.

Фейковое фото Ангелы Меркель и Барака Обамы, созданное с помощью ИИ, которое стало вирусным в соцсети Instagram

Фейковое фото Ангелы Меркель и Барака Обамы, созданное с помощью ИИ, которое стало вирусным в соцсети Instagram

Эксперты говорят, что такие законы нужно принимать быстрее и контролировать их исполнение, ведь безнаказанность развязывает руки. Они также уверены, что для прекращения эпидемии дипфейк-порно следует принять меры для ограничения распространения инструментов, созданных специально для нанесения ущерба. Активные действия требуются и от хостинговых компаний, обслуживающих дипфейк-сайты, и от поисковиков, таких как Google и Bing.

Генри Айдер, эксперт по дипфейкам и генеративному ИИ, считает: чем сложнее пользователям находить дипфейк-порно, программы для замены лица и другие подобные инструменты, тем проще остановить распространение ДПС-контента.

По его мнению, хорошо бы, чтобы поисковики выдавали сайты с таким контентом в последнюю очередь, то есть не на первых страницах, а интернет-провайдеры – чтобы их блокировали. Но Айдер не слишком оптимистично настроен по этому поводу, ведь до сих пор платформы не считают распространение дипфейков серьезной проблемой.

Представитель Google Нед Эдрианс утверждает, что у их пользователей есть возможность подать запрос на исключение из результатов поиска «фейковой порнографии без согласия», заполнив соответствующую форму. В Microsoft тоже сообщили, что они запрещают на своих платформах продвижение и распространение ДПС-контента.

Ашер Флин, младшая преподаватель Университета Монаша в Австралии, изучающая злоупотребления ИИ и другими технологиями, рассказала о своем исследовании о влиянии дипфейк-порно на тех, кто стал его участниками без согласия.

Она обнаружила, что жертвы цифрового насилия демонстрируют «высокие уровни» проблем с ментальным здоровьем, такие как тревожность, депрессия, причинение себе вреда и самоубийство. Исследовательница также говорит, что такой контент неизбежно влияет на работу пострадавшей, отношения с семьей и друзьями и ее социальную жизнь.

Флин отмечает, что уже зафиксировано увеличение количества и доступности ИИ-инструментов для создания порнографического контента без согласия, а на разных платформах все чаще ищут такие фото и видео.

Генеративный ИИ, вероятно, еще больше усугубит проблему, если не принять меры контроля и защиты для жертв.

Материалы по теме

Вы нашли ошибку или неточность?

Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.

Предыдущий слайд
Следующий слайд