Категорія
Інновації
Дата

Оголена Тейлор Свіфт, дзвінки від Джо Байдена та мертві діти. Як нові випадки діпфейків змусили світ знову говорити про безпеку ШІ та контроль за ним. Розбір Bloomberg

3 хв читання

ШІ-порно /Shutterstock

Із розвитком ШІ-технологій робити діпфейки стало легше, а виявляти — складніше. Фото Shutterstock

Цього місяця любителі побавитися з ШІ-діпфейками знову активізувалися й обрали VIP-осіб: оголені фотографії «Тейлор Свіфт» заполонили соцмережі X (раніше Twitter), а американці в Нью-Гемпширі масово отримували дзвінки від «Джо Байдена». Bloomberg дослідила нову хвилю ШІ-діпфейків і заходи, які вживають компанії й уряди проти цього вдосконаленого виду дезінформації. Forbes переказує головне з матеріалу.

📲 Forbes Ukraine у WhatsApp. Підписуйтесь й читайте головне про бізнес та економіку

Оманливі аудіозаписи, фото чи відео, створені за допомогою штучного інтелекту (ШІ), – це не новина. Втім, із розвитком ШІ-технологій робити такий контент стало легше, а виявляти – складніше. Порнографічні зображення співачки Тейлор Свіфт, рободзвінки голосом президента США Джо Байдена і відео з підлітками, які розповідають про власну смерть, стали вірусними нещодавно, хоч всі вони й несправжні. 

Занепокоївся навіть Білий дім, повідомивши через свою речницю про те, що адміністрація президента «зробить усе можливе, щоб розібратися з цією проблемою».

Засилля діпфейків

Компанії та регуляторні органи повинні працювати разом і визначити, як пошуковики, провайдери різних інструментів чи соцмережі можуть більше ускладнювати створення й поширення такого контенту, відзначає ШІ-експерт Генрі Айдер, який консультує уряди про закони проти діпфейк-порно.

Зупиняти є що:

Справжні чи ні, ці відео шкодять тим, кого в них «знімають», особливо жінкам і дівчатам, адже саме вони найчастіше стають жертвами таких негідних дій, наголошує Айдер.

У випадку з порнографічними фото Свіфт, які розлетілися минулого тижня соцмережею Х, то платформа сказала, що видаляє будь-які оголені зображення, оприлюднені без згоди, і підроблені фото співачки.

Але ці фото вже вийшли за межі соцмережі. На каналі Midjourney Discord уже принаймні раз користувач виставив підробне порнофото Тейлор Свіфт, щоб йому допомогли сформулювати запит на створення ще відвертіших фото співачки за допомогою Midjourney. Ані Midjourney, ані Discord не відповіли на прохання про коментар.

Тейлор Свіфт /Getty Images

Співачка і мільярдерка Тейлор Свіфт стала жертвою останньої хвилі підробних порнографічних фото, яка прокотилася соцмережею X (раніше Twitter). Фото Getty Images

Багатьох експертів ще більше занепокоїли випадки рободзвінків голосом Джо Байдена, в яких виборців Нью-Гемпшира закликали не ходити на праймеріз. Цьогоріч у США відбудуться вибори президента країни, й цей випадок може бути лише початком застосування брудних технологій, натхненних ШІ, у передвиборчих кампаніях.

Знайти та покарати

Навіть у соцмереж немає надійних методів для виявлення діпфейків. Всі покладаються на свідомих громадян, які будуть достатньо уважними, щоб засумніватися в справжності відео чи фото і пошукати підтвердження їм або поскаржитися соцмережі. Та навіть такий недосконалий процес підходить для відомих публічних людей типу Свіфт і Байдена, але не місцевих чиновників чи приватних осіб.

Ба більше – видалення соцмережами діпфейків не завжди допомагає, адже вони поширюються так швидко, що шкоду буде заподіяно в будь-якому разі.

Взяти, наприклад, діпфейк-відео жертви терористичної атаки ХАМАС 7 жовтня в Ізраїлі Шані Лук. У соцмережі TikTok його подивилися понад 7,5 млн разів навіть після того, як Bloomberg повідомив платформу про наявність такого діпфейку. У грудні минулого року видання писало про це, а також і про нездатність соцмережі виявляти згенеровані ШІ відео про загиблих жертв терористичного нападу ХАМАС, серед яких діти. Ще навіть минулого тижня можна було побачити в стрічці ШІ-відео мертвих дітей, які розповідають про знущання з них і про те, як вони померли.

TikTok та інші соцмережі сказали про те, що займаються розробкою технологій виявлення діпфейків, а також проводять просвітницьку роботу про небезпеки ШІ-контенту.

Наразі в США не існує федерального закону, який би забороняв діпфейки, навіть порнографічні. Речниця Білого дому повідомила, що адміністрація працює з ШІ-компаніями над розробкою універсального водяного знаку для згенерованих зображень, щоб їх було простіше виявляти.

Конгрес США почав обговорювати законодавчі кроки для захисту голосів знаменитостей і артистів від використання штучним інтелектом у деяких випадках. Але про захист звичайних людей поки що не йдеться. 

Матеріали по темі

Ви знайшли помилку чи неточність?

Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.

Попередній слайд
Наступний слайд