Актори дубляжу й озвучення хвилюються за свої заробітки через генеративний ШІ /Зображення згенеровано ШІ Midjourney в співавторстві з Олександрою Карасьовою
Категорія
Інновації
Дата

Стартапи ElevenLabs, FakeYou і Voice AI навчають ШІ клонувати голоси. Актори дубляжу та озвучення можуть залишитися без роботи. Але загроза не тільки в цьому

6 хв читання

Актори дубляжу й озвучення хвилюються за свої заробітки через генеративний ШІ Фото Зображення згенеровано ШІ Midjourney в співавторстві з Олександрою Карасьовою

Apple Books запустила функцію автоматичного озвучення книжок за допомогою набору голосів. А голос Стівена Фрая, який озвучив серію книжок про Гаррі Поттера, клонували саме з аудіокнижок про юного чарівника. Ба більше, ШІ-версії голосів відомих людей без їх згоди використовують для озвучення расистських і жорстоких висловлювань 

Amazon інвестує мільярди доларів у ШІ, роботів та машинне навчання. Якими принципами й правилами керується компанія?

Дізнайтеся вже 22 листопада на Forbes Tech 2024. Купуйте квиток за посиланням!

Аллегра Кларк – акторка, яка озвучила десятки реклам і віддала свій голос понад 100 персонажам відеоігор, зокрема в аніме-відеогрі Beidou. Одного разу вона побачила Beidou у дещо відвертому відео в TikTok, але героїня говорила те, що сама Кларк для неї ніколи не записувала. Виявилося, що автор відео клонував голос Кларк за допомогою ШІ-інструменту американської компанії-виробника програмного забезпечення ElevenLabs і «змусив» її казати те, що йому хотілося. 

Акторка озвучення каже, що це може призвести до проблем із її клієнтом, який може сприйняти такий, здавалося б, жарт як порушення умов контракту. Кларк розповіла, що написала листа розробникам інструменту, в якому попросила видалити «її» аудіофайл і у майбутньому не клонувати її голос. 

Втім ElevenLabs написала, що ще не визначила, чи насправді те відео було створено із застосуванням її технології. Компанія зазначила, що вживе негайних заходів, лише якщо в аудіофайлі були «ненависницькі тези чи наклеп», і що вона не відповідальна за порушення копірайту. Після цього одного листа від ElevenLabs більше не було нічого чутно, і компанія не вжила ніяких заходів. 

«Це неправильно, що у нас немає права власності на наші власні голоси», – обурюється Кларк Forbes.

Forbes звернувся за коментарем щодо цієї ситуації до співзасновника і гендиректора ElevenLabs Матеуша Станішевського. Той у листі сказав, що користувачам потрібна «пряма згода» людини на клонування її голосу, якщо клоновану версію використають у «шкідливому чи наклепницькому» контенті. 

За кілька місяців після інциденту із Кларк компанія запустила «голосову капчу»: людина, яка хоче скористатися інструментом клонування, повинна озвучити випадково обране слово, і цей голос повинен збігатися із тим, який хочуть клонувати.

ElevenLabs – це одна із найгарячіших ШІ-компаній, яку оцінюють у близько $100 млн і підтримують Andreessen Horowitz та співзасновник Google DeepMind Мустафа Сулейман. Інструменту компанії потрібне аудіо довжиною від 30 секунд до 10 хвилин, щоб відтворити майже ідентичний оригіналу голос. ElevenLabs, а також FakeYou і Voice AI, які пропонують безплатну бібліотеку цифрових голосів, знаходяться у центрі проблеми впливу генеративного ШІ на акторів озвучення і дубляжу. 

Це неправильно, що у нас немає права власності на наші власні голоси.

Аллегра Кларк, акторка дубляжу й озвучення

Forbes поговорив з акторами та побачив, що ситуація дійсно видається загрозою для їх подальшої роботи. Одна акторка розповіла, що компанія відмовилася продовжувати з нею угоду на озвучення серії книжок за день після того, як підписала угоду про партнерство з ElevenLabs. 

Інша акторка сказала, що її роботодавець повідомив про використання ШІ замість неї для перезапису невдалих фрагментів – цей процес додатково оплачується. Коли вона сказала, що не хоче, щоб її голос завантажували на будь-який ШІ-сайт, роботодавець погодився, але на перезапис її так і не покликали.

За словами Тіма Фрідландера, президента Національної асоціації акторів дубляжу (NAVA), вони помітили збільшення кількості згенерованих за допомогою ШІ голосів після того, як у січні 2023-го Apple Books запустила функцію автоматичного озвучення книжок за допомогою набору голосів. А британський актор Стівен Фрай, який озвучив серію книжок про Гаррі Поттера, нещодавно розповів, що його голос клонували саме з аудіокнижок про юного чарівника. 

Сотні акторів дубляжу та озвучення звернулися до ШІ-генераторів голосу Uberduck і FakeYou.ai, щоб їхні голоси прибрали з баз даних програм. FakeYou.ai й надалі продовжує пропонувати тисячі відомих голосів, а Uberduck у липні прибрав можливість для користувачів завантажувати голоси на платформу.

Джим Каммінгз, який озвучив Вінні Пуха і тасманійського диявола Таза із Looney Tunes, публічно попросив, щоб його голос прибрали із будь-яких голосових генераторів. Він сказав Forbes, що погодиться надати свій голос для подібних програм, якщо йому і його родині будуть виплачувати роялті. «Руки геть від мого голосу», – заявив він.  

Юридична дилема

Із законодавчого погляду, актори дубляжу та озвучення дуже вразливі, адже голос не є інтелектуальною власністю. 

У теорії записи голосів акторів, які використовуються із комерційною метою, захищаються «правами на публічність», які не дають експлуатувати зображення/записи відомих людей. Але більшість контрактів, які підписують актори дубляжу, не забороняють використовувати їхні записані голоси для тренування ШІ-систем. 

За словами Сіссі Джонс, акторки дубляжу, яка приєдналася до неприбуткової професійної організації NAVA, у всіх контрактах є приблизно одне і те саме формулювання: виробник запису назавжди отримує право власності на нього для користування у наявних технологіях чи тих, які зʼявляться у майбутньому.

Саме тому NAVA разом із акторською профспілкою SAG-AFTRA працюють над тим, щоб прибрати з контрактів формулювання, які дозволяли наймачам використовувати голоси акторів для створення «цифрових двійників» чи «синтезування» за допомогою машинного навчання. Організації вже мають шаблон формулювання для робочих контрактів, який захищає права акторів на власні голоси.

Океан можливостей для зловживання

Багато акторів озвучення стикалися із тим, що фанати чи хейтери використовують ШІ, щоб синтезувати або клонувати їхні голоси для створення насильницького, расистського чи порнографічного контенту. Акторів це непокоїть, адже такі записи можуть почути потенційні роботодавці, яким такі вислови не сподобаються, і вони просто не розглядатимуть кандидата, який «говорить» такі речі. 

Була ще одна акторка, Еббі Веффер, яка теж поскаржилася ElevenLabs на те, що за допомогою інструменту компанії зловмисник зробив клон її голосу. Він створив профіль у Twitter з домашньою адресою акторки й поширив расистські і жорстокі висловлювання «її» голосом і від «її» імені. В ElevenLabs відповіли, що в її випадку не використовувалася їхня програма, а сам інцидент – це частина кампанії, яка спрямована на те, щоб очорнити стартап.

Клонування голосів за допомогою ШІ /Зображення згенеровано ШІ Midjourney в співавторстві з Олександрою Карасьовою

Національна асоціація акторів дубляжу (NAVA) помітила збільшення кількості згенерованих за допомогою ШІ голосів після того, як у січні 2023-го Apple Books запустила функцію автоматичного озвучення книжок за допомогою набору голосів Фото Зображення згенеровано ШІ Midjourney в співавторстві з Олександрою Карасьовою

Після того, як ElevenLabs запустила бета-версію свого ШІ-інструменту для перетворення тексту на голос у січні, стартап оголосив про проблему зловживання їхньою технологією. 

Здатність ШІ дуже точно відтворювати голоси людей також стала можливістю для шахраїв. Цього року Федеральна торгова комісія США оприлюднила попередження про те, що злочинці використовують ШІ-інструменти для імітації голосів, щоб видавати себе за іншу людину і видурювати у її рідних гроші. Один журналіст використав ElevenLabs, щоб створити ШІ-версію свого голосу, за допомогою якої він успішно отримав доступ до свого банківського рахунку.

ElevenLabs не прокоментувала всі зазначені тут випадки, але гендиректор компанії Станішевський написав у листі таке: «Якщо хтось за допомогою нашого інструменту клонує голоси без дозволу власників або із порушенням правил чесного користування, ми заблокуємо такий акаунт і не дамо створити новий за тими самими даними». 

На додачу до «голосової капчі» стартап також розробив класифікатор ШІ-голосів, який може сказати із понад 90-відсотковою ймовірністю, чи було створено аудіофайл за допомогою ШІ-інструменту саме ElevenLabs. 

Згода і контроль

Збільшення випадків зловживання змушує добросовісні компанії додавати у свої інструменти перевірки на зразок «голосової капчі», як в ElevenLabs, щоб захистити право людей розпоряджатися власним голосом.

Серед таких компаній Speechify, яка має офіційні ліцензії на голоси деяких знаменитостей, і Resemble AI, яка співпрацює із Netflix і World Bank Group. Зохаіб Ахмед, гендиректор Resemble AI, вважає, що запобігання зловживанню ШІ-інструментами лягає на виробника інструментів, а не на кінцевого споживача. Тому його компанія вимагає аудіозапис згоди на завантаження голосу тим самим голосом, який «заливають» для синтезу чи клонування.

Та бувають такі випадки, коли людина не може дати згоду на використання свого голосу, наприклад, якщо актор помер. Актори дубляжу й озвучення були розлючені, коли ігрова студія Hi-Rez Studios додала до своїх контрактів умову, за якою компанія може використовувати клон голосу акторів після їхньої смерті. Скандал у пресі змусив компанію прибрати умову.

Та наразі діячів індустрії найбільше хвилює те, чи є майбутнє в акторів дубляжу та озвучення. Збільшення використання синтезованих голосів змушує їх постійно думати про те, чи знайдуть вони наступну роботу та чи зможуть втримати нинішню. 

«Для нас дуже важливі контроль за тим, як наші голоси використовують, де саме, а також справедлива компенсація за їх використання», – каже Фрідландер з NAVA. 

Матеріали по темі

Ви знайшли помилку чи неточність?

Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.

Попередній слайд
Наступний слайд