Актори дубляжу й озвучення хвилюються за свої заробітки через генеративний ШІ /Изображение сгенерировано ИИ Midjourney в сооавторстве с Александрой Карасевой
Категория
Инновации
Дата

Стартапы ElevenLabs, FakeYou и Voice AI учат ИИ клонировать голоса. Актеры дубляжа и озвучки могут остаться без работы. Но угроза не только в этом

6 хв читання

Актеры дубляжа и озвучки волнуются за свои заработки из-за генеративного ИИ Фото Изображение сгенерировано ИИ Midjourney в сооавторстве с Александрой Карасевой

Apple Books запустила функцию автоматического озвучивания книг с помощью набора голосов. А голос Стивена Фрая, озвучившего серию книг о Гарри Поттере, клонировали именно из аудиокниг о юном волшебнике. Более того, ИИ-версии голосов известных людей без их согласия используют для озвучивания расистских и жестоких высказываний

Amazon інвестує мільярди доларів у ШІ, роботів та машинне навчання. Якими принципами й правилами керується компанія?

Дізнайтеся вже 22 листопада на Forbes Tech 2024. Купуйте квиток за посиланням!

Аллегра Кларк – актриса, озвучившая десятки реклам и отдавшая свой голос более 100 персонажам видеоигр, в том числе в аниме-видеоигре Beidou. Однажды она увидела Beidou в откровенном видео в TikTok, но героиня говорила то, что сама Кларк для нее никогда не записывала. Оказалось, что автор видео клонировал голос Кларк с помощью ИИ-инструмента американской компании-производителя программного обеспечения ElevenLabs и «заставил» ее говорить то, что ему хотелось.

Актриса озвучки говорит, что это может привести к проблемам с ее клиентом, который может воспринять такую, казалось бы, шутку как нарушение условий контракта. Кларк рассказала, что написала письмо разработчикам инструмента, в котором попросила удалить «ее» аудиофайл и в будущем не клонировать ее голос.

Однако ElevenLabs написала, что еще не определила, на самом ли деле это видео было создано с применением ее технологии. Компания отметила, что примет немедленные меры, только если в аудиофайле были «ненавистнические тезисы или клевета», и что она не ответственна за нарушение копирайта. После этого одного письма от ElevenLabs больше не было ничего слышно, и компания не приняла никаких мер.

«Это неправильно, что у нас нет права собственности на наши собственные голоса», – возмущается Кларк Forbes.

Forbes обратился за комментарием по поводу этой ситуации к соучредителю и гендиректору ElevenLabs Матеушу Станишевскому. Тот в письме сказал, что пользователям нужно «прямое согласие» человека на клонирование его голоса, если клонированную версию используют во «вредном или клеветническом» контенте.

Через несколько месяцев после инцидента с Кларк компания запустила «голосовую капчу»: человек, желающий воспользоваться инструментом клонирования, должен озвучить случайно выбранное слово, и этот голос должен совпадать с тем, который хотят клонировать.

ElevenLabs – это одна из самых горячих ИИ-компаний, которую оценивают в около $100 млн и поддерживают Andreessen Horowitz и соучредитель Google DeepMind Мустафа Сулейман. Инструменту компании требуется аудио длиной от 30 секунд до 10 минут, чтобы воспроизвести почти идентичный оригиналу голос. ElevenLabs, а также FakeYou и Voice AI, предлагающие бесплатную библиотеку цифровых голосов, находятся в центре проблемы влияния генеративного ИИ на актеров озвучки и дубляжа.

Это неправильно, что у нас нет права собственности на наши голоса.

Аллегра Кларк, актриса дубляжа и озвучки

Forbes поговорил с актерами и увидел, что ситуация действительно представляет угрозу для их дальнейшей работы. Одна актриса рассказала, что компания отказалась продлевать с ней соглашение на озвучку серии книг через день после того, как подписала соглашение о партнерстве с ElevenLabs.

Другая актриса сказала, что ее работодатель сообщил об использовании ИИ вместо нее для перезаписи неудачных фрагментов – этот процесс дополнительно оплачивается. Когда она сказала, что не хочет, чтобы ее голос загружали на какой-либо ИИ-сайт, работодатель согласился, но на перезапись ее так и не позвали.

По словам Тима Фридландера, президента Национальной ассоциации актеров дубляжа (NAVA), они заметили увеличение количества сгенерированных с помощью ИИ голосов после того, как в январе 2023 года Apple Books запустила функцию автоматического озвучивания книг с помощью набора голосов. А британский актер Стивен Фрай, озвучивший серию книг о Гарри Поттере, недавно рассказал, что его голос клонировали именно из аудиокниг о юном волшебнике.

Сотни актеров дубляжа и озвучки обратились к ИИ-генераторам голоса Uberduck и FakeYou.ai, чтобы их голоса убрали из баз данных программ. FakeYou.ai продолжает предлагать тысячи известных голосов, а Uberduck в июле убрал возможность для пользователей загружать голоса на платформу.

Джим Каммингз, озвучивший Винни Пуха и тасманийского дьявола Таза из Looney Tunes, публично попросил, чтобы его голос убрали из любых голосовых генераторов. Он сказал Forbes, что согласится предоставить свой голос для подобных программ, если ему и его семье будут выплачивать роялти. «Руки прочь от моего голоса», – заявил он.

Юридическая дилемма

С законодательной точки зрения, актеры дубляжа и озвучки очень уязвимы, ведь голос не является интеллектуальной собственностью.

В теории записи голосов актеров, используемые в коммерческих целях, защищаются «правами на публичность», которые не дают эксплуатировать изображения/записи известных людей. Но большинство контрактов, подписываемых актерами дубляжа, не запрещают использовать их записанные голоса для тренировки ИИ-систем.

По словам Сисси Джонс, актрисы дубляжа, которая присоединилась к неприбыльной профессиональной организации NAVA, во всех контрактах приблизительно одна и та же формулировка: производитель записи навсегда получает право собственности на него для пользования в имеющихся технологиях или тех, которые появятся в будущем.

Именно поэтому NAVA вместе с актерским профсоюзом SAG-AFTRA работают над тем, чтобы убрать из контрактов формулировки, позволяющие нанимателям использовать голоса актеров для создания «цифровых двойников» или «синтезирования» с помощью машинного обучения. У организаций уже есть шаблон формулировки для рабочих контрактов, защищающий права актеров на собственные голоса.

Океан возможностей для злоупотребления

Многие актеры озвучки сталкивались с тем, что фанаты или хейтеры используют ИИ, чтобы синтезировать или клонировать их голоса для создания насильственного, расистского или порнографического контента. Актеров это беспокоит, ведь такие записи могут услышать потенциальные работодатели, которым такие высказывания не понравятся, и они просто не будут рассматривать «говорящего» такие вещи кандидата.

Была еще одна актриса, Эбби Веффер, которая тоже пожаловалась ElevenLabs на то, что с помощью инструмента компании злоумышленник сделал клон ее голоса. Он создал профиль в Twitter с домашним адресом актрисы и распространил расистские и жестокие высказывания «ее» голосом и от «ее» имени. В ElevenLabs ответили, что в ее случае не использовалась их программа, а сам инцидент – часть кампании, которая направлена на то, чтобы очернить стартап.

Клонирование голосов с помощью ИИ /Изображение сгенерировано ИИ Midjourney в сооавторстве с Александрой Карасевой

Национальная ассоциация актеров дубляжа (NAVA) заметила увеличение количества сгенерированных с помощью ИИ голосов после того, как в январе 2023 года Apple Books запустила функцию автоматического озвучивания книг с помощью набора голосов Фото Изображение сгенерировано ИИ Midjourney в сооавторстве с Александрой Карасевой

После того, как ElevenLabs запустила бета-версию своего ИИ-инструмента для превращения текста в голос в январе, стартап объявил о проблеме злоупотребления их технологией.

Способность ИИ очень точно воспроизводить голоса людей стала возможностью для мошенников. В этом году Федеральная торговая комиссия США обнародовала предупреждение о том, что преступники используют ИИ-инструменты для имитации голосов, чтобы выдавать себя за другого человека и выманивать у его родных деньги. Один журналист использовал ElevenLabs, чтобы создать ИИ-версию своего голоса, с помощью которой он успешно получил доступ к своему банковскому счету.

ElevenLabs не прокомментировала все указанные здесь случаи, но гендиректор компании Станишевский написал в письме следующее: «Если кто-то с помощью нашего инструмента клонирует голоса без разрешения владельцев или с нарушением правил честного пользования, мы заблокируем такой аккаунт и не дадим создать новый по тем же данным».

В дополнение к «голосовой капче» стартап также разработал классификатор ИИ-голосов, который может сказать с более чем 90-процентной вероятностью, был ли создан аудиофайл с помощью ИИ-инструмента именно ElevenLabs.

Согласие и контроль

Увеличение случаев злоупотребления заставляет добросовестные компании добавлять в свои инструменты проверки типа «голосовой капчи», как в ElevenLabs, чтобы защитить право людей распоряжаться собственным голосом.

Среди таких компаний Speechify, у которой есть официальные лицензии на голоса некоторых знаменитостей, и Resemble AI, которая сотрудничает с Netflix и World Bank Group. Зохаиб Ахмед, гендиректор Resemble AI, считает, что предотвращение злоупотребления ИИ-инструментами ложится на производителя инструментов, а не на конечного потребителя. Поэтому его компания требует аудиозапись согласия на загрузку голоса тем же голосом, который «заливают» для синтеза или клонирования.

Но бывают такие случаи, когда человек не может дать согласие на использование своего голоса, например, если актер скончался. Актеры дубляжа и озвучки были разъярены, когда игровая студия Hi-Rez Studios добавила к своим контрактам условие, по которому компания может использовать клон голоса актеров после их смерти. Скандал в печати заставил компанию убрать условие.

Но деятелей индустрии больше всего волнует то, есть ли будущее у актеров дубляжа и озвучки. Увеличение использования синтезированных голосов заставляет их постоянно думать о том, найдут ли они следующую работу и смогут ли удержать нынешнюю.

«Для нас очень важны контроль за тем, как наши голоса используют, где именно, а также справедливая компенсация за их использование», – говорит Фридландер из NAVA.

Материалы по теме

Вы нашли ошибку или неточность?

Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.

Предыдущий слайд
Следующий слайд