Компания OpenAI разработала инструмент для определения изображений, сгенерированных DALL-E 3, и тестирует его внутри компании, пишет Reuters. Это происходит на фоне растущего беспокойства по поводу влияния контента, созданного искусственным интеллектом, на глобальные выборы.
Отримуйте щоденний лист з останніми матеріалами та новинами від Forbes
Ключевые факты
- OpenAI заявила, что инструмент правильно идентифицировал изображения, созданные DALL-E 3, примерно в 98% случаях.
- Обрезанные или отредактированные кадры он распознает с меньшей эффективностью, но конкретных показателей OpenAI не раскрывает.
- Автор ChatGPT также планирует добавить устойчивые к подделке водяные знаки для обозначения цифрового контента, такого как фотографии или аудио, сигналом, который будет трудно удалить.
Контекст
Ранее сообщалось, что техногиганты Google, Microsoft, OpenAI, Meta, TikTok и Adobe планируют подписать соглашение, чтобы выявлять и маркировать созданный искусственным интеллектом контент во время выборов этого года в странах мира.
Компании хотят создать технологию для обнаружения, маркировки и контроля изображений, видео- и аудиозаписей, созданных с помощью ИИ.
В этом месяце в разгар предвыборной кампании в Индии распространение фальшивых видеороликов с участием чиновников правящей партии спровоцировало полицейские расследования и аресты членов оппозиционного Индийского национального конгресса.
Премьер-министр Нарендра Моди назвал это «заговором для создания напряженности в обществе», указав на использование поддельных голосов для имитации заявлений лидеров. Были созданы манипулятивные видео с участием министра внутренних дел Амита Шаха и другого высокопоставленного помощника премьера.
Полиция арестовала по меньшей мере девять человек, в том числе национального координатора соцсетей Конгресса Аруна Редди, за распространение фейковых видео. Аресты вызвали протесты сторонников оппозиции.



Вы нашли ошибку или неточность?
Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.