В китайской провинции Ганьсу задержали мужчину за то, что он якобы использовал ChatGPT для создания фальшивой новости об аварии поезда, пишет Reuters. Это стало первым арестом в Китае в рамках расследования, связанного с ИИ.
Ключевые факты
- По сообщению местного полицейского управления города Пинлян, история, в которой утверждалось, что в результате аварии погибли девять человек в городе Ганьсу на северо-западе Китая, набрала более 15 000 кликов после публикации в социальных сетях 25 апреля.
- Новые правила Китая запрещают использовать современные технологии для производства, публикации и фабрикации ложной информации. Вступившие в силу 10 января правила призваны ограничить использование технологии генеративного искусственного интеллекта для изменения онлайн-контента.
- Согласно заявлению полиции, всего 25 учетных записей на платформе Baijiahao, принадлежащей китайскому технологическому гиганту Baidu, сообщили об «аварии» с IP-адресами из разных мест.
- В сообщении говорится, что подозреваемый по фамилии Хун был идентифицирован и арестован за создание ложной информации.
- Подозреваемый якобы отредактировал новости, сгенерированные ChatGPT, и скачал их на платформу Baidu, сообщила местная полиция, добавив, что расследование продолжается.
- По данным Business Today, Хун признался, что использовал ChatGPT для создания нескольких версий одной и той же фальшивой истории. Обойдя функцию проверки дублирования, он взял компоненты популярных социальных историй прошлых лет в Китае и поделился ими в своих аккаунтах Baijiahao. Сейчас ему грозит до пяти лет тюрьмы.
Контекст
Недавно рейтинговая новостная группа NewsGuard обнаружила, что в интернете распространяются десятки новостных веб-сайтов, созданных чат-ботами с искусственным интеллектом, пишет Bloomberg. В новом отчете задокументировано 49 новых веб-сайтов, заполненных инструментами ИИ, такими как ChatGPT, которые выдают себя за новостные агентства.
В нескольких случаях NewsGuard задокументировал, как чат-боты генерировали ложь для опубликованных материалов. Генеральный директор NewsGuard Гордон Кровиц отметил, что отчет группы показал, что такие компании, как OpenAI и Google, должны позаботиться об обучении своих моделей не фабриковать новости. «Использование моделей ИИ, известных тем, что они подделывают факты для создания сайтов, которые только выглядят как новостные – это мошенничество, которое маскируется под журналистику», – подчеркнул Кровиц, бывший издатель Wall Street Journal.
В то же время соучредитель Apple и создатель Siri Стив Возняк предупредил, что искусственный интеллект может использоваться в плохих целях и усложнить обнаружение мошенничества и дезинформации, пишет The Guardian. Возняк считает, что контент, созданный с помощью ИИ, должен быть помечен, и призывает к регулированию.
Вы нашли ошибку или неточность?
Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.