В китайской провинции Ганьсу задержали мужчину за то, что он якобы использовал ChatGPT для создания фальшивой новости об аварии поезда, пишет Reuters. Это стало первым арестом в Китае в рамках расследования, связанного с ИИ.
Ключевые факты
- По сообщению местного полицейского управления города Пинлян, история, в которой утверждалось, что в результате аварии погибли девять человек в городе Ганьсу на северо-западе Китая, набрала более 15 000 кликов после публикации в социальных сетях 25 апреля.
- Новые правила Китая запрещают использовать современные технологии для производства, публикации и фабрикации ложной информации. Вступившие в силу 10 января правила призваны ограничить использование технологии генеративного искусственного интеллекта для изменения онлайн-контента.
- Согласно заявлению полиции, всего 25 учетных записей на платформе Baijiahao, принадлежащей китайскому технологическому гиганту Baidu, сообщили об «аварии» с IP-адресами из разных мест.
- В сообщении говорится, что подозреваемый по фамилии Хун был идентифицирован и арестован за создание ложной информации.
- Подозреваемый якобы отредактировал новости, сгенерированные ChatGPT, и скачал их на платформу Baidu, сообщила местная полиция, добавив, что расследование продолжается.
- По данным Business Today, Хун признался, что использовал ChatGPT для создания нескольких версий одной и той же фальшивой истории. Обойдя функцию проверки дублирования, он взял компоненты популярных социальных историй прошлых лет в Китае и поделился ими в своих аккаунтах Baijiahao. Сейчас ему грозит до пяти лет тюрьмы.
Контекст
Недавно рейтинговая новостная группа NewsGuard обнаружила, что в интернете распространяются десятки новостных веб-сайтов, созданных чат-ботами с искусственным интеллектом, пишет Bloomberg. В новом отчете задокументировано 49 новых веб-сайтов, заполненных инструментами ИИ, такими как ChatGPT, которые выдают себя за новостные агентства.
В нескольких случаях NewsGuard задокументировал, как чат-боты генерировали ложь для опубликованных материалов. Генеральный директор NewsGuard Гордон Кровиц отметил, что отчет группы показал, что такие компании, как OpenAI и Google, должны позаботиться об обучении своих моделей не фабриковать новости. «Использование моделей ИИ, известных тем, что они подделывают факты для создания сайтов, которые только выглядят как новостные – это мошенничество, которое маскируется под журналистику», – подчеркнул Кровиц, бывший издатель Wall Street Journal.
В то же время соучредитель Apple и создатель Siri Стив Возняк предупредил, что искусственный интеллект может использоваться в плохих целях и усложнить обнаружение мошенничества и дезинформации, пишет The Guardian. Возняк считает, что контент, созданный с помощью ИИ, должен быть помечен, и призывает к регулированию.
![Соучредитель Apple Возняк предупредил о сложностях с обнаружением мошенничества и дезинформации из-за ИИ /Фото Getty Images](https://forbes.ua/static/storage/thumbs/80x80/1/93/2724015d-bdcd4288148706a3cc8f9b08d3f58931.jpg?v=7265_2)
![Не проспать революцию: искусственный интеллект практически ежедневно меняет правила игры в целых отраслях. Как не потеряться в новациях? Держите гид от эксперта ИИ-рынка Глеба Добжанского](https://forbes.ua/static/storage/thumbs/80x80/4/69/96076a23-53a927960282d0b16a983cc7282e6694.jpg?v=0651_2)
![Золотая лихорадка. PitchBook прогнозирует рост венчурных инвестиций в ИИ-компании в этом году в несколько раз /Фото Getty Images](https://forbes.ua/static/storage/thumbs/80x80/f/e1/6ea65317-f26dd9a24ca5fc8e9fee87a21a510e1f.jpg?v=2012_3)
Вы нашли ошибку или неточность?
Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.