У китайській провінції Ганьсу затримали чоловіка за те, що він нібито використав ChatGPT для створення фальшивої новини про аварію поїзда, пише Reuters. Це стало першим арештом у Китаї в межах розслідування, повʼязаного зі ШІ.
Ключові факти
- За повідомленням місцевого поліцейського управління міста Пінлян, історія, в якій стверджувалося, що внаслідок аварії загинули девʼять осіб у місті Ганьсу на північному заході Китаю, набрала понад 15 000 кліків після публікації у соціальних мережах 25 квітня.
- Нові правила Китаю забороняють використовувати сучасні технології для виробництва, публікації та фабрикації неправдивої інформації. Правила, що набули чинності 10 січня, покликані обмежити використання технології генеративного штучного інтелекту для зміни онлайн-контенту.
- Згідно із заявою поліції, загалом 25 облікових записів на платформі Baijiahao, що належить китайському технологічному гіганту Baidu, повідомили про «аварію» з IP-адресами з різних місць.
- У повідомленні йдеться про те, що підозрюваний на прізвище Хун був ідентифікований і заарештований за створення неправдивої інформації.
- Підозрюваний нібито відредагував новини, згенеровані ChatGPT, і завантажив їх на платформу Baidu, повідомила місцева поліція, додавши, що розслідування триває.
- За даними Business Today, Хун зізнався, що використав ChatGPT для створення кількох версій однієї і тієї самої фальшивої історії. Обійшовши функцію перевірки на дублювання, він взяв компоненти популярних соціальних історій минулих років у Китаї та поділився ними у своїх акаунтах Baijiahao. Нині йому загрожує до пяти років вʼязниці.
Контекст
Нещодавно рейтингова група новин NewsGuard виявила, що в інтернеті поширюються десятки новинних вебсайтів, створених чат-ботами зі штучним інтелектом, пише Bloomberg. У новому звіті задокументовано 49 нових вебсайтів, заповнених інструментами ШІ, такими як ChatGPT, які видають себе за агентства новин.
У кількох випадках NewsGuard задокументував, як чат-боти генерували брехню для опублікованих матеріалів. Генеральний директор NewsGuard Гордон Кровіц зазначив, що звіт групи показав, що такі компанії, як OpenAI і Google, повинні подбати про навчання своїх моделей не фабрикувати новини. «Використання моделей ШІ, відомих тим, що вони підробляють факти для створення сайтів, які тільки виглядають як новинні – це шахрайство, що маскується під журналістику», – наголосив Кровіц, колишній видавець Wall Street Journal.
Водночас співзасновник Apple і творець Siri Стів Возняк попередив, що штучний інтелект може використовуватися в поганих цілях та ускладнити виявлення шахрайства й дезінформації, пише The Guardian. Возняк вважає, що контент, створений за допомогою ШІ, має бути помічений, і закликає до регулювання.
Ви знайшли помилку чи неточність?
Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.