У китайській провінції Ганьсу затримали чоловіка за те, що він нібито використав ChatGPT для створення фальшивої новини про аварію поїзда, пише Reuters. Це стало першим арештом у Китаї в межах розслідування, повʼязаного зі ШІ.
Купуйте річну передплату на шість журналів Forbes Ukraine за ціною чотирьох номерів. Якщо ви цінуєте якість, глибину та силу реального досвіду, ця передплата саме для вас.
Ключові факти
- За повідомленням місцевого поліцейського управління міста Пінлян, історія, в якій стверджувалося, що внаслідок аварії загинули девʼять осіб у місті Ганьсу на північному заході Китаю, набрала понад 15 000 кліків після публікації у соціальних мережах 25 квітня.
- Нові правила Китаю забороняють використовувати сучасні технології для виробництва, публікації та фабрикації неправдивої інформації. Правила, що набули чинності 10 січня, покликані обмежити використання технології генеративного штучного інтелекту для зміни онлайн-контенту.
- Згідно із заявою поліції, загалом 25 облікових записів на платформі Baijiahao, що належить китайському технологічному гіганту Baidu, повідомили про «аварію» з IP-адресами з різних місць.
- У повідомленні йдеться про те, що підозрюваний на прізвище Хун був ідентифікований і заарештований за створення неправдивої інформації.
- Підозрюваний нібито відредагував новини, згенеровані ChatGPT, і завантажив їх на платформу Baidu, повідомила місцева поліція, додавши, що розслідування триває.
- За даними Business Today, Хун зізнався, що використав ChatGPT для створення кількох версій однієї і тієї самої фальшивої історії. Обійшовши функцію перевірки на дублювання, він взяв компоненти популярних соціальних історій минулих років у Китаї та поділився ними у своїх акаунтах Baijiahao. Нині йому загрожує до пяти років вʼязниці.
Контекст
Нещодавно рейтингова група новин NewsGuard виявила, що в інтернеті поширюються десятки новинних вебсайтів, створених чат-ботами зі штучним інтелектом, пише Bloomberg. У новому звіті задокументовано 49 нових вебсайтів, заповнених інструментами ШІ, такими як ChatGPT, які видають себе за агентства новин.
У кількох випадках NewsGuard задокументував, як чат-боти генерували брехню для опублікованих матеріалів. Генеральний директор NewsGuard Гордон Кровіц зазначив, що звіт групи показав, що такі компанії, як OpenAI і Google, повинні подбати про навчання своїх моделей не фабрикувати новини. «Використання моделей ШІ, відомих тим, що вони підробляють факти для створення сайтів, які тільки виглядають як новинні – це шахрайство, що маскується під журналістику», – наголосив Кровіц, колишній видавець Wall Street Journal.
Водночас співзасновник Apple і творець Siri Стів Возняк попередив, що штучний інтелект може використовуватися в поганих цілях та ускладнити виявлення шахрайства й дезінформації, пише The Guardian. Возняк вважає, що контент, створений за допомогою ШІ, має бути помічений, і закликає до регулювання.



Ви знайшли помилку чи неточність?
Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.