Федеральна торгова комісія (FTC) розпочала широке розслідування стосовно OpenAI, зʼясовуючи, чи не порушив розробник ChatGPT закони про захист прав споживачів, пише The Washington Post.
Ключові факти
- FTC цього тижня надіслала компанії 20-сторінковий запит на звіти про те, як стартап OpenAI усуває ризики, повʼязані з його моделями ШІ, згідно з документом, переглянутим виданням.
- Раніше Федеральна торгова комісія неодноразово попереджала, що закони про захист прав споживачів застосовуються до ШІ, навіть незважаючи на те, що адміністрація та Конгрес щосили намагаються намітити нові правила. Вимоги FTC до OpenAI є першою ознакою того, як вона має намір застосовувати ці попередження. Якщо комісія виявить, що компанія порушує закони про захист прав споживачів, вона може накласти штраф або запровадити регулювання обробки даних.
- FTC вже накладала великі штрафи на Meta, Amazon і Twitter за ймовірні порушення законів про захист прав споживачів.
- FTC закликала OpenAI надати докладний опис усіх скарг, які вона отримала на свої продукти, що роблять «неправдиві, оманливі, зневажливі чи шкідливі» заяви про людей. Згідно з документом, FTC розслідує, чи займалася компанія недобросовісними діями щодо споживачів чи такими, що вводять в оману і призводять до «репутаційної шкоди».
- Комісія також попросила компанію надати записи, повʼязані з інцидентом безпеки, про який компанія повідомила у березні, коли помилка у її системах дозволила деяким користувачам бачити інформацію, повʼязану з платежами, а також деякі дані з історії чатів інших користувачів.
- Орган у своєму запиті також попросив компанію надати докладну інформацію про свої продукти та про те, як вона їх рекламує. Він також вимагав подробиць щодо політик і процедур, які OpenAI приймає перед випуском будь-якого нового продукту для широкої публіки, включаючи список випадків, коли OpenAI стримувала велику мовну модель через ризики безпеки.
- FTC також вимагає детального опису даних, які OpenAI використовує для навчання своїх продуктів, які імітують людську мову, поглинаючи текст, в основному взятий з Вікіпедії, Scribd та інших сайтів у відкритій мережі. Агентство також попросило OpenAI описати, як воно вдосконалює свої моделі, щоб впоратися з їхньою схильністю до «галюцинацій», тобто вигадування відповідей, коли ШІ не знають, як реагувати на запитання.
Контекст
Технологічна індустрія розробляє ШІ вже багато років, але торік ця технологія набула більшого поширення, коли OpenAI випустила ChatGPT. Безкоштовний чат-бот може швидко відповісти практично на будь-яке запитання.
Випуск ChatGPT започаткував перегони серед технологічних компаній, таких як Google і Microsoft, за створення аналогічних технологій. У середині березня компанія OpenAI презентувала четверту версію мовної моделі ChatGPT.
Після цього понад 1000 технологічних лідерів і дослідників підписали відкритого листа з закликом ввести шестимісячний мораторій на розробку нових систем, оскільки технології ШІ становлять «серйозні ризики для суспільства та людства». За кілька днів 19 нинішніх і колишніх лідерів Асоціації з розвитку штучного інтелекту, академічного товариства з 40-річною історією, випустили власного листа з попередженням про ризики, повʼязані з ШІ.
Нещодавно 350 технічних керівників і вчених, які займаються штучним інтелектом, забили на сполох з приводу технології, наголосивши у спільній заяві, що вона є таким самим великим ризиком, як пандемія та ядерна війна. Серед підписантів заяви – Сем Альтман, гендиректор OpenAI.
- Категорія
- Новини
- Дата
Ви знайшли помилку чи неточність?
Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.