OpenAI запропонує новий метод навчання моделей штучного інтелекту для боротьби з дезінформацією /Getty Images
Категорія
Новини
Дата

OpenAI запропонує новий метод навчання моделей штучного інтелекту для боротьби з дезінформацією

2 хв читання

Getty Images

Компанія OpenAI вирішила боротися зі спотворенням інформації штучним інтелектом, запропонувавши новий метод навчання моделей ШІ, пише CNBC. Коли саме його буде впроваджено – наразі невідомо.

Ключові факти

  • Наразі дезінформація, що виходить від систем ШІ, обговорюється гарячіше, ніж будь-коли, на тлі буму генеративного ШІ та напередодні президентських виборів у США у 2024 році.
  • Так звані галюцинації ШІ виникають, коли такі моделі, як ChatGPT від OpenAI або Bard від Google повністю фабрикують інформацію, поводячи себе так, ніби вони подають факти. 
  • Наприклад, у власному лютневому рекламному ролику Google для Bard чат-бот робить неправдиву заяву про космічний телескоп Джеймса Вебба. Зовсім недавно ChatGPT послався на фіктивні справи у Федеральному суді Нью-Йорка, і нью-йоркські адвокати, що беруть участь у них, можуть зіткнутися із санкціями.
  • «Навіть найсучасніші моделі схильні до хибних висновків – вони схильні вигадувати факти у моменти невизначеності, – пишуть дослідники OpenAI у звіті. – Ці галюцинації особливо проблематичні в областях, що вимагають багатоступінчастої міркування, оскільки однієї логічної помилки достатньо, щоб зірвати набагато масштабніше рішення».
  • Потенційна нова стратегія OpenAI для боротьби з фальсифікаціями полягає у тому, щоб навчити моделі ШІ винагороджувати себе за правильний крок міркувань, замість просто винагороджувати правильний остаточний висновок. За словами дослідників, цей підхід називається «спостереження за процесом», а не «спостереження за результатом», і може привести до більш зрозумілого ШІ, оскільки стратегія спонукає моделі дотримуватися більш схожого на людський ланцюжка думок.
  • «Виявлення та усунення логічних помилок моделі або галюцинацій є важливим кроком на шляху до створення узгодженого штучного загального інтелекту», – сказав CNBC Карл Коббе, дослідник математики в OpenAI. Коббе зазначив, що компанія, «швидше за все, представить [статтю про новий метод] на майбутній конференції для експертної оцінки». OpenAI не повідомила, коли планує впровадити нову стратегію у ChatGPT та інші свої продукти.

Контекст

Технологічна індустрія розробляє ШІ вже багато років, але торік ця технологія набула більшого поширення, коли OpenAI випустила ChatGPT. Безкоштовний чат-бот може швидко відповісти практично на будь-яке запитання.

Випуск ChatGPT започаткував гонку серед технологічних компаній, таких як Google і Microsoft, за створення аналогічних технологій. У середині березня компанія OpenAI презентувала четверту версію мовної моделі ChatGPT.

Після цього понад 1000 технологічних лідерів і дослідників підписали відкритого листа із закликом ввести шестимісячний мораторій на розробку нових систем, оскільки технології ШІ становлять «серйозні ризики для суспільства та людства». За кілька днів 19 нинішніх і колишніх лідерів Асоціації з розвитку штучного інтелекту, академічного товариства з 40-річною історією, випустили власного листа із попередженням про ризики, повʼязані з ШІ. 

Нещодавно 350 технічних керівників та вчених, які займаються штучним інтелектом, забили на сполох з приводу технології, наголосивши у спільній заяві, що вона є таким самим великим ризиком, як пандемія та ядерна війна, пише The Wall Street Journal. Серед підписантів заяви – Сем Альтман, гендиректор OpenAI.

11 травня депутати Європарламенту проголосували за широкий набір правил, які стануть частиною європейського закону про штучний інтелект, включаючи повну заборону майже всіх засобів розпізнавання осіб та обмеження для чат-ботів, таких як ChatGPT, пише Financial Times. Європейський союз і США мають намір активізувати співпрацю в галузі штучного інтелекту з метою встановлення мінімальних стандартів для роботи галузі до набуття чинності законодавством, заявила європейська комісарка з питань конкуренції Маргрете Вестагер, пише Reuters.

Матеріали по темі

Ви знайшли помилку чи неточність?

Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.

Попередній слайд
Наступний слайд