Ілон Маск і група експертів закликали призупинити роботу над ШІ через ризики для суспільства /ілюстрація Getty Images / Анна Наконечна
Категорія
Новини
Дата

Ілон Маск і група експертів закликали призупинити роботу над ШІ через ризики для суспільства

ілюстрація Getty Images / Анна Наконечна

Мільярдер Ілон Маск і група експертів зі штучного інтелекту та керівників галузі закликають до шестимісячної паузи у розробці систем, більш потужних, ніж нещодавно запущений OpenAI GPT-4, у відкритому листі з посиланням на потенційні ризики для суспільства та людства, пише Reuters.

Інвестувати? Почекати? Продавати? Війна змінює все, крім обов’язку лідера приймати виважені рішення. Вже 30 травня 40+ спікерів поділяться досвідом на Першій щорічній конференції про фінанси, інвестиції та економічне зростання. Купуйте квиток за посиланням.

Ключові факти

  • Раніше цього місяця OpenAI, підтримувана Microsoft, представила четверту версію своєї програми штучного інтелекту GPT (Generative Pre-trained Transformer), яка вразила користувачів широким спектром програм – від залучення користувачів до людської розмови до написання пісень та узагальнення довгих документів.
  • Лист, випущений некомерційним Future of Life Institute і підписаний більш ніж 1000 осіб, включаючи Маска, містить заклик призупинити розробку просунутого ШІ доти, доки не будуть розроблені, впроваджені та перевірені незалежними експертами загальні протоколи безпеки для таких проєктів.
  • Серед підписантів є співзасновник Apple Стів Возняк, співзасновник Pinterest Еван Шарп, генеральний директор Stability AI Емад Мостак, дослідники DeepMind, що належить Alphabet, і важкоатлети в галузі ШІ Йошуа Бенжіо, якого часто називають одним із «хрещених батьків ШІ», і Стюарт Рассел, піонер досліджень у цій галузі.
  • «Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми впевнені, що їх ефекти будуть позитивними, а ризики – керованими», – йдеться у листі.
  • У листі докладно описано потенційні ризики для суспільства та цивілізації з боку конкурентоспроможних систем штучного інтелекту у вигляді економічних і політичних потрясінь, а також міститься заклик до розробників працювати з політиками та регулюючими органами.
  • Згідно з реєстром прозорості Європейського Союзу, Інститут майбутнього життя в основному фінансується Фондом Маска, а також лондонською групою Founders Pledge та Фондом спільноти Кремнієвої долини.

Контекст

Побоювання виникли, коли правоохоронний орган ЄС – Європол – приєднався до етичних і юридичних побоювань щодо передового ШІ, такого як ChatGPT, попередивши про потенційне неправомірне використання системи у спробах фішингу, дезінформації та кіберзлочинності.

Тим часом уряд Великої Британії оприлюднив пропозиції щодо «адаптованої» нормативно-правової бази про ШІ.

Підхід уряду, викладений у програмному документі, опублікованому в середу, полягає у розподілі відповідальності за управління штучним інтелектом між регулюючими органами в галузі прав людини, здоровʼя та безпеки та конкуренції, а не у створенні нового органу, який займається цією технологією.

Маск, чий автовиробник Tesla використовує ШІ для системи автопілота, відкрито висловлює своє занепокоєння щодо ШІ.

З моменту свого випуску минулого року ChatGPT від OpenAI спонукав конкурентів прискорити розробку аналогічних великих мовних моделей, а компанії – інтегрувати генеративні моделі ШІ у свої продукти.

Критики звинуватили тих, хто підписав документ, у піднятті «ажіотажу навколо ШІ», стверджуючи, що тези про поточний потенціал технології перебільшені.

Водночас великі технологічні компанії звільняють співробітників із команд, які займаються оцінкою етичних питань, повʼязаних із розгортанням штучного інтелекту, пише Financial Times. Це викликає побоювання щодо безпеки нової технології, оскільки вона стає широко поширеною у споживчих продуктах.

Матеріали по темі

Ви знайшли помилку чи неточність?

Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.

Виправити
Попередній слайд
Наступний слайд
Новий номер Forbes Ukraine

Замовляйте з безкоштовною кур’єрською доставкою по Україні