Маск попереджає про загрозу, Ґейтс бачить можливості для боротьби з голодом. Підсумки засідання Сенату США щодо ШІ /Getty Images
Категорія
Новини
Дата

Маск попереджає про загрозу, Ґейтс бачить можливості для боротьби з голодом. Підсумки засідання Сенату США щодо ШІ

2 хв читання

Getty Images

Ілон Маск, Білл Ґейтс, Марк Цукерберг та інші технологічні лідери обговорили можливості й ризики штучного інтелекту в середу, 13 вересня, на закритій зустрічі з більш ніж 60 сенаторами США, які розглядають законопроєкт, що регулює цю технологію, пише The Wall Street Journal.

Ключові факти

  • Під час зустрічі Маск попередив про те, що ШІ може загрожувати людству, водночас Ґейтс заявив, що технологія може допомогти вирішити проблему голоду у світі, повідомив сенатор Чак Шумер, який скликав сесію.
Getty Images

Білл Ґейтс Фото Getty Images

  • Також серед спікерів був засновник Facebook Марк Цукерберг, керівник Google Сундар Пічаї, представники Microsoft, Nvidia та IBM разом з лідерами профспілок, правозахисники й інші.
Getty Images

Сундар Пічаї та Марк Цукерберг Фото Getty Images

  • Під час засідання присутні погодилися, що уряду необхідно відіграти певну роль у регулюванні ШІ. Незважаючи на цей консенсус і обіцянку Шумера перейти до ухвалення законодавства протягом кількох місяців, зустріч також оголила спірні моменти.
  • Одне з обговорень було присвячене так званим системам ШІ з відкритим вихідним кодом, які доступні для скачування та модифікації. Трістан Харріс, голова некомерційного Центру гуманних технологій, стверджує, що зловмисники можуть скористатися системами ШІ з відкритим вихідним кодом, включаючи модель Llama 2, нещодавно випущену Meta Platforms. Цукерберг заявив, що відкритий вихідний код «демократизує доступ до інструментів, і це допомагає зрівняти правила гри та сприяє інноваціям для людей і бізнесу».
  • Ще одна точка напруженості була повʼязана з думкою про те, що ШІ є потенційною загрозою для певних професій.
  • Деякі керівники, які були присутні в залі, стверджували, що встановлення занадто великої кількості обмежень у системах ШІ ставить під загрозу лідерство США у цій технології.
  • Більшість технічних лідерів уникали камер. Ідучи, Маск сказав журналістам, що не вірить у те, що Конгрес готовий регулювати ШІ, додавши при цьому, що їм також є сенс вивчити це питання, перш ніж писати закон.
  • Шумер назвав зустріч у середу першою у серії, присвяченій розробці законодавства, спрямованого на швидке впровадження потужних інструментів ШІ.

Контекст

Випуск ChatGPT започаткував гонку серед технологічних компаній, таких як Google і Microsoft, за створення аналогічних технологій. У середині березня компанія OpenAI презентувала четверту версію мовної моделі ChatGPT.

Після цього понад 1000 технологічних лідерів і дослідників підписали відкритий лист із закликом ввести шестимісячний мораторій на розробку нових систем, оскільки технології ШІ становлять «серйозні ризики для суспільства та людства». За кілька днів 19 нинішніх і колишніх лідерів Асоціації з розвитку штучного інтелекту, академічного товариства з 40-річною історією, випустили власний лист із попередженням про ризики, повʼязані зі ШІ. 

350 технічних керівників і вчених, які займаються ШІ, забили на сполох щодо технології, наголосивши у спільній заяві, що вона є таким самим великим ризиком, як пандемія та ядерна війна. Серед підписантів заяви – Сем Альтман, гендиректор OpenAI.4

21 липня провідні компанії, що займаються ШІ, включаючи OpenAI, Alphabet та Meta Platforms, взяли на себе добровільні зобовʼязання у сфері безпеки ШІ. Цей процес, координований Білим домом, має стати важливим кроком на шляху до ефективного управління ШІ як у США, так і в усьому світі. До компаній також входять Anthropic, Inflection, Amazon.com та Microsoft, вони зобовʼязалися ретельно тестувати системи перед їхнім випуском.

Раніше у своїй колонці засновник Microsoft Білл Ґейтс писав, що ризики, які несе штучний інтелект, реальні, але з ними можна впоратися.

Матеріали по темі

Ви знайшли помилку чи неточність?

Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.

Попередній слайд
Наступний слайд