Ілон Маск, Білл Ґейтс, Марк Цукерберг та інші технологічні лідери обговорили можливості й ризики штучного інтелекту в середу, 13 вересня, на закритій зустрічі з більш ніж 60 сенаторами США, які розглядають законопроєкт, що регулює цю технологію, пише The Wall Street Journal.
Ключові факти
- Під час зустрічі Маск попередив про те, що ШІ може загрожувати людству, водночас Ґейтс заявив, що технологія може допомогти вирішити проблему голоду у світі, повідомив сенатор Чак Шумер, який скликав сесію.
- Також серед спікерів був засновник Facebook Марк Цукерберг, керівник Google Сундар Пічаї, представники Microsoft, Nvidia та IBM разом з лідерами профспілок, правозахисники й інші.
- Під час засідання присутні погодилися, що уряду необхідно відіграти певну роль у регулюванні ШІ. Незважаючи на цей консенсус і обіцянку Шумера перейти до ухвалення законодавства протягом кількох місяців, зустріч також оголила спірні моменти.
- Одне з обговорень було присвячене так званим системам ШІ з відкритим вихідним кодом, які доступні для скачування та модифікації. Трістан Харріс, голова некомерційного Центру гуманних технологій, стверджує, що зловмисники можуть скористатися системами ШІ з відкритим вихідним кодом, включаючи модель Llama 2, нещодавно випущену Meta Platforms. Цукерберг заявив, що відкритий вихідний код «демократизує доступ до інструментів, і це допомагає зрівняти правила гри та сприяє інноваціям для людей і бізнесу».
- Ще одна точка напруженості була повʼязана з думкою про те, що ШІ є потенційною загрозою для певних професій.
- Деякі керівники, які були присутні в залі, стверджували, що встановлення занадто великої кількості обмежень у системах ШІ ставить під загрозу лідерство США у цій технології.
- Більшість технічних лідерів уникали камер. Ідучи, Маск сказав журналістам, що не вірить у те, що Конгрес готовий регулювати ШІ, додавши при цьому, що їм також є сенс вивчити це питання, перш ніж писати закон.
- Шумер назвав зустріч у середу першою у серії, присвяченій розробці законодавства, спрямованого на швидке впровадження потужних інструментів ШІ.
Контекст
Випуск ChatGPT започаткував гонку серед технологічних компаній, таких як Google і Microsoft, за створення аналогічних технологій. У середині березня компанія OpenAI презентувала четверту версію мовної моделі ChatGPT.
Після цього понад 1000 технологічних лідерів і дослідників підписали відкритий лист із закликом ввести шестимісячний мораторій на розробку нових систем, оскільки технології ШІ становлять «серйозні ризики для суспільства та людства». За кілька днів 19 нинішніх і колишніх лідерів Асоціації з розвитку штучного інтелекту, академічного товариства з 40-річною історією, випустили власний лист із попередженням про ризики, повʼязані зі ШІ.
350 технічних керівників і вчених, які займаються ШІ, забили на сполох щодо технології, наголосивши у спільній заяві, що вона є таким самим великим ризиком, як пандемія та ядерна війна. Серед підписантів заяви – Сем Альтман, гендиректор OpenAI.4
21 липня провідні компанії, що займаються ШІ, включаючи OpenAI, Alphabet та Meta Platforms, взяли на себе добровільні зобовʼязання у сфері безпеки ШІ. Цей процес, координований Білим домом, має стати важливим кроком на шляху до ефективного управління ШІ як у США, так і в усьому світі. До компаній також входять Anthropic, Inflection, Amazon.com та Microsoft, вони зобовʼязалися ретельно тестувати системи перед їхнім випуском.
Раніше у своїй колонці засновник Microsoft Білл Ґейтс писав, що ризики, які несе штучний інтелект, реальні, але з ними можна впоратися.
Ви знайшли помилку чи неточність?
Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.