Категорія
Новини
Дата

«Можуть пройти десятиліття». Президент Microsoft Бред Сміт спростував інформацію про небезпечний прорив у ШІ

2 хв читання

Президент Microsoft Бред Сміт заявив, що протягом найближчих 12 місяців немає шансів на створення надрозумного штучного інтелекту, до цієї технології можуть пройти десятиліття, пише Reuters. Раніше агентство повідомляло, напередодні звільнення Сема Альтмана з посади гендиректора OpenAI дослідники компанії надіслали раді директорів листа з попередженням про небезпечне відкриття в галузі ШІ.

Amazon інвестує мільярди доларів у ШІ, роботів та машинне навчання. Якими принципами й правилами керується компанія?

Дізнайтеся вже 22 листопада на Forbes Tech 2024. Купуйте квиток за посиланням!

Ключові факти

  • Сміт, виступаючи в четвер перед журналістами у Великій Британії, відкинув заяви про небезпечний прорив.
  • «Немає жодної ймовірності, що в найближчі 12 місяців ви побачите так званий AGI, де компʼютери більш потужні, ніж люди. Це займе роки, якщо не багато десятиліть…», – сказав він.
  • Джерела повідомили Reuters, що попередження раді директорів OpenAI було одним із факторів серед довгого списку скарг, які призвели до звільнення Альтмана, а також побоювань щодо комерціалізації досягнень до оцінки їхніх ризиків.
  • На запитання, чи сприяло таке відкриття усуненню Альтмана, Сміт відповів: «Я не думаю, що це взагалі так. Я думаю, що, очевидно, були розбіжності між радою директорів та іншими, але це не було принципово повʼязане з такою проблемою»
  • Він зазначив, що ШІ насправді потребує певних запобіжників. «Так само, як у вас є запобіжний вимикач у ліфті, автоматичний вимикач для електрики, аварійне гальмо в автобусі, так і в системах ШІ, які контролюють критично важливу інфраструктуру, мають бути запобіжники, щоб вони завжди залишалися під контролем людини», – додав Сміт.

Контекст

На початку цього року Сем Альтман запропонував законодавцям США розглянути питання про видачу компаніям ліцензій на розробку потужного штучного інтелекту, подібного до того, що лежить в основі чат-бота його компанії. У середині березня компанія OpenAI представила четверту версію мовної моделі ChatGPT.

Після цього понад 1000 технологічних лідерів і дослідників підписали відкритого листа із закликом ввести шестимісячний мораторій на розробку нових систем, оскільки технології ШІ становлять «серйозні ризики для суспільства та людства». Через кілька днів 19 нинішніх і колишніх лідерів Асоціації з розвитку штучного інтелекту, академічного товариства з 40-річною історією випустили власного листа із попередженням про ризики, повʼязані з ШІ.

350 технічних керівників і вчених, які займаються ШІ, забили на сполох щодо технології, наголосивши у спільній заяві, що вона є таким самим великим ризиком, як пандемія та ядерна війна. Серед підписантів заяви був і Сем Альтман, гендиректор OpenAI.

Минулого тижня агентство Reuters писало із посиланням на джерела, що звільнення СЕО OpenAI Альтмана відбулося незабаром після того, як дослідники звʼязалися з радою директорів і попередили про небезпечне відкриття, яке, як вони побоювалися, могло мати непередбачені наслідки. Проєкт Q* може стати проривом у пошуку надінтелекту, також відомого як загальний штучний інтелект (AGI), зазначало джерело.

Після кадрового перевороту у компанії OpenAI вирішила переформатувати раду директорів. Microsoft відіграватиме у ній роль спостерігача без права голосу. Корпорація є ключовим партнером OpenAI, вклавши понад $10 млрд в обмін на значну міноритарну частку. 

Матеріали по темі

Ви знайшли помилку чи неточність?

Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.

Попередній слайд
Наступний слайд