Категорія
Новини
Дата

Нобелівські лауреати й мільярдери закликали зупинити розробку суперінтелекту ШІ. Серед підписантів Гаррі, Меган, Стів Беннон і Річард Бренсон

1 хв читання

Понад 800 відомих особистостей, включно з мільярдерами, експосадовцями, лауреатами Нобелівської премії та членами британської королівської сім’ї, підписали петицію з вимогою заборонити розробку суперінтелекту – передової форми штучного інтелекту, яка може перевершити людські когнітивні здібності, пише Forbes.

Купуйте річну передплату на шість журналів Forbes Ukraine за ціною чотирьох номерів. Якщо ви цінуєте якість, глибину та силу реального досвіду, ця передплата саме для вас.

Деталі

  • Петицію, опубліковану неприбутковою організацією Future of Life Institute (FLI), де Ілон Маск значиться зовнішнім радником, організовано через занепокоєння швидким розвитком ШI.
  • Документ закликає до «заборони розробки суперінтелекту» до досягнення «широкого наукового консенсусу» про його безпечність і контрольованість та «сильної громадської підтримки».
  • Серед 850 підписантів – герцог і герцогиня Сассекські Гаррі та Меган, мільярдер Річард Бренсон, співзасновник Apple Стів Возняк, а також праві медійні діячі Стів Беннон і Гленн Бек.
  • Проти суперінтелекту виступили і лауреати Нобелівської премії Джеффрі Гінтон і Йошуа Бенджіо (відомі як «хрещені батьки ШI»), ексголова Об’єднаного комітету начальників штабів Майкл Маллен, ексрадник із нацбезпеки США Сьюзан Райс та дослідник Стюарт Рассел.
  • Йошуа Бенджіо заявив: «Фронтові ШI-системи можуть перевершити людей у когнітивних задачах за кілька років. Нам потрібен науковий підхід до створення безпечних систем і більша роль громадськості в цих рішеннях». Стюарт Рассел уточнив, що петиція потребує не повної заборони, а «достатніх заходів безпеки».
  • Опитування Gallup (вересень 2025 року) показало, що 80% американців підтримують правила безпеки ШI, навіть якщо це сповільнить розвиток (9% – за прискорення). Опитування FLI виявило, що 64% вважають суперінтелект небезпечним, якщо не доведено його контроль.
  • Топ-менеджери, як-от Сем Альтман (OpenAI) і Марк Цукерберг (Meta), які прогнозують створення суперінтелекту до 2030 року, петицію не підписали.

Контекст

Meta активно вкладає десятки мільярдів доларів у розвиток штучного інтелекту. У липні Марк Цукерберг, генеральний директор компанії, оголосив, що вже у 2026 році Meta запустить свій перший суперкомп’ютерний кластер, а кілька інших проєктів перебувають на стадії розробки. Один із них, Hyperion, матиме настільки грандіозні масштаби, що його розміри можна буде порівняти зі «значною частиною Мангеттена».

Інвестиції в ШІ стали ключовим полем конкуренції між техногігантами. Ризики для компаній – чи справдяться очікування. Аналітики попереджають: прибутки поки що не встигають за витратами. Але багато інвесторів готові й далі вкладати в ШІ, поки оцінки стартапів і публічних компаній зростають.

Великі технологічні гравці ставлять на ШІ, аби переформатувати ринок, навіть ціною масштабної перебудови інфраструктури та кадрових жертв.

Інвестори в такі стартапи, як OpenAI, поки що не переймаються питанням прибутковості, задовольняючись тим, що вкладають більше грошей, доки оцінки продовжують зростати, за даними WSJ. Однак інші інвестори попереджають, що бум ШІ перетворився на спекулятивне божевілля.

Матеріали по темі

Ви знайшли помилку чи неточність?

Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.

Попередній слайд
Наступний слайд
Четвертий випуск 2025 року вже у продажу

Замовляйте з безкоштовною доставкою по Україні