Категорія
Інновації
Дата

«Загроза рівня вимирання». Чому відкритий ШІ-код та перегони в розробці загального штучного інтелекту можуть вартувати людству життя? TIME аналізує звіт, зроблений для уряду США

штучний інтелект, ші, загальний штучний інтелект /Getty Images

Загального штучного інтелекту поки що не існує, але провідні ШІ-лабораторії активно займаються його розробкою. Експерти вважають, що він може зʼявитися впродовж наступних пʼяти років. Фото Getty Images

Швидкий поступ штучного інтелекту змушує спеціалістів галузі та уряди країн замислюватися над питанням, чи безпечний ШІ для людства? Схоже, американські чиновники отримали відповідь і вона не надто втішна. Журнал TIME отримав ексклюзивний доступ до звіту про ризики та небезпеки ШІ, який міністерство закордонних справ США замовило близько півтора року тому. Forbes переказує головне з матеріалу.

Як мотивувати команду не збавляти темп у надскладних умовах? Дізнайтесь 25 квітня на форумі «Надлюди» від Forbes. Купуйте квиток за посиланням!

Американський журнал TIME зміг одним із перших ознайомитися з унікальним звітом під назвою «План дій для збільшення безпеки ШІ». Цей документ на 247 сторінок створила компанія Gladstone AI на замовлення міністерства закордонних справ США за федеральним контрактом вартістю $250 000. Штат Gladstone AI – чотири особи, й вона регулярно проводить брифінги про ШІ для урядових чиновників США. 

У рамках дослідження для звіту, яке стартувало у листопаді 2022 року, троє його авторів поспілкувалися більш ніж з 200 урядовими співробітниками, експертами та працівниками провідних ШІ-компаній: OpenAI, Google DeepMind, Anthropic і Meta. TIME зазначає, що деякі розмови дослідників вказують на те, що багато співробітників лабораторій, які займаються питанням безпеки ШІ, занепокоєні неправильними стимулами, які впливають на ухвалення рішень керівниками їхніх компаній.

Якщо американський уряд вирішить дослухатися до рекомендацій авторів дослідження для зменшення ризиків і небезпек ШІ, це може радикально змінити всю роботу ШІ-індустрії. 

Серед головних рекомендацій можна виокремити такі:

  • формування Федерального агентства з питань ШІ, яке визначатиме максимально допустимий рівень обчислювальної потужності для навчання ШІ-моделей і видаватиме дозволи компаніям на застосування того чи іншого рівня обчислювальної потужності;
  • ухвалення закону, що забороняє публічно розкривати особливості функціонування потужних ШІ-моделей, порушення якого має каратися увʼязненням. Тобто дослідники пропонують заборонити ШІ-системи із відкритим вихідним кодом (open-source);
  • посилення контролю за виробництвом й експортом ШІ-чипів;
  • спрямування федерального фінансування на дослідження, які займаються безпекою ШІ.

Американський уряд повинен «швидко і рішуче» діяти, аби відвернути значні ризики для нацбезпеки, які становить ШІ. 

«За найгіршого сценарію ШІ може становити для людства загрозу рівня вимирання, – йдеться у звіті, який було опубліковано у понеділок, 11 березня. – Поточний розвиток ШІ становить нагальні й дедалі більші загрози для національної безпеки. Поступ просунутого ШІ та загального штучного інтелекту має потенціал до дестабілізації світової безпеки, як це свого часу зробила поява ядерної зброї».

Загального штучного інтелекту поки що не існує, але провідні ШІ-лабораторії активно займаються його розробкою. Багато експертів вважає, що він може зʼявитися впродовж наступних пʼяти років. 

Дослідники, які розробили звіт для уряду, вважають, що федеральне обмеження тренувальних потужностей ШІ-систем може «вгамувати змагання між ШІ-лабораторіями» й уповільнити виробництво потужніших чипів та обладнання. Із часом, пропонується у звіті, Федеральне агентство з питань ШІ може підняти верхню межу обчислювальної потужності для тренування ШІ, якщо побачить докази того, що провідні ШІ-моделі справді безпечні. Або, навпаки, опустити межу, якщо є підтвердження небезпеки. 

Уряд США навряд чи зробить незаконним тренування ШІ вище певного рівня обчислювальної потужності, як це пропонують укладачі звіту, каже Ґреґ Аллен, головний ШІ-спеціаліст у Центрі стратегічних і міжнародних досліджень. Більше відкритості та дотримання вимог регуляторів – так, але тюремний термін за надто розвинену ШІ-модель – дуже малоймовірно, каже Аллен.

Небезпеки й ризики ШІ

Опрацювавши звіт, TIME виявив дві категорії ризиків штучного інтелекту, на яких зосереджуються дослідники:

  1. Ризик вепонізації. «Такі системи потенційно можуть використовувати для розробки й навіть запуску катастрофічних біологічних, хімічних чи цифрових атак або зробити можливим безпрецедентне застосування групи роботизованих пристроїв як зброї». 
  2. Ризик втрати контролю. «Існують причини припускати, що ШІ-системи можуть стати неконтрольованими, якщо їх розвивати за допомогою сучасних технік, і поводитися вороже щодо людей за замовчуванням».

Обидві категорії ризиків посилює «динаміка змагання» в індустрії ШІ, зазначають дослідники. Ймовірність того, що перша компанія-розробник загального штучного інтелекту отримає всі супутні економічні переваги, змушує ШІ-лабораторії ставити у пріоритет швидкість, а не безпеку. 

«У ШІ-компаній немає зацікавленості інвестувати в заходи безпеки, які не приносять безпосередні економічні переваги, хоча дехто це робить через щире занепокоєння», – цитує звіт TIME.

Дослідники вважають обладнання, а саме компʼютерні чипи останнього покоління для тренування ШІ-систем, найбільшою перешкодою для збільшення можливостей штучного інтелекту. Встановлення правил щодо поширення цього обладнання може бути «найважливішою умовою збереження довгострокової світової безпеки від ШІ». 

У звіті зазначено, що уряду США варто розглянути можливість повʼязати надання ліцензій на експорт чипів з обовʼязковою наявністю у них технології відстеження їхнього застосування в ШІ-системах. Таким чином американський уряд зможе контролювати наявність систем, більших за GPT-4. Але дослідники попереджають, що зависокий рівень контролю може сприяти розквіту іноземних напівпровідникових індустрій, що зменшить можливість США впливати на дотичний до ШІ ланцюг постачання.

Дослідники визнали у розмові з виданням, що їхні рекомендації ШІ-індустрії можуть здатися надто жорсткими, особливо у пункті кримінального покарання за відкриті ШІ-системи чи надмірний рівень розвитку ШІ. Дослідники намагалися знайти альтернативу такому суворому заходу, але не знайшли, каже Едуар Гарріс, технологічний директор Gladstone AI – укладача звіту.

ШІ-спеціаліст Ґреґ Аллен розуміє, що відкритість ШІ-систем дуже ускладнює законотворцям управління ризиками цієї нової технології. Але він пояснює фактичну марність запровадження Штатами тюремного покарання за відкритий код ШІ, адже американські закони мають цілком обмежену юрисдикцію і розробники просто переїдуть туди, де система законів США не буде чинною.

Автори звіту були збентежені тим, як легко і дешево користувачі сьогодні можуть вимкнути заходи безпеки в ШІ-моделях, якщо у них є доступ до коду. 

«Модель із відкритим кодом, що має вигляд безпечної, надалі може виявитися небезпечною, – попереджає Едуар Гарріс, додавши, що відкритий код ШІ-моделі закрити вже неможливо. – Залишається лише приймати заподіяну шкоду».

Матеріали по темі

Ви знайшли помилку чи неточність?

Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.

Виправити
Попередній слайд
Наступний слайд
Новий номер Forbes Ukraine

Замовляйте з безкоштовною кур’єрською доставкою по Україні