Провідні розробники ШІ сформували групу для дослідження технології. Їх запідозрили у бажанні уникнути регулювання /Getty Images
Категорія
Новини
Дата

Провідні розробники ШІ сформували групу для дослідження технології. Їх запідозрили у бажанні уникнути регулювання

2 хв читання

Getty Images

Anthropic, Google, Microsoft та OpenAI, які є провідними розробниками штучного інтелекту, сформували групу для дослідження все більш потужного ШІ та розробки передових методів управління ним на тлі суспільного занепокоєння та контролю з боку регулюючих органів, пише Financial Times.

Amazon інвестує мільярди доларів у ШІ, роботів та машинне навчання. Якими принципами й правилами керується компанія?

Дізнайтеся вже 22 листопада на Forbes Tech 2024. Купуйте квиток за посиланням!

Ключові факти

  • У середу, 26 липня, Anthropic, Google, Microsoft та OpenAI запустили форум Frontier Model Forum з метою «забезпечити безпечну та відповідальну розробку передових моделей ШІ». «Ця ініціатива є життєво важливим кроком для обʼєднання технологічного сектору з метою відповідального просування ШІ та вирішення проблем на благо всього людства», — сказав Бред Сміт, віце-голова і президент Microsoft.
  • В останні місяці американські компанії впроваджують все потужніші інструменти ШІякі створюють оригінальний контент у формі зображення, тексту чи відео. Це викликало занепокоєння з приводу порушення авторських прав, порушень конфіденційності та того, що ШІ може зрештою замінити людей у низці професій.
  • Участь у форумі обмежена лише деякими компаніями, що створюють «великомасштабні моделі машинного навчання, які перевершують можливості, які є в даний час в найпросунутіших існуючих моделях». Робота форуму буде зосереджена на потенційних ризиках, повʼязаних із значно більш потужним ШІ, а не на питаннях, що стосуються авторського права, захисту даних та конфіденційності, які сьогодні є актуальними для регулюючих органів.
  • У свою чергу, розробники ШІ наголосили, що вони памʼятають про небезпеки і прагнуть їх помʼякшити. Минулого тижня керівники всіх чотирьох компаній взяли на себе зобовʼязання у сфері ШІ.
  • Водночас Емілі Бендер, компʼютерний лінгвіст з Вашингтонського університету, яка ретельно вивчала великі мовні моделі, вважає, що запевнення компаній були спробою уникнути регулювання і намаганням показати здатність до саморегуляції. За її словами, зосередження уваги на побоюваннях, що «машини оживуть і повстануть», відвернуло увагу від «справжніх проблем, повʼязаних із крадіжкою даних, стеженням та залученням усіх до гіг-економіки».
  • «Регулювання має виходити ззовні. Це має бути прийнято урядом, який представляє людей, щоб обмежити можливості цих корпорацій», – додала вона.

Контекст

Подібні групи створювались і раніше. Партнерство з ШІ, членами-засновниками якого також були Google і Microsoft, було створено в 2016 році, до нього увійшли представники громадянського суспільства, академічних кіл та промисловості, а його місією є просування відповідального використання ШІ.

4 травня керівники Google, Microsoft, OpenAI та Anthropic зустрілися з віцепрезиденткою США Камалою Харріс та вищими посадовими особами адміністрації, щоб обговорити ключові аспекти штучного інтелекту (ШІ). СЕО та співзасновник OpenAI Сем Альтман запропонував законодавцям США розглянути питання про видачу компаніям ліцензій на розробку потужного штучного інтелекту, подібного до того, що лежить в основі чат-бота його компанії.

У червні Генеральний секретар ООН Антоніу Гутерріш підтримав пропозицію деяких розробників штучного інтелекту про створення міжнародного органу спостереження за ШІ, такого як Міжнародне агентство з атомної енергії (МАГАТЕ).

21 липня провідні компанії, що займаються штучним інтелектом, включаючи OpenAI, Alphabet та Meta Platforms, взяли на себе добровільні зобовʼязання у сфері безпеки ШІ. Цей процес, координований Білим домом, має стати важливим кроком на шляху до ефективного управління ШІ як у США, так і в усьому світі.

До компаній також входять Anthropic, Inflection, Amazon.com та Microsoft, вони зобовʼязалися ретельно тестувати системи перед їх випуском.

Матеріали по темі

Ви знайшли помилку чи неточність?

Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.

Попередній слайд
Наступний слайд