Протягом пів століття піонер штучного інтелекту Джефрі Гінтон розвивав технологію, що лежить в основі чат-ботів, але нині він побоюється, що вона завдасть серйозної шкоди, пише The New York Times. Гінтон звільнився з роботи в Google, де пропрацював понад десять років.
Amazon інвестує мільярди доларів у ШІ, роботів та машинне навчання. Якими принципами й правилами керується компанія?
Дізнайтеся вже 22 листопада на Forbes Tech 2024. Купуйте квиток за посиланням!
Ключові факти
- У понеділок, 1 травня, Гінтон офіційно приєднався до критиків, які кажуть, що компанії мчать назустріч небезпеці своєю агресивною кампанією створення продуктів на основі генеративного ШІ.
- Доктор Гінтон сказав, що звільнився з роботи в Google, де пропрацював понад десять років і став одним із найшанованіших голосів у цій галузі, тому він може вільно говорити про ризики ШІ. За його словами, тепер він шкодує про роботу всього свого життя.
- Гінтон вважає, що в міру того, як компанії вдосконалюють свої системи ШІ, вони стають дедалі небезпечнішими. «Погляньте, як це було пʼять років тому і як зараз, – сказав він. – Візьміть різницю та поширьте її наперед. Це страшно».
- За його словами, до минулого року Google діяв як «належний розпорядник» технології, намагаючись не випускати те, що може завдати шкоди. Але тепер, коли Microsoft доповнила свою пошукову систему Bing чат-ботом, що кидає виклик основному бізнесу Google, Google прагне впровадити таку ж технологію.
- Він безпосередньо стурбований, що ШІ згодом переверне ринок праці, а Інтернет буде наповнений фальшивими фотографіями, відео та текстом, і звичайна людина «більше не зможе знати, що правда».
- Гінтон занепокоєний тим, що майбутні версії технології можуть стати загрозою для людства, оскільки окремі особи та компанії дозволяють системам ШІ не лише генерувати свій власний компʼютерний код, а й фактично запускати цей код самостійно.
- «Ідея про те, що ця штука справді може стати розумнішою за людей – у це повірили лише небагато людей, – заявив він. – Але більшість з них думали, що це далеко. Я й сам так гадав, вважав, що це буде через 30-50 років чи навіть більше. Очевидно, більш я так не думаю».
Контекст
У 2012 році доктор Гінтон і двоє його аспірантів в Університеті Торонто, Ілля Суцкевер та Алекс Крішевський, створили технологію, яка стала інтелектуальною основою для систем ШІ. Дослідники побудували нейронну мережу, яка могла аналізувати тисячі фотографій і навчалася ідентифікувати звичайні обʼєкти, такі як квіти, собаки та автомобілі.
Google витратив $44 млн на придбання компанії, заснованої Гінтоном та студентами. І їхня система привела до створення все більш потужних технологій, включаючи нові чат-боти, такі як ChatGPT і Google Bard.
Лідери галузі вважають, що нові системи ШІ можуть мати таке ж значення, як поява веб-браузера на початку 1990-х років, і вірогідно призведуть до прориву в різних галузях, від дослідження ліків до освіти. Водночас інсайдери галузі стурбовані, що генеративний ШІ вже може бути інструментом дезінформації. Незабаром це здатне стати загрозою для робочих місць. Найбільше ж побоювання в галузі технологій – у майбутньому ШІ може становити небезпеку для людства.
Після того, як у березні стартап OpenAI із Сан-Франциско випустив нову версію ChatGPT, понад 1000 технологічних лідерів і дослідників підписали відкритий лист із закликом ввести шестимісячний мораторій на розробку нових систем, оскільки технології ШІ становлять «серйозні ризики для суспільства та людства».
Через кілька днів 19 нинішніх і колишніх лідерів Асоціації з розвитку штучного інтелекту, академічного товариства з 40-річною історією, випустили власний лист із попередженням про ризики, повʼязані з ШІ. До цієї групи входив Ерік Хорвіц, головний науковий співробітник Microsoft, яка розгорнула технологію OpenAI у широкому спектрі продуктів, включаючи пошукову систему Bing.
Тоді Гінтон, якого часто називають «хрещеним батьком ШІ», не підписав жодного з цих листів і сказав, що не хоче публічно критикувати Google чи інші компанії, доки не звільниться з роботи.
Ви знайшли помилку чи неточність?
Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.