Урядам варто розглянути створення міжнародного органу для ШІ типу МАГАТЕ, вважає Білл Ґейтс. /Getty Images
Категорія
Інновації
Дата

Інновації завжди насторожували людство. Білл Ґейтс, Microsoft якого вклала понад $10 млрд у OpenAI, про п'ять страхів щодо ШІ-технологій та як з ними впоратися

6 хв читання

Урядам варто розглянути створення міжнародного органу для ШІ типу МАГАТЕ, вважає Білл Ґейтс. Фото Getty Images

Ризики, які несе штучний інтелект, реальні. Але з ними можна впоратися. Так розмірковує про розвиток нової технології у своїй колонці засновник Microsoft Білл Ґейтс. Він виокремив пʼять побоювань щодо ШІ, які турбують людство, та підказав, як навчитися їх сприймати. До всього – дав поради різним категоріям суспільства, як максимізувати користь від нової технології

Amazon інвестує мільярди доларів у ШІ, роботів та машинне навчання. Якими принципами й правилами керується компанія?

Дізнайтеся вже 22 листопада на Forbes Tech 2024. Купуйте квиток за посиланням!

Корпорація компʼютерних технологій Microsoft вклала понад $10 млрд у стартап OpenAI, який випустив мегапопулярний чатбот ChatGPT. Але її засновник Білл Ґейтс все ще занепокоєний розвитком ШІ.

Мільярдер робить такий собі історичний екскурс, щоб показати, як людство справлялося з попередніми революційними технологіями, які спершу всіх насторожували. Він зазначає, що бачить і розуміє низку занепокоєнь із приводу ШІ. Та хоче показати, під яким кутом сам на них дивиться.

Ґейтс каже, що майбутнє ШІ не таке похмуре, як дехто хоче його змалювати, але й не таке райдужне, як інші можуть його уявляти. «Ризики реальні, але я певен, що з ними можна впоратися», – зазначає він.

Ґейтс окреслив три аргументи, до яких він повертатиметься під час обговорення кожного з ризиків:

  1. Багато проблем, які спричиняє ШІ, мають історичний прецедент.
  2. ШІ може розвʼязувати проблеми, які створює.
  3. Необхідно пристосувати старі закони до сучасних реалій й запровадити нові.

Він наголошує на наявних ризиках або тих, які можуть зʼявитися. Тобто нагальних проблемах, а не тих, які виникнуть чи не виникнуть у майбутньому.

Діпфейки та дезінформація, створені ШІ, можуть підірвати вибори й демократію

Ґейтс наголошує, що дезінформація та шахрайство – не новітній винахід. А нові технології, такі як принтери, електронна пошта й соцмережі, лише допомагають їх поширювати. Багатьох непокоїть те, що наявність ШІ-інструментів зробить роботу шахраїв і пропагандистів ще простішою.

Підприємець розуміє, що ця проблема далека від урегулювання, але кілька речей вселяють у нього оптимізм.

Перша з них – люди вчаться не сприймати все за чисту монету.

«Роками людство потрапляло на гачок шахраїв, які в е-листах представлялися нігерійським принцом та обіцяли золоті гори за деталі банківської картки. Та з часом вони навчилися ставити це під сумнів», – пише Ґейтс. Шахрайські схеми стають усе складнішими, а діпфеки правдоподібнішими, тому нам треба розвивати критичне мислення.

Другий привід для оптимізму – ШІ може визначати діпфейки, а не лише створювати їх. Він наводить приклади детектору діпфейків від Intel і технології, над якою працює DARPA. Вона має визначати, чи проводили маніпуляції над аудіо- чи відеофайлом. Це циклічний процес: одні створюють детектори фейків, інші вигадують способи їх обходити. Але ситуація не така безнадійна, як дехто хоче показати.

Інновації завжди насторожували людство. Білл Ґейтс, Microsoft якого вклала понад $10 млрд у OpenAI, про п'ять страхів щодо ШІ-технологій та як з ними впоратися /Фото 1

ШІ спрощує атаки на людей та уряди

ШІ-моделі можуть полегшити роботу хакерам, які розробляють шкідливі ПЗ для викрадення даних чи зламування систем безпеки.

ШІ можна використати й для хороших цілей, а не лише поганих. На думку Ґейтса, це хороша новина. Він наголошує, що урядам і приватному безпековому сектору потрібно заручитися найновішими інструментами для виявлення й усунення недоліків систем безпеки раніше, ніж цими засобами скористаються злочинці.

Саме це, зазначає мільярдер, має бути аргументом, щоб не робити паузу у розробці ШІ, як дехто пропонує. «Кіберзлочинці не припинять розробляти нові інструменти. Як і люди, які хочуть використати ШІ для розробки ядерної зброї чи біологічних атак. Тому створення технології для протидії їм повинно відбуватися у тому ж темпі».

На страхи тих, хто боїться вепонізації ШІ заради кібератак на інші країни, Ґейтс відповідає пропозицією глянути на історичні приклади. Так, режим нерозповсюдження ядерної зброї має свої недоліки, але він запобіг тотальній атомній війні, якої боялося покоління Ґейтса. Тому він вважає, що урядам варто розглянути створення міжнародного органу для ШІ типу МАГАТЕ.

ШІ забере в людей роботу

Тих, хто боїться втратити роботу через ШІ, Ґейтс заспокоює – у найближчі кілька років ШІ переважно допомагатиме людям більш ефективно виконувати їхню роботу. Та й попит на професії, що повʼязані з допомогою іншим – вчителі, медичний персонал – ніколи не зникне.

А от щоб люди надалі не втратили роботу на користь більш розвиненого ШІ, урядам і бізнесам потрібно організувати підтримку та перекваліфікацію. Цим треба невідкладно зайнятися, щоб уникнути занепаду рівня життя певної категорії людей, як це сталося під час зменшення кількості виробничих професій в США.

Ґейтс нагадує, що ШІ не перша технологія, яка приносить великі зміни на ринок праці, хоча вплив штучного інтелекту й не буде таким тотальним, як свого часу індустріальна революція.

Він вважає, що використання ШІ буде більш схожим на поширення ПК та ПЗ типу Word: працівники пристосувалися до новинок, які спростили їм виконання деяких завдань, а не стали причиною їхнього звільнення.

Getty Images

Намальовано ШІ. Стенд компанії SenseTime, що займається розробкою програмного забезпечення ШІ, на Всесвітній конференції зі штучного інтелекту 2023 у Шанхаї, Китай, 7 липня 2023 року. Фото Getty Images

ШІ переймає наші упередження та вигадує те, чого не існує

Ґейтс пояснює особливості роботи ШІ, які призводять до того, що чатбот може видавати неправдиву чи упереджену інформацію.

Галюцинації – це термін, який позначає явище, коли ШІ впевнено видає неправильну відповідь. Причина полягає в тому, що ШІ бракує контексту. Коли йому поставити питання, він дивиться на слова, які ви використовуєте, і шукає у системі шматки тексту, які найчастіше з ними повʼязані.

Якщо сказати чат-боту, що він помилився, він може відповісти «Вибачте, хибодрук». Але це галюцинація, пояснює Ґейтс, бо він нічого не друкував. Бот так відповідає, бо просканував достатньо текстів, щоб «знати» – таку фразу люди вживають, коли їх хтось виправляє. Тобто, проблема в інформації, яку користувачі згодовують боту, й тому, як його навчили її обробляти.

Так само ШІ-моделі успадковують й упередження, які приховані у текстах, на яких їх його вчили. «Наприклад, якщо моделі згодували більшість текстів, в який згадуються лікарі-чоловіки, вона вважатиме, що більшість лікарів – чоловіки».

Засновник Microsoft не вважає галюцинації ШІ вродженою проблемою та вірить, що з часом він навчиться розрізняти факти й вигадки. OpenAI, за його словами, робить прогрес у цьому напрямку. Він також розповів про роботу Інституту Алана Тюрінга та Національного інституту стандартів і технологій над проблемою упередження. Один із застосованих підходів – вбудувати в ШІ людські цінності й критичне мислення.

ШІ із такими якостями повинен працювати як самосвідома людина: може вона й припускає, що більшість лікарів – чоловіки, але вона достатньо свідома цього припущення, щоб йому не піддаватися.

Крім того, він нагадує людям, що їм потрібне критичне мислення. Ті, хто використовують ШІ, повинні знати про його проблему з упередженням і галюцинаціями, а отже критично оцінювати й перевіряти його відповіді.

Учні не навчаться писати, бо ШІ робитиме це за них

На це занепокоєння Ґейтс наводить приклад досвідченої вчительки англійської мови Шері Шилдс, яка поділилася досвідом свого використання ChatGPT у навчанні школярів. Чатбот допомагає її учням створити план есе і навіть дає відгук на їхні твори.

Вона вважає, що ШІ-технології потрібно прийняти як ще один інструмент, який доступний дітям, і навчити їх користуватися ним, як колись вчили їх «гуглити». На її думку, ШІ може створити революцію у навчанні.

Сам Ґейтс пригадує час, коли стали поширеними електронні калькулятори: у 1970-х та 1980-х. Тоді одні вчителі математики хвилювалися, що діти перестануть вчитися самостійно рахувати, а інші прийняли технологію і зосередилися на інших навичках, окрім вміння рахувати.

ШІ також можна використати для навчання дітей розпізнавати дезінформацію й перевіряти факти. Чатбот можна просити видати статтю на певну тему, а учні нехай оцінюють її вірогідність.

Він навів приклад освітніх неприбуткових проєктів Khan Academy й OER Project, які пропонують інструменти для перевірки тверджень. Вміння відрізняти факти від вигадок важко переоцінити.

Інновації завжди насторожували людство. Білл Ґейтс, Microsoft якого вклала понад $10 млрд у OpenAI, про п'ять страхів щодо ШІ-технологій та як з ними впоратися /Фото 2

Робот-шахіст Yuanradish компанії SenseTime грає з дитиною в гру Go на Всесвітній конференції штучного інтелекту 2023 у Шанхаї, Китай, 6 липня 2023 року.

Що робити далі

Ґейтс вважає, що в питанні ШІ є більше приводів для оптимізму, але дав поради різним категоріям суспільства, як максимізувати користь від нової технології.

Урядам

Розвивати обізнаність із ШІ, щоб можна було створювати закони й правила, які відповідали б викликам цієї технології. Навчитися контролювати дезінформацію і діпфейки, запобігати загрозам безпеці, наслідкам впливу ШІ на ринок праці й освіту.

ШІ-компаніям

Зробити безпеку та відповідальність головними принципами роботи. Захищати конфіденційність людей, створювати ШІ-моделі так, щоб вони відображали основні людські цінності, мінімізувати упередження й запобігати використанню технології злочинцями чи терористами.

Компаніям різних секторів

Допомогти працівникам освоїти ШІ. Завжди попереджати клієнтів про те, що вони спілкуються зі ШІ, а не реальною людиною, якщо так відбувається.

Людям

Слідкувати за розвитком ШІ, щоб знати про всі інновації, дискусії навколо технології, її переваги й небезпеки.

«Переваги розвитку ШІ будуть величезними. Найкраща причина вірити, що ми впораємося з ризиками, у тому, що нам це вже вдавалося раніше [в аналогічних ситуаціях]», – резюмує Ґейтс. 

Матеріали по темі

Ви знайшли помилку чи неточність?

Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.

Попередній слайд
Наступний слайд