Штучний інтелект як загроза. Окремі уряди та ЗМІ просять техногігантів «пригальмувати» із розробкою ШІ. Чого вони бояться /Марія Шарлай за допомогою ШІ MidJorney
Категорія
Інновації
Дата

Штучний інтелект як загроза. Окремі уряди та ЗМІ просять техногігантів «пригальмувати» із розробкою ШІ. Чого вони бояться

6 хв читання

Марія Шарлай за допомогою ШІ MidJorney

Бум використання ШІ-інструментів прийшовся на останні пів року. Це пояснює занепокоєність впливом ШІ на людство і відсутність законів, які б його регулювали. Яку саме загрозу вбачають у штучному інтелекті? Як на неї реагують законодавці? Forbes аналізує сумніви, які лунають навколо впровадження ШІ

Amazon інвестує мільярди доларів у ШІ, роботів та машинне навчання. Якими принципами й правилами керується компанія?

Дізнайтеся вже 22 листопада на Forbes Tech 2024. Купуйте квиток за посиланням!

Минулого тижня низка видань, серед яких Politico і Reuters, повідомили про відкритий лист, який підписали понад 1000 людей, серед яких гендиректор Tesla і Twitter Ілон Маск та авторитетний канадський ІТ-науковець Йошуа Бенджіо.

Підписанти листа закликають розробників негайно призупинити роботу над вдосконаленням ШІ-систем на наступні шість місяців і разом із законотворцями «різко збільшити розробку систем контролю» ШІ-технології. У листі лабораторії ШІ звинувачують у «безконтрольній гонитві за розвитком і застосуванням все більш потужних цифрових умів, які ніхто не може зрозуміти, як надійно контролювати».

Дехто вважає лицемірним з боку Маска підписувати такий лист, враховуючи те, із якою затятістю він і Tesla опиралися відповідальності за дефектний ШІ у технології автопілота, який додавали в автомобілі компанії.

Втім, це все ж не робить питання формулювання чітких правил та інструкцій менш актуальним, особливо якщо взяти до увагу скорочення команд етичної розробки ШІ у низці технологічних компаній. Крім того, багатьох людей хвилює, чи не залишить ШІ їх без роботи.

Етика і штучний інтелект

Видання The Verge нещодавно повідомляло про те, що компанія Microsoft розпустила команду, яка слідкувала за відповідальною й етичною розробкою технології. За словами чинних і колишніх працівників, тепер у Microsoft немає команди, яка б забезпечувала дотримання принципів відповідальної розробки продуктів на основі ШІ. І це тоді, коли компанія розробляє ШІ-інструменти для загального використання.

Financial Times пише також про інші компанії, що скоротили кількість працівників, які займаються етикою ШІ. За Ілона Маска, активного поборника контролю за ШІ, у Twitter розпустили невелику етичну команду ШІ. У вересні Meta ліквідувала команду відповідальних інновацій, що складалася із близько 20 інженерів і спеціалістів з етики.

А під час масового скорочення співробітників Alphabet серед 12 000, які втратили роботу, опинилися ті, хто займався наглядом за етичною розробкою ШІ у Google.

Всі, хто задіяний у розробці ШІ, погоджуються з тим, що технологія несе серйозні екзистенційні ризики. Техногіганти запевняють, що ставляться до цих ризиків серйозно, але будь-які скорочення команд, які забезпечують відповідальну розробку продуктів, викликають занепокоєння.

Такі команди повинні бути у кожній компанії, яка хоче розробляти нові продукти. Вони допомагають розробникам передбачити потенційні ризики та проблеми нової технології, а також усунити їх, перш ніж продукти на основі цих технологій потраплять до рук користувачів.

А ще у них є завдання казати «ні» або «пригальмуйте» компаніям, які часто не хочуть таке чути.

ШІ й ринок праці

Financial Times зробив огляд дослідження Goldman Sachs, результати якого показують, що 300 млн штатних співробітників великих економік зазнають впливу технологій ШІ.

Дві третини професій у США та Європі потраплять під певний рівень впливу автоматизації, а юристи та адміністративні співробітники ризикують стати непотрібними. У більшості людей автоматизації підлягатиме менше половини робочого навантаження, а звільнений час вони зможуть витрачати на більш продуктивні завдання.

Близько 7% американських працівників займають посади, принаймні 50% завдань яких може виконувати генеративний ШІ, тому вони вразливі і можуть втратити роботу.

Європол застерігає, що швидкий розвиток генеративного ШІ може сприяти шахрайству у мережі і діяльності кіберзлочинців, а «великі мовні моделі можуть стати основою для кримінальної бізнес-моделі майбутнього».

Все частіше представники творчих професій говорять про своє занепокоєння тим, що розробники генеративних ШІ-інструментів використовують роботи художників і музикантів для навчання своїх моделей без дозволу правовласників твору.

Такі інструменти, як ChatGPT, DALL-E і MusicLM (генерує музику), можуть залишити людей відповідних креативних професій без заробітку. Ілюстратори, комерційні графічні дизайнери і редактори зображень можуть стати непотрібними.

У січні група художників подала колективний позов у Каліфорнії проти Stability AI, Midjourney і художнього сайту DeviantArt за неправомірне використання їхніх робіт для навчання моделі ШІ Stable Diffusion.

А у лютому 2023-го фотобанк Getty Images подав до суду на Stability AI, розробника ШІ-генератора зображень Stable Diffusion. Зокрема, Getty Images звинувачує стартап у неправомірному використанні понад 12 млн зображень фотобанку для тренування своєї системи.

Варто зазначити, що не всі творці проти навчання моделей ШІ на їхніх роботах, але вимагають налагодження механізмів згоди і компенсації. Творці мають право на вибір у тому, дозволяти чи не дозволяти використовувати їхні роботи для тренуванні ШІ.

Про творців уже має намір потурбуватися Adobe. The Verge повідомляє про те, що компанія планує платити художникам, які погодяться надати свої роботи для тренування ШІ.

Adobe сподівається запобігати плагіату, запропонувавши художникам спосіб не давати ШІ вчитися на їхніх роботах. Компанія працює над системою «Не тренуй», яка даватиме художникам змогу вбудовувати такий запит у метадані зображення. Якщо творці різних ШІ-інструментів зважать на такий запит, їхні системи не використовуватимуть для навчання твори з таким проханням.

Stability AI пообіцяла поважати бажання художників, які зареєстрували свої запити на те, щоб їхні роботи не використовували для навчання моделей, на сайті Have I Been Trained? Роботи таких художників видалять із навчальної бази наступного великого релізу компанії.

Що роблять законотворці?

Якщо говорити про широку нормативно-законодавчу базу для регулювання розробки і використання ШІ, то вона в процесі створення. Reuters пише про те, що Європейський Союз працює над законом про штучний інтелект, який покликаний класифікувати різні інструменти ШІ відповідно до визначеного рівня ризику: від низького до неприпустимого.

Цей всеохоплюючий закон буде стосуватися усіх, хто надає продукти чи послугу на основі ШІ, і буде поширюватися на генеративні системи. Він працюватиме у тандемі із іншими законами, такими як Загальний регламент захисту даних.

До ШІ-інструментів високого ризику може відноситися низка продуктів, як ті, що використовуються у критичній інфраструктурі, правоохоронних органах чи освіті. Такі інструменти, ймовірно, будуть піддаватися ретельній оцінці ризиків, компанії змушені будуть вести журнал активності і надавати регуляторам дані для огляду. Це може призвести до зростання витрат компаній на юридичні послуги.

Також пропонується окрема категорія (система ШІ загального призначення) для ШІ-інструментів, які мають низку застосувань, як генеративні моделі типу ChatGPT.

Законопроєкт пропонує, щоб штрафи порушникам майбутнього закону сягали €30 млн.

Очікується, що законопроєкт ухвалять цього року, але точної дати не оголошено. Після ухвалення закону і набуття його чинності у компаній буде близько двох років, щоб привести свої операції у відповідність до нового закону.

А поки що дехто наносить превентивний удар і забороняє деякі ШІ-інструменти. Так, OpenAI закрила доступ до ChatGPT для Італії після того, як Агентство із захисту даних країни тимчасово заборонило чат-бот.

Заборону можуть зняти після завершення розслідування про порушення законів про конфіденційність. Агентство також звинувачує OpenAI у відсутності належної перевірки віку користувачів чат-бота, яким повинно бути не менше 13 років. 

Агентство стверджує, що «не існує жодних законних підстав для масштабного збору і зберігання особистих даних для навчання ChatGPT». У OpenAI є 20 днів на те, щоб виправити ці порушення, інакше компанія ризикує отримати штрафів до €20 млн, або 4% річних світових чистих продажів.

Велика Британія – хаб ШІ

А Велика Британія тим часом хоче стати хабом для розробників ШІ. Нова міністерка цифрових технологій країни Мішель Донлен у середу розповіла про план урядової ініціативи із регулювання ШІ, який не передбачає жорсткого контролю.

Politico пише, що, згідно із планом, регуляторним органам країни дається рік на те, щоб розробити «практичні інструкції» для безпечного використання у їхніх сферах машинного навчання, керуючись широкими принципами безпеки, відкритості, справедливості і відповідальності.

Але Туманний Альбіон не планує формування нових профільних органів чи законопроєктів для регулювання ШІ.

Донлен впевнена, що її «підхід, заснований на здоровому глузді і спрямований на результати», дасть Великій Британії можливість «стати найкращим місцем у світі для створення, тестування і використання ШІ-технологій».

Технологічні експерти не вражені таким підходом. Директор ШІ-політики в Інституті Ади Лавлейс Майкл Бертвісл каже, що такий підхід залишає «суттєві прогалини», які можуть призвести до шкоди користувачам.

«Нам не варто винаходити те, що ми не можемо контролювати», – попереджає дослідник Інституту Ади Лавлейс Коннор Аксіотс. 

Матеріали по темі

Ви знайшли помилку чи неточність?

Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.

Попередній слайд
Наступний слайд