Менше відповідальності, більше бізнесу. Чому Microsoft звільнила етичну команду для ШІ. Аналіз The Verge /ілюстрація Getty Images / Анна Наконечна
Категорія
Інновації
Дата

Менше відповідальності, більше бізнесу. Чому Microsoft звільнила етичну команду для ШІ. Аналіз The Verge

5 хв читання

ілюстрація Getty Images / Анна Наконечна

Microsoft женеться за першістю у розвитку та застосуванні технології ШІ і, схоже, готова пожертвувати етикою заради перемоги над конкурентами. The Verge проаналізував повідомлення про те, що компанія розпустила команду, яка слідкувала за відповідальною й етичною розробкою технології, та які наслідки це може мати.

Forbes обрав ключове з аналізу.

Amazon інвестує мільярди доларів у ШІ, роботів та машинне навчання. Якими принципами й правилами керується компанія?

Дізнайтеся вже 22 листопада на Forbes Tech 2024. Купуйте квиток за посиланням!

За інформацією Platformer, Microsoft звільнила всю команду, яка займалася питаннями етики та суспільства в рамках розробок штучного інтелекту. Ця команда опинилася серед 10 000 інших співробітників компанії, яким вказали на двері.

За словами чинних і колишніх працівників, тепер у Microsoft немає команди, яка б забезпечувала дотримання принципів відповідальної розробки продуктів на основі ШІ. І це тоді, коли компанія розробляє ШІ-інструменти для загального використання.

На свій захист у Microsoft вказують на те, що у них продовжує працювати Офіс відповідального ШІ, який створює правила й принципи розробки ШІ-ініціатив у компанії.

«Microsoft віддана безпечній і відповідальній розробці ШІ-продуктів і забезпечує це за допомогою інвестицій у відповідних людей, процеси та співпрацю, – говориться у заяві компанії. – За останні шість років ми збільшили кількість людей в командах продукту й Офісі відповідального ШІ, щоб всі ми разом дотримувалися принципів ШІ».

Та за словами співробітників, команда етики та суспільства відігравала ключову роль у тому, щоб принципи відповідальної розробки ШІ насправді знаходили відображення у продуктах компанії.

«Люди дивилися на принципи, які формував Офіс відповідального ШІ, і не розуміли, як їх застосувати, – розповів один колишній співробітник. – Наша робота полягала у тому, щоб пояснити їм і створити правила там, де їх не було».

Команда етики і суспільства

Останні кілька років команда розробила гру під назвою «На твою думку…», яка допомагала розробникам уявити потенційну шкоду від ШІ та обговорити її під час розробки продуктів. Останнім часом команда працювала над визначенням ризиків, які несе використання Microsoft технологій OpenAI у низці продуктів техногіганта.

У 2020-му в команді було найбільше членів, майже 30, і серед них – інженери, дизайнери та філософи. У жовтні в рамках реорганізації команду скоротили до семи людей.

Після реорганізації корпоративний віцепрезидент з питань ШІ Джон Монтгомері сказав працівникам, що лідери компанії наказують їм рухатися швидше. «[Головний технологічний директор] Кевін [Скотт] і [гендиректор] Сатья [Наделла] дуже, дуже сильно тиснуть на нас і хочуть, щоб нові моделі від OpenAI якомога швидше потрапили до рук користувачів», – говорить він у записі, який вдалося отримати Platformer.

Через цей тиск більшість команди розкидають по інших відділах компанії.

Дехто намагався сперечатися. «Насмілюся попросити вас переглянути це рішення, – сказав один співробітник. – Я розумію, що бізнес – це важливо…але наша команда завжди глибоко переймалася тим, як ми впливаємо на суспільство. Ми визначали наш негативний вплив, який є значним».

Монтгомері відповів так: «Чи можу я переглянути рішення? Не думаю, що я стану це робити, адже тиск нікуди не зник. Ви не знаєте те, що знаю я, і ви певно можете бути за це вдячні. Відбувається дуже й дуже багато різних подій».

На запитання про те, чи розпустять команду, Монтгомері запевнив, що ні. Більшість членів команди розкидали компанією, а невеликій кількості людей, які залишилися, треба було виконувати роботу, яку раніше виконували 30 людей.

Аж ось за пʼять місяців після тих зборів, 6 березня, залишки команди зібрали у Zoom, щоб повідомити, що команду все ж ліквідують.

За словами одного працівника, це рішення руйнує цілісність основи розробки безпечних ШІ-продуктів для користувачів. «Найгірше те, що цим ми наражаємо на ризик бізнес і людей», – пояснив анонімний співробітник.

Все заради перемоги

Такі команди повинні бути у кожній компанії, яка хоче відповідально розробляти нові продукти. Вони допомагають командам розробки передбачити потенційні ризики та проблеми нової технології, а також усунити їх, перш ніж продукти на основі цих технологій потраплять до рук користувачів.

А ще у них є завдання казати «ні» або «пригальмуйте» компаніям, які часто не хочуть таке чути. Це може бути причиною конфліктів, і деякі з них стали відомі загалу.

Так, у 2020-му Google звільнив дослідницю етичного ШІ Тімніт Ґебру після того, як вона опублікувала роботу, в якій розкритикувала великі мовні моделі, які за два роки стали шалено популярними. Це призвело до звільнення інших ключових лідерів цього ж відділу й до зменшення довіри до Google як до відповідального розробника ШІ-продуктів.

Microsoft дуже зосередилася на випуску ШІ-інструментів швидше за конкурентів.

За словами членів команди етики та суспільства, вони намагалися підтримувати розробку нових продуктів, проте зацикленість на випередженні конкурентів зробила лідерів компанії менш зацікавленими у мисленні на перспективу, яке пропонувала команда.

З одного боку, можливо у Microsoft зараз – унікальний шанс обігнати Google у продуктах для пошуку, хмарного обчислення, розробці ПЗ для продуктивності та інших сферах, у яких ці гіганти конкурують.

Коли Microsoft перезапустила пошуковик Bing із функцією ШІ, то інвесторам компанії повідомили, що кожен 1% ринкової капіталізації, які компанія зможе забрати у пошуковика Google, – це плюс $2 млрд до річного доходу.

Тому не дивно, що Microsoft наразі інвестувала у OpenAI $11 млрд і намагається інтегрувати технології стартапу у всі свої продукти. Це приносить результати: минулого тижня в компанії повідомили, що у Bing тепер 100 мільйонів активних користувачів, третина яких вперше приєдналися після перезапуску пошуковика.

З іншого боку, всі, хто задіяний у розробці ШІ, погоджуються з тим, що технологія несе серйозні екзистенційні ризики. Техногіганти запевняють, що ставляться до цих ризиків серйозно, але будь-які скорочення команд, які забезпечують відповідальну розробку продуктів, викликають занепокоєння.

Заради справедливості варто зазначити, що ризиками, які повʼязані зі ШІ, в Microsoft займаються три інші групи.

Не нашкодити бренду

Минулого року команда етики та суспільства розписала детальний звіт про ризики для бренду, які повʼязані з інструментом Bing Image Creator, що використовує систему DALL-E (OpenAI) для створення зображення за текстовим запитом. Інструмент став доступний низці країн із жовтня.

Команда правильно передбачила, що програма може забрати хліб у художників. «Під час тестування Bing Image Creator виявлено, що простий запит із іменем художника та засобом передачі (картина, графіка, фотографія чи скульптура) видає зображення, які майже неможливо відрізнити від оригінальної роботи», – написала команда.

Також вони додали: «Існує реальний ризик нашкодити бренду Microsoft і отримати негативний піар від скарг художників та обурення громадськості, тому необхідно заздалегідь вжити заходів, щоб не зіпсувати репутацію компанії».

Крім того, минулого року OpenAI оновив умови надання послуг, щоб дати користувачам «усі права на зображення, які вони створюють за допомогою DALL-E». Це ще більше занепокоїло команду етики та суспільства.

«Якщо ШІ-генератор математично дублює зображення чужих робіт, то з точки зору етики сумнівно припускати, що людина, яка створила лише запит, має право власності на отримані зображення», – написала у звіті команда.

Дослідники етики Microsoft створили список стратегій для помʼякшення шкоди, наприклад, блокувати запити, що містять імена живих художників, і створити маркетплейс для продажу робіт художників, який зʼявлятиметься під час пошуку художника. 

За словами працівників компанії, жодну з цих стратегій не втілили в життя, але Bing Image Creator все одно запустили у тестових країнах.

В Microsoft стверджують, що інструмент виправили з урахуванням проблем, про які говориться у вищезгаданих звітах, і команда відповідального ШІ надалі працює над цими питаннями.

Проте юридична сторона технології так і залишається невирішеною. У лютому 2023-го фотобанк Getty Images подав до суду на Stability AI, розробника ШІ-генератора зображень Stable Diffusion. Зокрема Getty Images звинувачує стартап у неправомірному використанні понад 12 мільйонів зображень фотобанку для тренування своєї системи.

Цей позов відповідає проблемі, яку порушила команда етики та суспільства Microsoft. «Цілком ймовірно, що небагато художників дали згоду на використання своїх робіт як тренувальних даних для генеративних ШІ-систем. Так само мало з них усвідомлюють, як генеративна технологія продукує варіації їхніх робіт за кілька секунд», – написала команда минулого року. 

Матеріали по темі

Ви знайшли помилку чи неточність?

Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.

Попередній слайд
Наступний слайд