Меньше ответственности, больше бизнеса. Почему Microsoft уволила этическую команду для ИИ. Анализ The Verge /иллюстрация Getty Images / Анна Наконечная
Категория
Инновации
Дата

Меньше ответственности, больше бизнеса. Почему Microsoft уволила этическую команду для ИИ. Анализ The Verge

5 хв читання

иллюстрация Getty Images / Анна Наконечная

Microsoft гонится за первенством в развитии и применении технологии ИИ и, похоже, готова пожертвовать этикой ради победы над конкурентами. The Verge проанализировал сообщение о том, что компания распустила команду, которая следила за ответственной и нравственной разработкой технологии, и какие последствия это может иметь.

Forbes выбрал ключевое из анализа.

По информации Platformer, Microsoft уволила всю команду, которая занималась вопросами этики и общества в рамках разработок искусственного интеллекта. Эта команда оказалась среди 10 000 других сотрудников компании, которым указали на дверь.

По словам действующих и бывших работников, теперь у Microsoft нет команды, которая обеспечивала бы соблюдение принципов ответственной разработки продуктов на основе ИИ. И это в то время, когда компания разрабатывает ИИ-инструменты для общего использования.

В свою защиту в Microsoft указывают на то, что у них продолжает работать Офис ответственного ИИ, который создает правила и принципы разработки ИИ-инициатив в компании.

«Microsoft привержена безопасной и ответственной разработке ИИ-продуктов и обеспечивает это посредством инвестиций в соответствующих людей, процессы и сотрудничество, – говорится в заявлении компании. – За последние шесть лет мы увеличили количество людей в командах продукта и Офисе ответственного ИИ, чтобы все мы соблюдали принципы ИИ».

Но по словам сотрудников, команда этики и общества играла ключевую роль в том, чтобы принципы ответственной разработки ИИ действительно находили отражение в продуктах компании.

«Люди смотрели на принципы, которые формировал Офис ответственного ИИ, и не понимали, как их применить, – рассказал один бывший сотрудник. – Наша работа заключалась в том, чтобы объяснить им и создать правила там, где их не было».

Команда этики и общества

Последние несколько лет команда разработала игру под названием «По твоему мнению…», которая помогала разработчикам представить потенциальный ущерб от ИИ и обсудить его при разработке продуктов. В последнее время команда работала над определением рисков, которые несет использование Microsoft технологий OpenAI в ряде продуктов техногиганта.

В 2020-м в команде было больше всего членов, почти 30, и среди них – инженеры, дизайнеры и философы. В октябре в рамках реорганизации команду сократили до семи человек.

После реорганизации корпоративный вице-президент по ИИ Джон Монтгомери сказал работникам, что лидеры компании приказывают им двигаться быстрее. «[Главный технологический директор] Кевин [Скотт] и [гендиректор] Сатья [Наделла] очень, очень сильно давят на нас и хотят, чтобы новые модели от OpenAI как можно скорее попали в руки пользователей», – говорит он в записи, которую удалось получить Platformer.

Из-за этого давления большинство команды разбрасывают по другим отделам компании.

Некоторые пытались спорить. «Осмелюсь попросить вас пересмотреть это решение, – сказал один сотрудник. – Я понимаю, что бизнес – это важно…но наша команда всегда глубоко переживала о том, как мы влияем на общество. Мы определяли наше негативное влияние, которое значительно».

Монтгомери ответил так: «Могу ли я пересмотреть решение? Не думаю, что я стану это делать, ведь давление никуда не исчезло. Вы не знаете то, что знаю я, и вы вероятно можете быть за это благодарны. Происходит очень и очень много разных событий».

На вопрос о том, распустят ли команду, Монтгомери заверил, что нет. Большинство членов команды были разбросаны компанией по отделам, а небольшому количеству оставшихся людей пришлось выполнять работу, которую раньше выполняли 30 человек.

Только через пять месяцев после того собрания, 6 марта, остатки команды собрали в Zoom, чтобы сообщить, что команду все же ликвидируют.

По словам одного работника, данное решение разрушает целостность основы разработки безопасных ИИ-продуктов для пользователей. «Хуже всего то, что этим мы подвергаем риску бизнес и людей», – объяснил анонимный сотрудник.

Все ради победы

Такие команды должны быть в каждой компании, желающей ответственно разрабатывать новые продукты. Они помогают командам разработки предусмотреть потенциальные риски и проблемы новой технологии, а также устранить их, прежде чем продукты на основе этих технологий попадут в руки пользователей.

А еще у них есть задача говорить «нет» или «притормозить» компаниям, которые часто не хотят такое слышать. Это может быть причиной конфликтов, и некоторые из них стали известны в целом.

Так, в 2020-м Google уволил исследовательницу нравственного ИИ Тимнит Гебру после того, как она опубликовала работу, в которой раскритиковала большие языковые модели, которые за два года стали безумно популярными. Это привело к увольнению других ключевых лидеров этого же отдела и к уменьшению доверия к Google как ответственному разработчику ИИ-продуктов.

Microsoft очень сосредоточилась на выпуске ИИ-инструментов быстрее конкурентов.

По словам членов команды этики и общества, они пытались поддерживать разработку новых продуктов, однако зацикленность на опережении конкурентов сделала лидеров компании менее заинтересованными в мышлении на предложенную командой перспективу.

С одной стороны, возможно у Microsoft сейчас – уникальный шанс обогнать Google в поисковых продуктах, продуктах облачного вычисления, разработке ПО для производительности и других сферах, в которых эти гиганты конкурируют.

Когда Microsoft перезапустила поисковик Bing с функцией ИИ, инвесторам компании сообщили, что каждый 1% рыночной капитализации, которые компания сможет забрать у поисковика Google, – это плюс $2 млрд к годовому доходу.

Поэтому неудивительно, что Microsoft инвестировала в OpenAI $11 млрд и пытается интегрировать технологии стартапа во все свои продукты. Это приносит результаты: на прошлой неделе в компании сообщили, что у Bing теперь 100 миллионов активных пользователей, треть которых впервые присоединились после перезапуска поисковика.

С другой стороны, все, кто задействован в разработке ИИ, согласны с тем, что технология несет серьезные экзистенциальные риски. Техногиганты уверяют, что относятся к этим рискам серьезно, но любые сокращения команд, обеспечивающих ответственную разработку продуктов, вызывают беспокойство.

Справедливости ради стоит отметить, что рисками, связанными с ИИ, в Microsoft занимаются три другие группы.

Не навредить бренду

В прошлом году команда этики и общества расписала подробный отчет о рисках для бренда, связанных с инструментом Bing Image Creator, использующим систему DALL-E (OpenAI) для создания изображения по текстовому запросу. Инструмент стал доступен в ряде стран с октября.

Команда правильно предусмотрела, что программа может отнять хлеб у художников. «При тестировании Bing Image Creator обнаружено, что простой запрос с именем художника и средством передачи (картина, графика, фотография или скульптура) выдает изображения, которые почти невозможно отличить от оригинальной работы», – написала команда.

Также они добавили: «Существует реальный риск навредить бренду Microsoft и получить негативный пиар от жалоб художников и возмущения общественности, поэтому необходимо заранее принять меры, чтобы не испортить репутацию компании».

Кроме того, в прошлом году OpenAI обновил условия предоставления услуг, чтобы предоставить пользователям «все права на изображение, которые они создают с помощью DALL-E». Это еще больше обеспокоило команду этики и общества.

«Если ИИ-генератор математически дублирует изображение чужих работ, то с точки зрения этики сомнительно предполагать, что человек, создавший только запрос, имеет право собственности на полученные изображения», – написала в отчете команда.

Исследователи этики Microsoft создали список стратегий для смягчения ущерба, например, блокировать запросы, содержащие имена живых художников, и создать маркетплейс для продажи работ художников, который появляется при поиске художника.

По словам сотрудников компании, ни одну из этих стратегий не претворили в жизнь, но Bing Image Creator все равно запустили в тестовых странах.

В Microsoft утверждают, что инструмент исправили с учетом проблем, о которых говорится в упомянутых отчетах, и команда ответственного ИИ в дальнейшем работает над этими вопросами.

Однако юридическая сторона технологии так и остается нерешенной. В феврале 2023-го фотобанк Getty Images подал в суд на Stability AI, разработчика ИИ-генератора изображений Stable Diffusion. В частности, Getty Images обвиняет стартап в неправомерном использовании более 12 миллионов изображений фотобанка для тренировки своей системы.

Этот иск отвечает проблеме, возбужденной командой этики и общества Microsoft. «Вполне вероятно, что немногие художники дали согласие на использование своих работ в качестве тренировочных данных для генеративных ИИ-систем. Также мало из них осознают, как генеративная технология продуцирует вариации их работ за несколько секунд», – написала команда в прошлом году.

Материалы по теме

Вы нашли ошибку или неточность?

Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.

Предыдущий слайд
Следующий слайд
В новом журнале Forbes Ukraine: список NEXT 250 перспективных компаний малого и среднего бизнеса

Заказывайте с бесплатной курьерской доставкой по Украине