Microsoft гонится за первенством в развитии и применении технологии ИИ и, похоже, готова пожертвовать этикой ради победы над конкурентами. The Verge проанализировал сообщение о том, что компания распустила команду, которая следила за ответственной и нравственной разработкой технологии, и какие последствия это может иметь.
Forbes выбрал ключевое из анализа.
Новий номер Forbes Ukraine: 202 найбільші приватні компанії та 303 ефективних СЕО. Замовляйте та отримуйте два журнали за ціною одного!
По информации Platformer, Microsoft уволила всю команду, которая занималась вопросами этики и общества в рамках разработок искусственного интеллекта. Эта команда оказалась среди 10 000 других сотрудников компании, которым указали на дверь.
По словам действующих и бывших работников, теперь у Microsoft нет команды, которая обеспечивала бы соблюдение принципов ответственной разработки продуктов на основе ИИ. И это в то время, когда компания разрабатывает ИИ-инструменты для общего использования.
В свою защиту в Microsoft указывают на то, что у них продолжает работать Офис ответственного ИИ, который создает правила и принципы разработки ИИ-инициатив в компании.
«Microsoft привержена безопасной и ответственной разработке ИИ-продуктов и обеспечивает это посредством инвестиций в соответствующих людей, процессы и сотрудничество, – говорится в заявлении компании. – За последние шесть лет мы увеличили количество людей в командах продукта и Офисе ответственного ИИ, чтобы все мы соблюдали принципы ИИ».
Но по словам сотрудников, команда этики и общества играла ключевую роль в том, чтобы принципы ответственной разработки ИИ действительно находили отражение в продуктах компании.
«Люди смотрели на принципы, которые формировал Офис ответственного ИИ, и не понимали, как их применить, – рассказал один бывший сотрудник. – Наша работа заключалась в том, чтобы объяснить им и создать правила там, где их не было».
Команда этики и общества
Последние несколько лет команда разработала игру под названием «По твоему мнению…», которая помогала разработчикам представить потенциальный ущерб от ИИ и обсудить его при разработке продуктов. В последнее время команда работала над определением рисков, которые несет использование Microsoft технологий OpenAI в ряде продуктов техногиганта.
В 2020-м в команде было больше всего членов, почти 30, и среди них – инженеры, дизайнеры и философы. В октябре в рамках реорганизации команду сократили до семи человек.
После реорганизации корпоративный вице-президент по ИИ Джон Монтгомери сказал работникам, что лидеры компании приказывают им двигаться быстрее. «[Главный технологический директор] Кевин [Скотт] и [гендиректор] Сатья [Наделла] очень, очень сильно давят на нас и хотят, чтобы новые модели от OpenAI как можно скорее попали в руки пользователей», – говорит он в записи, которую удалось получить Platformer.
Из-за этого давления большинство команды разбрасывают по другим отделам компании.
Некоторые пытались спорить. «Осмелюсь попросить вас пересмотреть это решение, – сказал один сотрудник. – Я понимаю, что бизнес – это важно…но наша команда всегда глубоко переживала о том, как мы влияем на общество. Мы определяли наше негативное влияние, которое значительно».
Монтгомери ответил так: «Могу ли я пересмотреть решение? Не думаю, что я стану это делать, ведь давление никуда не исчезло. Вы не знаете то, что знаю я, и вы вероятно можете быть за это благодарны. Происходит очень и очень много разных событий».
На вопрос о том, распустят ли команду, Монтгомери заверил, что нет. Большинство членов команды были разбросаны компанией по отделам, а небольшому количеству оставшихся людей пришлось выполнять работу, которую раньше выполняли 30 человек.
Только через пять месяцев после того собрания, 6 марта, остатки команды собрали в Zoom, чтобы сообщить, что команду все же ликвидируют.
По словам одного работника, данное решение разрушает целостность основы разработки безопасных ИИ-продуктов для пользователей. «Хуже всего то, что этим мы подвергаем риску бизнес и людей», – объяснил анонимный сотрудник.
Все ради победы
Такие команды должны быть в каждой компании, желающей ответственно разрабатывать новые продукты. Они помогают командам разработки предусмотреть потенциальные риски и проблемы новой технологии, а также устранить их, прежде чем продукты на основе этих технологий попадут в руки пользователей.
А еще у них есть задача говорить «нет» или «притормозить» компаниям, которые часто не хотят такое слышать. Это может быть причиной конфликтов, и некоторые из них стали известны в целом.
Так, в 2020-м Google уволил исследовательницу нравственного ИИ Тимнит Гебру после того, как она опубликовала работу, в которой раскритиковала большие языковые модели, которые за два года стали безумно популярными. Это привело к увольнению других ключевых лидеров этого же отдела и к уменьшению доверия к Google как ответственному разработчику ИИ-продуктов.
Microsoft очень сосредоточилась на выпуске ИИ-инструментов быстрее конкурентов.
По словам членов команды этики и общества, они пытались поддерживать разработку новых продуктов, однако зацикленность на опережении конкурентов сделала лидеров компании менее заинтересованными в мышлении на предложенную командой перспективу.
С одной стороны, возможно у Microsoft сейчас – уникальный шанс обогнать Google в поисковых продуктах, продуктах облачного вычисления, разработке ПО для производительности и других сферах, в которых эти гиганты конкурируют.
Когда Microsoft перезапустила поисковик Bing с функцией ИИ, инвесторам компании сообщили, что каждый 1% рыночной капитализации, которые компания сможет забрать у поисковика Google, – это плюс $2 млрд к годовому доходу.
Поэтому неудивительно, что Microsoft инвестировала в OpenAI $11 млрд и пытается интегрировать технологии стартапа во все свои продукты. Это приносит результаты: на прошлой неделе в компании сообщили, что у Bing теперь 100 миллионов активных пользователей, треть которых впервые присоединились после перезапуска поисковика.
С другой стороны, все, кто задействован в разработке ИИ, согласны с тем, что технология несет серьезные экзистенциальные риски. Техногиганты уверяют, что относятся к этим рискам серьезно, но любые сокращения команд, обеспечивающих ответственную разработку продуктов, вызывают беспокойство.
Справедливости ради стоит отметить, что рисками, связанными с ИИ, в Microsoft занимаются три другие группы.
Не навредить бренду
В прошлом году команда этики и общества расписала подробный отчет о рисках для бренда, связанных с инструментом Bing Image Creator, использующим систему DALL-E (OpenAI) для создания изображения по текстовому запросу. Инструмент стал доступен в ряде стран с октября.
Команда правильно предусмотрела, что программа может отнять хлеб у художников. «При тестировании Bing Image Creator обнаружено, что простой запрос с именем художника и средством передачи (картина, графика, фотография или скульптура) выдает изображения, которые почти невозможно отличить от оригинальной работы», – написала команда.
Также они добавили: «Существует реальный риск навредить бренду Microsoft и получить негативный пиар от жалоб художников и возмущения общественности, поэтому необходимо заранее принять меры, чтобы не испортить репутацию компании».
Кроме того, в прошлом году OpenAI обновил условия предоставления услуг, чтобы предоставить пользователям «все права на изображение, которые они создают с помощью DALL-E». Это еще больше обеспокоило команду этики и общества.
«Если ИИ-генератор математически дублирует изображение чужих работ, то с точки зрения этики сомнительно предполагать, что человек, создавший только запрос, имеет право собственности на полученные изображения», – написала в отчете команда.
Исследователи этики Microsoft создали список стратегий для смягчения ущерба, например, блокировать запросы, содержащие имена живых художников, и создать маркетплейс для продажи работ художников, который появляется при поиске художника.
По словам сотрудников компании, ни одну из этих стратегий не претворили в жизнь, но Bing Image Creator все равно запустили в тестовых странах.
В Microsoft утверждают, что инструмент исправили с учетом проблем, о которых говорится в упомянутых отчетах, и команда ответственного ИИ в дальнейшем работает над этими вопросами.
Однако юридическая сторона технологии так и остается нерешенной. В феврале 2023-го фотобанк Getty Images подал в суд на Stability AI, разработчика ИИ-генератора изображений Stable Diffusion. В частности, Getty Images обвиняет стартап в неправомерном использовании более 12 миллионов изображений фотобанка для тренировки своей системы.
Этот иск отвечает проблеме, возбужденной командой этики и общества Microsoft. «Вполне вероятно, что немногие художники дали согласие на использование своих работ в качестве тренировочных данных для генеративных ИИ-систем. Также мало из них осознают, как генеративная технология продуцирует вариации их работ за несколько секунд», – написала команда в прошлом году.
Вы нашли ошибку или неточность?
Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.