Ведущие разработчики ИИ сформировали группу по исследованию технологии. Их заподозрили в желании избежать регулирования /Getty Images
Категория
Новости
Дата

Ведущие разработчики ИИ сформировали группу по исследованию технологии. Их заподозрили в желании избежать регулирования

2 хв читання

Getty Images

Anthropic, Google, Microsoft и OpenAI, ведущие разработчики искусственного интеллекта, сформировали группу для исследования все более мощного ИИ и разработки передовых методов управления им на фоне общественного беспокойства и контроля со стороны регулирующих органов, пишет Financial Times.

Ключевые факты

  • В среду, 26 июля, Anthropic, Google, Microsoft и OpenAI запустили форум Frontier Model Forum с целью «обеспечить безопасную и ответственную разработку передовых моделей ИИ». «Эта инициатива является жизненно важным шагом для объединения технологического сектора с целью ответственного продвижения ИИ и решения проблем во благо всего человечества», – сказал Брэд Смит, вице-председатель и президент Microsoft.
  • В последние месяцы американские компании внедряют все более мощные инструменты, которые создают оригинальный контент в форме изображения, текста или видео. Это вызвало беспокойство относительно нарушения авторских прав, нарушений конфиденциальности и того, что ИИ может в итоге заменить людей в ряде профессий.
  • Участие в форуме ограничено лишь некоторыми компаниями, создающими «крупномасштабные модели машинного обучения, превосходящие возможности, которые имеются в настоящее время в самых продвинутых существующих моделях». Работа форума будет сосредоточена на потенциальных рисках, связанных с более мощным ИИ, а не на вопросах, касающихся авторского права, защиты данных и конфиденциальности, которые сегодня актуальны для регулирующих органов.
  • В свою очередь, разработчики ИИ подчеркнули, что они помнят об опасностях и стремятся смягчить их. На прошлой неделе руководители всех четырех компаний взяли на себя обязательства в сфере ИИ.
  • В то же время Эмили Бендер, компьютерный лингвист из Вашингтонского университета, тщательно изучавший большие языковые модели, считает, что заверения компаний были попыткой избежать регулирования и показать способность к саморегуляции. По ее словам, сосредоточение внимания на опасениях, что «машины оживут и восстанут», отвлекло внимание от «настоящих проблем, связанных с кражей данных, слежкой и привлечением всех к гиг-экономике».
  • «Регулирование должно выходить извне. Это должно быть принято правительством, которое представляет людей, чтобы ограничить возможности этих корпораций», – добавила она.

Контекст

Подобные группы создавались и раньше. Партнерство с ИИ, членами-основателями которого также были Google и Microsoft, было создано в 2016 году, в него вошли представители гражданского общества, академических кругов и промышленности, а его миссией является продвижение ответственного использования ИИ.

4 мая руководители Google, Microsoft, OpenAI и Anthropic встретились с вице-президентом США Камалой Харрис и высшими должностными лицами администрации, чтобы обсудить ключевые аспекты искусственного интеллекта (ИИ). СЕО и соучредитель OpenAI Сэм Альтман предложил законодателям США рассмотреть вопрос о выдаче компаниям лицензий на разработку мощного искусственного интеллекта, подобного тому, что лежит в основе чат-бота его компании.

В июне Генеральный секретарь ООН Антониу Гутерриш поддержал предложение некоторых разработчиков искусственного интеллекта о создании международного органа наблюдения за ИИ, такого как Международное агентство по атомной энергии (МАГАТЭ).

21 июля ведущие компании, занимающиеся искусственным интеллектом, включая OpenAI, Alphabet и Meta Platforms, взяли на себя добровольные обязательства в сфере безопасности ИИ. Этот процесс, координированный Белым домом, должен стать важным шагом на пути эффективного управления ИИ как в США, так и во всем мире.

В компании также входят Anthropic, Inflection, Amazon.com и Microsoft, они обязались тщательно тестировать системы перед их выпуском.

Материалы по теме

Вы нашли ошибку или неточность?

Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.

Предыдущий слайд
Следующий слайд