Категория
Новости
Дата

США рассматривают введение экспортного контроля для ИИ-моделей – Reuters

1 хв читання

Администрация президента США Джо Байдена планирует ограничить экспорт в Китай передовых ИИ-моделей, основного программного обеспечения систем искусственного интеллекта, таких как ChatGPT, пишет Reuters со ссылкой на источники.

Ключевые факты

  • Министерство торговли США рассматривает возможность принятия новых нормативных мер по ограничению экспорта моделей искусственного интеллекта с закрытым исходным кодом, сообщили три источника, знакомых с этим вопросом.
  • Меры дополнят ряд ограничений, принятых за последние два года, чтобы заблокировать экспорт чипов искусственного интеллекта в Китай в попытке замедлить развитие Пекином передовых технологий для военных целей.
  • Пока ничто не останавливает американских гигантов искусственного интеллекта, таких как Microsoft и OpenAI, DeepMind и Anthropic, разработавших одни из самых мощных ИИ-моделей с закрытым исходным кодом, продавать их практически любому человеку в мире без государственного контроля.
  • Исследователи из государственного и частного сектора обеспокоены тем, что противники США могут использовать модели, анализирующие огромные объемы текста и изображений для обобщения информации и создания контента, проведения агрессивных кибератак или даже для создания мощного биологического оружия.
  • Источники сообщили, что для разработки экспортного контроля над моделями США могут обратиться к пороговому значению, указанному в указе об искусственном интеллекте, изданном в октябре прошлого года. Он основывается на объеме вычислительной мощности, необходимой для обучения модели. Когда этот уровень будет достигнут, разработчик должен сообщить свои планы разработки модели ИИ и предоставить результаты испытаний Министерству торговли.
  • По словам двух американских чиновников и другого источника, этот порог вычислительной мощности может стать основой определения того, какие модели ИИ будут подлежать экспортным ограничениям.

Контекст

Аналитические центры и ученые все больше озабочены рисками, которые могут возникнуть в результате доступа злоумышленников к передовым возможностям ИИ. В частности, передовые модели искусственного интеллекта могут предоставить информацию, которая могла бы помочь в создании биологического оружия.

Чиновники считают, что киберпреступники, скорее всего, будут использовать ИИ для более масштабных, быстрых и более эффективных кибератак.

Материалы по теме

Вы нашли ошибку или неточность?

Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.

Предыдущий слайд
Следующий слайд