Администрация президента США Джо Байдена планирует ограничить экспорт в Китай передовых ИИ-моделей, основного программного обеспечения систем искусственного интеллекта, таких как ChatGPT, пишет Reuters со ссылкой на источники.
Ключевые факты
- Министерство торговли США рассматривает возможность принятия новых нормативных мер по ограничению экспорта моделей искусственного интеллекта с закрытым исходным кодом, сообщили три источника, знакомых с этим вопросом.
- Меры дополнят ряд ограничений, принятых за последние два года, чтобы заблокировать экспорт чипов искусственного интеллекта в Китай в попытке замедлить развитие Пекином передовых технологий для военных целей.
- Пока ничто не останавливает американских гигантов искусственного интеллекта, таких как Microsoft и OpenAI, DeepMind и Anthropic, разработавших одни из самых мощных ИИ-моделей с закрытым исходным кодом, продавать их практически любому человеку в мире без государственного контроля.
- Исследователи из государственного и частного сектора обеспокоены тем, что противники США могут использовать модели, анализирующие огромные объемы текста и изображений для обобщения информации и создания контента, проведения агрессивных кибератак или даже для создания мощного биологического оружия.
- Источники сообщили, что для разработки экспортного контроля над моделями США могут обратиться к пороговому значению, указанному в указе об искусственном интеллекте, изданном в октябре прошлого года. Он основывается на объеме вычислительной мощности, необходимой для обучения модели. Когда этот уровень будет достигнут, разработчик должен сообщить свои планы разработки модели ИИ и предоставить результаты испытаний Министерству торговли.
- По словам двух американских чиновников и другого источника, этот порог вычислительной мощности может стать основой определения того, какие модели ИИ будут подлежать экспортным ограничениям.
Контекст
Аналитические центры и ученые все больше озабочены рисками, которые могут возникнуть в результате доступа злоумышленников к передовым возможностям ИИ. В частности, передовые модели искусственного интеллекта могут предоставить информацию, которая могла бы помочь в создании биологического оружия.
Чиновники считают, что киберпреступники, скорее всего, будут использовать ИИ для более масштабных, быстрых и более эффективных кибератак.
Вы нашли ошибку или неточность?
Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.