Категория
Новости
Дата

США рассматривают введение экспортного контроля для ИИ-моделей – Reuters

1 хв читання

Администрация президента США Джо Байдена планирует ограничить экспорт в Китай передовых ИИ-моделей, основного программного обеспечения систем искусственного интеллекта, таких как ChatGPT, пишет Reuters со ссылкой на источники.

Ключевые факты

  • Министерство торговли США рассматривает возможность принятия новых нормативных мер по ограничению экспорта моделей искусственного интеллекта с закрытым исходным кодом, сообщили три источника, знакомых с этим вопросом.
  • Меры дополнят ряд ограничений, принятых за последние два года, чтобы заблокировать экспорт чипов искусственного интеллекта в Китай в попытке замедлить развитие Пекином передовых технологий для военных целей.
  • Пока ничто не останавливает американских гигантов искусственного интеллекта, таких как Microsoft и OpenAI, DeepMind и Anthropic, разработавших одни из самых мощных ИИ-моделей с закрытым исходным кодом, продавать их практически любому человеку в мире без государственного контроля.
  • Исследователи из государственного и частного сектора обеспокоены тем, что противники США могут использовать модели, анализирующие огромные объемы текста и изображений для обобщения информации и создания контента, проведения агрессивных кибератак или даже для создания мощного биологического оружия.
  • Источники сообщили, что для разработки экспортного контроля над моделями США могут обратиться к пороговому значению, указанному в указе об искусственном интеллекте, изданном в октябре прошлого года. Он основывается на объеме вычислительной мощности, необходимой для обучения модели. Когда этот уровень будет достигнут, разработчик должен сообщить свои планы разработки модели ИИ и предоставить результаты испытаний Министерству торговли.
  • По словам двух американских чиновников и другого источника, этот порог вычислительной мощности может стать основой определения того, какие модели ИИ будут подлежать экспортным ограничениям.

Контекст

Аналитические центры и ученые все больше озабочены рисками, которые могут возникнуть в результате доступа злоумышленников к передовым возможностям ИИ. В частности, передовые модели искусственного интеллекта могут предоставить информацию, которая могла бы помочь в создании биологического оружия.

Чиновники считают, что киберпреступники, скорее всего, будут использовать ИИ для более масштабных, быстрых и более эффективных кибератак.

Материалы по теме

Вы нашли ошибку или неточность?

Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.

Предыдущий слайд
Следующий слайд
Головний журнал 2024 року вже у продажу

Заказывайте с бесплатной доставкой по Украине