Ведущие компании, занимающиеся искусственным интеллектом, включая OpenAI, Alphabet и Meta Platforms, взяли на себя добровольные обязательства в сфере безопасности ИИ, говорится в заявлении разработчика ChatGPT. Этот процесс, координированный Белым домом, должен стать важным шагом на пути эффективного управления ИИ как в США, так и во всем мире.
Ключевые факты
- В компанию также входят Anthropic, Inflection, Amazon.com и Microsoft, они обязались тщательно тестировать системы перед выпуском.
- Согласно сообщению, компании продолжат тестировать и совершенствовать конкретные методы управления. Компании продолжат инвестировать в исследования в областях, которые могут помочь в регулировании, таких как методы оценки потенциально опасных возможностей в моделях ИИ.
- Компании взяли на себя список добровольных обязательств, также опубликованный Белым домом.
- Эти добровольные обязательства отвечают существующим законам и нормативным актам.
- Компании предполагают, что эти добровольные обязательства останутся в силе до тех пор, пока не вступят в силу положения, регулирующие те же вопросы. Некоторые компании могут брать на себя дополнительные обязательства, кроме перечисленных.
Компании обязались:
1) быть преданными и сплоченными в выявлении угроз моделей, включая неправомерное использование, социальные риски и проблемы национальной безопасности;
2) работать над обменом информацией между компаниями и правительствами о рисках доверия и безопасности, опасных или возникающих возможностях и попытках обойти меры безопасности;
3) инвестировать в кибербезопасность и защиту от угроз;
4) обеспечить постороннее обнаружение и сообщения о проблемах и уязвимости;
5) разработать и внедрить механизмы, позволяющие пользователям понять, создан ли аудио- или визуальный контент с помощью ИИ, включая надежное происхождение, водяные знаки или то и другое для аудио- или визуального контента, сгенерированного ИИ;
6) публично сообщать о возможностях модели или системы, ограничениях и сферах надлежащего и ненадлежащего использования, включая обсуждение социальных рисков, таких как влияние на справедливость и предвзятость;
7) уделить приоритетное внимание исследованиям социальных рисков, связанных с системами ИИ;
8) разработать и внедрить передовые системы искусственного интеллекта, чтобы помочь решить самые большие проблемы общества.
Контекст
Выпуск ChatGPT положил начало гонке среди технологических компаний, таких как Google и Microsoft, за создание аналогичных технологий. В середине марта компания OpenAI представила четвертую версию языковой модели ChatGPT.
После этого более 1000 технологических лидеров и исследователей подписали открытое письмо с призывом ввести шестимесячный мораторий на разработку новых систем, поскольку технологии ИИ составляют «серьезные риски для общества и человечества». Через несколько дней 19 нынешних и бывших лидеров Ассоциации по развитию искусственного интеллекта, академического общества с 40-летней историей, выпустили письмо с предупреждением о рисках, связанных с ИИ.
Недавно 350 технических руководителей и ученых, занимающихся ИИ, забили тревогу относительно технологии, подчеркнув в совместном заявлении, что она является таким же большим риском, как пандемия и ядерная война. Среди подписавшихся заявление – Сэм Альтман, гендиректор OpenAI.4
4 мая руководители Google, Microsoft, OpenAI и Anthropic встретились с вице-президентом США Камалой Харрис и высшими должностными лицами администрации, чтобы обсудить ключевые аспекты искусственного интеллекта (ИИ). СЕО и соучредитель OpenAI Сэм Альтман предложил законодателям США рассмотреть вопрос о выдаче компаниям лицензий на разработку мощного искусственного интеллекта, подобного тому, что лежит в основе чат-бота его компании.
В июне Генеральный секретарь ООН Антониу Гутерриш поддержал предложение некоторых разработчиков искусственного интеллекта о создании международного органа наблюдения за ИИ, такого как Международное агентство по атомной энергии (МАГАТЭ).
Вы нашли ошибку или неточность?
Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.