Ведущие компании, занимающиеся искусственным интеллектом, включая OpenAI, Alphabet и Meta Platforms, взяли на себя добровольные обязательства в сфере безопасности ИИ, говорится в заявлении разработчика ChatGPT. Этот процесс, координированный Белым домом, должен стать важным шагом на пути эффективного управления ИИ как в США, так и во всем мире.
Практичний МBA від Forbes на реальних кейсах, щоб прокачати навички управління на прикладі Володимира Кудрицького, ексголови правління «Укренерго».
Премʼєра другого сезону YouTube проєкту «Директорія» вже на каналі Forbes Ukraine!
Ключевые факты
- В компанию также входят Anthropic, Inflection, Amazon.com и Microsoft, они обязались тщательно тестировать системы перед выпуском.
- Согласно сообщению, компании продолжат тестировать и совершенствовать конкретные методы управления. Компании продолжат инвестировать в исследования в областях, которые могут помочь в регулировании, таких как методы оценки потенциально опасных возможностей в моделях ИИ.
- Компании взяли на себя список добровольных обязательств, также опубликованный Белым домом.
- Эти добровольные обязательства отвечают существующим законам и нормативным актам.
- Компании предполагают, что эти добровольные обязательства останутся в силе до тех пор, пока не вступят в силу положения, регулирующие те же вопросы. Некоторые компании могут брать на себя дополнительные обязательства, кроме перечисленных.
Компании обязались:
1) быть преданными и сплоченными в выявлении угроз моделей, включая неправомерное использование, социальные риски и проблемы национальной безопасности;
2) работать над обменом информацией между компаниями и правительствами о рисках доверия и безопасности, опасных или возникающих возможностях и попытках обойти меры безопасности;
3) инвестировать в кибербезопасность и защиту от угроз;
4) обеспечить постороннее обнаружение и сообщения о проблемах и уязвимости;
5) разработать и внедрить механизмы, позволяющие пользователям понять, создан ли аудио- или визуальный контент с помощью ИИ, включая надежное происхождение, водяные знаки или то и другое для аудио- или визуального контента, сгенерированного ИИ;
6) публично сообщать о возможностях модели или системы, ограничениях и сферах надлежащего и ненадлежащего использования, включая обсуждение социальных рисков, таких как влияние на справедливость и предвзятость;
7) уделить приоритетное внимание исследованиям социальных рисков, связанных с системами ИИ;
8) разработать и внедрить передовые системы искусственного интеллекта, чтобы помочь решить самые большие проблемы общества.
Контекст
Выпуск ChatGPT положил начало гонке среди технологических компаний, таких как Google и Microsoft, за создание аналогичных технологий. В середине марта компания OpenAI представила четвертую версию языковой модели ChatGPT.
После этого более 1000 технологических лидеров и исследователей подписали открытое письмо с призывом ввести шестимесячный мораторий на разработку новых систем, поскольку технологии ИИ составляют «серьезные риски для общества и человечества». Через несколько дней 19 нынешних и бывших лидеров Ассоциации по развитию искусственного интеллекта, академического общества с 40-летней историей, выпустили письмо с предупреждением о рисках, связанных с ИИ.
Недавно 350 технических руководителей и ученых, занимающихся ИИ, забили тревогу относительно технологии, подчеркнув в совместном заявлении, что она является таким же большим риском, как пандемия и ядерная война. Среди подписавшихся заявление – Сэм Альтман, гендиректор OpenAI.4
4 мая руководители Google, Microsoft, OpenAI и Anthropic встретились с вице-президентом США Камалой Харрис и высшими должностными лицами администрации, чтобы обсудить ключевые аспекты искусственного интеллекта (ИИ). СЕО и соучредитель OpenAI Сэм Альтман предложил законодателям США рассмотреть вопрос о выдаче компаниям лицензий на разработку мощного искусственного интеллекта, подобного тому, что лежит в основе чат-бота его компании.
В июне Генеральный секретарь ООН Антониу Гутерриш поддержал предложение некоторых разработчиков искусственного интеллекта о создании международного органа наблюдения за ИИ, такого как Международное агентство по атомной энергии (МАГАТЭ).
Вы нашли ошибку или неточность?
Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.