Илон Маск призвал приостановить работу над ИИ из-за рисков для общества /иллюстрация Getty Images / Анна Наконечная
Категория
Новости
Дата

Илон Маск призвал приостановить работу над ИИ из-за рисков для общества

2 хв читання

иллюстрация Getty Images / Анна Наконечная

Миллиардер Илон Маск и группа экспертов по искусственному интеллекту и руководителей отрасли призывают к шестимесячной паузе в разработке систем, более мощных, чем недавно запущенный OpenAI GPT-4, в открытом письме со ссылкой на потенциальные риски для общества и человечества, пишет Reuters.

Amazon інвестує мільярди доларів у ШІ, роботів та машинне навчання. Якими принципами й правилами керується компанія?

Дізнайтеся вже 22 листопада на Forbes Tech 2024. Купуйте квиток за посиланням!

Ключевые факты

  • Ранее в этом месяце OpenAI, поддерживаемая Microsoft, представила четвертую версию программы искусственного интеллекта GPT (Generative Pre-trained Transformer), которая поразила пользователей широким спектром программ – от привлечения пользователей к человеческому разговору до написания песен и обобщения длинных документов.
  • Письмо, выпущенное некоммерческим Future of Life Institute и подписанное более 1000 человек, включая Маска, содержит призыв приостановить разработку продвинутого ИИ до тех пор, пока не будут разработаны, внедрены и проверены независимыми экспертами общие протоколы безопасности для таких проектов.
  • Среди подписантов есть соучредитель Apple Стив Возняк, соучредитель Pinterest Эван Шарп, генеральный директор Stability AI Эмад Мостак, исследователи DeepMind, принадлежащей Alphabet, и тяжелоатлеты в области ИИ Йошуа Бенжио, которого часто называют одним из «крестных родителей ИИ», и Стюарт Рассел, пионер исследований в данной области.
  • «Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски – управляемыми», – говорится в письме.
  • В письме подробно описаны потенциальные риски для общества и цивилизации со стороны конкурентоспособных систем искусственного интеллекта в виде экономических и политических потрясений, а также содержится призыв к разработчикам работать с политиками и регулирующими органами.
  • Согласно реестру прозрачности Европейского Союза, Институт будущей жизни в основном финансируется Фондом Маска, а также лондонской группой Founders Pledge и Фондом сообщества Кремниевой долины.

Контекст

Опасения возникли, когда правоохранительный орган ЕС – Европол – присоединился к этическим и юридическим опасениям относительно передового ИИ, такого как ChatGPT, предупредив о потенциальном неправомерном использовании системы в попытках фишинга, дезинформации и киберпреступности.

Тем временем правительство Великобритании обнародовало предложения по «адаптированной» нормативно-правовой базе о ИИ.

Подход правительства, изложенный в программном документе, опубликованном в среду, заключается в распределении ответственности за управление искусственным интеллектом между регулирующими органами в области прав человека, здоровья и безопасности и конкуренции, а не в создании нового органа, занимающегося этой технологией.

Маск, чей автопроизводитель Tesla использует ИИ для системы автопилота, открыто выражает свою обеспокоенность в отношении ИИ.

С момента своего выпуска в прошлом году ChatGPT от OpenAI побуждал конкурентов ускорить разработку аналогичных крупных языковых моделей, а компании – интегрировать генеративные модели ИИ в свои продукты.

Критики обвинили тех, кто подписал документ, в поднятии «ажиотажа вокруг ИИ», утверждая, что тезисы о текущем потенциале технологии преувеличены.

В то же время крупные технологические компании увольняют сотрудников из команд, занимающихся оценкой этических вопросов, связанных с развертыванием искусственного интеллекта, пишет Financial Times. Это вызывает опасения по поводу безопасности новой технологии, поскольку она становится широко распространенной в потребительских продуктах.

Материалы по теме

Вы нашли ошибку или неточность?

Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.

Предыдущий слайд
Следующий слайд