Категория
Новости
Дата

Нобелевские лауреаты и миллиардеры призвали остановить разработку суперинтеллекта ИИ. Среди подписавшихся Гарри, Меган, Стив Беннон и Ричард Брэнсон

1 хв читання

Более 800 известных личностей, включая миллиардеров, экс-чиновников, лауреатов Нобелевской премии и членов британской королевской семьи, подписали петицию с требованием запретить разработку суперинтеллекта – передовой формы искусственного интеллекта, которая может превзойти человеческие когнитивные способности, пишет Forbes.

Купуйте річну передплату на шість журналів Forbes Ukraine за ціною чотирьох номерів. Якщо ви цінуєте якість, глибину та силу реального досвіду, ця передплата саме для вас.

Подробности

  • Петиция, опубликованная неприбыльной организацией Future of Life Institute (FLI), где Илон Маск числится внешним советником, организована из-за обеспокоенности быстрым развитием ИИ.
  • Документ призывает к «запрету разработки суперинтеллекта» до достижения «широкого научного консенсуса» о его безопасности и контроле и «сильной общественной поддержки».
  • Среди 850 подписантов – герцог и герцогиня Сассекские Гарри и Меган, миллиардер Ричард Брэнсон, соучредитель Apple Стив Возняк, а также правые медийные деятели Стив Беннон и Гленн Бек.
  • Против суперинтеллекта выступили и лауреаты Нобелевской премии Джеффри Хинтон и Йошуа Бенджио (известные как «крестные родители ИИ»), экс-глава Объединенного комитета начальников штабов Майкл Маллен, экс-советник по нацбезопасности США Сьюзан Райс и исследователь Стюарт Рассел.
  • Йошуа Бенджио заявил: «Фронтовые ИИ-системы могут превзойти людей в когнитивных задачах за несколько лет. Нам требуется научный подход к созданию безопасных систем и большая роль общественности в этих решениях». Стюарт Рассел уточнил, что петиция нуждается не в полном запрете, а в «достаточных мерах безопасности».
  • Опрос Gallup (сентябрь 2025 года) показал, что 80% американцев поддерживают правила безопасности ИИ, даже если это замедлит развитие (9% – за ускорение). Опрос FLI выявил, что 64% ​​считают суперинтеллект опасным, если не доказан его контроль.
  • Топ-менеджеры, например, Сэм Альтман (OpenAI) и Марк Цукерберг (Meta), которые прогнозируют создание суперинтеллекта до 2030 года, петицию не подписали.

Контекст

Meta активно вкладывает десятки миллиардов долларов в развитие искусственного интеллекта. В июле Марк Цукерберг, генеральный директор компании, объявил, что уже в 2026 году Meta запустит свой первый суперкомпьютерный кластер, а несколько других проектов находятся в стадии разработки. Один из них, Hyperion, будет иметь настолько грандиозные масштабы, что его размеры сравнимы со «значительной частью Манхэттена».

Инвестиции в ИИ стали ключевым полем конкуренции между техногигантами. Риски для компаний – оправдаются ли ожидания. Аналитики предупреждают: доходы пока не успевают по расходам. Но многие инвесторы готовы и далее вкладывать в ИИ, пока оценки стартапов и публичных компаний растут.

Большие технологические игроки ставят на ИИ, чтобы переформатировать рынок даже ценой масштабной перестройки инфраструктуры и кадровых жертв.

Инвесторы в такие стартапы, как OpenAI, пока не беспокоятся о вопросе доходности, довольствуясь тем, что вкладывают больше денег, пока оценки продолжают расти, по данным WSJ. Однако другие инвесторы предупреждают, что бум ИИ превратился в спекулятивное безумие.

Материалы по теме

Вы нашли ошибку или неточность?

Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.

Предыдущий слайд
Следующий слайд
П'ятий випуск 2025 року вже у продажу

Замовляйте з безкоштовною доставкою по Україні