Категория
Новости
Дата

Нобелевские лауреаты и миллиардеры призвали остановить разработку суперинтеллекта ИИ. Среди подписавшихся Гарри, Меган, Стив Беннон и Ричард Брэнсон

1 хв читання

Более 800 известных личностей, включая миллиардеров, экс-чиновников, лауреатов Нобелевской премии и членов британской королевской семьи, подписали петицию с требованием запретить разработку суперинтеллекта – передовой формы искусственного интеллекта, которая может превзойти человеческие когнитивные способности, пишет Forbes.

Покупайте годовую подписку на шесть журналов Forbes Ukraine по цене четырех. Если вы цените качество, глубину и силу реального опыта, эта подписка именно для вас.

Подробности

  • Петиция, опубликованная неприбыльной организацией Future of Life Institute (FLI), где Илон Маск числится внешним советником, организована из-за обеспокоенности быстрым развитием ИИ.
  • Документ призывает к «запрету разработки суперинтеллекта» до достижения «широкого научного консенсуса» о его безопасности и контроле и «сильной общественной поддержки».
  • Среди 850 подписантов – герцог и герцогиня Сассекские Гарри и Меган, миллиардер Ричард Брэнсон, соучредитель Apple Стив Возняк, а также правые медийные деятели Стив Беннон и Гленн Бек.
  • Против суперинтеллекта выступили и лауреаты Нобелевской премии Джеффри Хинтон и Йошуа Бенджио (известные как «крестные родители ИИ»), экс-глава Объединенного комитета начальников штабов Майкл Маллен, экс-советник по нацбезопасности США Сьюзан Райс и исследователь Стюарт Рассел.
  • Йошуа Бенджио заявил: «Фронтовые ИИ-системы могут превзойти людей в когнитивных задачах за несколько лет. Нам требуется научный подход к созданию безопасных систем и большая роль общественности в этих решениях». Стюарт Рассел уточнил, что петиция нуждается не в полном запрете, а в «достаточных мерах безопасности».
  • Опрос Gallup (сентябрь 2025 года) показал, что 80% американцев поддерживают правила безопасности ИИ, даже если это замедлит развитие (9% – за ускорение). Опрос FLI выявил, что 64% ​​считают суперинтеллект опасным, если не доказан его контроль.
  • Топ-менеджеры, например, Сэм Альтман (OpenAI) и Марк Цукерберг (Meta), которые прогнозируют создание суперинтеллекта до 2030 года, петицию не подписали.

Контекст

Meta активно вкладывает десятки миллиардов долларов в развитие искусственного интеллекта. В июле Марк Цукерберг, генеральный директор компании, объявил, что уже в 2026 году Meta запустит свой первый суперкомпьютерный кластер, а несколько других проектов находятся в стадии разработки. Один из них, Hyperion, будет иметь настолько грандиозные масштабы, что его размеры сравнимы со «значительной частью Манхэттена».

Инвестиции в ИИ стали ключевым полем конкуренции между техногигантами. Риски для компаний – оправдаются ли ожидания. Аналитики предупреждают: доходы пока не успевают по расходам. Но многие инвесторы готовы и далее вкладывать в ИИ, пока оценки стартапов и публичных компаний растут.

Большие технологические игроки ставят на ИИ, чтобы переформатировать рынок даже ценой масштабной перестройки инфраструктуры и кадровых жертв.

Инвесторы в такие стартапы, как OpenAI, пока не беспокоятся о вопросе доходности, довольствуясь тем, что вкладывают больше денег, пока оценки продолжают расти, по данным WSJ. Однако другие инвесторы предупреждают, что бум ИИ превратился в спекулятивное безумие.

Материалы по теме

Вы нашли ошибку или неточность?

Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.

Предыдущий слайд
Следующий слайд
Четвертий випуск 2025 року вже у продажу

Замовляйте з безкоштовною доставкою по Україні