Быстрое продвижение искусственного интеллекта заставляет специалистов отрасли и правительства стран задумываться над вопросом, безопасен ли ИИ для человечества? Похоже, американские чиновники получили ответ и он не слишком утешителен. Журнал TIME получил эксклюзивный доступ к отчету о рисках и опасностях ИИ, который министерство иностранных дел США заказало около полугода назад. Forbes пересказывает главное из материала.
Amazon інвестує мільярди доларів у ШІ, роботів та машинне навчання. Якими принципами й правилами керується компанія?
Дізнайтеся вже 22 листопада на Forbes Tech 2024. Купуйте квиток за посиланням!
Американский журнал TIME смог одним из первых ознакомиться с уникальным отчетом под названием «План действий по увеличению безопасности ИИ». Этот документ на 247 страниц создала компания Gladstone AI по заказу министерства иностранных дел США по федеральному контракту стоимостью $250 000. Штат Gladstone AI – четыре человека, и она регулярно проводит брифинги об ИИ для правительственных чиновников США.
В рамках исследования для отчета, которое стартовало в ноябре 2022 года, трое его авторов пообщались более чем с 200 правительственными сотрудниками, экспертами и работниками ведущих ИИ-компаний: OpenAI, Google DeepMind, Anthropic и Meta. TIME отмечает, что некоторые разговоры исследователей указывают на то, что многие сотрудники лабораторий, занимающиеся вопросами безопасности ИИ, обеспокоены неправильными стимулами, влияющими на принятие решений руководителями их компаний.
Если американское правительство решит прислушаться к рекомендациям авторов исследования по уменьшению рисков и опасностей ИИ, это может радикально изменить всю работу ИИ-индустрии.
Среди главных рекомендаций можно выделить следующие:
- формирование Федерального агентства по вопросам ИИ, которое будет определять максимально допустимый уровень вычислительной мощности для обучения ИИ-моделей и выдавать разрешения компаниям на применение того или иного уровня вычислительной мощности;
- принятие закона, запрещающего публично раскрывать особенности функционирования мощных ИИ-моделей, нарушение которого должно караться заключением. То есть исследователи предлагают запретить ИИ-системы с открытым исходным кодом (open-source);
- усиление контроля над производством и экспортом ИИ-чипов;
- направление федерального финансирования на исследования, занимающиеся безопасностью ИИ.
Американское правительство должно «быстро и решительно» действовать, чтобы предотвратить существенные риски для нацбезопасности, которые несет ИИ.
«При худшем сценарии ИИ может представлять для человечества угрозу уровня вымирания, – говорится в отчете, опубликованном в понедельник, 11 марта. – Текущее развитие ИИ представляет неотложные и все большие угрозы для национальной безопасности. Прогресс продвинутого ИИ и всеобщего искусственного интеллекта имеет потенциал к дестабилизации мировой безопасности, как это в свое время сделало появление ядерного оружия».
Общего искусственного интеллекта пока не существует, но ведущие ИИ-лаборатории активно занимаются его разработкой. Многие эксперты считают, что он может появиться в течение следующих пяти лет.
Исследователи, разработавшие отчет для правительства, полагают, что федеральное ограничение тренировочных мощностей ИИ-систем может «остановить соревнования между ИИ-лабораториями» и замедлить производство более мощных чипов и оборудования. Со временем, предлагается в отчете, Федеральное агентство по вопросам ИИ может поднять верхний предел вычислительной мощности для тренировки ИИ, если увидит доказательства того, что ведущие ИИ-модели действительно безопасны. Или, наоборот, опустить предел, если есть подтверждение опасности.
Правительство США вряд ли сделает незаконной тренировку ИИ выше определенного уровня вычислительной мощности, как это предлагают составители отчета, говорит Грег Аллен, главный ИИ-специалист в Центре стратегических и международных исследований. Больше открытости и соблюдения требований регуляторов – да, но тюремный срок за слишком развитую модель ИИ – очень маловероятно, говорит Аллен.
Опасности и риски ИИ
Обработав отчет, TIME обнаружил две категории рисков искусственного интеллекта, на которых сосредотачиваются исследователи:
- Риск вепонизации. «Такие системы могут использоваться для разработки и даже запуска катастрофических биологических, химических или цифровых атак или сделать возможным беспрецедентное применение группы роботизированных устройств в качестве оружия».
- Риск потери контроля. «Существуют причины предполагать, что ИИ-системы могут стать неконтролируемыми, если их развивать с помощью современных техник, и вести себя враждебно по отношению к людям по умолчанию».
Обе категории рисков усиливает «динамика соревнования» в индустрии ИИ, отмечают исследователи. Вероятность того, что первая компания-разработчик общего искусственного интеллекта получит все сопутствующие экономические преимущества, заставляет ИИ-лаборатории ставить в приоритет скорость, а не безопасность.
«У ИИ-компаний нет заинтересованности инвестировать в меры безопасности, которые не приносят непосредственные экономические преимущества, хотя некоторые это делают из-за искренней обеспокоенности», – цитирует отчет TIME.
Исследователи считают оборудование, а именно компьютерные чипы последнего поколения для тренировки ИИ-систем, наибольшим препятствием для увеличения возможностей искусственного интеллекта. Установка правил распространения данного оборудования может быть «важнейшим условием сохранения долгосрочной мировой безопасности от ИИ».
В отчете сказано, что правительству США следует рассмотреть возможность связать предоставление лицензий на экспорт чипов с обязательным наличием у них технологии отслеживания их применения в ИИ-системах. Таким образом американское правительство сможет контролировать наличие систем, больших, чем GPT-4. Но исследователи предупреждают, что высокий уровень контроля может способствовать расцвету иностранных полупроводниковых индустрий, что уменьшит возможность США влиять на касающуюся ИИ цепь поставок.
Исследователи признали в разговоре с изданием, что их рекомендации ИИ-индустрии могут показаться слишком жесткими, особенно в пункте уголовного наказания за открытые ИИ-системы или чрезмерный уровень развития ИИ. Исследователи пытались найти альтернативу такой строгой мере, но не нашли, говорит Эдуар Харрис, технологический директор Gladstone AI – составителя отчета.
ИИ-специалист Грег Аллен понимает, что открытость ИИ-систем очень усложняет законодателям управление рисками этой новой технологии. Но он объясняет фактическую бесполезность введения Штатами тюремного наказания за открытый код ИИ, поскольку американские законы имеют вполне ограниченную юрисдикцию и разработчики просто переедут туда, где система законов США не будет действовать.
Авторы отчета были смущены тем, как легко и дешево пользователи сегодня могут отключить меры безопасности в ИИ-моделях, если у них есть доступ к коду.
«Модель с открытым кодом, которая выглядит безопасной, впоследствии может оказаться опасной, – предупреждает Эдуар Харрис, добавив, что открытый код ИИ-модели закрыть уже невозможно. – Остается только принимать причиненный вред».
Вы нашли ошибку или неточность?
Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.