Риски, которые несет искусственный интеллект, реальны. Но с ними можно справиться. Так размышляет о развитии новой технологии в своей колонке основатель Microsoft Билл Гейтс. Он выделил пять опасений относительно беспокоящего человечество ИИ и подсказал, как научиться их воспринимать. Ко всему – дал советы разным категориям общества, как максимизировать пользу от новой технологии
Корпорация компьютерных технологий Microsoft вложила более $10 млрд в стартап OpenAI, выпустивший мегапопулярный чат-бот ChatGPT. Но ее основатель Билл Гейтс все еще обеспокоен развитием ИИ.
Миллиардер совершает такой исторический экскурс, чтобы показать, как человечество справлялось с предыдущими революционными технологиями, которые сначала всех настораживали. Он отмечает, что видит и понимает ряд беспокойств по поводу ИИ. И хочет показать, под каким углом сам на них смотрит.
Гейтс говорит, что будущее ИИ не такое мрачное, как некоторые хотят его изобразить, но и не такое радужное, как другие могут его представлять. «Риски реальны, но я уверен, что с ними можно справиться», – отмечает он.
Гейтс наметил три аргумента, к которым он будет возвращаться при обсуждении каждого из рисков:
- Многие проблемы, вызываемые ИИ, имеют исторический прецедент.
- ИИ может решать создаваемые проблемы.
- Необходимо приспособить старые законы к современным реалиям и ввести новые.
Он подчеркивает существующие риски или те, которые могут появиться. То есть насущные проблемы, а не те, которые возникнут или не возникнут в будущем.
Дипфейки и дезинформация, созданные ИИ, могут подорвать выборы и демократию
Гейтс отмечает, что дезинформация и мошенничество – не новейшее изобретение. А новые технологии, такие как принтеры, электронная почта и соцсети только помогают их распространять. Многих беспокоит то, что наличие ИИ-инструментов сделает работу мошенников и пропагандистов еще проще.
Предприниматель понимает, что эта проблема далека от урегулирования, но несколько вещей внушают оптимизм.
Первая из них – люди учатся не воспринимать все за чистую монету.
«Годами человечество попадало на крючок мошенников, которые в е-письмах представлялись нигерийским принцем и обещали золотые горы за детали банковской карты. Но со временем они научились ставить это под сомнение», – пишет Гейтс. Мошеннические схемы становятся все сложнее, а дипфейки более правдоподобными, поэтому нам нужно развивать критическое мышление.
Второй повод для оптимизма – ИИ может определять дипфейки, а не только создавать их. Он приводит примеры детектора дипфейков от Intel и технологии, над которой работает DARPA. Она должна определять, проводили ли манипуляции над аудио- или видеофайлом. Это циклический процесс: одни создают детекторы фейков, другие придумывают способы их обходить. Но ситуация не так безнадежна, как некоторые хотят показать.
ИИ упрощает атаки на людей и правительства
ИИ-модели могут облегчить работу хакерам, разрабатывающим вредоносное ПО для похищения данных или взлома систем безопасности.
ИИ можно использовать и для хороших целей, а не только для плохих. По мнению Гейтса, это хорошая новость. Он отмечает, что правительствам и частному сектору безопасности нужно заручиться новейшими инструментами для выявления и устранения недостатков систем безопасности раньше, чем этими средствами воспользуются преступники.
Именно это, отмечает миллиардер, должно быть аргументом, чтобы не делать паузу в разработке ИИ, как некоторые предлагают. «Киберпреступники не прекратят разрабатывать новые инструменты. Как и люди, желающие использовать ИИ для разработки ядерного оружия или биологических атак. Поэтому создание технологии для противодействия им должно происходить в том же темпе».
На страхи тех, кто опасается вепонизации ИИ ради кибератак на другие страны, Гейтс отвечает предложением взглянуть на исторические примеры. Да, режим нераспространения ядерного оружия имеет свои недостатки, но он предотвратил тотальную атомную войну, которой боялось поколение Гейтса. Поэтому он считает, что правительствам следует рассмотреть создание международного органа для ИИ типа МАГАТЭ.
ИИ отнимет у людей работу
Тех, кто боится потерять работу из-за ИИ, Гейтс успокаивает – в ближайшие несколько лет ИИ будет помогать людям более эффективно выполнять их работу. Да и спрос на профессии, связанные с помощью другим – учителя, медицинский персонал – никогда не исчезнет.
А чтобы люди в дальнейшем не потеряли работу в пользу более развитого ИИ, правительствам и бизнесам нужно организовать поддержку и переквалификацию. Этим следует безотлагательно заняться, чтобы избежать упадка уровня жизни определенной категории людей, как это произошло при уменьшении количества производственных профессий в США.
Гейтс напоминает, что ИИ – не первая технология, которая приносит большие изменения на рынок труда, хотя влияние искусственного интеллекта и не будет столь тотальным, как в свое время индустриальная революция.
Он считает, что использование ИИ будет более похоже на распространение ПК и ПО типа Word: работники приспособились к новинкам, которые упростили им выполнение некоторых задач, а не стали причиной их увольнения.
ИИ перенимает наши предубеждения и придумывает то, чего не существует
Гейтс объясняет особенности работы ИИ, приводящие к тому, что чат-бот может выдавать ложную или пристрастную информацию.
Галлюцинации – это термин, обозначающий явление, когда ИИ уверенно выдает неправильный ответ. Причина состоит в том, что ИИ не хватает контекста. Если ему задать вопрос, он смотрит на используемые вами слова и ищет в системе куски текста, которые чаще всего с ними связаны.
Если сказать чат-боту, что он ошибся, он может ответить «Извините, опечатка». Но это галлюцинация, объясняет Гейтс, потому что он ничего не печатал. Бот так отвечает, потому что просканировал достаточное количество текстов, чтобы «знать» – такую фразу употребляют люди, когда их кто-то исправляет. То есть проблема в информации, которую пользователи скармливают боту, и том, как его научили ее обрабатывать.
Так же ИИ-модели наследуют и предубеждения, скрытые в текстах, на которых его учили. «Например, если модели скормили большинство текстов, в которых упоминаются врачи-мужчины, она будет считать, что большинство врачей – мужчины».
Основатель Microsoft не считает галлюцинации ИИ врожденной проблемой и верит, что со временем он научится различать факты и выдумки. OpenAI, по его словам, делает прогресс в этом направлении. Он также рассказал о работе Института Алана Тюринга и Национального института стандартов и технологий над проблемой предубеждения. Один из применяемых подходов – встроить в ИИ человеческие ценности и критическое мышление.
ИИ с такими качествами должен работать как сознательный человек: может он и предполагает, что большинство врачей – мужчины, но он достаточно осознан для этого предположения, чтобы ему не поддаваться.
Кроме того, он напоминает людям, что им нужно критическое мышление. Те, кто используют ИИ, должны знать о его проблеме с предубеждениями и галлюцинациями, а следовательно, критически оценивать и проверять его ответы.
Ученики не научатся писать, потому что ИИ будет делать это за них
На эту обеспокоенность Гейтс приводит пример опытной учительницы английского языка Шери Шилдс, которая поделилась опытом использования ChatGPT в обучении школьников. Чат-бот помогает ее ученикам создать план эссе и даже дает отклик на их произведения.
Она считает, что ИИ-технологии нужно принять как еще один инструмент, доступный детям, и научить их пользоваться им, как когда-то учили их «гуглить». По ее мнению, ИИ может создать революцию в обучении.
Сам Гейтс вспоминает время, когда стали распространенными электронные калькуляторы: в 1970-х и 1980-х. Тогда одни учителя математики беспокоились, что дети перестанут учиться самостоятельно считать, а другие приняли технологию и сосредоточились на других навыках, кроме умения считать.
ИИ также можно использовать для обучения детей распознавать дезинформацию и проверять факты. Чат-боту можно просить выдать статью на определенную тему, а ученики пусть оценивают ее правдоподобность.
Он привел пример образовательных неприбыльных проектов Khan Academy и OER Project, предлагающих инструменты для проверки утверждений. Умение отличать факты от выдумок трудно переоценить.
Что делать дальше
Гейтс считает, что в вопросе ИИ есть больше поводов для оптимизма, но дал советы разным категориям общества, как максимизировать пользу от новой технологии.
Правительствам
Развивать осведомленность по поводу ИИ, чтобы можно было создавать законы и правила, отвечающие вызовам этой технологии. Научиться контролировать дезинформацию и дипфейки, предотвращать угрозы безопасности, последствия влияния ИИ на рынок труда и образование.
ИИ-компаниям
Сделать безопасность и ответственность главными принципами работы. Защищать конфиденциальность людей, создавать ИИ-модели так, чтобы они отражали основные человеческие ценности, минимизировали предубеждения и предотвращали использование технологии преступниками или террористами.
Компаниям разных секторов
Помочь работникам освоить ИИ. Всегда предупреждать клиентов о том, что они общаются с ИИ, а не реальным человеком, если это происходит.
Людям
Следить за развитием ИИ, чтобы знать обо всех инновациях, дискуссиях вокруг технологии, ее преимуществах и опасностях.
«Преимущества развития ИИ будут огромными. Лучшая причина верить, что мы справимся с рисками, в том, что нам это уже удавалось ранее [в аналогичных ситуациях]», – резюмирует Гейтс.
Вы нашли ошибку или неточность?
Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.