ИИ помогает всем, даже мошенникам. Как искусственный интеллект стал новым оружием киберпреступников и стимулировал аферы на $8 млрд /ILLUSTRATION BY CECILIA ZHANG FOR FORBES
Категория
Инновации
Дата

ИИ помогает всем, даже мошенникам. Как искусственный интеллект стал новым оружием киберпреступников и стимулировал аферы на $8 млрд

6 хв читання

ILLUSTRATION BY CECILIA ZHANG FOR FORBES

Грамотные фишинговые письма и сообщения, клонирование голоса и дипфейки для аутентификации – все это улучшенные с помощью ИИ мошеннические схемы. Похоже, искусственный интеллект становится новым оружием киберпреступников.

Мы попросили ChatGPT «написать е-письма Джону До о том, что банк Chase должен ему $2000. Позвоните по телефону 1-800-953-XXXX для возврата средств». Как, к сожалению, многие знают, по такой схеме работают фишинговые мошенники. Чат-бот выдал грамотное, не подозрительное и заслуживающее доверия письмо, которое не похоже на характерные для фишинговых рассылок формулировки.

«У мошенников теперь безупречная грамматика, как у любого носителя языка», – говорит Супс Ранджан, соучредитель и гендиректор стартапа Sardine, который предотвращает мошенничество. Клиенты разных банков все чаще попадают на крючок злоумышленников, поскольку «сообщения, рассылаемые аферистами, почти идеальны», рассказывает анонимно директор по мошенничеству в американском цифровом банке. (Советы о том, как не стать жертвой проходимца, читайте в конце статьи.)

В нашем новом мире генеративного искусственного интеллекта нечистым на руку людям как никогда просто создавать тексты, аудиозаписи или даже видео, которые могут обмануть не только избранную жертву, но и программы, раскрывающие нечестные схемы. Впрочем, тут нет ничего удивительного, поскольку жаждущие наживы проходимцы всегда быстро принимали новые технологии, а правоохранители уже должны были догонять прогрессивных преступников.

Генеративный ИИ может даже сделать устаревшими лучшие на сегодняшний день меры по предотвращению мошенничества, такие как голосовая аутентификация или «живые проверки», когда изображение человека в реальном времени должно совпадать с тем, что хранится в системе.

«Мы постоянно видим, как дипфейковые фото и видео используют для аутентификации, и можем смело предположить, что они были сделаны с помощью генеративного ИИ», – сказал Кеннет Уильямс, старший вице-президент Synchrony, крупнейшего эмитента кредитных карт в США (70 млн активных счетов).

В июньском опросе 650 экспертов по кибербезопасности компанией Deep Instinct трое из четырех сказали, что заметили увеличение киберпреступлений за последнее время. А «85% опрошенных с таким мнением считают, что этот рост вызван использованием преступниками искусственного интеллекта».

Американские потребители сообщили Федеральной торговой комиссии о том, что в прошлом году мошенники украли у них рекордные $8,8 млрд, а это на 40% больше, чем в 2021-м. Наиболее прибыльными для аферистов оказались инвестиционные схемы, однако самым распространенным видом мошенничества оказалось самозванство, с которым, вероятнее всего, помогает ИИ.

Если вы часто выкладываете свои фотографии и другую информацию онлайн, аферисты могут научить ИИ-модель писать в вашем стиле. Затем они могут написать вашим дедушке или бабушке с просьбой прислать «вам» деньги, потому что вы попали в какую-то беду. Больше всего пугает то, что преступники теперь умеют очень правдоподобно воспроизводить голос и уже были зафиксированы случаи, когда родителям присылали запись голоса их ребенка с требованием выкупа.

Это касается не только отдельных людей, но и компаний. Преступники выдают себя за настоящих поставщиков, направляя убедительные письма бухгалтерам фирм, в которых пишут, что заказы нужно оплатить как можно скорее по указанным в письме реквизитам. Ранджан из Sardine говорит, что финтех-стартапы, являющиеся клиентами его фирмы, уже стали жертвами таких схем, потеряв сотни тысяч долларов.

Но это мелочи по сравнению с $35 млн, которые японская компания потеряла, когда аферисты воспроизвели голос директора компании, чтобы подтвердить перевод денег на «покупку» компании. Как другие индустрии берут на вооружение ИИ, чтобы улучшать или облегчать свою работу, так и мошенники создают собственные инструменты (FraudGPT или WormGPT) на основе ИИ-моделей техногигантов.

Ненастоящий голос

Все чаще люди в США становятся целями для мошенников, которые нередко используют стационарные телефоны, чтобы выдать себя за внуков или детей потенциальных жертв. Те, кто ощутил на себе трюки злоумышленников, отмечают, насколько похожи были голоса их псевдородных и как тщательно мошенники готовятся, изучая жизнь целей.

«Аж в дрожь бросает от того, как точно им удалось воспроизвести голос, интонацию и тембр, – рассказал Леонард, у которого преступники пытались выманить деньги, выдав себя за его внука. – Не было пауз между предложениями или словами, которые могли бы указать, что говорит автомат или начитывает программа. Все было очень убедительно».

Но не только пожилым людям нужно опасаться, поскольку клонирование голоса мошенниками опасно и для тех, у кого настроена аутентификация голосом. Такую возможность дает взаимный фонд Vanguard Group, у которого более 50 млн инвесторов. Ранджан из Sardine уже сталкивался со случаями, когда с помощью клонирования голоса люди получали доступ к чужим банковским счетам.

Кроме того, мы давно знаем о том, как мошенники посылают фейковые письма со счетами фирмам, чтобы те оплатили якобы срочный заказ. Теперь же с помощью ИИ-инструментов злоумышленники могут звонить в компании и приказывать голосом директора выполнить какую-либо транзакцию или передать тайную информацию.

Обойти систему

Преступники также используют генеративный ИИ, чтобы перехитрить специалистов по борьбе с мошенничеством и специализирующиеся на этом компании.

Такие компании, как Socure, Mitek и Onfido, занимающиеся верификацией людей, используют «живые проверки». Они просят сделать селфи или записать видео, которое потом сравнивают с изображениями, что есть в системе.

Но об этом алгоритме действий знают и мошенники, поэтому готовятся к проверке. Они покупают фото реальных водительских удостоверений в даркнете, а потом с помощью специальных программ, которые становятся все доступнее и дешевле, накладывают лицо человека на свое. В такой программе злоумышленник может говорить и двигать лицом за ширмой лица жертвы, что может помочь обойти «живые проверки».

«Мы заметили весьма значительный скачок в использовании высококачественных дипфейков для живых проверок, – рассказал Рик Сонг, гендиректор антимошеннической фирмы Persona. – Скачок разный для разных индустрий, но в некоторых мы увидели десятикратный рост по сравнению с прошлым годом». Финтех- и криптокомпании страдают больше всего.

Эксперты по мошенничеству рассказали Forbes о своих подозрениях относительно того, что компании, оказывающие услуги по верификации пользователей (например, Socure и Mitek), демонстрируют худшую статистику предотвращения мошенничества. Socure отрицает, но добавляет, что некоторые клиенты затягивают с обновлением систем верификации, что может влиять на эффективность. Компания сказала, что три ее крупнейших банка-клиента пропустили четыре обновления системы.

JPMorgan, Bank of America и Wells Fargo отказались комментировать свои проблемы с мошенничеством с помощью ИИ-технологий. А спикер Chime, крупнейшего цифрового банка США, у которого в прошлом были серьезные проблемы с мошенничеством, говорит, что они не увидели роста преступных схем с ИИ-инструментами.

Решения технологических компаний

OpenAI пытается встроить в свой чат-бот ограничения, которые блокировали бы возможность использования ChatGPT для мошенничества, но и их можно обойти.

В своем блоге компания написала: «Нет идеального способа обеспечить ответственное использование, поэтому мы пытаемся узнать пределы возможностей наших моделей и потенциальные варианты злоупотребления ими».

Llama 2, большую языковую модель от Meta, еще проще использовать как преступный инструмент, поскольку у нее открытый код, доступный кому угодно. К примеру, на базе Llama 2 мошенники могут создавать злонамеренные ИИ-инструменты.

Как и OpenAI, Meta не дала комментарий для этой статьи. Впрочем, Марк Цукерберг в июле сказал, что открытость кода Llama может совершенствовать «ее безопасность и надежность, потому что открытое ПО находится под более прицельным наблюдением и больше людей могут найти и исправить проблемы».

Компании, занимающиеся предотвращением мошенничества, пытаются не отставать за мошенниками. Они ищут новые виды данных, которые помогали бы замечать работу злоумышленника. Ранджан считает, что «нужен ИИ, чтобы доказать в сети, что вы именно тот, за кого себя выдаете».

Иными словами, чтобы поймать ИИ, нужен ИИ.

Пять советов по защите от ИИ-мошенничества

  1. Укрепить защиту аккаунтов и счетов. Многофакторная аутентификация требует от вас ввода пароля и дополнительных кодов для проверки вашей личности. Включите многофакторную авторизацию на всех своих денежных счетах.
  2. Сохраняйте приватность. Мошенники могут использовать вашу личную информацию в соцсетях или других онлайн-ресурсах, чтобы убедительнее выдать себя за вас.
  3. Сбрасывайте. Майк Стейнбах, глава финансовых преступлений и предотвращения мошенничества в Citi, советует не отвечать на звонки с незнакомых номеров.
  4. Придумайте кодовые фразы. Члены семьи могут договориться о кодовом слове или фразе, подтверждающей их личность. Такие же кодовые фразы могут ввести малые бизнесы для авторизации денежных переводов руководителями. Внимательно присматривайтесь к сообщениям от руководителей, которые просят купить подарочные сертификаты, – это тоже распространенная мошенническая схема.
  5. Сбейте с толку. Если вы заподозрили что-то во время телефонного разговора, попробуйте задать случайный вопрос – например, что за погода в том городе, где должен находиться человек, или о чем-то личном.
Материалы по теме

Вы нашли ошибку или неточность?

Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.

Предыдущий слайд
Следующий слайд