Чат-бот на основе ИИ ChatGPT этой зимой стал хитом в мире технологий. Но специалисты по кибербезопасности и ранние пользователи забили тревогу: такой умный чат-бот может изрядно облегчить работу для любителей наживы хакеров.
Исследователи по кибербезопасности несколько дней назад предупредили, что киберпреступники начали использовать ChatGPT на основе ИИ от компании OpenAI, чтобы быстро создавать инструменты для взлома. Мошенники также проверяют способность ChatGPT создавать другие чат-боты, которые выдавали бы себя за реальных девушек и заманивали выбранные цели. Об этом Forbes узнал от одного эксперта, мониторящего преступные форумы.
Подарок для хакеров
Многие первые пользователи ChatGPT забили тревогу после запуска чат-бота в массы в декабре: приложение может создавать код преступной программы, которая будет способна следить за нажатием на клавиатуре пользователей, или программы-вымогателя.
И вот, сообщается в отчете израильской безопасности компании Check Point, подпольные преступные форумы наконец-то осознали такие преимущества чат-бота. В одном из постов, на который наткнулась Check Point, хакер похвастался преступной программой для Android, код которой написал ChatGPT; эта программа украла нужные файлы, сжала их и послала куда нужно.
Еще этот хакер рассказал о другом инструменте, который установил на компьютер дополнительный «вход» и позволил занести через него другую вредоносную программу.
На том же форуме другой пользователь поделился кодом Python, который может шифровать файлы и создан с помощью приложения от OpenAI. Этот пользователь утверждает, что это первый код шифрования, который он создал в своей жизни.
Как отметила в своем отчете Check Point, такой код можно использовать для совершенно невинных целей. Но его «можно изменить, чтобы он мог полностью зашифровать компьютер так, что владелец и не будет знать». То есть он может быть похож на программу-вымогателя.
Этот же пользователь ранее продал доступ к хакнутым серверам компании и украденным данным, написала Check Point.
Другой пользователь также говорил об использовании ChatGPT для создания функций для даркнет-маркетплейсов, таких как Silk Road или Alphabay. В качестве примера он показал, как чат-бот может быстро создать приложение, следящее за ценами на криптовалюту для теоретической платежной системы.
Алекс Голден, основатель киберразведывательной компании Hold Security, рассказал, что «любовные мошенники» уже начинают использовать ChatGPT, чтобы создать убедительных подставных лиц.
«Они планируют создать чат-боты, которые смогут притворяться преимущественно девушками в переписках с потенциальными целями, – говорит Голден. – Они пытаются автоматизировать непринужденный разговор».
OpenAI не ответила на просьбу предоставить комментарий для этой статьи.
Это только начало
Согласно отчету Check Point, сейчас разработанные с помощью ChatGPT инструменты выглядят довольно примитивно, однако это лишь вопрос времени, когда более изобретательные хакеры найдут способ обратить ИИ себе на пользу.
Рик Фергюсон, вице-президент американской киберразведывательной компании Forescout, говорит, что пока не похоже, что ChatGPT способен написать достаточно сложный код, как, например, для программ-вымогателей. Но приложение от OpenAI поможет новичкам быстрее и легче выйти на рынок незаконного цифрового промысла, ведь чат-бот может писать примитивные, но достаточно эффективные программы-вредители.
Фергюсона больше беспокоит не создание кодов для похищения данных жертв, а то, что ChatGPT может помочь создавать сайты и боты, которые обманом убеждали делиться пользователей личной информацией. Чат-бот может «начать индустрию создания и персонализации преступных сайтов, узконаправленных фишинговых кампаний и убедительных афер», добавляет Фергюсон.
Сергей Шикевич, исследователь киберугроз в Check Point, сказал Forbes, что ChatGPT будет «прекрасным инструментом» для российских хакеров, недостаточно владеющих английским, чтобы сформулировать убедительные фишинговые письма.
Если же говорить о защите от преступного применения ChatGPT, Шикевич говорит, что, в конце концов, к «сожалению», этот вопрос должен решить контрольный орган.
OpenAI ввел определенный контроль, который не дает чату выполнять прямые запросы на создание шпионских программ, но хакерам и журналистам удалось обойти такое ограничение.
По словам Шикевича, такие компании, как OpenAI, могут на законодательном уровне обязать обучать их ИИ определять таких нарушителей.
Вы нашли ошибку или неточность?
Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.