Чат-бот на основі ШІ ChatGPT цієї зими став хітом у світі технологій. Але спеціалісти з кібербезпеки і ранні користувачі забили на сполох: такий розумний чат-бот може неабияк полегшити роботу для ласих до наживи хакерів.
Дослідники з кібербезпеки кілька днів тому попередили, що кіберзлочинці почали використовувати ChatGPT на основі ШІ від компанії OpenAI, щоб швиденько створювати інструменти для зламу. Шахраї також перевіряють здатність ChatGPT створювати інші чат-боти, які б видавали себе за реальних дівчат і заманював обрані цілі. Про це Forbes дізнався від одного експерта, який моніторить злочинні форуми.
Подарунок для хакерів
Багато перших користувачів ChatGPT забили на сполох після запуску чат-боту в маси у грудні: застосунок може створювати код злочинної програми, яка буде здатна слідкувати за натисканням на клавіатуру користувачів, або програми-вимагача.
Аж ось, повідомляється в звіті ізраїльської безпекової компанії Check Point, підпільні злочинні форуми нарешті усвідомили такі переваги чат-бота. В одному із постів, на який натрапила Check Point, хакер похвалився злочинною програмою для Android, код до якої написав ChatGPT; ця програма вкрала потрібні файли, стисла їх і надіслала куди потрібно.
Ще цей хакер розповів про інший інструмент, який встановив на компʼютер додатковий «вхід» і дав змогу занести через нього іншу шкідливу програму.
На тому ж форумі інший користувач поділився кодом Python, який може шифрувати файли і який був створений за допомогою застосунку від OpenAI. Цей користувач стверджує, що це був перший код шифрування, який він створив у своєму житті.
Як зазначила у своєму звіті Check Point, такий код можна використати для зовсім безневинних цілей. Але також його «можна змінити, щоб він міг повністю зашифрувати компʼютер так, що власник і не знатиме». Тобто він може бути подібним до програми-вимагача.
Цей же користувач раніше продав доступ до хакнутих серверів компанії і вкрадених даних, написала Check Point.
Інший користувач також говорив про використання ChatGPT для створення функцій для даркнет-маркетплейсів, таких як Silk Road чи Alphabay. Для прикладу він показав, як чат-бот може швидко створити застосунок, що слідкує за цінами на криптовалюту для теоретичної платіжної системи.
Алекс Голден, засновник кіберрозвідувальної компанії Hold Security, розповів, що «любовні шахраї» вже починають теж використовувати ChatGPT, щоб створити переконливих підставних осіб.
«Вони планують створити чат-боти, які зможуть вдавати переважно дівчат у переписках із потенційними цілями, – каже Голден. – Вони намагаються автоматизувати невимушену розмову».
OpenAI не відповіла на прохання надати коментар для цієї статті.
Це лише початок
Згідно зі звітом Check Point, зараз розроблені за допомогою ChatGPT інструменти виглядають «достатньо примітивно», проте це лише питання часу, коли «більш винахідливі» хакери знайдуть спосіб перетворити ШІ на свою перевагу.
Рік Фергюсон, віцепрезидент американської кіберрозвідувальної компанії Forescout, каже, що поки не схоже на те, що ChatGPT здатен написати достатньо складний код, як, наприклад, для програм-вимагачів. Але застосунок від OpenAI допоможе новачкам швидше і легше вийти на ринок незаконного цифрового промислу, адже чат-бот може писати примітивні, але достатньо ефективні програми-шкідники.
Фергюсона більше непокоїть не створення кодів для викрадення даних жертв, а те, що ChatGPT може допомогти створювати сайти та боти, які б обманом переконували ділитися користувачів особистою інформацією. Чат-бот може «розпочати індустрію створення і персоналізації злочинних сайтів, вузькоспрямованих фішингових кампаній і переконливих афер», додає Фергюсон.
Сергій Шикевич, дослідник кіберзагроз у Check Point, сказав Forbes, що ChatGPT буде «чудовим інструментом» для російських хакерів, які недостатньо володіють англійською, щоб сформулювати переконливі фішингові листи.
Якщо ж говорити про захист від злочинного застосування ChatGPT, Шикевич каже, що зрештою і «на жаль», це питання має вирішити контрольний орган.
OpenAI запровадив певний контроль, який не дає чат-боту виконувати прямі запити на створення шпигунських програм, але хакерам і журналістам вдалося обійти таке обмеження.
За словами Шикевича, такі компанії, як OpenAI, можуть на законодавчому рівні зобовʼязати навчати їхні ШІ визначати таких порушників.
Ви знайшли помилку чи неточність?
Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.