Китайський ШІ-стартап DeepSeek став справжнім чорним лебедем на ринку штучного інтелекту, стрімко злетівши до вершин технологічного олімпу, викликавши шок у Кремнієвій долині та обваливши фондові ринки. Його революційна ШІ-модель DeepSeek R1 поставила під сумнів лідерство США у сфері передових технологій, спричинила падіння індексу Nasdaq і підірвала довіру до технологічних гігантів. Чи безпечно довіряти свої дані DeepSeek та як ця ШІ-модель обробляє дані своїх користувачів? Розповідає Петро Білик, керівник практик технологій та інвестицій, штучного інтелекту в Juscutum.
DeepSeek R1 – ШІ-модель із обмеженим бюджетом у $6 млн. З відсутністю доступу до передових американських чипів DeepSeek R1 уже створила конкуренцію іншим моделям штучного інтелекту у незалежних тестах, а її успіх на Apple Store підтвердив зацікавленість користувачів.
Її розробник – стартап DeepSeek – використав інновації, народжені в кризі, і розробив модель, яка за обмежених ресурсів може конкурувати з найкращими ШІ-ботами у світі. Це виклик самим принципам сучасного технологічного лідерства.
- Категорія
- Рейтинги
- Дата
Проте.
DeepSeek: що це таке
DeepSeek – це китайська система штучного інтелекту, яка пропонує широкий набір функцій, побудованих на основі потужних мовних моделей.
Вона дозволяє користувачам:
- спілкуватися з чат-ботом, який може генерувати текст або працювати з мультимедійними даними;
- використовувати API та SDK, що дають можливість розробникам інтегрувати ці моделі у власні проєкти;
- та відучора генерувати зображення.
Завдяки універсальності та доступності, DeepSeek приваблює інноваційні стартапи та великі компанії, які прагнуть використовувати гнучкі AI-рішення для підвищення своєї конкурентоспроможності.
Аспекти безпеки та конфіденційності DeepSeek
Використання даних для навчання моделей
DeepSeek збирає та опрацьовує внесені користувачем тексти, завантажені файли, історію чату й іншу інформацію, щоб «удосконалювати та розвивати» свої технології штучного інтелекту, йдеться у Terms of Use та Privacy Policy моделі.
У Terms of Use вказано:
«4.3. …Ми можемо мінімально використовувати Inputs (вхідні дані) та Outputs (вихідні дані) для підтримки, обслуговування, розробки чи поліпшення сервісу або технологій, що лежать в його основі».
Це означає, що DeepSeek аналізує та накопичує анонімізовані або частково знеособлені фрагменти запитів і відповідей, щоб налаштовувати моделі точніше.
Подібний підхід у більшості генеративних AI-платформ. Але це важливий пункт, якщо ви надаєте конфіденційні дані через сервіс.
У багатьох випадках фраза «розробити або вдосконалити… базові технології» фактично може означати використання даних користувача для навчання моделі, тонкого налаштування або інших ітераційних покращень продуктивності.
Водночас Privacy Policy в розділі How we use your Information зазначено:
«Ми використовуємо вашу інформацію, щоб… переглядати, покращувати та розвивати сервіс, зокрема шляхом… аналізу, як люди його використовують, а також шляхом навчання та вдосконалення наших технологій».
Отже, дані, які вводять користувачі, і пов’язаний вміст може використовуватися для навчання або вдосконалення моделей DeepSeek.
В інших розділах User Input вказано, що текст, аудіовведення, завантажені файли та інший вміст збираються, зберігаються та обробляються DeepSeek. Це підтверджує, що DeepSeek дійсно використовує дані чатів користувачів для вдосконалення системи та навчання моделі.
Строки зберігання даних
Їх немає. В розділі How long do we keep your information Privacy Policy згадується, що DeepSeek зберігає інформацію стільки часу, скільки необхідно для цілей покращення, вдосконалення та розвитку системи.
Якщо користувач не вимагає видалити дані, «розмови» можуть залишатися в системах DeepSeek.
Міжнародна передача даних та зберігання
В політиці використання моделі згадується, що користувачі мають певні права щодо персональних даних, залежно від законодавства країни, в якій вони проживають. Але й зазначається, що особиста інформація користувача зберігається на серверах у Китаї.
Передача даних третім особам
DeepSeek може ділитися інформацією, зібраною під час використання системи, у випадках:
- зі сторонніми провайдерами (Service Providers);
- з рекламними чи аналітичними партнерами;
- з компаніями в рамках корпоративної групи компаній;
- з державними органами, в рамках законодавства.
Політика знеособлення та шифрування
У своїх Terms of Use DeepSeek обіцяє secure encryption technology та strict de-identification. Тобто компанія шифрує користувацькі сесії й дані, які надсилаються на сервер; застосовує механізми знеособлення (де це можливо) для скорочення ризику ідентифікації конкретної особи.
Хоча у правовому полі будь-яка політика анонімізації не є стовідсотковою гарантією, DeepSeek декларує дотримуватися певних вимог у сфері захисту даних та загальносвітових стандартів безпеки. Однак це не скасовує того факту, що вміст, який вводить користувач, може оброблятися для вдосконалення моделі.
Можливість керування та видалення даних
DeepSeek надає користувачам певні інструменти керування інформацією, згідно з Privacy Policy:
- у налаштуваннях акаунта можна очищувати історію чатів;
- можливість деактивувати акаунт.
За замовчуванням система може використовувати дані, якщо користувач не надає запит на їх видалення.
Попри те, що ви можете мати певні права на доступ або видалення вашої особистої інформації, право на заперечення чи обмеження певної обробки, деякі дані все ще можуть зберігатися для відповідності або для «законних бізнес-інтересів», як-от покращення сервісу або для виконання юридичних і нормативних вимог.
Примітно, що DeepSeek не надає можливість «відмовитися» від використання даних ваших чатів для «навчання та вдосконалення технології», як, наприклад, в OpenAI.
Якщо пріоритетом є повне видалення персональних даних, потрібно буде звертатися до DeepSeek із додатковим запитом.
Політики західних конкурентів
Порівняймо DeepSeek з іншими моделями.
ChatGPT від OpenAI
Американський ШІ-стартап OpenAI має окрему політику для користувачів з європейської економічної зони.
Хоча OpenAI використовує дані користувачів для тренування моделей, зокрема зібрані через ChatGPT, у Privacy Policy та спеціальному Notice on model training описано можливість відмовитися (opt out) від використання внесеної інформації для навчання. Такі налаштування є у кожному обліковому записі.
Компанія пропонує окремі інструкції (зокрема для корпоративних користувачів ChatGPT Enterprise), як заборонити доступ до історії чатів чи відключити її збереження.
Передбачає стандартні права (доступ, виправлення, видалення, перенесення, обмеження обробки) та додатково описує можливість відключити збереження чату, після чого повідомлення видаляються з основних систем OpenAI через 30 днів. Вказані контактні канали й детальні інструкції для подання запитів.
Має спеціальний розділ Data transfers, де детально описує, як відбувається обробка даних користувачів з ЄС, Великої Британії, Швейцарії, та роз’яснює, що OpenAI послуговується стандартними договірними клаузулами, інструментами відповідності, а також механізмами adequacy (у разі наявності).
Claude від Anthropic
За умовами актуальної Privacy Policy, Claude від американського єдинорога Anthropic не використовує розмови користувачів для тренування моделей у більшості випадків.
Винятки, якщо контент:
- було надіслано як зворотний зв’язок (Feedback);
- позначено для Trust & Safety-перевірок;
- користувач добровільно погодився.
Модель Anthropic загалом більш стримано залучає користувацькі Inputs/Outputs до навчального процесу.
Flagged Inputs і Outputs можуть бути використані для тренування спеціальних моделей без прив’язки до конкретного користувача. Основна мета – безпека, виявлення «небезпечного» чи забороненого контенту та вдосконалення механізмів Trust & Safety.
Claude пропонує набір стандартних прав (доступ, виправлення, видалення, заперечення). Великий наголос робиться на Right to Know та Right to Delete з уточненням – після видалення розмов із чат-історії компанія стирає їх зі своїх бекенд-систем протягом 30 днів. Умови наближаються до GDPR-підходу із покроковим поясненням, як подати запит і в які терміни його буде виконано.
Має детально прописану секцію про Data Transfers, де згадано reliance на adequacy decisions (рішення про належний рівень захисту), стандартні договірні клаузули та інші юридичні інструменти для передачі даних з ЄС / Великої Британії до США.
Пояснюється, що Anthropic – компанія з офісом у США та дочірньою фірмою в Ірландії. З цим пов’язане дотримання правил GDPR та інших локальних норм.
Рекомендації для компаній та приватних осіб
Політика внутрішнього користування
Якщо ваша організація планує інтегрувати DeepSeek для співробітників, пропишіть чіткі правила введення конфіденційних даних. Можливо, слід уникати завантаження документів із закритою інформацією або застосовувати спеціальні механізми додаткової анонімізації.
В Україні за основу взято законопроєкт №8153 від 25 жовтня 2022 року про зміну законодавства про персональні дані та приведення його у відповідність до європейського GDPR. Слідкуйте за перебігом його ухвалення.
Оцінка ризиків
Проведіть аналіз відповідності політик DeepSeek з локальним законодавством про захист даних, особливо якщо ви дієте в ЄС (GDPR) чи інших регіонах зі своїм регулюванням.
Якщо ви працюєте в ЄС, з лютого 2025-го частково запрацює АІ Акт, що також вимагатиме від компаній проводити оцінку ризиків. До того ж ухвалено міжнародну Рамкову конвенцію про штучний інтелект, яку Україна також планує ратифікувати.
Для того, щоб зрозуміти ризики, можна використати методологію HUDERIA, яку 28 листопада 2024 року затвердила Рада Європи.
Забороніть передавати конфіденційну інформацію
Забороніть команді вводити у чат деталі бізнес-угод, персональні дані чи чутливу, конфіденційну інформацію.
Дотримуйтеся законодавства щодо транскордонної передачі даних
DeepSeek зберігає дані на серверах у Китаї й підпорядковується юрисдикції КНР. КНР не є надійною юрисдикцією для цілей GDPR.
Міжнародні компанії, що планують інтегрувати DeepSeek, мають враховувати правила транскордонної передачі даних, наприклад згідно з GDPR, standart contract clauses.
Контрольні запити про видалення
Якщо вам стало відомо, що співробітник порушив вимоги та передав конфіденційну інформацію, негайно зверніться до DeepSeek. Адреси та контактні канали наведені у розділі Contact us у Terms of Use та Privacy Policy.
Регулярний аудит та оновлення
DeepSeek постійно оновлює свої Terms of Use та Privacy Policy. Відстежуйте, як змінюються умови використання й переробки даних.
DeepSeek пропонує генеративний ШІ, але його політика дозволяє ширше використовувати дані користувачів для навчання моделей, на відміну від OpenAI та Anthropic, які детально регулюють процедури відмови та видалення інформації.
Вибір ШІ-платформи залежить від пріоритетів функціональності та захисту даних. Перед тим, як користуватися, оцініть політики використання, ризики та забезпечте конфіденційність свої даних для конкурентних переваг.
Ви знайшли помилку чи неточність?
Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.