Категорія
Новини
Дата

У ChatGPT зʼявилася система безпеки і батьківський контроль. Як реагують користувачі

1 хв читання

OpenAI почала тестування нової системи безпеки в ChatGPT і додала батьківський контроль для підліткових акаунтів, викликавши суперечливу реакцію користувачів, пише Tech Crunch.

Купуйте річну передплату на шість журналів Forbes Ukraine за ціною чотирьох номерів. Якщо ви цінуєте якість, глибину та силу реального досвіду, ця передплата саме для вас.

Деталі

  • Компанія запровадила safety routing – механізм, що автоматично перемикає чат на модель GPT-5 у випадках емоційно чутливих розмов. Саме ця модель, на відміну від більш «поступливого» GPT-4o, була навчена працювати із запитами, які можуть становити ризик для психічного здоров’я, використовуючи функцію «безпечних завершень». 
  • Батьківський контроль дозволяє обмежувати функції чатбота для підлітків: вимикати голосовий режим, пам’ять та генерацію зображень, встановлювати «тихі години» і відмовлятися від використання даних у навчанні моделей. 
  • Крім того, акаунти неповнолітніх отримають додаткові обмеження щодо чутливого контенту та систему виявлення ознак потенційної схильності до самопошкодження. У разі ризику OpenAI пообіцяла інформувати батьків через email, SMS або push-сповіщення, а в критичних ситуаціях – звертатися до правоохоронців чи екстрених служб.
  • Користувачі та експерти розділилися в оцінках. Одні вітають крок як посилення безпеки, інші вважають його надмірно опікунським і таким, що погіршує досвід роботи з ChatGPT. 
  • OpenAI обіцяє за 120 днів доопрацювати системи, визнавши, що баланс між безпекою та якістю сервісу ще потребує пошуку.

Контекст

Нові запобіжники з’являються після самогубства підлітка Адама Рейна, який обговорював із ChatGPT самоушкодження та плани накласти на себе руки. ШІ навіть надав йому інформацію про конкретні методи самогубства, адаптовані до його хобі, повідомила The New York Times. Батьки Рейна подали до суду на OpenAI із позовом про неправомірну смерть.

У відповідь OpenAI визнала в попередньому блозі недоліки у своїх системах безпеки, зокрема нездатність підтримувати захисні барʼєри під час тривалих розмов. Експерти повʼязують ці проблеми з базовими елементами дизайну моделей: тенденцією підтверджувати твердження користувачів і алгоритмами передбачення наступного слова, які змушують чатботи продовжувати шкідливі теми замість перенаправлення. 

Матеріали по темі

Ви знайшли помилку чи неточність?

Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.

Попередній слайд
Наступний слайд
Четвертий випуск 2025 року вже у продажу

Замовляйте з безкоштовною доставкою по Україні