Категория
Новости
Дата

У ChatGPT появилась система безопасности и родительский контроль. Как реагируют пользователи

1 хв читання

OpenAI начала тестирование новой системы безопасности в ChatGPT и добавила родительский контроль для подростковых аккаунтов, вызвав противоречивую реакцию пользователей, пишет Tech Crunch.

Покупайте годовую подписку на шесть журналов Forbes Ukraine по цене четырех. Если вы цените качество, глубину и силу реального опыта, эта подписка именно для вас.

Подробности

  • Компания ввела safety routing – механизм, автоматически переключающий чат на модель GPT-5 в случаях эмоционально чувствительных разговоров. Именно эта модель, в отличие от более «покладистого» GPT-4o, была обучена работать с запросами, которые могут представлять риск для психического здоровья, используя функцию «безопасных завершений».
  • Родительский контроль позволяет ограничивать функции чат-бота для подростков: выключать голосовой режим, память и генерацию изображений, устанавливать тихие часы и отказываться от использования данных в обучении моделей.
  • Кроме того, аккаунты несовершеннолетних получат дополнительные ограничения относительно чувствительного контента и систему выявления признаков потенциальной склонности к самоповреждению. В случае риска OpenAI пообещала информировать родителей через email, SMS или push-уведомление, а в критических ситуациях – обращаться в правоохранители или экстренные службы.
  • Пользователи и эксперты разделились в оценках. Одни приветствуют шаг как усиление безопасности, другие считают его чрезмерно попечительским и ухудшающим опыт работы с ChatGPT.
  • OpenAI обещает за 120 дней доработать системы, признав, что баланс между безопасностью и качеством сервиса требует поиска.

Контекст

Новые защитные элементы появляются после самоубийства подростка Адама Рейна, который обсуждал с ChatGPT самоповреждение и планы покончить с собой. ИИ даже предоставил ему информацию о конкретных методах самоубийства, адаптированных к его хобби, сообщила The New York Times. Родители Рейна подали в суд на OpenAI с иском о неправомерной смерти.

В ответ OpenAI признала в предыдущем блоге недостатки в своих системах безопасности, в частности, неспособность поддерживать защитные барьеры во время длительных разговоров. Эксперты связывают эти проблемы с базовыми элементами дизайна моделей: тенденцией подтверждать утверждение пользователей и алгоритмами предугадывания следующего слова, заставляющих чат-боты продолжать опасные темы вместо перенаправления.

Материалы по теме

Вы нашли ошибку или неточность?

Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.

Предыдущий слайд
Следующий слайд
Четвертий випуск 2025 року вже у продажу

Замовляйте з безкоштовною доставкою по Україні