OpenAI планирует перенаправить чувствительные разговоры к моделям рассуждения, таким как GPT-5, а также внедрить родительский контроль в течение следующего месяца. Об этом говорится в блоге компании от 2 сентября. Ранее OpenAI анонсировала изменения в ChatGPT после иска, в котором отмечается, что ушедший из жизни этой весны 16-летний Адам Рейн использовал чат-бот в качестве советчика.
Покупайте годовую подписку на шесть журналов Forbes Ukraine по цене четырех. Если вы цените качество, глубину и силу реального опыта, эта подписка именно для вас.
Подробности
- Компания OpenAI объявила о внедрении новой системы реального времени, которая будет автоматически перенаправлять чувствительные разговоры, например те, где обнаруживаются признаки острого дистресса, к «умственным» моделям, таким как GPT-5-thinking или o3.
- Эти модели разработаны для того, чтобы тратить больше времени на обдумывание контекста перед ответом, делая их более устойчивыми к вредным запросам и способными предоставлять более полезные ответы независимо от того, какую модель пользователь выбрал сначала, сообщили в компании.
- Кроме того, OpenAI планирует запустить родительский контроль, который позволит родителям связывать свои аккаунты с аккаунтами подростков через email-приглашение. Эта функция будет включать правила поведения модели, адаптированные к возрасту, которые активированы по умолчанию, а также возможность отключать функции памяти и истории чатов, чтобы предотвратить проблемы, такие как зависимость, усиление вредных мыслей или иллюзия «чтения мыслей».
- Родители также будут получат уведомления, если система обнаружит, что их подросток находится в состоянии острого дистресса. В конце июля OpenAI уже запустила режим изучения (Study Mode) в ChatGPT, помогающий ученикам развивать критическое мышление, а не просто генерировать эссе за них.
- Кроме того, для всех пользователей введено упоминание о перерывах во время долгих сессий, хотя система не блокирует доступ для тех, кто может «зациклиться» на вредных разговорах.
Контекст
Эти мероприятия являются частью 120-дневной инициативы, в рамках которой OpenAI анонсирует улучшения, запланированные на этот год. Компания также сотрудничает с экспертами по вопросам расстройства питания, зависимостей и подросткового здоровья через свою Глобальную сеть врачей и Совет экспертов по благополучию и ИИ, чтобы определять приоритеты, измерять благополучие и разрабатывать новые защитные механизмы.
Новые предохранители появляются после самоубийства подростка Адама Рейна, который обсуждал с ChatGPT самоповреждение и планы покончить с собой. ИИ даже предоставил ему информацию о конкретных методах самоубийства, адаптированных к его хобби, сообщила The New York Times. Родители Рейна подали в суд на OpenAI с иском о неправомерной смерти. В ответ OpenAI признала в предыдущем блоге недостатки в своих системах безопасности, в частности, неспособность поддерживать защитные барьеры во время длительных разговоров. Эксперты связывают эти проблемы с базовыми элементами дизайна моделей: тенденцией подтверждать утверждение пользователей и алгоритмами предсказания следующего слова, что заставляет чат-боты продолжать вредные темы вместо перенаправления.
Эта тенденция проявилась в крайнем виде в случае Стейна-Эрика Сольберга, пишет The Wall Street Journal: мужчина с историей психических расстройств использовал ChatGPT, чтобы подпитывать свою паранойю о глобальном заговоре против него, что привело к убийству матери и самоубийству в прошлом месяце.

Вы нашли ошибку или неточность?
Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.