OpenAI объявила об внесении изменений в свой популярный чат-бот ChatGPT после иска, в котором утверждается, что 16-летний подросток Адам Рейн, покончивший жизнь самоубийством этой весной, полагался на чат-бот как на советчика. Об этом сообщает Bloomberg 27 августа.
Покупайте годовую подписку на шесть журналов Forbes Ukraine по цене четырех. Если вы цените качество, глубину и силу реального опыта, эта подписка именно для вас.
Подробности
- Компания планирует обновить ChatGPT, чтобы лучше распознавать и реагировать на признаки психологического дистресса. Например, чат-бот будет объяснять опасность недосыпания и рекомендовать отдых, если пользователь вспомнит, что не спал несколько ночей и чувствует себя неуязвимым.
- OpenAI также усилит защиту в разговорах о самоубийстве, которые могут становиться проблемными при длительном общении. Кроме того, будут введены функции родительского контроля, позволяющие отслеживать, как дети используют ChatGPT, и просматривать детали их взаимодействия с чат-ботом.
- OpenAI также работает над улучшением защитных механизмов для длительных разговоров, чтобы предотвратить ситуации, когда чат-бот недооценивает серьезность введенных пользователем данных.
- Компания планирует перенаправлять пользователей в местные службы поддержки в США и Европе, а также рассматривает возможность создания сети лицензированных специалистов, с которыми пользователи могли бы связаться через ChatGPT в кризисных ситуациях.
- Иск против OpenAI и ее генерального директора Сэма Альтмана подали родители Адама Рейна, 16-летнего ученика из Калифорнии, скончавшегося из-за повешения в апреле. В иске утверждается, что ChatGPT изолировал Адама от семьи и способствовал планированию его самоубийства.
- Родители отмечают, что чат-бот стал «ближайшим доверенным другом» подростка, к которому он обращался со своей тревогой и психологическими проблемами.
- В разговоре с ChatGPT Адам сказал, что знание о возможности самоубийства, и это его успокаивает. Чат-бот ответил, что многие люди с тревогой находят утешение в представлении «запасного выхода», поскольку это может показаться способом восстановить контроль.
Контекст
В последние годы люди все чаще обращаются к чат-ботам, таким как ChatGPT, для решения личных проблем, включая те, которые касаются психического здоровья. Запущенный в 2022 году ChatGPT приобрел огромную популярность, привлекая более 700 млн пользователей еженедельно. Однако использование чат-ботов в качестве замены профессиональной психологической помощи вызывает беспокойство среди экспертов. Критики указывают на риски, связанные с тем, что чат-боты могут ненамеренно ухудшить состояние пользователей, особенно в кризисных ситуациях, из-за ограниченной способности адекватно реагировать на сложные эмоциональные состояния. Например, длительные разговоры могут ослабить защитные механизмы чат-бота, что приводит к неправильным ответам.
Организации, такие как Human Line Project, появились для поддержки людей, сообщающих о психологических проблемах, вызванных взаимодействием с чат-ботами. OpenAI признает эти вызовы и заявляет, что работает над усовершенствованием ChatGPT, чтобы обеспечить более безопасное общение, но отмечает, что это требует времени и тщательной работы.
Вы нашли ошибку или неточность?
Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.