OpenAI обновила модель ChatGPT, чтобы лучше распознавать и поддерживать людей в моменты дистресса. По оценкам компании, модель теперь возвращает ответы, которые не полностью соответствуют желаемому поведению, на 65-80% реже в различных областях, связанных с психическим здоровьем.
Компания сосредоточилась на трех ключевых областях: проблемах психического здоровья (психоз или мания), самоповреждении и суициде, а также эмоциональной зависимости от ИИ. Работая с экспертами по психическому здоровью, OpenAI научила модель лучше распознавать дистресс, деэскалировать разговоры и направлять людей к профессиональной помощи.
Статистика показывает редкость таких ситуаций: около 0,07% активных пользователей в неделю и 0,01% сообщений указывают на возможные признаки психических расстройств, связанных с психозом или манией. Для суицидальных мыслей и намерений эти цифры составляют 0,15% пользователей и 0,05% сообщений соответственно.
В рамках этой работы психиатры и психологи оценили более 1800 ответов модели в серьезных ситуациях с психическим здоровьем и сравнили ответы новой модели GPT-5 с предыдущими моделями. Эксперты обнаружили, что новая модель значительно улучшена по сравнению с GPT-4o, с снижением нежелательных ответов на 39-52% по всем категориям. В автоматизированной оценке, состоящей из более чем 1000 сложных разговоров, связанных с психическим здоровьем, новая модель GPT-5 показывает 92% соответствия желаемому поведению, по сравнению с 27% для предыдущей модели GPT-5. Для разговоров о самоповреждении и суициде соответствие составляет 91% против 77%, а для эмоциональной зависимости — 97% против 50%. OpenAI создала Глобальную сеть врачей — пул из почти 300 врачей и психологов из 60 стран — которую использует для информирования исследований безопасности и представления глобальных взглядов.
Источник новости и обложки: openai.com