OpenAI сканирует разговоры и может передавать их полиции
Компания выпустила заявление о том, как ChatGPT распознает и реагирует на признаки психического и эмоционального стресса, вопросы суицида и причинении вреда здоровью другим.
Оно появилось на сайте компании после громкого случая в США, где подросток поделился с ChatGPT своим планом по самоубийству, а ИИ предложил ему еще несколько практичных советов.
OpenAI заявляет, что еще с 2023 года модель обучена переключаться на поддерживающий и сочувствующий язык, если кто-то из пользователей делится планами по селфхарму, а в случае суицидальных намерений — направлять людей на профессиональную помощь, например, на 988 (горячую линия по самоубийствам и кризисам в США). В вышеупомянутом кейсе, судя по всему, такое не сработало.
Но есть в этом заявлении еще интересные подробности. Если речь идет о причинении вреда другим, то ChatGPT направляет эти разговоры на проверку отдельной команде специалистов. Если специалисты решат, что это может привести к неизбежной угрозе серьезного физического вреда для других, такие диалоги могут быть переданы в правоохранительные органы.
При этом диалоги с намерениями о суициде в полицию не передаются, в компании назвали это уважением конфиденциальности.
Еще в ближайшее время OpenAI планирует ввести родительский контроль для ChatGPT, чтобы родители могли получить больше информации о том, как их подростки используют нейросеть.