add Добавить
message Мои сообщения
bookmark 0 Список избранного
theme Переключить тему
user Личный кабинет
Добро пожаловать в "Мой Город" Талдом

Компания выпустила заявление о том, как ChatGPT распознает и реагирует на признаки психического и эмоционального стресса, вопросы суицида и причинении вреда здоровью другим.

 

Оно появилось на сайте компании после громкого случая в США, где подросток поделился с ChatGPT своим планом по самоубийству, а ИИ предложил ему еще несколько практичных советов.

OpenAI заявляет, что еще с 2023 года модель обучена переключаться на поддерживающий и сочувствующий язык, если кто-то из пользователей делится планами по селфхарму, а в случае суицидальных намерений — направлять людей на профессиональную помощь, например, на 988 (горячую линия по самоубийствам и кризисам в США). В вышеупомянутом кейсе, судя по всему, такое не сработало.

Но есть в этом заявлении еще интересные подробности. Если речь идет о причинении вреда другим, то ChatGPT направляет эти разговоры на проверку отдельной команде специалистов. Если специалисты решат, что это может привести к неизбежной угрозе серьезного физического вреда для других, такие диалоги могут быть переданы в правоохранительные органы.

При этом диалоги с намерениями о суициде в полицию не передаются, в компании назвали это уважением конфиденциальности.

Еще в ближайшее время OpenAI планирует ввести родительский контроль для ChatGPT, чтобы родители могли получить больше информации о том, как их подростки используют нейросеть.

 

Источник: OpenAI

Комментарии

К этой новости еще не добавлены комментарии. Вы можете сделать это первым!
Комментировать

Еще новости

pre

Список избранного

Список избранного пуст

Личный кабинет