A OpenAI anunciou uma nova funcionalidade chamada Trusted Contact (Contato de Confiança), projetada para alertar um terceiro de confiança sempre que houver menções a automutilação ou suicídio em conversas com o ChatGPT. A medida surge após uma série de processos movidos por famílias que atribuem ao chatbot o incentivo ao suicídio de entes queridos.

Com o recurso, o usuário adulto do ChatGPT pode designar outra pessoa como contato de confiança em sua conta — um amigo ou familiar, por exemplo. Quando a conversa aborda ideação suicida, o sistema incentiva o usuário a entrar em contato com essa pessoa e também envia um alerta automático ao contato designado, encorajando-o a verificar como o usuário está. A OpenAI afirma que cada notificação desse tipo é revisada por humanos em menos de uma hora.

O alerta é breve e não inclui detalhes do conteúdo da conversa, visando proteger a privacidade do usuário. A empresa utiliza uma combinação de automação e revisão humana para detectar situações de risco. A iniciativa representa um passo importante na tentativa de mitigar os trágicos incidentes associados ao uso do chatbot.

Publicidade
Publicidade