INTRODUÇÃO
Um grupo de procuradores-gerais dos Estados Unidos enviou uma carta contundente às principais empresas de inteligência artificial do mundo, incluindo Microsoft, OpenAI, Google, Meta e outras dez gigantes do setor. O alerta é claro: corrigir as "saídas delirantes" de seus chatbots ou enfrentar violações das leis estaduais. A ação surge em meio a uma série de incidentes perturbadores ligados à saúde mental de usuários, alguns com desfechos trágicos como suicídios e homicídios associados ao uso excessivo de IA.
DESENVOLVIMENTO
A carta, assinada por dezenas de procuradores através da Associação Nacional de Procuradores-Gerais, exige a implementação imediata de salvaguardas internas. Entre as medidas propostas estão auditorias transparentes por terceiros, incluindo grupos acadêmicos e da sociedade civil, para avaliar modelos de linguagem em busca de sinais de "ideações delirantes ou bajuladoras". Esses avaliadores devem ter liberdade para publicar suas descobertas sem aprovação prévia das empresas.
Os AGs também sugerem que as empresas tratem incidentes de saúde mental com a mesma seriedade aplicada a incidentes de cibersegurança, estabelecendo políticas claras de notificação aos usuários quando os chatbots produzirem resultados psicologicamente prejudiciais. O documento destaca que, embora a IA generativa tenha potencial positivo, ela já causou - e pode causar - danos graves, especialmente a populações vulneráveis.
CONCLUSÃO
Este movimento representa um passo significativo na regulamentação da IA, marcando um confronto crescente entre governos estaduais e federais sobre como controlar os riscos da tecnologia. A pressão por transparência e responsabilidade pode forçar uma mudança fundamental na forma como as empresas desenvolvem e implantam seus sistemas de IA, priorizando a segurança psicológica dos usuários acima da inovação desregulada.

