INTRODUÇÃO: Na sexta-feira à tarde, enquanto uma entrevista começava, um alerta de notícia surgiu na tela: o governo Trump cortava relações com a Anthropic, empresa de IA de São Francisco fundada por Dario Amodei. O Secretário de Defesa Pete Hegseth invocou uma lei de segurança nacional para proibir a empresa de fazer negócios com o Pentágono. A decisão veio após Amodei se recusar a permitir que a tecnologia da Anthropic fosse usada para vigilância em massa de cidadãos americanos ou para drones armados autônomos que pudessem selecionar e matar alvos sem intervenção humana. A empresa perde um contrato de até US$ 200 milhões e foi barrada de trabalhar com outros contratados de defesa após um post de Trump no Truth Social ordenando que todas as agências federais "cessassem imediatamente o uso da tecnologia da Anthropic".
DESENVOLVIMENTO: Max Tegmark, físico do MIT e fundador do Future of Life Institute, passou a última década alertando que a corrida para construir sistemas de IA cada vez mais poderosos está superando a capacidade do mundo de governá-los. Ele ajudou a organizar uma carta aberta assinada por mais de 33.000 pessoas, incluindo Elon Musk, pedindo uma pausa no desenvolvimento de IA avançada. Sua visão sobre a crise da Anthropic é implacável: a empresa, como seus rivais, plantou as sementes de seu próprio dilema. O argumento de Tegmark não começa com o Pentágono, mas com uma decisão tomada anos antes — uma escolha, compartilhada em toda a indústria, de resistir à regulação vinculante. A Anthropic, OpenAI, Google DeepMind e outras há muito prometem se governar de forma responsável. Esta semana, a Anthropic até abandonou o princípio central de seu próprio compromisso de segurança — sua promessa de não lançar sistemas de IA cada vez mais poderosos até que a empresa estivesse confiante de que não causariam danos.
CONCLUSÃO: A crise da Anthropic serve como um alerta claro: a autorregulação da indústria de IA é insuficiente para lidar com questões éticas e de segurança nacional. A recusa da empresa em permitir usos controversos de sua tecnologia, embora louvável, não a protegeu das consequências de um modelo de governança frágil. O caso destaca a necessidade urgente de estruturas regulatórias robustas e vinculantes, em vez de promessas voluntárias que podem ser abandonadas sob pressão. O futuro da IA depende não apenas do avanço tecnológico, mas da capacidade da sociedade de impor limites éticos claros e executáveis.

