A ação judicial de Elon Musk contra a OpenAI pode depender de como a subsidiária com fins lucrativos afeta a missão original do laboratório: garantir que a inteligência artificial geral beneficie a humanidade. Na quinta-feira, em Oakland, Califórnia, uma ex-funcionária e membro do conselho disse que o esforço da empresa para lançar produtos de IA no mercado comprometeu seu compromisso com a segurança.
Rosie Campbell, que integrou o time de prontidão para AGI em 2021 e saiu em 2024 após a dissolução de sua equipe, testemunhou que a organização mudou de foco: “Quando entrei, era muito voltada para pesquisa e era comum falar sobre AGI e segurança. Com o tempo, tornou-se uma organização focada em produtos.”
Sob interrogatório, Campbell reconheceu que financiamento significativo era necessário para construir AGI, mas alertou que criar um modelo de superinteligência sem as medidas de segurança adequadas não se alinharia à missão original. Ela citou um incidente em que a Microsoft implantou o GPT-4 na Índia via Bing antes de ser avaliado pelo conselho de segurança da OpenAI. “Precisamos estabelecer precedentes fortes à medida que a tecnologia se torna mais poderosa”, disse.
Os advogados da OpenAI também fizeram Campbell admitir que, em sua “opinião especulativa”, a abordagem de segurança da OpenAI é superior à da xAI, empresa de Musk. O caso segue em andamento com implicações para o futuro da IA.

