Em um dos casos mais emblemáticos do setor de tecnologia, Elon Musk tenta impedir a transição da OpenAI para uma empresa com fins lucrativos, argumentando que a organização se desviou de sua missão original de segurança em IA. O ponto central do embate é a seriedade com que devemos tratar os chamados 'AI doomers', e o especialista convocado foi Stuart Russell, professor da Universidade da Califórnia, Berkeley.

Russell, que assinou uma carta aberta em março de 2023 pedindo uma pausa de seis meses na pesquisa de IA, destacou riscos como ameaças cibernéticas, problemas de alinhamento e a natureza vencedor-toma-tudo do desenvolvimento da inteligência artificial geral (AGI). Ele afirmou que há uma 'tensão intrínseca' entre a busca pela AGI e a segurança. Contudo, suas preocupações mais amplas sobre ameaças existenciais foram limitadas por objeções dos advogados da OpenAI.

O depoimento revela contradições no discurso de Musk, que também assinou a mesma carta enquanto lançava sua própria empresa de IA, a xAI. Apesar das restrições, o testemunho de Russell reforça o debate sobre a necessidade de regulação mais rígida no setor, enquanto a OpenAI defende que sua estrutura corporativa e políticas de segurança são adequadas.

Publicidade
Publicidade