INTRODUÇÃO
A OpenAI, empresa líder em inteligência artificial, anunciou a busca por um novo executivo para liderar sua estratégia de gestão de riscos emergentes relacionados à IA. O cargo, intitulado "Head of Preparedness", tem como foco principal estudar e mitigar ameaças que vão desde vulnerabilidades em segurança digital até impactos na saúde mental dos usuários. A iniciativa reflete uma crescente preocupação da indústria com as consequências não intencionais dos avanços tecnológicos.
DESENVOLVIMENTO
Em um post na rede social X, o CEO Sam Altman destacou que os modelos de IA "estão começando a apresentar alguns desafios reais", mencionando especificamente o "impacto potencial dos modelos na saúde mental" e sua capacidade de encontrar "vulnerabilidades críticas" em sistemas de segurança digital. A descrição da vaga enfatiza a responsabilidade de executar o "framework de preparação" da empresa, que visa rastrear e preparar-se para capacidades de fronteira que criem novos riscos de danos graves.
A OpenAI havia anunciado a criação de uma equipe de preparação em 2023, focada em estudar riscos "catastróficos", desde ameaças imediatas como ataques de phishing até especulações sobre ameaças nucleares. No entanto, menos de um ano depois, o então chefe de preparação, Aleksander Madry, foi realocado para um cargo focado em raciocínio de IA, e outros executivos de segurança deixaram a empresa ou assumiram novas funções fora da área de preparação e segurança.
Recentemente, a empresa atualizou seu Framework de Preparação, indicando que pode "ajustar" seus requisitos de segurança se um laboratório concorrente lançar um modelo de "alto risco" sem proteções similares. Altman também convocou candidatos que queiram "ajudar o mundo a descobrir como capacitar defensores de cibersegurança com capacidades de ponta, garantindo que atacantes não possam usá-las para causar danos".
CONCLUSÃO
A movimentação da OpenAI para fortalecer sua gestão de riscos surge em um momento de crescente escrutínio sobre os impactos sociais e psicológicos dos chatbots generativos. Processos recentes alegam que o ChatGPT da empresa reforçou delírios de usuários, aumentou o isolamento social e, em casos extremos, contribuiu para suicídios. A criação deste cargo executivo demonstra um reconhecimento formal dos desafios éticos e de segurança impostos pela IA avançada, mas também levanta questões sobre a consistência da estratégia de segurança da empresa, dada a recente reestruturação de sua equipe de preparação.

