INTRODUÇÃO

A ferramenta de cibersegurança Mythos, desenvolvida pela Anthropic e anunciada recentemente como uma solução de IA para empresas, foi alvo de acesso não autorizado por um grupo de usuários. A informação, reportada pela Bloomberg, revela que indivíduos não identificados conseguiram utilizar o software através de um ambiente de fornecedor terceirizado, levantando preocupações sobre a segurança de modelos de IA avançados.

DESENVOLVIMENTO

Publicidade
Publicidade

De acordo com a investigação, o grupo operava em um fórum online privado e canal no Discord, dedicado a explorar modelos de IA não lançados. Eles obtiveram acesso ao Mythos no mesmo dia de seu anúncio público, usando conhecimento sobre o formato de outros modelos da Anthropic para localizá-lo. Um porta-voz da Anthropic confirmou à TechCrunch que está investigando o incidente, mas afirmou que não há evidências de impacto em seus sistemas internos. O acesso foi facilitado por uma pessoa empregada em um contratante terceirizado da empresa, que foi entrevistada pela Bloomberg.

CONCLUSÃO

Embora o grupo alegue interesse em "brincar" com novos modelos sem causar danos, o caso expõe vulnerabilidades na segurança de ferramentas de IA críticas, destacando a necessidade de reforçar controles de acesso, especialmente em cadeias de fornecedores. A Anthropic mantém sua investigação, mas o episódio serve como alerta para o setor sobre os riscos de vazamentos em tecnologias sensíveis.