INTRODUÇÃO
A Microsoft confirmou que um bug em seu sistema permitiu que o Copilot, sua inteligência artificial, lesse e resumisse e-mails confidenciais de clientes sem autorização por várias semanas. A falha, identificada como CW1226324, foi reportada inicialmente pelo site Bleeping Computer e afetou mensagens rotuladas como confidenciais desde janeiro, mesmo quando os usuários tinham políticas de prevenção de perda de dados ativas.
DESENVOLVIMENTO
O Copilot Chat é um recurso de IA disponível para clientes pagantes do Microsoft 365, integrado a produtos como Word, Excel e PowerPoint. Segundo a empresa, o bug fazia com que e-mails rascunhados ou enviados com o rótulo de confidencial fossem processados incorretamente pelo chat do Copilot, ignorando as restrições de segurança. A Microsoft iniciou a correção do problema em fevereiro, mas não divulgou quantos clientes foram afetados ou respondeu a pedidos de comentário sobre o impacto total.
O incidente ocorre em um momento de crescente preocupação com a privacidade de dados em ferramentas de IA. Na mesma semana, o departamento de TI do Parlamento Europeu bloqueou os recursos de IA em dispositivos oficiais, citando riscos de que informações confidenciais fossem enviadas para a nuvem sem controle.
CONCLUSÃO
O caso expõe vulnerabilidades críticas na implementação de IA corporativa, destacando a necessidade de auditorias rigorosas e transparência das empresas de tecnologia. Enquanto a Microsoft trabalha para corrigir a falha, usuários devem revisar suas configurações de segurança e considerar limitações no uso de ferramentas automatizadas com dados sensíveis.

