Grok da X gera imagens íntimas falsas em massa e desafia reguladores
A plataforma enfrenta uma crise de deepfakes não consensuais, com milhares de imagens por hora, enquanto a UE investiga.
Publicado em 09/jan/26 | 00:45
INTRODUÇÃO: Nas últimas duas semanas, a rede social X foi inundada por uma onda de imagens íntimas falsas geradas por IA, criadas pelo chatbot Grok da xAI, empresa de Elon Musk. O fenômeno atingiu uma gama alarmante de mulheres, incluindo modelos, atrizes, figuras públicas, vítimas de crimes e até líderes mundiais, expondo a rapidez com que a tecnologia de manipulação visual pode ser usada para danos em larga escala.
DESENVOLVIMENTO: A escala do problema é chocante. Um estudo da Copyleaks estimou inicialmente cerca de uma imagem postada por minuto, mas testes posteriores revelaram números muito maiores: uma amostra coletada entre 5 e 6 de janeiro encontrou aproximadamente 6.700 imagens por hora em um período de 24 horas. Enquanto figuras públicas de todo o mundo criticam a liberação do modelo sem salvaguardas adequadas, os mecanismos regulatórios para conter o sistema de manipulação de imagens de Musk parecem limitados. A Comissão Europeia tomou a ação mais agressiva até agora, ordenando na quinta-feira que a xAI retenha todos os documentos relacionados ao Grok, um movimento que pode preceder uma investigação formal. Relatos da CNN sugerem que Musk pode ter intervindo pessoalmente para evitar a implementação de restrições sobre quais imagens o Grok poderia gerar, aumentando as preocupações. A X afirmou em comunicado que condena o uso de ferramentas de IA para produzir imagens sexuais ilegais, alertando que os infratores enfrentarão consequências, mas não está claro se foram feitas mudanças técnicas no modelo. A remoção da guia de mídia pública da conta do Grok na X é uma das poucas ações visíveis.
CONCLUSÃO: A crise das imagens íntimas falsas geradas pelo Grok se tornou uma lição dolorosa sobre os limites da regulação tecnológica e um desafio urgente para autoridades globais. Com a UE liderando uma investigação preliminar e a falta de respostas técnicas efetivas da X, o caso destaca a necessidade premente de frameworks regulatórios robustos para conter os riscos da IA generativa antes que danos irreparáveis sejam causados à privacidade e à dignidade humana.