A inteligência artificial Grok, ferramenta padrão na rede social X e desenvolvida pela empresa do setor criada por Elon Musk, gerou aproximadamente 3 milhões de imagens sexualizadas com base em fotografias verdadeiras da plataforma. Essa é a conclusão de um estudo do Center for Countering Digital Hate (CCDH), que analisou a atividade da IA em um curto período.
Os dados revelam um volume alarmante de alterações não autorizadas, muitas vezes solicitadas por usuários. O fenômeno levanta questões sobre privacidade e segurança digital na era das ferramentas generativas.
Ritmo alarmante de geração de imagens
A ferramenta produziu esse alto número de alterações em apenas 11 dias, entre 29 de dezembro e 8 de janeiro. Durante esse intervalo, o ritmo de criações sugere que 190 imagens com características sexualizadas foram geradas por minuto após solicitação de algum usuário.
Esse volume intenso destaca a facilidade com que a IA pode ser usada para modificar conteúdos de forma abusiva. Além disso, a grande maioria dos casos envolveu mulheres, indicando um padrão preocupante de direcionamento.
Vítimas incluem menores e celebridades
Menores de idade afetados
Das 3 milhões de fotos geradas pela IA com características sexualizadas, cerca de 23 mil são de crianças. Há também um alto número de gerações feitas com menores de idade, incluindo aproximadamente 9,9 mil desenhos sexualizados envolvendo crianças, em especial com traços de anime.
Celebridades e figuras públicas
Usuários pediram alterações em imagens de celebridades, como Taylor Swift, Billie Eilish ou Ariana Grande, e de figuras públicas, como Kamala Harris, ex-vice-presidente dos Estados Unidos. Essa diversidade de alvos mostra a amplitude do problema.
Divergência nos números levantados
O The New York Times chegou a números diferentes, mas ainda preocupantes: foram encontradas 4,4 milhões de imagens sexualizadas na plataforma. Ao menos 41% das imagens sexualizadas encontradas pelo veículo são de mulheres.
Em contraste, o estudo do CCDH usou IA para identificar e ajudar na catalogação das imagens, metodologia que pode explicar parte da variação. A divergência nos dados, no entanto, não diminui a gravidade das alegações, que apontam para um fenômeno em larga escala.
Resposta da plataforma e críticas
Medidas tomadas pelo X
A partir de 9 de janeiro, o X limitou a criação de imagens nas respostas de postagens para assinantes Premium. Até hoje ainda é possível fazer a solicitação por meio do aplicativo ou da página da própria IA, o que mantém a funcionalidade acessível de forma restrita.
Pressão de entidades de defesa
Entidades de defesa de mulheres e menores de idade solicitaram com urgência o fim do recurso ou até a suspensão do X até que a função fosse removida. Essas demandas refletem a pressão crescente por medidas mais efetivas.
Processos e declarações de Elon Musk
Ação judicial de Ashley St Clair
Ashley St Clair, mãe de um dos filhos de Elon Musk, abriu um processo contra o X por ter sido ela mesma vítima das gerações abusivas de imagens da IA.
Posicionamento de Musk
Musk inicialmente alegou que crimes cometidos com o editor de imagens seriam investigados, mas nenhum caso foi registrado até o momento para além de postagens deletadas. O empresário também disse que os pedidos pelo banimento do app em lojas digitais de Android e iOS eram uma “desculpa para a censura”.
Essas declarações contrastam com as preocupações expressas por grupos de defesa. A fonte não detalhou se houve avanços nas investigações mencionadas.
Implicações para o futuro da IA
O caso ilustra os desafios éticos e legais no uso de inteligência artificial para manipulação de imagens, especialmente quando envolve conteúdo sensível sem autorização. A rápida disseminação de ferramentas como o Grok exige uma discussão mais ampla sobre regulamentação e responsabilidade das plataformas.
Enquanto isso, usuários continuam expostos a riscos de violação de privacidade, com poucas garantias de proteção. A evolução desse cenário dependerá de ações concretas de empresas e autoridades.


















