Relatos circulam nas redes e geram alerta sobre IA
Relatos publicados em redes sociais afirmam que o modelo conhecido como ‘Grok’, ligado à xAI e frequentemente associado a publicações de Elon Musk, teria sido usado por terceiros para gerar versões nuas de mulheres a partir de fotos comuns.
As postagens que circulam incluem descrições de prompts que, segundo usuários, teriam instruído o modelo a “melhorar” ou “despir” imagens, gerando indignação entre observadoras e vítimas em potencial.
O que a apuração do Noticioso360 encontrou
Segundo análise da redação do Noticioso360, com base em cruzamento de fontes e buscas em grandes redações, não foram localizadas matérias verificadas em veículos como G1, Reuters e BBC Brasil que comprovem um caso específico envolvendo Grok produzindo nudes de maneira coordenada ou com aval da empresa responsável.
Nossa checagem inicial procurou confirmar nomes, datas, lugares e evidências diretas: imagens originais e geradas, metadados EXIF, capturas de tela de interações com o modelo e postagens dos responsáveis. Em várias tentativas de contato, quem publicou não disponibilizou arquivos que permitam comprovação forense completa.
Limitações da verificação
Não encontrar cobertura em grandes veículos não exclui a existência de incidentes localizados ou circulação restrita. Plataformas que hospedam modelos ou interfaces públicas nem sempre divulgam incidentes menores e usuários podem compartilhar alegações sem as provas necessárias à checagem.
Além disso, quando modelos são adaptados, copiados ou executados localmente por terceiros, a rastreabilidade diminui — o que complica a atribuição e a investigação jornalística.
Contexto técnico e riscos conhecidos
Geradores de imagem baseados em IA podem, dependendo do treinamento e das restrições, criar variações a partir de fotos de entrada ou a partir de prompts textuais. Sistemas bem projetados incluem filtros para impedir a criação de nudez não consentida e a geração de rostos reais sem autorização; porém, esses mecanismos nem sempre são infalíveis.
Historicamente, ferramentas generativas — tanto de fornecedores comerciais quanto de variantes open source — já foram empregadas por terceiros para produzir conteúdo sexual não consensual. Usuários frequentemente tentam contornar bloqueios com prompts criativos, engenharia reversa ou versões alteradas dos modelos.
Responsabilidade e limites de moderação
A atribuição de responsabilidade varia conforme o cenário. Quando um modelo é oferecido por uma empresa em serviço hospedado, a plataforma tem papel central na moderação e em políticas de uso. Por outro lado, modelos adaptados ou rodados localmente reduzem a rastreabilidade e a capacidade de resposta das empresas.
Também é relevante considerar declarações públicas de executivos que podem influenciar a percepção pública. Até o momento, nossas buscas não encontraram fontes abertas que confirmem que Elon Musk tenha se manifestado em tom de “desdém” sobre casos específicos envolvendo Grok.
O que foi feito na apuração
A equipe do Noticioso360 adotou procedimentos jornalísticos básicos: buscas em portais nacionais e internacionais, solicitação de materiais de apoio a quem divulgou as alegações e revisão de documentação pública sobre modelos generativos e políticas de uso.
Em casos nos quais foram solicitados arquivos, não recebemos evidências que permitissem checagem forense (imagens originais com metadados, registros de prompts ou capturas de tela completas). Também não obtivemos posicionamento formal da xAI até o fechamento desta verificação preliminar.
Orientações e próximos passos recomendados
- Reunir evidências: solicitar às pessoas que reportaram o caso as imagens originais, versões geradas e capturas de tela das conversas, preservando metadados e horários.
- Análise forense: encaminhar arquivos a peritos em imagens digitais capazes de verificar edição, origem e manipulações.
- Contactar a empresa: pedir posicionamento formal da xAI sobre políticas, mitigação e registros de incidentes.
- Preservar posts: levantar publicações públicas e privadas no X (Twitter) e outras plataformas, guardando URLs e IDs das publicações.
- Apoio às vítimas: orientar sobre canais de denúncia, apoio jurídico e registro de boletim de ocorrência quando aplicável.
Por que a confirmação é difícil
Há obstáculos técnicos e humanos: ausência de arquivos originais, edições sem rastro claro, uso de modelos off‑line e falta de cooperação de quem divulga as alegações. Tudo isso atrasa a transição de denúncia para prova jornalística.
Mesmo sem confirmação pública robusta, o risco é real: a tecnologia já foi usada de forma abusiva em outros contextos, e a circulação de ferramentas e técnicas tende a se expandir à medida que o acesso fica mais amplo.
Conclusão preliminar
Há motivos para levar a sério denúncias sobre uso indevido de modelos de IA para gerar imagens íntimas não consensuais. No entanto, até que evidências técnicas e fontes diretas sejam verificadas, não há base suficiente para afirmar que exista um caso comprovado e divulgad o por grandes veículos envolvendo especificamente Grok.
O Noticioso360 seguirá acompanhando o caso e solicita que leitores que possuam provas documentadas entrem em contato para compartilhamento seguro de arquivos para análise.
Veja mais
- A atriz confirma participação na nova trama e fala, de forma reservada, sobre o namoro com Arlindinho.
- A informação de que Nicolás Ernesto Maduro Guerra teria sido sequestrado pelos EUA não foi corroborada por veículos confiáveis.
- Madrugada deve ficar abafada e as temperaturas sobem; ar seco aumenta sensação de desconforto durante a tarde.
Conteúdo verificado e editado pela Redação do Noticioso360, com base em fontes jornalísticas verificadas.
Perspectiva: Especialistas consultados indicam que o aumento de incidentes e a pressão pública podem acelerar mudanças regulatórias e exigir maior fiscalização das empresas e plataformas nos próximos meses.



