Com a expansão da IA, pessoas vendem mensagens, fotos e localizações, gerando riscos à privacidade e à lei.

Milhares vendem dados pessoais para treinar IAs

A demanda por dados para treinar modelos de IA criou um mercado de venda de informações pessoais, com pagamentos irregulares e risco legal.

O crescimento acelerado de modelos de inteligência artificial estimulou uma demanda massiva por dados humanos — textos, áudios, fotos e registros de conversas — usados para treinar algoritmos de linguagem e visão. No Brasil, anúncios e relatos mostram que milhares de pessoas oferecem ou comercializam pacotes de informações pessoais a empresas e intermediários que abastecem o mercado de IA.

Segundo análise da redação do Noticioso360, com base em levantamentos da Reuters e da Folha de S.Paulo, esse ecossistema mistura atividades formais, como trabalho por tarefa, e transações informais, incluindo a venda direta de bases pessoais sem contratos claros sobre consentimento e uso.

Como funciona o mercado de dados

Há diferentes canais de oferta. Em plataformas de microtarefas, anotadores recebem pagamentos para rotular imagens, avaliar respostas de chatbots ou transcrever áudios. Essas atividades, quando reguladas, costumam prever contratos e pagamentos por tarefa.

Por outro lado, surgiram anúncios em marketplaces e redes sociais nos quais indivíduos oferecem pacotes de mensagens de aplicativos, coleções de fotos e históricos de localização. Intermediários — às vezes chamados de “corretores de dados” — negociam com compradores que dizem representar empresas de tecnologia ou fornecedores de dados.

Preços, negociações e desigualdades

Fontes consultadas relatam grande variação nos valores. Alguns trabalhadores ganham centavos por tarefa, enquanto vendedores individuais negociam pacotes mais caros, dependendo da especificidade ou sensibilidade dos arquivos. A remuneração inconsistente agrava desigualdades e cria incentivos para práticas opacas.

“Há quem venda apenas fotos antigas, outros oferecem registros de localização ou conversas completas”, contou um intermediário ouvido pela apuração. Em muitos casos, não há documentação que comprove consentimento informado de todas as pessoas cujos dados aparecem nos arquivos.

Riscos para a privacidade e a segurança jurídica

Especialistas apontam dois riscos principais. Primeiro, a possibilidade de reidentificação: mesmo quando conjuntos de dados são alegadamente “anonimizados”, cruzamentos com outras bases podem permitir a identificação de indivíduos.

Segundo, a fragilidade do consentimento. A Lei Geral de Proteção de Dados (LGPD) exige bases legais para tratamento e compartilhamento. Contudo, fiscalizar cadeias de revenda — da pessoa que vende seu arquivo ao comprador final que o utiliza para treinar um modelo — é complexo e frequentemente ineficaz.

Responsabilidade das empresas

Empresas que contratam conjuntos de dados afirmam buscar conformidade e provas documentais de consentimento. Ainda assim, auditores independentes e reguladores alertam que a verificação é limitada quando os dados mudam de mãos várias vezes, passando por intermediários informais.

“A responsabilidade deve acompanhar a cadeia. Quem compra deve exigir evidências e auditorias, e os reguladores precisam mecanismos para rastrear e responsabilizar”, disse uma pesquisadora de privacidade consultada pela reportagem.

Panorama regulatório e lacunas

No Brasil, a LGPD criou instrumentos importantes, mas a aplicação efetiva depende de investigação e fiscalização. Segundo a apuração do Noticioso360, faltam recursos técnicos e legais para comprovar que o consentimento foi realmente informado ou que a anonimização é robusta, especialmente diante de mercados secundários e intermediários.

Além disso, a diferença de ênfases entre veículos e investigações é relevante. A cobertura internacional, como a da Reuters, destaca o fenômeno global e as cadeias que ligam plataformas, corretores e trabalhadores remotos. A cobertura nacional, como a da Folha de S.Paulo, traz relatos de brasileiros e ofertas em marketplaces locais, evidenciando fragilidades em verificação de consentimento.

Casos e evidências

A apuração reuniu anúncios públicos e depoimentos de intermediários que confirmam a existência desses fluxos comerciais. Apesar das evidências, a reportagem não encontrou provas de uso generalizado, por grandes empresas brasileiras, de dados vendidos ilegalmente. O espectro observado vai de microtransações legítimas a práticas opacas que representam maior risco para indivíduos desprevenidos.

Medidas recomendadas

Especialistas ouvidos recomendam ações imediatas: exigir transparência sobre a origem dos conjuntos de dados, realizar auditorias independentes, cobrar provas documentais de consentimento e fortalecer canais de denúncia. Também há apelos por melhores condições de trabalho e remuneração justa para quem participa voluntariamente de bases legítimas.

Para usuários, as recomendações práticas incluem revisar permissões de aplicativos, evitar compartilhar arquivos sensíveis em massa e ficar atento a ofertas de pagamento por dados que prometem remuneração aparentemente fácil.

O que esperar adiante

O mercado de dados para IA deve continuar em expansão enquanto a regulação e a fiscalização tentam acompanhar. Caso políticas públicas avancem — com exigência de auditorias, padronização de provas de consentimento e maior fiscalização —, práticas mais transparentes poderão emergir.

Por outro lado, a persistência de incentivos econômicos e a fragmentação das cadeias de dados podem manter práticas opacas, elevando riscos à privacidade e à segurança jurídica de milhares de pessoas.

Fontes

Conteúdo verificado e editado pela Redação do Noticioso360, com base em fontes jornalísticas verificadas.

Analistas apontam que essa dinâmica pode redefinir a relação entre tecnologia, privacidade e regulação nos próximos anos.

Veja mais

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima