Em 13 de maio de 2025, um tribunal federal dos Estados Unidos ordenou que a OpenAI, criadora do ChatGPT, preservasse indefinidamente todas as conversas de seus usuários, mesmo quando solicitada a apagá-las. O argumento jurídico — de que quem apaga dados pode “estar tentando esconder violações de direitos autorais” — inaugurou um precedente alarmante: o direito ao esquecimento foi colocado sob suspeita.
A decisão, segundo analisa Jeff Xiong em artigo que, no Brasil, foi publicado no site Outras Palavras, transforma a comunicação cotidiana com sistemas de inteligência artificial em potenciais registros judiciais permanentes. Xiong é pesquisador de tecnologia e geopolítica, e o que ele está querendo dizer é que qualquer conversa com o ChatGPT pode agora ser considerada uma evidência em potencial — e, portanto, não pode ser esquecida.
O próprio Sam Altman, diretor-executivo da OpenAI, criticou a medida, afirmando que ela “compromete a privacidade dos usuários”. Mas, como observa Xiong, o problema é mais profundo: trata-se da normalização da vigilância como infraestrutura.
Da espionagem passiva à vigilância participativa
O ex-analista da NSA Edward Snowden reagiu duramente quando a OpenAI anunciou, em 2024, a nomeação do general Paul Nakasone — ex-diretor da própria NSA — para o conselho da empresa.
“Nunca confiem na OpenAI”, escreveu Snowden. “Esta é uma traição consciente dos direitos de todas as pessoas no planeta.”
A comparação feita por Xiong é contundente: se o programa PRISM da NSA espionava comunicações de forma passiva, o ChatGPT recruta os próprios usuários para uma vigilância participativa. Milhões de pessoas, todos os dias, entregam voluntariamente seus pensamentos, planos e emoções a um sistema que agora se torna juridicamente obrigado a armazená-los — e que mantém vínculos diretos com o aparato de segurança dos EUA.
A OpenAI admite: monitora conversas
A diferença entre paranoia e realidade, neste caso, é tênue, afinal a própria OpenAI reconhece, em relatórios públicos, que monitora o conteúdo das conversas para identificar o uso “indevido” de seus modelos. Em 2024, a empresa anunciou ter “detectado e bloqueado” redes ligadas a governos estrangeiros, como China e Irã. Para fazer isso, entretanto, é preciso algo perturbador: ler o que os usuários escrevem.
Não há como ignorar o viés político nessa informação. A empresa denunciou, com isso, atividades de países considerados adversários de Washington, mas permaneceu em silêncio diante de práticas semelhantes em países aliados. É por essas e outras que Xiong afirmou que “o ChatGPT tornou-se uma extensão informal da política externa dos Estados Unidos.”
Privacidade seletiva: a quem pertence o direito ao sigilo
A União Europeia tem reagido. Em 2024, a Itália multou a OpenAI em 15 milhões de euros por coleta ilegal de dados. Pesquisadores poloneses chegaram a concluir que o ChatGPT viola o GDPR, o regulamento europeu de proteção de dados.
Mas o caso mais simbólico vem dos próprios Estados Unidos. O governo norte-americano adquiriu uma versão exclusiva do ChatGPT, chamada ChatGPT Gov, por apenas 1 dólar por ano. Essa versão oferece “isolamento de dados” e segurança máxima, garantindo que as informações federais não sejam compartilhadas com servidores comerciais.
Ou seja: os dados do Estado americano estão protegidos, enquanto os meus dados, os seus dados, os dados do Potengi e dos demais cidadãos comuns, além de empresas e países periféricos na corrida tecnológica permanecem vulneráveis. A assimetria é a essência do novo poder digital.
O Sul Global na mira do império dos dados
Para países do chamado Sul Global, a dependência de plataformas como a OpenAI representa mais que risco: é uma forma de colonialismo digital, se quisermos aproveitar o conceito desenvolvido por Deivison Faustino e Walter Lippold em livro publicado em 2023 pela Editora Boitempo. A China e a Índia já restringiram o uso do ChatGPT em órgãos públicos, alegando risco de vazamento de dados estratégicos. No Brasil, pesquisadores pedem investigações sobre violações da Lei Geral de Proteção de Dados (LGPD) — inclusive casos em que o sistema da OpenAI gerou CPFs reais de figuras públicas.
Segundo relatório da Unctad, o padrão é claro: o Sul fornece os dados (matéria-prima), os EUA os processam (indústria digital) e depois vendem de volta produtos baseados em IA. É a velha lógica colonial, agora travestida de inovação.
Soberania digital: a última fronteira
Não tem outro jeito: para combater essa tendência, é preciso que haja cooperação soberana entre países emergentes — com investimento em infraestrutura, regulação própria e formação de especialistas em IA fora da órbita das Big Techs norte-americanas. Uma referência é a China, que, segundo o Digital Sovereignty Index, é o único país com soberania digital plena — capaz de controlar o ciclo completo de dados, algoritmos e hardware.
Todos esses elementos reforçam que o escândalo da OpenAI é mais que um debate sobre privacidade. É um teste de soberania política, tecnológica e cultural em escala global. A vigilância já não é imposta de fora; ela é aceita, naturalizada e conversacional. O dilema, para nós, é simples, ainda que urgente: ou o Brasil redefine o controle sobre seus dados, ou cada brasileiro continuará falando com o próprio colonizador.






Deixe um comentário