Chatgpt: snowden alerta sobre vigilância e soberania digital

Compartilhe

Alerta Vermelho Para a Privacidade: ChatGPT Sob Ataque

Em uma reviravolta alarmante, um tribunal federal dos Estados Unidos emitiu uma ordem que exige que a OpenAI “preserve e segregue todos os registros de atividades dos usuários” do ChatGPT. A medida, datada de 13 de maio de 2025, impacta mais de um bilhão de conversas diárias, envolvendo cerca de 300 milhões de usuários globalmente. A ordem judicial permanece valendo mesmo que os usuários solicitem a exclusão de seus dados.

A justificativa do tribunal para tal decisão é a de que “usuários que excluem seus dados são provavelmente infratores de direitos autorais tentando apagar seus rastros”. A alegação transforma um direito fundamental de privacidade em suspeita criminal.

O CEO da OpenAI, Sam Altman, expressou preocupação nas redes sociais, alertando que a decisão “compromete a privacidade do usuário” e “estabelece um mau precedente”. Mas as repercussões da medida vão além. Dados sensíveis como sintomas médicos, dificuldades financeiras e planos de carreira, que os usuários compartilham com o ChatGPT, correm o risco de serem expostos, vendidos, hackeados ou divulgados às autoridades.

Publicidade

Incidentes anteriores já demonstram o potencial de vazamentos. Em 2023, funcionários da Samsung expuseram inadvertidamente código-fonte confidencial da empresa por meio do ChatGPT. Empresas como Apple, Amazon e grandes instituições financeiras já restringem o uso do ChatGPT por seus funcionários.

A questão da vigilância corporativa é apenas a ponta do iceberg. Edward Snowden, o denunciante que expôs o programa de vigilância em massa da NSA (PRISM), emitiu um alerta contundente sobre os perigos do ChatGPT.

Em junho de 2024, a nomeação do ex-diretor da NSA, General Paul Nakasone, para o conselho de administração da OpenAI gerou preocupação. Snowden expressou sua indignação nas redes sociais, aconselhando a não confiar na OpenAI ou seus produtos.

Publicidade

Snowden argumenta que o ChatGPT representa uma ferramenta de vigilância ainda mais poderosa que o PRISM. Enquanto o PRISM coletava passivamente dados de comunicação, o ChatGPT incentiva os usuários a fornecer ativamente seus pensamentos mais íntimos. O PRISM coletava principalmente metadados, enquanto o ChatGPT coleta conteúdo completo. Além disso, o ChatGPT alcança mais de 300 milhões de usuários, superando em muito o alcance do PRISM.

Relatórios da própria OpenAI revelam que a empresa monitora ativamente as conversas dos usuários. Em outubro de 2025, a OpenAI divulgou que havia “bloqueado e reportado” mais de 40 redes que violavam suas políticas de uso, incluindo casos de governos e organizações que usavam o ChatGPT para fins maliciosos.

A OpenAI também admitiu que escaneia as conversas dos usuários e reporta conteúdo à polícia quando identifica planos para causar danos a outros. No entanto, a falta de padrões claros e a possibilidade de interpretações tendenciosas levantam sérias preocupações sobre a liberdade de expressão e a privacidade.

A OpenAI afirma seguir uma “Política oficial de solicitação de dados de usuários para aplicação da lei”, mas suas ações contradizem essa política. Autoridades regulatórias europeias já investigam as práticas da OpenAI, com a autoridade de proteção de dados da Itália multando a empresa em 15 milhões de euros por violações do Regulamento Geral sobre a Proteção dos Dados (GDPR).

Publicidade

A relação da OpenAI com o governo dos EUA levanta ainda mais preocupações. A empresa lançou o ChatGPT Gov, um serviço projetado especificamente para agências do governo americano, permitindo que elas processem dados confidenciais.

Especialistas em segurança alertam que a IA permite uma mudança qualitativa na vigilância, transformando-a de “vigilância em massa” para “espionagem em massa”. A capacidade da IA de entender o contexto e analisar bilhões de conversas simultaneamente permite a identificação de padrões complexos e a exploração de informações sensíveis.

Países como China e Índia já tomaram medidas para restringir o uso do ChatGPT devido a preocupações com a soberania digital e a segurança de dados. A Unctad adverte sobre um “novo ciclo de colonialismo digital”, com países do Sul Global enfrentando a perda de soberania de dados, a dependência tecnológica e a imposição de valores do Vale do Silício.

Nesse cenário, os países do Sul Global enfrentam um dilema crucial: continuar utilizando a infraestrutura americana, sujeitando-se à extração de dados e à influência ideológica, ou buscar cooperação tecnológica com a China, em condições que garantam a soberania digital.

Publicidade
Compartilhe