Comunidades do Reddit declaram guerra ao conteúdo criado por IA
O Reddit enfrenta uma crise de autenticidade com a enxurrada de conteúdo gerado por IA, desafiando moderadores e ameaçando sua cultura comunitária.

O Reddit, conhecido por abrigar debates autênticos e interações entre pessoas reais, enfrenta um dos maiores desafios de sua história. A chegada em massa de conteúdo gerado por inteligência artificial está abalando a essência da comunidade e colocando em xeque a autenticidade das discussões. O problema não é apenas técnico — é cultural. Moderadores voluntários, que são a base da moderação da plataforma, relatam dificuldade crescente em diferenciar o que é genuinamente humano do que foi criado por sistemas automatizados.
Um estudo conduzido pela Universidade Cornell revelou que os moderadores enxergam o conteúdo gerado por IA como uma “tripla ameaça” aos valores centrais do Reddit. O levantamento, apresentado na Conferência ACM SIGCHI em Bergen, Noruega, entrevistou 15 moderadores responsáveis por mais de 100 comunidades, que juntas reúnem milhões de usuários. Eles apontam que o material feito por IA tende a ser “longo, porém sem alma”, com respostas que aparentam naturalidade, mas carecem de insight humano real.
Um dos moderadores entrevistados foi direto: “Isso é o que mais nos preocupa. É muito difícil de detectar, e ao mesmo tempo, muito perturbador para o funcionamento real do site”. O relato resume a frustração crescente desses voluntários, que agora passam horas tentando identificar postagens suspeitas. Filtros automáticos, como o AutoModerator, nem sempre são eficazes, e às vezes acabam penalizando usuários legítimos, especialmente aqueles que não têm o inglês como primeira língua.
O CEO do Reddit, Steve Huffman, reconheceu o problema e anunciou medidas para conter a disseminação de conteúdo artificial. A empresa estuda parcerias com serviços de verificação digital, como o World ID — projeto de identidade biométrica ligado a Sam Altman, criador do ChatGPT —, com o objetivo de diferenciar humanos de bots sem comprometer o anonimato. “A verificação humana está no topo das nossas prioridades agora”, afirmou Huffman ao Financial Times.
O alerta se tornou urgente depois que pesquisadores conseguiram inserir bots de IA no popular subreddit Change My View, onde publicaram mais de 1.700 comentários assumindo diferentes identidades. O caso acendeu um sinal vermelho dentro da plataforma e revelou como o discurso genuíno pode ser manipulado de forma sutil, mas profunda.
Algumas comunidades já reagiram com medidas drásticas. O subreddit r/WritingPrompts proibiu totalmente o uso de IA, defendendo a criatividade humana como pilar essencial. Já o r/AskHistorians permite um uso limitado, desde que o conteúdo sirva para reforçar análises ou trazer informações verificáveis. Em r/productivity, a decisão foi ainda mais rígida: uma proibição geral recebeu mais de 1.200 votos positivos de usuários insatisfeitos com a queda de qualidade.
Entre julho de 2023 e novembro de 2024, o número de subreddits com regras específicas sobre IA mais que dobrou, segundo o estudo da Cornell. As comunidades maiores são as que mais adotam restrições, e os grupos ligados à arte e cultura pop mostram preocupação especial com imagens e vídeos artificiais.
O próprio fundador do Reddit, Alexis Ohanian, já alertou que grande parte da internet está se tornando “robotizada”, perdendo o senso de humanidade que antes a tornava única. O desafio agora é manter vivo o espírito que fez do Reddit um símbolo da interação real em meio a uma paisagem digital cada vez mais tomada por máquinas.