Eu acompanho o mercado digital de perto há bastante tempo e confesso que poucas coisas me chamam tanta atenção hoje quanto o volume de conteúdo artificial sendo despejado na internet.
A gente pisca e tem uma nova ferramenta escrevendo textos em segundos. Só que a maré começou a virar e quem sinalizou isso com força foi a Wikipedia.
A versão em inglês da maior enciclopédia do mundo começou a proibir o uso de modelos de linguagem, como o ChatGPT, Claude, Perplexity e o Gemini, para criar ou reescrever artigos.
Eu li isso no Canaltech e fiquei pensando no recado que essa decisão manda para quem vive de negócios online.
A comunidade de editores cansou de enxugar gelo com o que eles chamam de “AI slop” – aquele conteúdo ralo, sem alma e cheio de alucinações. A automação em massa estava apenas gerando mais trabalho para os voluntários humanos.
Imagina a dor de cabeça de checar um artigo sobre um evento histórico e descobrir que a IA simplesmente inventou uma bibliografia inteira. É um golpe direto na credibilidade.
A restrição não eliminou as ferramentas por completo, mas colocou uma coleira bem apertada. Um editor pode usar a IA para dar um trato na gramática de um texto próprio ou ajudar na tradução de um idioma que ele já domina.
A condição é que um humano verifique cada vírgula antes de publicar. Se alguém subir um texto gerado por IA sem essa revisão rigorosa, o material cai na hora.
A resposta da comunidade contra a piora da internet
A gente sabe que tem muito texto por aí com aquele estilo engessado e artificial. Os moderadores da Wikipedia inclusive receberam um aviso importante sobre isso.
Como algumas pessoas realmente escrevem com um tom mais robótico naturalmente, a moderação precisa analisar o histórico de contribuições do usuário antes de punir alguém. Eles assumiram que os detectores de inteligência artificial erram bastante.
Em alguns idiomas a decisão foi ainda mais dura. A Wikipedia em espanhol baniu as ferramentas por completo. O pessoal que edita os artigos na plataforma já vinha mostrando uma certa aversão a essas novidades e ferramentas automatizadas.
Quando tentaram testar um recurso de resumo automático há um tempo atrás, os voluntários acharam a ideia péssima e o projeto foi engavetado.
Tudo isso gira em torno de evitar um fenômeno que o pessoal chama de “enshittification“, que descreve a queda de qualidade geral da internet causada pelo excesso de lixo digital.
A Wikipedia percebeu que precisava agir rápido para manter o ambiente minimamente confiável.
Quando um site dessa magnitude toma uma medida tão drástica assim, o mercado de conteúdo como um todo sente o impacto.
Quem tenta ganhar o jogo online apenas gerando dezenas de artigos genéricos por dia vai encontrar cada vez mais portas fechadas.
As plataformas estão voltando a priorizar a curadoria humana e a experiência real. A automação resolve muita coisa chata no nosso dia a dia e acelera processos, mas a responsabilidade pela informação e a inteligência estratégica do negócio precisam continuar nas mãos de quem está no comando.