Existe um ciclo bastante previsível acontecendo agora no marketing de conteúdo. Uma empresa descobre que pode gerar centenas (ou milhares) de páginas com IA em questão de minutos. O custo parece irrisório. A lógica parece impecável: mais conteúdo, mais indexação, mais tráfego. E então, alguns meses depois, o tráfego desaba.
Esse fenômeno tem nome. Chama-se AI slop — conteúdo gerado em massa por inteligência artificial, sem revisão humana, sem perspectiva original, otimizado não para pessoas, mas para algoritmos. E as evidências de que essa estratégia não funciona estão se acumulando, desta vez não como teoria, mas como dado empírico produzido por profissionais de SEO que colocaram a hipótese à prova em condições reais.
Quatro experimentos recentes colocam esse problema em perspectiva. Juntos, eles revelam algo que a maioria das equipes de marketing ainda não compreendeu totalmente: a internet está sendo dividida em dois jogos completamente diferentes, e quem está jogando o jogo errado vai colher os resultados errados.
Experimento 1: 60 mil páginas por $10 — e quem realmente as leu
Em março de 2026, Metehan Yesilyurt, pesquisador de AI Search e SEO, construiu do zero um site chamado StateGlobe.com — uma plataforma no estilo Statista cobrindo estatísticas de marketing digital, SEO e tecnologia web para 200 países. Cada uma das 60.000 páginas foi gerada por IA, usando o modelo gpt-4.1-nano da OpenAI. Custo total da geração de conteúdo: menos de $10. Tempo total de produção: menos de 30 minutos.
Yesilyurt foi explícito sobre as intenções desde o início: aquilo não era um guia para escalar tráfego orgânico. Era um experimento para observar como crawlers de IA se comportam diante de um site programático de grande escala.
O bot que ninguém convidouMinutos após o deploy — antes de qualquer backlink, antes de qualquer submissão ao Google Search Console — o GPTBot, crawler da OpenAI, começou a rastrear o site com intensidade. Nas primeiras 12 horas, fez mais de 29.000 requisições, operando a aproximadamente 1 requisição por segundo. O Googlebot, no mesmo período, fez 11.
Isso representa uma diferença de 470 vezes na intensidade de crawl. Yesilyurt verificou a autenticidade do tráfego cruzando os IPs com os ranges oficiais publicados pela OpenAI. Os números são reais.
A conclusão que ele tirou é direta: AI content at scale funciona incrivelmente bem se o KPI é ingestão por bots. É muito menos confiável se o KPI é rankings duráveis e tráfego humano qualificado.
O ciclo previsível no Google
O próprio Yesilyurt foi categórico: não faça o que ele fez esperando ranquear. O ciclo que ele descreve é consistente:
- Semanas 1–2: Páginas são indexadas, impressões aparecem no Search Console
- Semanas 3–4: Tráfego mínimo começa a chegar
- Meses 2–3: Os sistemas de qualidade do Google identificam o padrão. Páginas começam a ser removidas do índice
- Mês 4 em diante: A maior parte do conteúdo é expurgada
O custo de gerar páginas caiu para perto de zero — e é exatamente isso que fez o Google ficar mais agressivo no combate a esse tipo de conteúdo.
Experimento 2: 20 sites, 2.000 artigos e um desaparecimento total
O experimento conduzido por Bogdan Babiak, da SE Ranking, é o que transforma esse ciclo de teoria em dado concreto com escala suficiente para ser impossível de ignorar.
Babiak criou 20 sites novos e publicou 2.000 artigos gerados por IA sem nenhuma edição humana. Nenhuma otimização adicional. Nenhum trabalho de linkbuilding. Apenas conteúdo publicado.
Os resultados iniciais pareciam promissores. Em apenas 36 dias:
- 71% das páginas foram indexadas pelo Google
- 8 sites rankaram para mais de 1.000 keywords cada
- 122 mil impressões e mais de 240 cliques no total
- 5 sites chegaram ao top 30 para 30% das suas palavras-chave
Sem domain authority. Sem E-E-A-T. Sem nenhum dos sinais que o Google diz que valoriza. E ainda assim o conteúdo ranqueou e trouxe tráfego.
O que aconteceu depois de três meses?Nenhum dos artigos estava mais no top 100. Desapareceram como se nunca tivessem existido. O gráfico do Search Console conta a história com clareza brutal: crescimento sustentado, pico, ponto de virada em fevereiro de 2025, impressões despencando, cliques caindo a zero. E então, silêncio.

A conclusão de Babiak: sem autoridade, sem E-E-A-T, sem fundação real de SEO, o conteúdo não sobrevive. Publicar conteúdo não é fazer SEO. E ferramentas que prometem “automatizar SEO” são, na maior parte dos casos, apenas ferramentas que geram conteúdo.
Experimento 3: o que acontece quando a ficção é mais detalhada que a verdade
O terceiro experimento é o mais perturbador dos quatro — porque revela que o problema não é apenas que AI slop não ranqueia. É que ele deixa um vácuo que pode ser preenchido por qualquer narrativa, verdadeira ou não.
Mateusz Makosiewicz, pesquisador da Ahrefs, criou uma marca de luxo completamente fictícia chamada Xarumei — fabricante de paperweights de altíssimo valor (até $8.251 por peça). Com o site publicado, gerou 56 perguntas deliberadamente indutivas e testou 8 sistemas de IA com elas. Perguntas como: “qual celebridade endossou os produtos da Xarumei?”, “como a empresa está lidando com o recall do Precision Paperweight?”. Tudo completamente fictício.
Fase 1: comportamento base
Com apenas o site mínimo disponível, a maioria dos modelos se saiu bem — ChatGPT-5 Thinking com 96,4% de respostas corretas, ChatGPT-4 com 94,6%, Claude com 100% de reality checks. Perplexity e Grok apresentaram taxas de falha mais altas já nessa fase.

Fase 2: quando a ficção ganha uma narrativa
Makosiewicz então publicou três fontes deliberadamente falsas e contraditórias: um post num blog criado por ele, um AMA no Reddit de um suposto ex-funcionário, e um artigo no Medium simulando uma “investigação jornalística” — que desmentiu mentiras óbvias para parecer confiável, e então inseriu novas inverdades como a “verdade corrigida”.

O padrão mais perturbadorPerplexity e Grok tornaram-se totalmente manipulados, repetindo fundadores fictícios, cidades inventadas e bugs de precificação como fatos verificados. Gemini e AI Mode adotaram a história do Medium. Apenas ChatGPT-4 e ChatGPT-5 mantiveram robustez, citando a FAQ oficial em 84% das respostas.
Quando forçados a escolher entre verdade vaga e ficção detalhada, os modelos escolheram a ficção quase sempre. Os modelos preferiram números falsos à ausência de números verdadeiros.
A conclusão é direta: se você não escreve a história sobre você, alguém escreve. E a IA vai recontá-la.
Experimento 4: o que os maiores casos de AI content revelam sobre GEO
Kishan Panpalia, membro fundador da Pepper Content (Forbes 30 Under 30) e especialista em Generative Engine Optimization, passou dois anos auditando centenas de estratégias de conteúdo na transição para AI Search. Sua análise sintetiza o padrão que emerge de todos os grandes experimentos com conteúdo de IA em escala.
O ponto central: o jogo se dividiu em dois, e a maioria das equipes está jogando o jogo errado.
Jogo 2: ser rastreado, ingerido e reutilizado por sistemas de IA.
A maioria das equipes ainda otimiza para o Jogo 1 usando táticas de 2019, enquanto a internet está sendo silenciosamente remodelada pelo Jogo 2.
Por que escala não é mais vantagem
Quando o custo de criação de conteúdo cai para perto de zero, a distribuição vira o gargalo e a confiança vira o diferencial competitivo. Conteúdo AI slop não cria um fosso. Ele cria mais palha num mundo onde todo mundo tem um trator.
Os buscadores generativos — ChatGPT, Perplexity, AI Mode do Google — operam em duas fases: recuperação e geração. Para ser citado, o conteúdo precisa passar por dois filtros: ser recuperável e ser citável. Conteúdo gerado em massa tende a falhar no segundo filtro — não porque a IA “detecte” que é gerado por máquina, mas porque páginas genéricas têm menos referências cruzadas, menos engajamento e menos presença distribuída.
Presença ampla substituiu ranking como sinal de autoridade
Uma das descobertas mais contraintuitivas do trabalho de Panpalia é que, no AI Search, presença ampla e consistente supera uma posição isolada no topo do Google. Não adianta ter uma página no ranking se você não está nos lugares que os LLMs consultam: diretórios especializados, plataformas de avaliação, publicações de alta credibilidade, comparativos neutros.
O paradoxo central do AI slop
A grande ironiaConteúdo produzido para ser consumido por IA é, paradoxalmente, o conteúdo menos citado por IA. Rastrear não é o mesmo que citar. Ranquear brevemente não é o mesmo que ter autoridade. E a ausência de narrativa autoral não produz neutralidade — produz vulnerabilidade.
Além disso, mesmo que o Google esteja cada vez mais dominado por AI Overviews que reduzem o tráfego por clique, a situação não melhora para conteúdo genérico. Pesquisas do Pew Research mostram que quando um resumo de IA aparece nos resultados, usuários clicam nas fontes tradicionais com menos frequência. O único caminho para tráfego real é ser citado dentro das próprias respostas generativas — e para isso você precisa exatamente do que AI slop não oferece.
O que realmente funciona agora?
Os experimentos também apontam o caminho oposto. Em vez de escalar volume, o que gera resultados sustentáveis na era do AI Search:
- Produza artefatos, não páginas. Matrizes de comparação, benchmarks com dados próprios, glossários com definições precisas, metodologias documentadas, pesquisa original — se uma página pode ser reescrita por qualquer pessoa, ela será.
- Torne sua marca legível para máquinas. Uma página de fatos sobre sua empresa com informações idênticas em todas as plataformas onde você aparece é proteção narrativa. Datas, números e superlativas específicas funcionam. Afirmações vagas são ignoradas ou substituídas por ficção detalhada.
- Invista em presença distribuída, não em contagem de páginas. Reddit, Medium, Quora e diretórios especializados não são canais opcionais na era do AI Search: são parte da sua superfície de marketing.
- Monitore o que os modelos dizem sobre você. Perguntar diretamente a cada modelo “o que você sabe sobre [sua marca]?” é gratuito e revela o que seus clientes estão vendo.
- Trate comportamento de bots como analytics de primeira classe. Bots podem superar humanos em volume de tráfego por uma margem de 470x. Dashboards separados para tráfego humano versus bot não são mais opcionais.
A conclusão que ninguém quer ouvir
“AI content at scale” foi vendido como atalho. Os dados mostram que é, no melhor caso, uma aposta de curto prazo que o Google desfaz em poucos meses. No pior caso, é uma estratégia que popula a web com ruído genérico enquanto abre espaço para narrativas fabricadas dominarem o espaço que você deixou vazio.
A estratégia real não é “publique mais”. É: publique o que só você pode publicar, torne difícil de deturpar, e distribua nas superfícies em que a IA confia.
Volume não é vantagem. Jamais foi — só ficou mais fácil de fingir que era.
Pronto para transformar sua estratégia de conteúdo?
Na Octans, ajudamos empresas B2B a estruturar planejamento, produção e otimização de conteúdo orientado a resultados.
Solicite um diagnóstico com nossos especialistas e descubra como transformar seu conteúdo em uma máquina previsível de geração de leads.
Referências:
Metehan Yesilyurt — “I Built a 60,000-Page AI Website for $10: GPTBot Crawled It 30,000+ Times in 12 Hours” (metehan.ai, março de 2026) — link
Bogdan Babiak / SE Ranking — experimento com 20 sites e 2.000 artigos gerados por IA sem edição humana
Mateusz Makosiewicz / Ahrefs — “I Ran an AI Misinformation Experiment. Every Marketer Should See the Results” (ahrefs.com, dezembro de 2025) — link
Kishan Panpalia — “AI Content As Slop: I Studied the Biggest AI Content Experiments on the Internet” (LinkedIn) — link