Tem havido longas conversas sobre a piora dos resultados de pesquisa do Google.
Muitas vezes rejeitei isso como um sentimento quando ouvi pessoas fazendo essa afirmação.
Agora, em um estudo abrangente intitulado “O Google está ficando pior? Uma investigação longitudinal de spam de SEO em mecanismos de pesquisa”, conduzido por Janek Bevendorff, Matti Wiegmann, Martin Potthast e Benno Stein, os pesquisadores procuraram abordar essas preocupações crescentes do aparente declínio nas pesquisas qualidade do resultado.
A equipe de pesquisa, espalhada pela Universidade de Leipzig, Bauhaus-Universität Weimar e ScaDS.AI na Alemanha, embarcou em uma análise empírica de um ano para aprofundar como o conteúdo afiliado ao SEO afeta o desempenho de três principais mecanismos de pesquisa: Google (com proxy do Startpage), Bing e DuckDuckGo.
Eu acho que é super interessante – e também há algumas dicas sobre quais táticas de SEO realmente funcionam!
Conclusão principal; Google está infectado com spam de SEO
No geral, as principais conclusões são as seguintes:
Os resultados da pesquisa mostram uma quantidade desproporcional de conteúdo de spam de SEO, incluindo links afiliados. E está cada vez mais difícil distinguir conteúdo real de spam, especialmente com conteúdo gerado por IA. Mesmo que os motores de busca atualizem seus algoritmos para combater o spam de SEO, as melhorias são temporárias.
As principais conclusões descritas pela equipe de pesquisa são:
- Os mecanismos de pesquisa lutam contra o spam de SEO: todos os mecanismos de pesquisa examinados, incluindo Google (via Startpage), Bing e DuckDuckGo, enfrentam desafios significativos na filtragem de spam de SEO altamente otimizado, especialmente nos resultados de pesquisa de análises de produtos.
- Prevalência de conteúdo afiliado: a grande maioria das páginas de avaliação de produtos de alto nível nos resultados da pesquisa usa estratégias de marketing de afiliados. Isso é desproporcional à presença geral do marketing de afiliados na web.
- Dominação dos associados da Amazon: O programa Amazon Associates é a rede de afiliados usada com mais frequência no conteúdo de análises de produtos descobertos nos resultados de mecanismos de pesquisa, indicando um desequilíbrio potencial que favorece o ecossistema da Amazon.
- Relacionamento reverso: Existe uma relação inversa observável entre o uso do marketing de afiliados e a complexidade do conteúdo. As páginas com uma contagem maior de links afiliados geralmente apresentam textos menos complexos, o que pode indicar conteúdo de qualidade inferior.
- Preocupações com a qualidade do conteúdo: O estudo conclui que a complexidade e a qualidade do texto das páginas mais bem classificadas podem estar diminuindo, com tendências sugerindo conteúdo simplificado, repetitivo e potencialmente gerado por IA.
- SEO adversário dinâmico: Os ajustes contínuos dos mecanismos de pesquisa para combater o spam de SEO retratam um relacionamento adversário contínuo e dinâmico. Os profissionais de SEO se adaptam rapidamente às mudanças de algoritmo, dificultando a manutenção de melhorias permanentes.
- Efeitos temporários de atualizações: as atualizações do mecanismo de pesquisa afetam temporariamente as classificações do conteúdo otimizado para SEO, demonstrando melhorias momentâneas na qualidade da pesquisa. No entanto, esses ganhos geralmente duram pouco à medida que as táticas de SEO evoluem.
- Aumentando conteúdo e spam de links: os mecanismos de pesquisa apresentam vulnerabilidade a campanhas de spam em grande escala, especialmente aquelas que envolvem links afiliados extensos, que confundem a linha entre conteúdo de qualidade e spam.
Ouça este artigo:
Quais táticas e métodos de SEO realmente funcionam de acordo com o estudo
Então, talvez não seja o que as pesquisas pretendiam com seu estudo, mas se olharmos para suas descobertas, podemos realmente dissecar quais práticas funcionam do ponto de vista de SEO:
- Otimização de palavras-chave: A pesquisa indicou que as páginas de classificação mais elevada parecem ter um uso estratégico de palavras-chave, especialmente em cabeçalhos e títulos. Isso sugere que a otimização cuidadosa de palavras-chave pode influenciar a visibilidade nas classificações de pesquisa.
- Estrutura de conteúdo: o estudo mostrou que as páginas com melhor classificação costumam ser mais estruturadas, com uso adequado de títulos e caminhos de URL mais curtos, o que pode sinalizar maior qualidade de conteúdo para os mecanismos de pesquisa.
- Complexidade do texto: Curiosamente, a pesquisa observou que as páginas com melhor classificação tendem a ter menor complexidade de texto, o que pode inferir que um conteúdo mais simples e direto poderia ser mais favorável nas classificações de pesquisa. Está alinhado com o que abordamos anteriormente sobre o efeito da legibilidade no SEO.
- Atualizações frequentes de conteúdo: O estudo observou flutuações nas classificações em resposta às atualizações dos mecanismos de pesquisa. Isso sugere que atualizar continuamente o conteúdo para se alinhar às últimas tendências de SEO pode ser uma tática para manter ou melhorar as classificações.
Não há muitas surpresas em relação às melhores práticas comuns entre profissionais de SEO qualificados, mas é sempre bom ser reconfirmado.
Os métodos de estudo dos resultados da pesquisa
Os pesquisadores avaliaram um conjunto de dados robusto compreendendo 7.392 consultas de avaliação de produtos e seus resultados de pesquisa correspondentes.
O estudo concentrou-se na quantidade substancial de conteúdo otimizado para mecanismos de pesquisa (SEO), mas de baixa qualidade, especialmente relacionado a análises de produtos, que foram postuladas como influenciadas por técnicas de spam de SEO, incluindo marketing de afiliados.
A pesquisa mostrou que quando você pesquisa on-line, os principais resultados que você vê são mais frequentemente o tipo de páginas que foram especialmente feitas para aparecer no topo das pesquisas (otimizadas para SEO), em vez de serem naturalmente populares ou úteis.
Portanto, há mais conteúdo desse tipo do que você esperaria em comparação com a grande quantidade de outras coisas na Internet.
Para descobrir se os resultados da pesquisa estavam cheios de páginas projetadas para classificação elevada (otimizadas para SEO), os pesquisadores analisaram vários sinais nessas páginas.
Veja como eles fizeram:
- Verificando palavras e estrutura: Eles observaram o texto e a estrutura das páginas da web. Se uma página tivesse muitas repetições ou fosse super fácil de ler, mas não oferecesse muitas informações reais, provavelmente ela foi projetada para aparecer no topo dos resultados de pesquisa.
- Contando links afiliados: eles contaram quantas vezes uma página vinculava a produtos onde o proprietário da página poderia ganhar dinheiro se você comprasse algo (esses são chamados de links afiliados). Mais desses links podem significar que a página foi criada mais para ganhar dinheiro do que para ser útil.
- Acompanhamento de longo prazo: eles observaram que tipo de páginas apareceram nos resultados de pesquisa ao longo de um ano. Dessa forma, eles puderam ver se os mesmos tipos de páginas projetadas continuaram aparecendo ou se desapareceram depois que os mecanismos de busca atualizaram seus sistemas.
- Comparando motores de busca com uma linha de base: Eles compararam o que mecanismos de pesquisa como Google, Bing e DuckDuckGo mostraram com o que uma ferramenta de pesquisa básica encontrou ao navegar em um enorme conjunto de páginas da web típicas. A ferramenta básica não tentou adivinhar o que é importante; apenas mostrava páginas baseadas em regras simples. Se os grandes motores de busca mostrassem mais páginas especialmente projetadas do que a ferramenta básica, isso significava que essas páginas provavelmente estavam sendo empurradas para cima de propósito.
Embora a metodologia adotada no estudo forneça informações valiosas, ela pode ter algumas limitações ou possíveis áreas de imprecisão, que incluem:
- Mudanças rápidas nas táticas de SEO: Como as estratégias de SEO evoluem continuamente, alguns dos padrões e táticas que os pesquisadores identificaram como indicadores de otimização de SEO podem rapidamente ficar desatualizados. O que foi identificado como spam de SEO durante o estudo pode se tornar uma prática padrão ou aceita ou pode ser substituído por novas técnicas que o estudo não considerou.
- Escopo limitado de indicadores de SEO: o estudo se baseia em recursos específicos para avaliar a otimização de SEO, como complexidade do texto e contagem de links afiliados. No entanto, o SEO abrange uma gama mais ampla de táticas, algumas das quais são mais sutis e podem não ter sido capturadas pelos recursos analisados.
- Falsos Positivos na Detecção de Spam: os métodos para identificar spam de SEO podem rotular inadvertidamente conteúdo legítimo e de alta qualidade como spam. Os critérios usados podem nem sempre estar alinhados com a qualidade real do conteúdo, potencialmente deturpando a presença de spam de SEO nos resultados de pesquisa.
- Exemplo de limitação do conjunto de consultas: o estudo se concentrou em consultas de análises de produtos, que podem não ser representativas de todos os tipos de consultas que os usuários podem inserir. Diferentes tipos de conteúdo ou consultas podem apresentar diferentes níveis de otimização de SEO e spam, portanto, as descobertas do estudo podem não se aplicar a todos os cenários de pesquisa.
- A comparação da linha de base pode não refletir a experiência média do usuário: O uso de uma ferramenta de pesquisa básica (BM25 no ClueWeb22) como linha de base para comparação pressupõe que este sistema mais simples apresentaria um retrato preciso da distribuição de conteúdo não otimizado para SEO. No entanto, esta linha de base pode não refletir com precisão a experiência ou as necessidades de pesquisa do usuário médio, levando a comparações distorcidas.
A diferença entre ‘SEO Spam’ e SEO normal
Em seu estudo, os pesquisadores fazem uma distinção entre o que classificam como “Spam de SEO” e formas gerais e mais aceitáveis de otimização geral de mecanismos de pesquisa (SEO).
SEO geral
SEO geral refere-se às técnicas legítimas que os webmasters usam para tornar seu conteúdo mais visível nos resultados dos mecanismos de pesquisa.
Essas práticas têm como objetivo ajudar os mecanismos de busca a compreender o conteúdo para que ele possa ser encontrado mais facilmente pelas pessoas que procuram essa informação. Inclui otimizar a estrutura do site, melhorar a velocidade de carregamento da página, garantir que o conteúdo seja relevante para as consultas de pesquisa e assim por diante.
O objetivo do SEO geral é aprimorar a experiência do usuário e combinar a intenção de pesquisa dos usuários com conteúdo de qualidade.
Spam de SEO
Por outro lado, Spam de SEOconforme identificado neste estudo, descreve práticas agressivas e muitas vezes enganosas que visam manipular as classificações dos mecanismos de busca principalmente para obter ganhos financeiros, sem necessariamente fornecer valor ou conteúdo relevante aos usuários.
Isso inclui encher páginas com links afiliados excessivos, excesso de palavras-chave (uso excessivo de certas frases para tentar obter mais visibilidade), criação de conteúdo de baixa qualidade que é otimizado demais para mecanismos de pesquisa com o objetivo de obter uma classificação elevada em vez de ser útil e outras táticas que priorizam a classificação em vez do benefício do usuário.
Os pesquisadores veem o SEO Spam como um subconjunto do SEO que diminui o valor dos resultados da pesquisa devido à sua natureza exploradora, enquanto o SEO geral é visto como um aumento no valor dos resultados da pesquisa, melhorando a visibilidade do conteúdo de uma forma centrada no usuário.
A investigação teve como objetivo identificar e medir a prevalência de spam de SEO nos principais resultados de pesquisa, o que eles sugerem ser uma indicação de declínio na qualidade da pesquisa, ao mesmo tempo que reconhece que nem todo SEO deve ser categorizado como spam.