Pular para o conteúdo

Paper GEO: O Que a Ciência Diz

O paper GEO (Generative Engine Optimization) é o primeiro framework acadêmico para otimizar a visibilidade de conteúdo em motores de busca baseados em IA. Publicado no KDD 2024 (ACM SIGKDD), fornece evidências empíricas para estratégias de otimização de conteúdo nas quais o LLMO Framework se baseia.

CampoValor
TítuloGEO: Generative Engine Optimization
AutoresAggarwal, Murahari, Rajpurohit, Kalyan, Narasimhan, Deshpande
InstituiçãoPrinceton University, IIT Delhi, Adobe Research
ConferênciaKDD 2024 (ACM SIGKDD)
arXiv2311.09735
Publicado2024

Os pesquisadores construíram o GEO-Bench, um benchmark de 10.000 consultas de busca em múltiplos domínios. Testaram 9 estratégias de otimização de conteúdo em um motor de busca generativo para medir quais abordagens melhoravam a visibilidade das fontes.

  1. Citar Fontes
  2. Adição de Citações Diretas
  3. Adição de Estatísticas
  4. Otimização de Fluência
  5. Palavras Únicas
  6. Termos Técnicos
  7. Tom Autoritativo
  8. Linguagem de Fácil Compreensão
  9. Keyword Stuffing
EstratégiaMelhoria de VisibilidadeComponente LLMO
Adição de Estatísticas+115,1%Sinais de citação
Citar Fontes+77,0%Sinais de citação
Adição de Citações Diretas+72,2%Sinais de autoridade
Tom Autoritativo+21,5%Clareza de conhecimento
Otimização de Fluência+15,2%Clareza de conhecimento
Termos Técnicos+5,8%Clareza de conhecimento
Linguagem de Fácil Compreensão+2,4%Clareza de conhecimento
Palavras Únicas-3,1%
Keyword Stuffing-10,2%

As três estratégias mais eficazes compartilham uma característica comum: fornecem evidências externas verificáveis.

  1. Adição de Estatísticas (+115,1%): Adicionar números e pontos de dados específicos tornou o conteúdo mais de duas vezes mais visível. Exemplo: “A receita cresceu 34% a/a” vs. “A receita cresceu significativamente.”

  2. Citar Fontes (+77,0%): Referenciar papers específicos, relatórios ou documentação aumentou a visibilidade em 77%. Sistemas de IA preferem conteúdo que conseguem cruzar com outras referências.

  3. Adição de Citações Diretas (+72,2%): Incluir citações diretas de especialistas ou fontes autoritativas adicionou credibilidade que sistemas de IA reconheceram e citaram.

  • Keyword Stuffing (-10,2%): Táticas tradicionais de SEO prejudicam ativamente a visibilidade em IA. Sistemas de IA conseguem detectar e penalizar densidade artificial de palavras-chave.
  • Palavras Únicas (-3,1%): Usar vocabulário incomum não melhorou a visibilidade. Clareza supera originalidade lexical.

1. Sinais de citação são o componente de maior alavancagem

Seção intitulada “1. Sinais de citação são o componente de maior alavancagem”

Os dados do GEO mostram que Sinais de citação (estatísticas, fontes, citações diretas) representam as maiores melhorias de visibilidade. É por isso que o LLMO Framework posiciona Sinais de citação como Componente 5 — o ponto culminante que multiplica o efeito de todos os outros componentes.

2. A clareza do conteúdo importa, mas menos que a evidência

Seção intitulada “2. A clareza do conteúdo importa, mas menos que a evidência”

Estratégias relacionadas à Clareza de conhecimento (tom autoritativo, fluência, linguagem de fácil compreensão) mostraram melhorias positivas, mas modestas (2–22%). Boa escrita é necessária, mas não suficiente. O multiplicador vem de adicionar fatos verificáveis.

Keyword stuffing, a base do SEO tradicional, reduziu ativamente a visibilidade em IA. Isso confirma que o LLMO requer uma abordagem fundamentalmente diferente do SEO tradicional.

O paper GEO constatou que a eficácia das estratégias varia por domínio:

  • Consultas factuais/científicas: Adição de estatísticas foi mais eficaz
  • Consultas de opinião/subjetivas: Adição de citações diretas teve melhor desempenho
  • Consultas técnicas: Citar fontes teve maior impacto

Isso sugere que a implementação do LLMO deve ser adaptada ao seu domínio de conteúdo. Um site de pesquisa se beneficia mais de estatísticas, enquanto um blog de liderança de pensamento se beneficia mais de citações de especialistas.

O LLMO Framework estende o GEO de três maneiras:

  1. Escopo mais amplo: GEO foca em motores de busca generativos. O LLMO cobre todas as interações com LLMs, incluindo consultas diretas, RAG e agentes de IA.
  2. Foco em implementação: GEO identifica o que funciona. O LLMO fornece como implementar com formatos de arquivo específicos (llms.txt), dados estruturados (JSON-LD) e padrões de design de conteúdo.
  3. Camada de recuperação: GEO assume que o conteúdo já foi recuperado. O LLMO adiciona o componente de Sinais de recuperação para garantir que o conteúdo seja descobrível em primeiro lugar.