콘텐츠로 이동

AI 시스템이 콘텐츠를 찾는 방법

사용자가 ChatGPT에 당신의 비즈니스에 대해 질문하면, 그 답변은 어디서 오는 걸까? AI 시스템은 세 가지 경로를 통해 콘텐츠를 발견한다. 각 경로는 최적화를 위한 요구 사항이 다르다.

사용자 쿼리
├─→ 경로 1: 학습 데이터 (파라메트릭 메모리)
│ └─ 모델 학습 과정에서 흡수된 콘텐츠
├─→ 경로 2: 웹 검색 (실시간 검색)
│ └─ Bing, Google 또는 자체 인덱스를 통한 실시간 검색
└─→ 경로 3: RAG (검색 증강 생성)
└─ 큐레이션된 문서 저장소에 대한 벡터 검색

Large Language Model은 대규모 웹 크롤링 데이터(Common Crawl, 자체 데이터셋)로 학습된다. 학습 과정에서 모델은 수십억 페이지의 사실, 패턴, 관계를 흡수한다.

이것이 의미하는 바:

  • 모델의 학습 컷오프 이전에 게시된 콘텐츠는 이미 파라미터에 포함되어 있을 수 있다
  • 모델은 이 지식을 업데이트할 수 없다 — 학습 시점에 고정된다
  • 학습 데이터의 부정확하거나 오래된 콘텐츠는 지속적인 할루시네이션을 유발한다
  • 모델이 무엇을 학습했는지 직접 제어할 수는 없지만, 향후 학습에 영향을 줄 수 있다

관련 LLMO 컴포넌트: Knowledge Clarity, Authority Signals

ChatGPT(브라우징 기능), Perplexity, Gemini 등의 AI 시스템은 쿼리에 답하기 위해 실시간 웹 검색을 수행한다. 검색 API(Bing, Google, 자체)를 사용해 관련 페이지를 찾고, 검색 결과를 종합하여 답변을 생성한다.

이것이 의미하는 바:

  • 콘텐츠는 지금 바로 크롤링 및 인덱싱이 가능해야 한다
  • AI는 관련성, 권위, 구조를 기준으로 어떤 검색 결과를 인용할지 선택한다
  • 구조화된 콘텐츠(표, 목록, 명확한 제목)가 추출될 가능성이 높다
  • LLMO의 효과가 가장 즉각적으로 나타나는 경로다

관련 LLMO 컴포넌트: Retrieval Signals, Structural Formatting, Citation Signals

경로 3: RAG (Retrieval-Augmented Generation)

섹션 제목: “경로 3: RAG (Retrieval-Augmented Generation)”

RAG 시스템은 벡터 데이터베이스에서 관련 문서를 검색하여 AI의 컨텍스트에 주입한다. 이는 기업용 AI 어시스턴트, 커스텀 챗봇, 그리고 점점 더 많은 소비자 제품에서 사용된다.

이것이 의미하는 바:

  • 콘텐츠는 청크 단위로 분리하기 쉬워야 한다 — 각 섹션이 독립적으로 의미가 통해야 한다
  • 명확한 섹션 제목이 검색 앵커 역할을 한다
  • 구조화된 사실(누가, 무엇을, 언제, 어디서)이 검색 정밀도를 높인다
  • llms.txt와 /ai/ 엔드포인트는 RAG에 최적화된 사전 청크 콘텐츠를 제공한다

관련 LLMO 컴포넌트: Knowledge Clarity, Structural Formatting, Retrieval Signals

경로제어 수준효과 시기주요 LLMO 초점
학습 데이터낮음수개월~수년Knowledge Clarity
웹 검색높음수일~수주Retrieval + Structure
RAG중간즉시Structure + Clarity

대부분의 조직에게 **경로 2(웹 검색)**가 가장 레버리지가 높은 기회다. 최적화의 효과가 가장 빠르고 측정 가능하게 나타나는 경로이기 때문이다.

세 가지 경로는 서로를 강화한다:

  1. 정확한 웹 콘텐츠 → 향후 모델 업데이트에서 더 좋은 학습 데이터가 됨
  2. 구조화된 콘텐츠 → 더 나은 RAG 검색 → 더 나은 AI 응답 → 더 많은 인용
  3. 더 많은 인용 → 더 높은 권위 시그널 → 웹 검색에서 선택될 가능성 증가

LLMO는 세 가지 경로를 동시에 최적화한다. LLMO Framework의 5가지 컴포넌트는 각각 이러한 발견 경로의 특정 측면을 다룬다.

“Google에 나오면 AI도 찾을 수 있다.” 반드시 그렇지는 않다. AI 검색과 기존 검색은 다른 랭킹 시그널을 사용한다. Google에서 1위를 차지하는 페이지라도 구조화 데이터나 명확한 사실 기술이 없으면 ChatGPT가 인용하지 않을 수 있다.

“콘텐츠를 보호하려면 AI 크롤러를 차단해야 한다.” 크롤러를 차단하면 AI가 당신을 인용할 수 없게 된다. 사용자가 당신의 도메인에 대해 질문했는데 답이 없으면, 경쟁사의 콘텐츠에 의존하게 된다. LLMO의 접근 방식은 AI로부터 숨는 것이 아니라, AI가 콘텐츠를 어떻게 보는지를 제어하는 것이다.

“학습 데이터가 전부다.” 학습 데이터는 중요하지만 고정되어 있다. 웹 검색과 RAG는 실시간이며, AI 응답에서 차지하는 비중이 점점 커지고 있다. Perplexity와 ChatGPT 브라우징은 전적으로 웹 검색에 의존한다.