GEO 최적화 Guide — 전체 시리즈

  1. 1. GEO란 무엇인가 - SEO 너머의 AI 인용 전략
  2. 2. AI마다 인용하는 소스가 다르다
  3. 3. On-Site GEO 기술 구조 - 상품 DB에서 JSON-LD까지
  4. 4. Off-Site GEO - 공식 사이트를 안 보는 AI에게 선택받는 법 ← 현재 글
  5. 5. AEO - 코딩 에이전트가 읽는 문서는 왜 다른가

JSON-LD를 넣었는데 왜 블로그가 인용되나

3편 까지 On-Site GEO를 다뤘다. 상품 DB에서 JSON-LD를 뽑아내고, SSR로 HTML <head>에 꽂고, Rich Results Test로 검증까지 했다. 기술적으로 빠진 게 없다.

근데 ChatGPT에 “○○ 브랜드 추천 제품"을 물어보면 공식 사이트가 아니라 네이버 블로그와 TripAdvisor가 인용된다. Perplexity에서는 Reddit 스레드가 출처로 올라온다.

자사 사이트를 아무리 잘 만들어도, AI가 주로 보는 곳이 외부 채널이면 효과가 절반이다.

2편 에서 정리한 플랫폼별 인용 소스를 다시 보면 이렇다:

플랫폼1순위 인용 소스비중
ChatGPT디렉토리/리스팅 (Yelp, G2 등)49%
PerplexityReddit/커뮤니티31%
Gemini공식 사이트52%
Google AIOYouTube1위 도메인

Off-Site GEO 채널 맵

Gemini 빼면 공식 사이트 비중이 크지 않다. ChatGPT 인용의 절반이 외부 디렉토리에서 나온다. 이 영역을 안 건드리면 인용 점유율의 반을 그냥 놓치는 셈이다.

이게 Off-Site GEO다.

Off-Site GEO는 뭐가 다른가

1편 에서 On-Site와 Off-Site를 간단히 구분했다. 좀 더 파보면 이렇다.

On-Site GEO는 자사 사이트를 AI가 읽기 좋게 만드는 거다. JSON-LD, Schema.org, SSR. 개발팀이 코드를 고쳐서 해결한다.

Off-Site GEO는 방향이 다르다. AI가 참고하는 외부 채널에서 브랜드를 관리해야 한다. 디렉토리 프로필, 커뮤니티 언급, YouTube 영상. 여기는 마케팅팀과 PR의 영역이다.

항목On-Site GEOOff-Site GEO
대상자사 도메인외부 플랫폼
핵심 기술JSON-LD, SSR, FAQ Schema디렉토리 관리, 커뮤니티, YouTube
담당개발팀마케팅 / PR / 브랜드
통제 수준높음 (직접 수정)낮음 (간접 영향)
효과 플랫폼Gemini (52%)ChatGPT, Perplexity, AIO

둘 중 하나만 하면 안 된다. On-Site로 공식 데이터 품질을 높이고, Off-Site로 외부 채널의 브랜드 일관성을 맞춰야 한다. 세트로 움직여야 효과가 난다.

플랫폼별 Off-Site 전략

ChatGPT: 디렉토리와 리스팅이 절반

ChatGPT 인용의 49%가 Yelp, TripAdvisor, G2, Capterra 같은 서드파티 디렉토리에서 나온다 (Yext). 자사 사이트보다 디렉토리 프로필이 먼저 인용된다.

왜 이런 일이 생기냐면, ChatGPT는 자체 검색 인덱스가 약하다. Bing 검색 레이어에 의존하는데, Bing이 디렉토리 사이트의 도메인 권위도를 높게 친다. 디렉토리에 올라간 정보가 ChatGPT 답변에 먼저 반영된다.

바로 할 수 있는 것:

  • 업종별 핵심 디렉토리(Yelp, Google Business, G2, Capterra, TripAdvisor 등)에 프로필이 있는지 확인한다. 없으면 만들고, 있으면 정보가 최신인지 점검
  • NAP 일관성 을 맞춘다. Name, Address, Phone이 모든 디렉토리에서 동일해야 한다. “주식회사 ○○“과 “(주)○○“이 섞여 있으면 AI는 별개 엔티티로 인식할 수 있다
  • 리뷰를 관리한다. AI는 리뷰 수와 평점을 신뢰 지표로 쓴다. 리뷰가 0개인 프로필은 인용 가능성이 낮다

Perplexity: Reddit과 커뮤니티가 소스

Perplexity 인용의 31%가 Reddit을 포함한 커뮤니티 스레드에서 온다. 공식 발표보다 실사용자 토론을 더 신뢰한다.

단순히 Reddit에 글을 쓰라는 얘기가 아니다. Perplexity가 Reddit을 좋아하는 이유는 질문-답변 구조 가 AI 파싱에 최적화되어 있기 때문이다. “이 제품 어때?” → “6개월 썼는데 ○○은 좋고 ○○은 별로” 같은 대화가 AI 입장에서 가장 인용하기 쉬운 포맷이다.

여기서 신경 쓸 것:

  • 자사 브랜드나 카테고리가 언급되는 서브레딧을 파악하고 정기적으로 모니터링한다
  • 자사 제품 관련 질문에 실질적으로 도움이 되는 답변을 단다. 광고성 글은 Reddit 커뮤니티에서 즉시 다운보트 당한다
  • 한국 시장은 좀 다르다. Reddit 대신 디시인사이드, 클리앙, 뽐뿌가 비슷한 역할을 한다. Perplexity가 한국어 쿼리에서 이 사이트들을 얼마나 인용하는지는 아직 데이터가 부족하다. 직접 테스트해볼 영역이다

Google AI Overview: YouTube가 급부상

Google AI Overview에서 YouTube가 인용 1위 도메인이다 (Ahrefs Brand Radar). 반년 사이에 점유율이 34% 늘었다.

2편에서도 짚었는데, 인용되는 영상의 특징이 의외다. 조회수 1,000도 안 되는 영상이 인용되고, 좋아요 수십 개짜리도 수두룩하다. AI가 보는 건 인기도가 아니라 정보가 얼마나 잘 정리되어 있느냐다.

인용 잘 되는 영상을 보면 패턴이 있다:

요소설명인용 기여도
타임스탬프/챕터영상 내 구간별 주제 구분높음
설명란 구조화목차, 링크, 핵심 내용 요약높음
명확한 제목질문형 또는 “How to” 형식중간
자막/트랜스크립트자동 생성이라도 있으면 파싱 가능중간
조회수/좋아요인기 지표낮음

이미 올린 영상이라도 설명란에 타임스탬프를 넣으면 AI 인용 가능성이 올라간다. “이 영상에서 다루는 내용: 1. ○○ 2. ○○” 식으로 목차를 깔고, 관련 링크를 배치하면 된다. 제목은 “○○ 하는 법”, “○○ vs ○○ 비교” 같은 검색 의도가 명확한 형태가 유리하다.

그 전에 먼저: robots.txt 점검

Off-Site를 챙기기 전에 확인할 게 하나 있다. 자사 사이트가 AI 크롤러를 막고 있지는 않은지.

robots.txt에서 GPTBot이나 PerplexityBot을 차단하면, 해당 AI는 자사 사이트를 크롤링하지 못한다. On-Site GEO가 완벽해도 읽을 수 없으면 의미가 없다.

2편에서 다뤘던 경쟁사 robots.txt 분석을 직접 해볼 수 있는 도구를 만들었다. 도메인 리스트를 넣으면 AI 크롤러 10개의 허용/차단 현황을 히트맵으로 보여준다.

Google Colab에서 실습하기

API 키 없이 Python 표준 라이브러리만으로 돌아간다. 경쟁사 도메인을 바꿔가며 업계 전체 현황을 파악할 수 있다.

robots.txt에서 뭘 읽어낼 수 있나

경쟁사가 GPTBot을 차단하고 있다면, 그 AI 플랫폼에서 우리가 인용될 확률이 상대적으로 높아진다. 경쟁자가 빠진 자리니까.

반대로 경쟁사가 전면 개방하고 있는데 우리만 차단하고 있다면, AI 검색에서 경쟁사만 노출되고 우리는 안 보인다.

GPTBot을 차단해도 ChatGPT-User(브라우징 모드)는 별도 User-Agent다. 브라우징 모드에서는 여전히 접근 가능할 수 있다. Google-Extended를 차단해도 기본 Googlebot은 영향 없다. 검색 노출은 유지하면서 AI 학습만 차단하는 식으로 세분화할 수 있다.

# 검색은 허용하되 AI 학습만 차단하는 예시
User-agent: Googlebot
Allow: /

User-agent: Google-Extended
Disallow: /

User-agent: GPTBot
Disallow: /

User-agent: ChatGPT-User
Allow: /

이 설정이면 구글 검색에는 정상 노출되지만, Gemini AI 학습과 ChatGPT 학습 데이터에서는 제외된다. ChatGPT 브라우징 모드에서는 접근을 허용해서 실시간 인용은 가능하게 두는 식이다.

업종별 Off-Site 채널 우선순위

업종마다 AI가 주로 참고하는 외부 채널이 다르다.

업종1순위 Off-Site 채널2순위비고
커머스/유통Google Business + 디렉토리YouTube 리뷰상품 카탈로그 보호 vs AI 노출 균형
SaaS/B2BG2, Capterra 리뷰Reddit (r/SaaS 등)리뷰 수가 인용 확률을 직접 좌우
호텔/여행TripAdvisor, BookingYouTube 투어가격/가용성 데이터의 신선도가 핵심
식품/소비재커뮤니티 리뷰YouTube 먹방/리뷰한국은 네이버 블로그 영향이 여전히 큼
금융/핀테크뉴스/미디어전문 포럼규제 이슈로 AI 크롤러 차단하는 경우 많음

커머스가 특히 어렵다. 상품 가격과 재고 정보를 AI에 노출하면 경쟁사가 실시간으로 가져갈 수 있다. 차단하면 AI 검색에서 사라진다. 열어서 AI 검색에 노출될 것인지, 닫아서 카탈로그를 지킬 것인지. 정답은 없고 업종 내 경쟁 상황에 따라 다르다.

Off-Site GEO 체크리스트

바로 실행할 수 있는 것부터:

이번 주

  • 자사 robots.txt에서 AI 크롤러 차단 여부 확인 → Colab 분석기 로 진단
  • 경쟁사 3곳의 robots.txt 비교 분석
  • 주요 디렉토리(Google Business, 업종별 핵심 디렉토리)에 프로필 존재 여부 확인

이번 달

  • 디렉토리 프로필 정보 업데이트 (NAP 일관성 확인)
  • 기존 YouTube 영상에 타임스탬프/챕터/설명란 구조화 적용
  • 자사 브랜드가 언급되는 커뮤니티/서브레딧 목록 작성

분기

  • AI 플랫폼별 인용 모니터링 체계 구축
  • Off-Site 채널별 브랜드 일관성 감사
  • robots.txt 정책을 GEO 전략에 맞게 재설계