TL;DR: AI 크롤러, 다 막아야 할까?
- 학습용 봇(GPTBot, ClaudeBot)과 검색용 봇(ChatGPT-User, Claude-User)은 다름
- GEO 최적화 원하면 검색용 봇은 허용, 학습용 봇만 선별 차단
- Google-Extended 차단해도 기존 SEO 순위에 영향 없음
- robots.txt는 힌트 — 기술적 강제력은 없으나 주요 AI 봇은 준수
AI 검색 시대에 robots.txt 설정은 새로운 전략적 결정이 되었습니다. ChatGPT, Claude, Perplexity 같은 AI 검색에 노출되려면 AI 크롤러를 허용해야 하지만, 콘텐츠가 AI 학습에 무단 사용되는 것은 막고 싶을 수 있습니다.
출처: ClickRank AI Crawlers Guide 2026 ↗
ChatGPT-User, Claude-User는 허용하고 GPTBot, ClaudeBot, Google-Extended는 차단하는 전략 — AI 검색 결과에는 노출되면서 모델 학습에는 사용되지 않음
이 글에서는 AI 크롤러의 종류와 역할, 그리고 목적에 맞는 robots.txt 설정 방법을 살펴봅니다.
AI 크롤러의 종류 이해하기
AI 크롤러는 크게 두 가지 목적으로 나뉩니다.
출처: Cloudflare Radar - AI Bot Trends ↗
Cloudflare 데이터에 따르면 AI 봇 트래픽의 상당 부분이 학습 관련 크롤링이며, 검색용 봇과 구분 필요
학습용 크롤러 vs 검색용 크롤러
| 유형 | 목적 | 주요 봇 |
|---|---|---|
| 학습용 | AI 모델 훈련 데이터 수집 | GPTBot, ClaudeBot, CCBot, Google-Extended |
| 검색용 | 실시간 검색/브라우징 | ChatGPT-User, Claude-User, PerplexityBot |
핵심 차이:
- 학습용: 콘텐츠를 AI 모델 학습에 사용 (영구적 데이터 수집)
- 검색용: 사용자 질문에 답하기 위해 실시간 페이지 접근 (일시적 접근)
주요 AI 크롤러 User-Agent 목록
OpenAI
| User-Agent | 용도 | 권장 설정 |
|---|---|---|
| GPTBot | 모델 학습 | 선택적 차단 |
| ChatGPT-User | 실시간 브라우징 | GEO 원하면 허용 |
| OAI-SearchBot | 웹 검색 | 허용 권장 |
Anthropic
| User-Agent | 용도 | 권장 설정 |
|---|---|---|
| ClaudeBot | 모델 학습 | 선택적 차단 |
| Claude-User | 실시간 브라우징 | GEO 원하면 허용 |
| Claude-SearchBot | 검색 기능 | 허용 권장 |
| User-Agent | 용도 | 권장 설정 |
|---|---|---|
| Googlebot | 일반 검색 색인 | 허용 필수 |
| Google-Extended | AI 학습 (Gemini) | 선택적 차단 |
기타
| User-Agent | 회사 | 용도 |
|---|---|---|
| PerplexityBot | Perplexity | AI 검색 |
| Applebot-Extended | Apple | AI 학습 |
| CCBot | Common Crawl | 오픈 데이터셋 |
| Bytespider | ByteDance | AI 학습 |
목적별 robots.txt 설정 가이드
전략 1: GEO 최적화 (AI 검색 노출 극대화)
AI 검색에 최대한 노출되길 원한다면 모든 AI 크롤러를 허용합니다.
# AI 크롤러 전체 허용
User-agent: GPTBot
Allow: /
User-agent: ChatGPT-User
Allow: /
User-agent: ClaudeBot
Allow: /
User-agent: Claude-User
Allow: /
User-agent: PerplexityBot
Allow: /
User-agent: Google-Extended
Allow: /
장점: AI 검색 노출 최대화 단점: 콘텐츠가 AI 학습에 사용될 수 있음
전략 2: 균형 전략 (검색 허용, 학습 차단)
출처: ClickRank AI Crawlers Guide 2026 ↗
Google-Extended를 차단해도 기존 SEO 순위에는 영향 없음
AI 검색에는 노출되면서 학습 목적의 크롤링은 차단합니다.
# 검색용 봇 허용
User-agent: ChatGPT-User
Allow: /
User-agent: Claude-User
Allow: /
User-agent: PerplexityBot
Allow: /
User-agent: OAI-SearchBot
Allow: /
User-agent: Claude-SearchBot
Allow: /
# 학습용 봇 차단
User-agent: GPTBot
Disallow: /
User-agent: ClaudeBot
Disallow: /
User-agent: Google-Extended
Disallow: /
User-agent: CCBot
Disallow: /
User-agent: Bytespider
Disallow: /
장점: AI 검색 노출 유지 + 학습 데이터 사용 방지 단점: 일부 AI 기능에서 제한될 수 있음
전략 3: 완전 차단 (모든 AI 크롤러 차단)
콘텐츠를 AI 시스템에서 완전히 제외하고 싶다면:
# 모든 AI 관련 봇 차단
User-agent: GPTBot
Disallow: /
User-agent: ChatGPT-User
Disallow: /
User-agent: ClaudeBot
Disallow: /
User-agent: Claude-User
Disallow: /
User-agent: PerplexityBot
Disallow: /
User-agent: Google-Extended
Disallow: /
User-agent: CCBot
Disallow: /
User-agent: Bytespider
Disallow: /
User-agent: Applebot-Extended
Disallow: /
장점: AI 시스템에서 콘텐츠 완전 제외 단점: AI 검색 노출 불가, GEO 포기
robots.txt 설정 시 주의사항
1. robots.txt는 강제력이 없음
출처: Cloudflare robots.txt Docs ↗
robots.txt는 선호도를 표현할 뿐, 기술적으로 크롤링을 막지 못함. 일부 크롤러는 robots.txt를 무시할 수 있음
주요 AI 회사(OpenAI, Anthropic, Google, Perplexity)는 robots.txt를 공식적으로 준수한다고 밝혔습니다. 그러나 악의적인 크롤러까지 막으려면 추가 조치가 필요합니다.
2. 파일 위치와 형식
출처: BotRank robots.txt Guide ↗
robots.txt는 도메인 루트에 위치해야 하며, MIME 타입은 text/plain이어야 함
올바른 위치: https://example.com/robots.txt
잘못된 위치: https://example.com/pages/robots.txt
3. 일반 SEO 크롤러는 별도 관리
# 일반 검색엔진은 반드시 허용
User-agent: Googlebot
Allow: /
User-agent: Bingbot
Allow: /
User-agent: Yeti
Allow: /
# Googlebot과 Google-Extended는 별개
# Google-Extended 차단해도 Googlebot은 영향 없음
GEO 최적화를 위한 추가 설정
llms.txt 함께 사용하기
출처: Qwairy Complete Guide ↗
llms.txt는 AI에게 사이트 구조를 알려주는 "목차" 역할 — robots.txt와 함께 사용 권장
robots.txt로 AI 크롤러를 허용했다면, llms.txt로 AI가 읽어야 할 콘텐츠를 안내하세요.
/robots.txt — 접근 권한 제어
/llms.txt — 콘텐츠 안내 (목차)
/llms-full.txt — 상세 콘텐츠
HTML 콘텐츠 최적화
출처: GenRank robots.txt Optimization ↗
AI 크롤러는 JavaScript를 실행하지 못함. 중요한 콘텐츠는 반드시 HTML로 제공해야 함
AI 크롤러를 허용해도 콘텐츠가 JavaScript로만 렌더링되면 읽히지 않습니다:
- SSR/SSG 적용으로 HTML 콘텐츠 제공
- TTFB 3초 이내 유지 (AI 봇 타임아웃 방지)
- 광고, 팝업 등 노이즈 최소화
robots.txt 변경 후 확인 방법
1. 문법 검증
# Google Search Console에서 robots.txt 테스터 사용
https://search.google.com/search-console
2. AI 크롤러 접근 테스트
| 도구 | 용도 |
|---|---|
| 줍줍분석기 | robots.txt 포함 종합 진단 |
| Google Search Console | robots.txt 문법 검증 |
| 서버 로그 분석 | 실제 AI 봇 접근 확인 |
3. 변경 반영 시간
robots.txt 변경은 크롤러가 다시 방문할 때 반영됩니다. 주요 AI 봇은 보통 수일 내에 변경사항을 인식합니다.
자주 묻는 질문
Q1: Google-Extended를 차단하면 SEO 순위에 영향이 있나요?
아니요. Google-Extended는 Gemini 학습용이며, Googlebot(검색 색인)과는 별개입니다. Google-Extended를 차단해도 검색 순위에 영향 없습니다.
Q2: robots.txt로 차단해도 이미 학습된 데이터는 삭제되나요?
아니요. robots.txt는 향후 크롤링만 제어합니다. 이미 수집된 데이터 삭제는 각 AI 회사에 별도 요청해야 합니다.
Q3: 모든 AI 봇을 차단하면 어떤 일이 생기나요?
ChatGPT, Claude, Perplexity 등 AI 검색에서 사이트가 노출되지 않습니다. AI 시대에 GEO를 포기하는 것과 같습니다.
Q4: 어떤 전략을 선택해야 하나요?
- 콘텐츠 노출 우선: 전략 1 (전체 허용)
- 균형 (권장): 전략 2 (검색 허용, 학습 차단)
- 프라이버시 우선: 전략 3 (전체 차단)
Q5: 특정 페이지만 AI 크롤러에게 차단할 수 있나요?
가능합니다. 경로별로 설정할 수 있습니다:
User-agent: GPTBot
Allow: /blog/
Disallow: /members/
Disallow: /admin/
마무리
robots.txt AI 크롤러 설정의 핵심:
- 학습용 vs 검색용 봇을 구분하여 관리
- GEO 원한다면 최소한 검색용 봇은 허용
- Google-Extended 차단은 SEO에 영향 없음
- llms.txt와 함께 사용하면 AI 가시성 향상
AI 검색 시대에 robots.txt는 단순한 크롤러 제어를 넘어 전략적 GEO 도구가 되었습니다. 목적에 맞는 설정으로 AI 검색과 콘텐츠 보호의 균형을 잡으세요.
더 자세한 상담이 필요하시면 XEO 무료 진단을 신청하세요. 사이트의 AI 크롤러 설정을 점검하고 GEO 최적화 전략을 제안해드립니다.