구글 크롤링 안되는 사이트 해결법 — 원인 5가지와 진단 순서 총정리
목차 9
핵심 요약
- 구글 크롤링이 안 되면 아무리 좋은 콘텐츠를 만들어도 검색 결과에 나타나지 않습니다
- robots.txt 차단, noindex 태그, 서버 오류, 사이트맵 미제출, JS 렌더링 — 이 5가지가 주요 원인입니다
- 서치콘솔 URL 검사 도구로 원인을 진단하고, 수정 후 재크롤링을 요청하면 대부분 해결됩니다
구글 크롤링이 안 되면 어떤 일이 벌어지나
사이트를 오픈하고 몇 주가 지났는데 구글에 검색해도 내 페이지가 하나도 안 뜹니다. 이런 상황, 생각보다 많은 분들이 겪고 있습니다.
솔직히 말하면, 저희가 컨설팅하면서 가장 자주 듣는 질문 중 하나가 "왜 구글에 제 사이트가 안 나오죠?"입니다. 대부분 콘텐츠 문제나 SEO 부족이라고 생각하는데, 실제로는 그보다 더 근본적인 문제가 있는 경우가 많습니다. 바로 구글봇이 사이트를 아예 크롤링하지 못하고 있는 것이죠.
크롤링은 구글이 여러분의 사이트 페이지를 발견하고 읽어가는 과정입니다. 이 단계가 막히면 색인(인덱싱)도 안 되고, 색인이 안 되면 검색 결과에 절대 나올 수 없습니다. 아무리 좋은 글을 써도 구글이 읽을 수조차 없으니까요.
저희 팀 내부에서도 신규 사이트 진단할 때 제일 먼저 확인하는 게 크롤링 상태입니다. 콘텐츠 품질을 따지기 전에, 구글봇이 사이트에 접근할 수 있는지부터 봐야 합니다.
크롤링 차단 여부, 서치콘솔에서 확인하는 법
크롤링 문제를 진단하는 가장 확실한 방법은 서치콘솔 사용법 가이드에서도 다룬 구글 서치콘솔입니다. 무료인 데다가 구글이 직접 알려주는 데이터니까 신뢰도가 가장 높습니다.
URL 검사 도구 사용법
서치콘솔에 접속한 뒤, 상단 검색창에 확인하고 싶은 URL을 입력하세요. "URL이 Google에 등록되어 있지 않습니다"라는 메시지가 뜨면, 구글이 해당 페이지를 아직 크롤링하지 못한 것입니다.
"크롤링됨 — 현재 색인이 생성되지 않음"이라는 메시지가 뜨면, 크롤링은 했지만 색인할 가치가 없다고 판단한 경우입니다. 이 두 가지는 원인과 해결법이 다르니 구분해서 봐야 합니다.
크롤링 통계 보고서 읽기
서치콘솔 왼쪽 메뉴에서 "설정" → "크롤링 통계"를 보면 구글봇이 사이트를 얼마나 자주, 얼마나 빨리 크롤링하고 있는지 확인할 수 있습니다. 여기서 응답 코드별 분포도 보이는데, 5xx 에러가 많으면 서버 문제를 의심해야 합니다.
TIP URL 검사 도구에서 "실시간 테스트" 버튼을 누르면 지금 당장 구글봇이 해당 페이지를 어떻게 보는지 확인할 수 있습니다. 캐시된 결과가 아니라 실시간 데이터이기 때문에 수정 후 바로 확인하기에 좋습니다.
robots.txt가 구글봇을 막고 있는 경우
실무에서 자주 보는 패턴인데, 사이트가 크롤링이 안 되는 원인의 상당수가 robots.txt 설정 실수입니다. 특히 사이트를 개발 환경에서 운영 환경으로 옮길 때 robots.txt를 그대로 가져오는 실수가 정말 흔합니다.
robots.txt 확인 방법
브라우저에서 여러분의도메인.com/robots.txt를 직접 입력해보세요. 아래와 같은 내용이 있다면 구글봇을 완전히 차단하고 있는 것입니다:
User-agent: *
Disallow: /
이 두 줄이면 모든 크롤러가 사이트 전체를 크롤링할 수 없습니다. 개발 중에 검색엔진이 미완성 사이트를 긁어가지 못하게 넣어두었다가, 런칭 후 깜빡하고 안 바꾸는 경우가 대부분입니다.
주의 Disallow: /는 사이트 전체를 차단합니다. 워드프레스의 경우 설정 → 읽기에서 "검색 엔진이 사이트를 색인하지 못하게 합니다" 체크박스가 이 설정을 자동으로 추가합니다. 런칭 후 반드시 해제하세요.
올바른 robots.txt 설정
대부분의 사이트는 아래 설정이면 충분합니다:
User-agent: *
Allow: /
Sitemap: https://여러분의도메인.com/sitemap.xml
특정 경로만 차단하고 싶다면 Disallow: /admin/처럼 해당 디렉토리만 지정하세요. 직접 작성이 불안하다면 Robots.txt 생성기를 활용하면 실수를 줄일 수 있습니다.
여러분의 robots.txt가 올바르게 설정되어 있는지 확인해보세요.
Robots.txt 생성기로 점검하기 →noindex 태그가 색인을 막고 있는 경우
robots.txt가 정상인데도 색인이 안 된다면, 페이지 자체에 noindex 태그가 붙어 있을 가능성이 높습니다. 이건 좀 더 은밀해서 놓치기 쉽습니다.
noindex는 "크롤링은 해도 되지만 색인하지 마세요"라는 의미입니다. robots.txt와는 역할이 다릅니다.
참고 robots.txt는 크롤링 자체를 차단하고, noindex는 크롤링은 허용하되 색인을 막습니다. 둘 다 설정되어 있으면 구글봇이 robots.txt 때문에 페이지에 접근 자체를 못해서 noindex도 읽지 못합니다. 결과적으로 기존에 색인되어 있던 페이지가 계속 남아있을 수 있습니다.
noindex 태그는 두 군데에 있을 수 있습니다:
| 위치 | 형태 | 확인 방법 |
|---|---|---|
| HTML head | <meta name="robots" content="noindex"> | 페이지 소스 보기에서 head 태그 내 확인 |
| HTTP 헤더 | X-Robots-Tag: noindex | 브라우저 개발자 도구 → Network → 응답 헤더 확인 |
워드프레스라면 Yoast SEO나 Rank Math 플러그인에서 개별 페이지마다 noindex를 설정할 수 있는데, 실수로 중요한 페이지에 체크해놓는 경우가 있습니다. 메타태그 분석기로 각 페이지의 메타 태그 상태를 한번에 확인해보세요.
서버 오류와 응답 속도 문제
서버가 구글봇의 요청에 제대로 응답하지 못하면 크롤링이 실패합니다. Google 검색 센터 크롤링 문제 해결 가이드에서도 서버 오류를 주요 원인으로 꼽고 있습니다.
저희가 실제로 분석해보면, 저렴한 공유 호스팅을 사용하는 사이트에서 이 문제가 많이 발생합니다. 트래픽이 조금만 몰려도 서버가 버티지 못해서 구글봇 요청에 5xx 에러를 반환하는 것이죠.
서치콘솔 크롤링 통계에서 응답 시간이 평균 2초 이상이면 주의가 필요합니다. 구글은 각 사이트마다 크롤링 예산(crawl budget)이라는 개념을 적용하는데, 서버 응답이 느리면 같은 시간에 크롤링할 수 있는 페이지 수가 줄어듭니다. 페이지가 수천 개인 사이트에서는 이것만으로도 중요한 페이지가 크롤링되지 않을 수 있습니다.
사이트맵 미제출 또는 오류
사이트맵은 구글봇에게 "이 사이트에 이런 페이지들이 있어요"라고 알려주는 지도입니다. 없어도 크롤링은 되지만, 있으면 새 페이지 발견 속도가 확실히 빨라집니다.
현실적으로, 소규모 사이트도 사이트맵을 제출해두는 게 좋습니다. 특히 내부 링크 구조가 완벽하지 않은 사이트라면 사이트맵이 유일한 발견 경로인 페이지가 있을 수 있거든요.
- sitemap.xml이 도메인 루트에 존재하는지 확인 (예: example.com/sitemap.xml)
- 사이트맵 안의 URL이 실제로 접근 가능한지 확인 (404 URL 포함 금지)
- 사이트맵에 noindex 페이지가 포함되어 있지 않은지 확인
- 서치콘솔에서 사이트맵을 제출했는지 확인
- 사이트맵 용량이 50MB 미만, URL 수가 50,000개 미만인지 확인
Semrush 크롤링 문제 가이드에 따르면, 사이트맵 오류는 크롤링 문제의 상위 원인 중 하나입니다. 잘못된 URL이나 깨진 링크가 포함된 사이트맵은 오히려 구글봇에게 혼란을 줄 수 있습니다.
사이트맵이 없거나 수동으로 관리하기 번거롭다면, 자동 생성 도구를 활용해보세요.
사이트맵 생성기 사용하기 →자바스크립트 렌더링 문제
React, Vue, Angular 같은 프레임워크로 만든 SPA(Single Page Application) 사이트는 크롤링에서 불리할 수 있습니다. 구글봇이 자바스크립트를 실행할 수는 있지만, HTML 크롤링보다 시간과 리소스가 더 많이 듭니다.
실제로 저희가 자주 보는 사례가 있습니다. 사이트 소스를 보면 <div id="app"></div>만 덩그러니 있고, 나머지 콘텐츠는 전부 자바스크립트로 그리는 구조죠. 구글봇이 이걸 렌더링하는 데 실패하면 빈 페이지로 인식합니다.
TIP 서치콘솔 URL 검사에서 "실시간 테스트" → "테스트된 페이지 보기" → "스크린샷"을 확인하세요. 구글봇이 보는 화면이 나옵니다. 여기서 콘텐츠가 비어 있으면 JS 렌더링 문제가 확실합니다. 해결책은 SSR(서버 사이드 렌더링) 또는 SSG(정적 사이트 생성)로 전환하는 것입니다.
문제 해결 후 재크롤링 요청하는 법
원인을 찾아서 수정했다면, 구글이 알아서 다시 크롤링할 때까지 기다릴 수도 있지만, 직접 재크롤링을 요청하면 훨씬 빠릅니다.
서치콘솔 URL 검사 도구에서 수정한 페이지 URL을 입력하고, "색인 생성 요청" 버튼을 누르면 됩니다. Google 재크롤링 요청 가이드에 따르면, 개별 URL은 보통 며칠 내에 재크롤링됩니다.
페이지가 많다면 수정된 사이트맵을 다시 제출하는 게 효율적입니다. 서치콘솔 "사이트맵" 메뉴에서 사이트맵 URL을 제출하면 구글이 변경된 페이지를 우선적으로 크롤링합니다.
다만 재크롤링 요청은 하루에 횟수 제한이 있으니, 수정이 다 끝난 뒤에 한번에 요청하는 게 좋습니다. 수정 → 확인 → 요청, 이 순서를 지키세요.
재크롤링 후에도 색인이 안 되는 경우
재크롤링을 요청했는데도 며칠이 지나도록 색인이 안 된다면, 크롤링 문제가 아니라 콘텐츠 품질 문제일 수 있습니다. 구글은 크롤링한 페이지 중에서 색인할 가치가 있다고 판단한 페이지만 색인합니다. 이 경우 구글 검색 노출이 안 되는 이유를 참고해서 다른 원인을 점검해보세요.
지금까지 다룬 내용을 전부 점검하고 싶다면, 온페이지 SEO 분석 도구로 사이트 전체를 한번에 진단해보세요. 크롤링 차단, 메타태그, 서버 응답까지 주요 항목을 자동으로 체크해줍니다.
크롤링 문제부터 SEO 전반까지, 사이트 상태를 한번에 점검해보세요.
무료 SEO 분석 시작하기 →자주 묻는 질문
구글 크롤링이 안 되는지 어떻게 확인하나요?
robots.txt에서 구글봇만 허용하려면 어떻게 설정하나요?
noindex 태그를 제거하면 바로 색인이 되나요?
크롤링 예산이란 무엇인가요?
사이트맵을 제출했는데도 크롤링이 안 되는 이유는?
지금 시작하기 막막하다면, 무료 SEO 도구로 가볍게 진단부터
회원가입 없이 바로 쓰는 무료 도구들 — 키워드·백링크·온페이지 진단까지 한 번에 점검해볼 수 있습니다.
무료 도구 둘러보기이 글이 도움이 되었다면 공유해주세요
최혁명 · SEO 컨설턴트
검색엔진 최적화(SEO) 전문가. SEO월드를 운영하며 실전 SEO 가이드와 무료 분석 도구를 만들고 있습니다. 국내외 SEO 트렌드를 실무 관점에서 풀어내는 콘텐츠를 만듭니다.