Crawl depth, czyli głębokość indeksowania, to pojęcie odnoszące się do tego, jak daleko w strukturze strony internetowej roboty wyszukiwarki (np. Googlebot) docierają podczas przeszukiwania witryny.
Mówiąc prościej, określa ono liczbę kliknięć od strony głównej (lub innego punktu startowego), które dzielą daną podstronę od momentu jej znalezienia przez crawlera. Im większa głębokość crawl depth, tym trudniej robotom dotrzeć do danej treści — a w praktyce często oznacza to również mniejsze szanse na jej zaindeksowanie oraz słabszą widoczność w wynikach wyszukiwania.
Optymalizacja crawl depth jest ważnym elementem SEO technicznego, zwłaszcza w przypadku dużych sklepów internetowych czy serwisów contentowych. Strony o bardzo dużej głębokości, do których prowadzi zbyt wiele kliknięć, mogą być pomijane przez roboty lub odwiedzane znacznie rzadziej. Dlatego zaleca się utrzymywanie ważnych podstron w możliwie bliskiej odległości od strony głównej lub innych dobrze linkowanych sekcji serwisu — np. poprzez odpowiednie linkowanie wewnętrzne, paginację, breadcrumbs oraz mapy strony. Dobrze zarządzane crawl depth pozwala robotom szybciej i efektywniej odkrywać oraz indeksować kluczowe treści witryny.