Profundidade de Crawl é a medida em que um motor de busca indexa páginas dentro de um website. A maioria dos sites contém múltiplas páginas, que por sua vez podem conter subpáginas. As páginas e subpáginas crescem mais profundamente de uma forma semelhante à forma como as pastas e subpastas (ou diretórios e subdiretórios) crescem mais profundamente no armazenamento do computador.
Em geral, quanto mais abaixo na hierarquia do site uma determinada página aparece, menor a chance de que ela apareça com uma alta classificação em uma página de resultados do mecanismo de busca (SERP). A página inicial de um Web site tem uma profundidade de rastreamento de 0 por padrão. Páginas no mesmo site que estão linkadas diretamente (com um clique) de dentro da página inicial têm uma profundidade de rastreamento de 1; páginas que estão linkadas diretamente de dentro da profundidade de rastreamento de 1 páginas têm uma profundidade de rastreamento de 2, e assim por diante.
Um rastreador -- também conhecido como spider ou bot -- é um programa que visita sites e lê suas páginas e outras informações a fim de criar entradas para um índice do mecanismo de busca.