Краулинг

Процесс сканирования сайта поисковыми роботами

Процесс сканирования сайта поисковыми роботами

Определение

Краулинг (crawling) — это процесс, при котором поисковые роботы (боты, пауки) обходят страницы сайта, собирая информацию для индексации.


Как работает:

1. Робот находит URL (из sitemap, ссылок)

2. Скачивает HTML-код страницы

3. Извлекает ссылки для дальнейшего обхода

4. Передаёт данные в индексатор


Оптимизация краулинга:

  • Правильный robots.txt
  • XML-карта сайта
  • Внутренняя перелинковка
  • Быстрая загрузка страниц
  • Примеры использования

    • Googlebot краулит до 20 млн страниц в день

    Связанные термины