robots.txt
Файл с инструкциями для поисковых роботов
Файл с инструкциями для поисковых роботов
Определение
robots.txt — это текстовый файл в корне сайта, указывающий поисковым роботам, какие страницы сканировать, а какие — нет.
Синтаксис:
User-agent: *
Disallow: /admin/
Disallow: /private/
Allow: /
Sitemap: https://example.com/sitemap.xml