Например, есть такой robots.txt:
User-agent: SomeBot
Crawl-delay: 86400
User-agent: *
Disallow: /somepage
Будет ли для бота SomeBot действовать правило Disallow: /somepage
, а если нет то как сделать чтобы оно действовало? Понять этот момент маны не помогли.
P.S. Почему-то проверялка от гугла выдаёт предупреждение что правило Crawl-delay: 86400
проигнорировано Googlebot, хотя он не в свою секцию по идее вообще не должен смотреть, или так и должно быть?