Всем привет!
Подскажите,пожалуйста, как скачивать с разных сайтов полностью все html-страницы, которые индексируются в поисковых машинах как Яндекс, Гугл и т.п., но не индексируются при попытке построить карту сайта с помощью разных программ?
Например, я с помощью wget скачал сайт:
Всего скачивается около 1420 файлов.
Однако, такие страницы, как:
http://www.orthilia.ru/herbs_description.php?id=2445 http://www.orthilia.ru/herbs_description.php?id=45
не скачиваются пауком (краулером) и не строятся в карту сайта.
Если ввести адреса этих страниц вручную, то они нормально скачиваются.
Однако, не всегда удается узнать все URL-адреса какого-либо сайта.