подскажите пожалуйста скрипт для решения такой задачи: есть файл со списком адресов сайтов, каждый сайт с новой строки, адрес начинается с http:// Нужно скачать файл robots.txt у каждого сайта, и сохранить с именем домена, например: mysiteru.txt (содержит robots.txt сайта mysite,ru), mysitecomua.txt (mysite.com.ua), subdomainmysitenet.txt (subdomain.mysite.net).
Ответ на:
комментарий
от anonymous
Ответ на:
комментарий
от h0lder
Ответ на:
комментарий
от Dhoine
Ответ на:
комментарий
от AITap
Ответ на:
комментарий
от h0lder
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.
Похожие темы
- Форум Разные robots.txt для поддоменов на nginx (2018)
- Форум Настройка robots.txt для гугла (2013)
- Форум chto za fail robots.txt? (2001)
- Форум По прямой ссылке domain.com/robots.txt - устаревшая версия (2025)
- Форум YandexMobileBot игнорирует robots.txt (2016)
- Форум Кроссплатформенная «окошечная» либа (2004)
- Форум Django + Apache + mod_wsgi (2014)
- Форум [robots.txt] Что можно прописать в robots.txt чтобы не идексировались ссылки типа сортировка по тому то, в направлении таком то... (2009)
- Форум apache2-mpm-itk error 500 (2017)
- Форум cap deploy (2012)