подскажите пожалуйста скрипт для решения такой задачи: есть файл со списком адресов сайтов, каждый сайт с новой строки, адрес начинается с http:// Нужно скачать файл robots.txt у каждого сайта, и сохранить с именем домена, например: mysiteru.txt (содержит robots.txt сайта mysite,ru), mysitecomua.txt (mysite.com.ua), subdomainmysitenet.txt (subdomain.mysite.net).
![](/img/p.gif)
Ответ на:
комментарий
от anonymous
![](/photos/65670:520601018.png)
![](/photos/65516:-853366844.jpg)
Ответ на:
комментарий
от h0lder
![](/photos/65229:-868728072.jpg)
Ответ на:
комментарий
от Dhoine
![](/photos/49912:1163776537.png)
Ответ на:
комментарий
от AITap
![](/photos/65670:520601018.png)
Ответ на:
комментарий
от h0lder
![](/photos/65670:520601018.png)
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.
Похожие темы
- Форум Разные robots.txt для поддоменов на nginx (2018)
- Форум Настройка robots.txt для гугла (2013)
- Форум chto za fail robots.txt? (2001)
- Форум По прямой ссылке domain.com/robots.txt - устаревшая версия (2025)
- Форум YandexMobileBot игнорирует robots.txt (2016)
- Форум Кроссплатформенная «окошечная» либа (2004)
- Форум Django + Apache + mod_wsgi (2014)
- Форум [robots.txt] Что можно прописать в robots.txt чтобы не идексировались ссылки типа сортировка по тому то, в направлении таком то... (2009)
- Форум apache2-mpm-itk error 500 (2017)
- Форум cap deploy (2012)