LINUX.ORG.RU

Какой тулзой максимально быстро сделать 10000 разных HTTP-запросов?


0

0


HTTP-ответы на эти запросы разбирать не надо, можно скидывать в файл или хотя-бы сохранять размер контента.

Хотелось бы знать:
1. Время, затраченное на запрос.
2. Время, затраченное на соединение (не обяз).
3. Общее время зафигачивания указанного количества запросов.

Лучший вариант - если можно делать эти 10000 запросов по подготовленному мною файлу, где содержатся URLs один на строку.

http://example.com/?q=1
.
.
.
http://example.com/?q=134
http://example.com/?q=1AF


Спасибо.

P.S.

Написать какой-то скрипт на PHP, например, боюсь из-за массы неконтролируемых моментов, лишней работы, выполняемой интерпретаторами таких языков, уборщиками мусора и пр.
На баше/шеле скрипт писать по тем же причинам незнаю стоит ли.

Типа bash while [ true ] ... curl bla-blah-bla..

Ответ на: комментарий от UserUnknown

ab смотрел, не нашёл затребованных функций. Вообще, она весёлая, эта ab и шустрая )

gustavo
() автор топика

Брутфорсишь чтоли? Напиши скрипт например на перле, всё равно время работы интерпритатора будет пренебрежительно мало, по сревнению с временем отправки и прёма данных по сети.

kranky ★★★★★
()
Ответ на: комментарий от kranky

Да не, сеть тут такая, что всё летает быстрее, чем выполняется.

gustavo
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.