www.linux.org.ru/tracker/ вот эту вот. Смотреть в браузере ее неудобно, хочется отдельное консольное окошечко в уголке монитора, где будет поток флуда.
Сейчас каждые 10 секунд дергается bash скрипт с использованием curl'а и case *масок*), чтобы выбрать нужные строки, а затем ${##вырезать} ${**нужные} данные и вывести. Но внезапно, процесс очень ресурсоемкий для CPU. Видимо из-за того, что слишком много строчек в HTML документе направляется на case.
Может, подскажете, на каком языке реализовать парсер странички эффективнее всего? И на чем это лучше сделать - какими-нибудь встроенными библиотеками, или regex'ами, или «вручную» функциями дергая данные?