LINUX.ORG.RU
ФорумAdmin

Как лучше выдрать кол-во Mb на сайт, на пользователя и итого из access.log в bash?

 , парсинг логов


0

1

Практически все решения, которые я пересмотрел не поддерживают автоматическую выгрузку своих отчетов куда-либо, отображают данные только html (либо это вообще тупо реалтаймовые консольные мониторы).

На данный момент делаю вывод, что проще всего через bash запускать соответствующий питоновый/перловый скрипт, который генерит веб-страничку, далее её уже парсить. Но нет ли коллекций готовых скриптов, чтобы это более нативно сделать (перерабатывать готовые cgi нет желания, т.к. парсинг для меня будет проще)?

Примерный минимально необходимый набор данных:
http://home.gna.org/pysquila/images/sshots/ScreenShot2.png
http://home.gna.org/pysquila/images/sshots/ScreenShot3.png

Не надо открещиваться от существующих анализаторов.
1) Можно использовать sams. Он хранит логи в мускуле. А к нему сделать нужный запрос не составит труда.
2) Не париться и использовать sarg.

fbiagent ★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.