LINUX.ORG.RU
ФорумAdmin

переполнение раздела логами


0

0

Что бы такое предпринять против сабжа?
Встала проблема, что при активном хождении почты довольно быстро распухют /var/log/mail.*. Ежедневная ротация с сжатием - лишь частичное решение.
А что делать, если лог чрезмерно вырос в период между ротациями?

Debian Wheezy с rsyslog

Ответ на: комментарий от Deleted

Не вариант. Детализация может требоваться для оперативной диагностики. А раздел неудобно увеличивать, поскольку исторически всё умещалось в 5 Гб.

Вероятно, стоит перевесить запуск logrotate на более частый интервал запуска в общесистемный crontab, и дописать нужным логам параметр size в конфиг...
Кто знает решение лучше? %-)

frozen_twilight ★★
() автор топика
Ответ на: комментарий от frozen_twilight

но ведь если ты будешь дёргать logrotate чаще, твои логи будут раньше недоступны для оперативной диагностики. Оптимальное решение тебе уже подсказали - увеличь размер диска куда логи сохраняешь. Если никак не увеличить, то только:

стоит перевесить запуск logrotate на более частый интервал запуска

ciiccii
()
Ответ на: комментарий от frozen_twilight

Ещё можно логи часто синхронизировать на другую машину и сразу после этого logrotate.

ciiccii
()

переключить логи на другую машину

anonymous2 ★★★★★
()
Ответ на: комментарий от frozen_twilight

>А раздел неудобно увеличивать, поскольку исторически всё умещалось в 5 Гб.

Кто мешает создать новый раздел и смонтировать в /var/log/ ? Даунтайма на 2 - 10 минут: остановить syslog, перенести данные, перемонтировать раздел, запустить syslog

Остальное, ИМХО, костыли
Например, у logrotate есть параметр minsize, с ним запускай logrotate хоть каждую минуту. Ещё неплохо сжимать старые логи (compress), и желательно в bz2


Не вариант. Детализация может требоваться для оперативной диагностики


Детализация нужна при отладке. А для диагностики вполне достаточно обычной, не DEBUG информации ;)

router ★★★★★
()
Ответ на: комментарий от true_admin

>Ты регулярно читаешь десятки мегабайтов логов да ещё и через почту? Сочувствую :).

Ты не слышал про grep? Сочувствую. Читай логи целиком дальше.

Moses
()
Ответ на: комментарий от Moses

Ты каждый день из почты ручками выгружаешь себе на свою локальную тачку логи чтобы потом грепать? А если ты на мобильном интернете? А я на удалённом сервер по ssh это делал, где есть как минимум 16гиг оперативки которые позволяют многогигабайтные дневные логи грепать за секунды :).

true_admin ★★★★★
()
Ответ на: комментарий от true_admin

>Ты каждый день из почты ручками выгружаешь себе на свою локальную тачку логи чтобы потом грепать? А если ты на мобильном интернете? А я на удалённом сервер по ssh это делал, где есть как минимум 16гиг оперативки которые позволяют многогигабайтные дневные логи грепать за секунды :).

Мозг включи. Причём тут твои 16гиг, мобильный интернет и rsync?

Moses
()
Ответ на: комментарий от true_admin

>при том что такие задачи лучше силами серверов решать а не гонять трафик туда-сюда и грузить почтовик.

Молодой человек! Сервера дохлые, а логи заботливо во внешке на почте, например, Яндекса :)

Moses
()
Ответ на: комментарий от Moses

Сервера дохлые, а логи заботливо во внешке на почте, например, Яндекса :)

Все понятно, но расскажи как это выглядит в жизни.
какой макс. размер атачмента разрешенный yandex'ом?
Как ты нарезаешь логи под этот размер? до gzip'а или после?

sdio ★★★★★
()
Ответ на: комментарий от sdio

[troll mode on]
Новый сервис Яндекс.Логи! Сдаёшь доступ к своему серверу и у тебя своя система чтения логов, с grep и web 2.0!
[troll mode off]

router ★★★★★
()

Странный подход. Тот же logrotate предоставляет достаточный инструментарий для сколь угодно тщательного ухода за логами. Если недостаточно его - собственные скрипты сделают что угодно, от архивации xz и переправке на стороннее хранилище, до обработки-на-лету и интеграции в какой-нибудь внешний мониторинг. Можно вообще извратиться - например, складывать логи на ФС со сжатием - ведь почтовые логи отлично жмутся... Короче говоря, это Linux - сделай как тебе самому будет удобно, или, если лень, воспользуйся чем-то удобным для других :)

original_hokum
()
Ответ на: комментарий от sdio

>какой макс. размер атачмента разрешенный yandex'ом?

ИМХО 30 мб, не проверял.

Как ты нарезаешь логи под этот размер? до gzip'а или после?

Зачем именно под этот размер? У меня самые наполняемые логи (сервер не почтовый) режутся до сжатия по 1 мб.

Moses
()
Ответ на: комментарий от Moses

А в случае почтового ежечасно сжимать и слать.

Moses
()

>с rsyslog

А такая вот строка в доке ничего не навевает?

$outchannel name,file-name,max-size,action-on-max-size

DonkeyHot ★★★★★
()

у меня вот как-то cupsd за ночь нагадил 50Гб логов...

najar
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.