LINUX.ORG.RU
решено ФорумAdmin

Ускорить работу bextract

 ,


0

1

bls показывает, что внутри тома файл размером 75Gb. bextract работает очень медленно (моя математика дает следующий прогноз скорости 1Gb/час), занимая при этом только одно ядро и 40% памяти. Какие нибудь есть варианты повлиять на скорость bextract или нужно менять подход к архивированию? К примеру не использовать сжатие или очень не существенно сжимать? Пару строчек черкните, для размышления, пожалуйста.

★★★★★

А ты используешь один том на одно задание или несколько заданий в том пишешь?

sin_a ★★★★★
()
Ответ на: комментарий от sin_a

Тогда только сжатие в голову приходит

Вот и мне к сожалению тоже.

и может быть только ещё фрагментация файловой системы

Я думаю маловероятно.

petav ★★★★★
() автор топика

bextract работает очень медленно

При запуске вручную? Если да, то bootstrap файл указывал? И почему бы не запускать восстановление из консоли?

router ★★★★★
()
Ответ на: комментарий от router

При запуске вручную?

bextract и запускается вручную

Если да, то bootstrap файл указывал?

Как это может ускорить процесс, в нем содержится справочная информация. Или я не прав?

И почему бы не запускать восстановление из консоли?

А надо именно автономно. Но ощущения складываются что из консоли, правда десяток других, мелких, гигабайтов разворачивает шустрее.

petav ★★★★★
() автор топика
Ответ на: комментарий от petav

Как это может ускорить процесс, в нем содержится справочная информация. Или я не прав?

В нём содержится информация где именно искать сессию бекапа в томе. Без этой информации bextract будет лопатить всю ленту ( файл, который эмулирует ленту ) последовательно. ЕМНИП.

router ★★★★★
()
Ответ на: комментарий от router

assuming the tape has many jobs

Не мой случай, да и bsr bacula держит только несколько последних.

petav ★★★★★
() автор топика
Ответ на: комментарий от sin_a

может он подскажет как её померить.

Фрагментацию файлов: xfs_db -r -c frag на XFS, через chkdsk (часто врёт) или fragck.pl на других файлах.

Фрагментацию свободного пространства и консолидацию соседних файлов — объективно никак не оценить. Субъективно можно с помощью Пара картинок о фрагментации ФС

KRoN73 ★★★★★
()
Ответ на: комментарий от KRoN73

Разве фрагментация, может снизить скорость до 1Gb/час. Кажется фрагментация тупиковая ветвь. Просто bextract так работает с процессором.

petav ★★★★★
() автор топика
Ответ на: комментарий от petav

В общем да, если при этом аналогичное задание через bconsole работает иначе (а даже если такое же не запускал, то можно легко проверить), то фрагментация здесь ни при чём.

sin_a ★★★★★
()
Ответ на: комментарий от petav

Разве фрагментация, может снизить скорость до 1Gb/час

Ну, я как истинный ЛОРовец тему не читал, ответил на конкретный вопрос :) При работе с монолитным файлом (если я правильно понял суть вопроса) скорость в пару сотен килобайт в секунду из-за одной фрагментации нереальна. Только если миллионы мелких файлов...

Но с архивами — х.з., что там может быть. Могу только вспомнить историю mc, когда встроенный zip работал в 700 раз медленнее внешнего.

KRoN73 ★★★★★
()
Ответ на: комментарий от sin_a

Это проверка уже намечена. Только не понятно почему с директора это должно быть быстрее.

petav ★★★★★
() автор топика
Ответ на: комментарий от petav

Нужно сначала получить факт, а потом о нём думать. Действительно кажется нет причин для этого, но проверить стоит.

sin_a ★★★★★
()
Ответ на: комментарий от sin_a

Нужно сначала получить факт, а потом о нём думать

Согласен

petav ★★★★★
() автор топика

нужно менять подход к архивированию?

Однозначно нужно менять - подход к архивированию должен быть таким, чтобы не было необходимости пользоваться bextract'ом для восстановления.

zgen ★★★★★
()
Ответ на: комментарий от router

Для восстановления самого bacula и для распаковки томов в случае отказа bacula

Что я и иммитирую

petav ★★★★★
() автор топика
Ответ на: комментарий от petav

Для чего bextract создан?

Для аварийных ситуаций.

zgen ★★★★★
()
Ответ на: комментарий от petav

Тогда зачем восстанавливать 75 Гб на скорости 1 Гб/час ? Проще сначала восстановить bacula, развернув bextract'ом из бекапа его каталог, а потом наслаждаться нормальной скоростью восстановления обычных бекапов

router ★★★★★
()
Ответ на: комментарий от router

Сделал тоже самое из bconsole, 17Gb за несколько минут, прервал, и так понятно. Бакула без директора не рабочий вариант. Делаю вывод.

petav ★★★★★
() автор топика
Ответ на: комментарий от router

Случаи разные бывают, но полагаться на то, что можно развернуть том в ручную совсем не стоит. Видимо по этой причине тома хранящие копии каталога у меня не сжимаются и развертываются за секунды.

petav ★★★★★
() автор топика
Ответ на: комментарий от petav

Бакула без директора не рабочий вариант. Делаю вывод.

Совершенно верно. Она таковой и не задумывалась, ибо аварийный случай, есть аварийный случай.

Можно сделать автоматическое автоматическое восстановление копии БД bacula (и всего остального) из backup'а по расписанию на любого подключенного клиента (bacula-fd) и горя не знать.

zgen ★★★★★
()
Ответ на: комментарий от zgen

Она таковой и не задумывалась, ибо аварийный случай, есть аварийный случай.

ИМХО конечно, но если bextract'у добавить шустрости, это лишним бы не стало, а было бы только плюсом. Говоря словами Каста из одноименной композиции - «Пусть пригодиться».

а по расписанию на любого подключенного клиента (bacula-fd) и горя не знать

Да это протестировал, работает. Причем утилизация процессора и памяти на sd и fd незначительная, а скорость потрясающая.

petav ★★★★★
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.