LINUX.ORG.RU

Сообщения fynjy93

 

Bacula настройка Incremental

Здравствуйте. Настраиваю bacula. Объем данных несколько десятков терабайт. Цель - сделать полный бэкап и пополнять его инкрементально и хранить их 7 дней. Настроил клиенту и пулу хранение в течении 7 дней. Проблема в том, что по истечении 7 дней был удален полный бэкап. Заново программа его не делает автоматически, хотя файлов нет. Да и не нужно чтобы он удалялся - такой объем копировал очень долго, не вариант. Текущая задача:

Job {
  Name = "prod-crm"
  Type = "Backup"
  Level = "Incremental"
  Messages = "Standard"
  Storage = "bacula-storage"
  Pool = "File"
  Client = "prod-fd"
  Fileset = "prod-crm"
  Schedule = "prod-crm-23:00"
  JobDefs = "DefaultJob"
  PruneJobs = yes
  PruneFiles = yes
  PruneVolumes = yes

}

Как можно настроить задачу так, чтобы полный бэкап оставался всегда и на нем создавались инкрементальные копии со сроком жизни в 7 дней?

 

fynjy93
()

Debian 10 dhclient добавляет дополнительный адрес

Debian 10 без графики, установил в /etc/network/interfaces статический адрес. Мой конфиг:

iface ens18 inet static
address 192.168.18.41
netmask 255.255.224.0
gateway 192.168.18.18
dns-nameservers 192.168.18.15 192.168.18.6
auto ens18

ip a

ens18: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc fq_codel state UP group default qlen 1000
    link/ether 7a:c8:93:e0:aa:b5 brd ff:ff:ff:ff:ff:ff
    inet 192.168.18.41/19 brd 192.168.31.255 scope global ens18
       valid_lft forever preferred_lft forever
    inet 192.168.15.165/19 brd 192.168.31.255 scope global secondary dynamic ens18
       valid_lft 75013sec preferred_lft 75013sec
    inet6 fe80::78c8:93ff:fee0:aab5/64 scope link 
       valid_lft forever preferred_lft forever

Как видите получается два адреса на одном интерфейсе - мой статический и получаемый secondary динамический. Первый раз столкнулся с подобным, как можно отключить dhclient, если прописан статический адрес?

 ,

fynjy93
()

HA-cluster Ubuntu - проблема с crm

Имеется тестовый стенд из 2 ПК. ОС Ubuntu 16.04.2. На каждом 2 интерфейса: один внешний (192.168.4.1\19 и 192.168.4.2\19), один для связи с другим сервером(10.10.10.1\24 и 10.10.10.2\24). Мной было настроена комбинация heartbeat+drbd+nfs-server. Данные синхронизируются по drbd, nfs работает, heartbeat подымает службы. Но застрял на настройке stonith. Подскажите, кто уже настраивал, что сделано не так? Мои конфиги:

/etc/ha.d/ha.cf

bcast enp1s0
node test1 test2
keepalive 2
warntime 2
deadtime 15
auto_failback on
stonith_host hostname="test1" external/ipmi ipaddr=10.10.10.1" userid="root" passwd="***"  op monitor interval=60m timeout=120s
stonith_host hostname="test2" external/ipmi ipaddr=10.10.10.2" userid="root" passwd="***"  op monitor interval=60m timeout=120s
/etc/drbd.conf
resource r0 {
   # device /dev/drbd0;
   #disk   /share;
   meta-disk internal;
        startup {
                wfc-timeout  15;
              #  degr-wfc-timeout 60;
        }
        disk {
#       on-io-error   detach;
        }
        net {
                protocol C;
                cram-hmac-alg sha1;
                 allow-two-primaries;
                shared-secret "secret";
        }
        on test1 {
                device /dev/drbd0;
               disk /dev/sda2;
                address 10.10.10.1:7788;
        }
        on test2 {
                device /dev/drbd0;
                disk /dev/sda2;
                address 10.10.10.2:7788;
        }
}
конфиг crm
node test1
node test2
primitive failover-ip IPaddr \
        params ip=192.168.4.3 \
        op monitor interval=10s
primitive share nfsserver \
        params
property cib-bootstrap-options: \
        have-watchdog=false \
        dc-version=1.1.14-70404b0 \
        cluster-infrastructure=heartbeat \
        cluster-name=ubuntu \
        stonith-enabled=false \
        stonith-action=poweroff \
        no-quorum-policy=ignore \
        symmetric-cluster=true \
        default-resource-stickiness=INFINITY
rsc_defaults rsc-options: \
        resource-stickiness=100 \
        migration-threshold=3
crm status
Stack: heartbeat
Current DC: NONE
2 nodes and 2 resources configured

Online: [ test1 ]
OFFLINE: [ test2 ]

Full list of resources:


 share  (ocf::heartbeat:nfsserver):     Started test1
 failover-ip    (ocf::heartbeat:IPaddr):        Started test1

Failed Actions:
    last-rc-change='Thu Apr 13 11:06:51 2017', queued=0ms, exec=192ms

 , ,

fynjy93
()

CentOS 4.9 и сеть

Здравствуйте! Имеется CentOS 4.9, которая не видит сеть. После гугления наткнулся на то, что в /etc/udev/rules.d/ должен быть файл 70-presistent-net.rules с настройками сетевых интерфейсов. Создал файл и заполнил.

SUBSYSTEM=="net", ACTION=="add", DRIVERS=="rtl8139", ATTR{address}=="МАК АДРЕС", ATTR{type}=="1", KERNEL=="venet*", NAME="venet0"
Сохранил, перезагрузил. Интерфейс venet0 появился в выводе ifconfig -a, да же пингую компы в сети. Но пропал интерфейс lo. Следовательно я с компьютера пинговать могу узлы сети, а вот другие компьютеры его не видят. Если попытаться сделать
 ifconfig lo up 
или
 service network restart 
, то получаю вывод:
Failed to bring up lo.
Error for wireless request "set encode" (8B2A): set failde on device lo: No such device.
Error for wireless reqest "Set ESSID" (8B1A): set failed on levice lo; No such device.
SIOCGIFFLAGS: no such device
Что с этим можно сделать? Wi-fi модуля нет.

 , ,

fynjy93
()

CentOS 4.9 и шаманство с виртуализацией

Всем привет! Столкнулся с интересной проблемой.

Есть два сервера виртуализации. Кое-как работающий Xen Server (с форматом дисков .xva) и новенький Proxmox.

На Xen Server есть виртуалка - CentOS 4.9, которую нужно перенести на Proxmox. Однако в результате переноса отсутствуют разделы диска. Диск как устройство из live cd видно (но разделов всё равно нет).

Конвертировал в proxmox до этого ubunu server и проблем не возникло, команда

 qemu-img convert -O raw xen-image.xva proxmox-image.raw
работала отлично.

Может кто сталкивался с похожей проблемой? Заранее спасибо!

 , , , ,

fynjy93
()

Установка драйвера Nvidia - не возможно открыть файл

Здраствуйте! Имеется проблема, мытаюсь поставить на debian поставить драйвер от Nvidia. Последовательность ( основываясь на https://wiki.debian.org/ru/NvidiaProprietary ): 1) Поставил пакет aptitude install linux-headers-`uname -r` binutils pkg-config build-essential xserver-xorg-dev 2) выхожу в консоль через ctrl+alt+f1 3) ввожу killall gdm3 4) перехожу в папку с драйвером cd /home 5) пытаюсь запустить - sh ./NVIDIA-Linux-x86-331.79.run На данном этапе пишет, что не может открыть файл. Что делать? Гугл не помог. Спасибо за ранее за помощь новичку в ОС.

 , ,

fynjy93
()

RSS подписка на новые темы