LINUX.ORG.RU
ФорумAdmin

нужно перенести разделы на другой сервер

 


0

2

Всем привет

сильно не пиннайте, занимаюсь переносом впервые (и с линукс не очень, только установки чего-либо, по мануалам)

вводные:

есть система с умирающими дисками, нужно все перенести на новый сервер.

с livecd загружен

как скинуть lvm разделы (в lsblk их вижу) на новую машину (или промежуточную) и там (на новой) развернуть?



Последнее исправление: itmgk (всего исправлений: 1)
  • Отойти от сервера, пока ничего не сломал необратимо
  • Нанять админа с подтвержденной компетенцией, RHCSA хватит
  • Предоставить все ему

А ты какой ответ ждал? Это все равно, что спрашивать «Я ранее только мелкие порезы йодом мазал и пластырем залеплял, расскажите, как аппендицит удалить».

Vsevolod-linuxoid ★★★★★
()
Ответ на: комментарий от firkax

Через dd клонировать умирающие диски и избавиться от LVM…

Во-первых, так можно убить, нужно ddrescue. dd же нарвется на бед-блок и будет иметь ЖД до полного отказа.

Кроме того, у нас взрослый сервер, а не твой домашний локалхост. Тут может быть связка raid через mdadm и LVM сверху. А ты с dd собрался, гений.

Во-вторых, LVM имеет массу плюсов в плане гибкой разметки, и в энтерпрайзе стандарт — серьёзно, я уже 3 года работаю в аутсорсе, он у всех виденных мною заказчиков с тысячами серверов обязателен — тебя отругают, если без него сделаешь, и на то есть причины. Уже разжевывал тебе все, но все равно учить других своему бреду лезешь: Хомяк на отдельном разделе. Какие подводные камни?

Vsevolod-linuxoid ★★★★★
()
Последнее исправление: Vsevolod-linuxoid (всего исправлений: 3)
Ответ на: комментарий от symon2014

есть машина

на ней 3 lvm раздела

└─sdb3 8:19 0 464.8G 0 part └─md126 9:126 0 464.8G 0 raid1 ├─vg0-swap_1 254:0 0 11.4G 0 lvm ├─vg0-root 254:1 0 9.5G 0 lvm └─vg0-home 254:2 0 443.8G 0 lvm

надо перенести их с минимальными телодвижениями, чтобы на другом сервере запустить существующую систему.

itmgk
() автор топика
Ответ на: комментарий от itmgk

У тебя тут помимо LVM еще и RAID программный имеется. Так что нужно и с этим разбираться, с учетом числа и конфигурации дисков на новой машине.

Vsevolod-linuxoid ★★★★★
()
Последнее исправление: Vsevolod-linuxoid (всего исправлений: 1)
Ответ на: комментарий от Vsevolod-linuxoid

А да, наверно лучше ddrescue.

dd же нарвется на бед-блок и будет иметь ЖД до полного отказа

Это миф. dd, если нарвётся на bad, вылетит с ошибкой, и его придётся вручную перезапускать с нужного места. Что, конечно, крайне неудобно, но не так фатально как было бы в твоём случае.

Кроме того, у нас взрослый сервер, а не твой домашний локалхост. Тут может быть связка raid через mdadm и LVM сверху. А ты с dd собрался, гений.

Все эти mdadm/lvm в итоге предоставляют блочное устройство, и нам пофиг как оно на нижних уровнях организовано - копировать надо именно его. А вот в zfs так не выйдет, там нет этой абстракции.

Во-вторых, LVM имеет массу плюсов в плане гибкой разметки

Уже кучу раз обсуждали вроде. Гибкая разметка нужна для:

1) новичков которые не уверены как им разбить диск

2) бомжей которые потом кроят погигабайтно между /usr /home и /var (когда на каком-то из них закончился последний байт) вместо того чтоб купить диск побольше вовремя

оба этих случая никакого отношения к «серьёзным серверам» (с) иметь не должны.

тебя отругают

Кто отругает?

firkax ★★★★★
()
Ответ на: комментарий от itmgk

в идеале, в файл сначала

tar со смонтированных ФС со всеми нужными опциями типа --xattrs и --acls. Если файловые системы ext* или XFS, то можно использовать их родные dump/xfsdump, для btrfs — btrfs send.

anonymous
()
Ответ на: комментарий от itmgk

Тогда мой вариант с ssh. Промежуточный файл делать незачем, можно конвеер чтения-записи прокинуть через ssh напрямую. После копирования на всякий случай сверить контрольную сумму sha1sum. Нужно чтобы размер разделов совпадал до байта.

firkax ★★★★★
()
Последнее исправление: firkax (всего исправлений: 1)
Ответ на: комментарий от firkax

Натравить dd на блочное устройство LV может стать проблемой, если по какой-то причине он молча зависнет на чтении блока.

Копировать же с dd диски из raid на рабочей системе — получить мусор, данные же неконсистентны будут, raid же не мгновенно синхронит.

Vsevolod-linuxoid ★★★★★
()
Ответ на: комментарий от Vsevolod-linuxoid

Копировать через dd рабочую систему это в любом случае неконсистетнный результат, потому что там софт файлы меняет в это время. Он же написал что загрузился с livecd.

Натравить dd на блочное устройство LV может стать проблемой, если по какой-то причине он молча зависнет на чтении блока.

С чего это он зависнет? Ошибку должен выдать если проблемы.

firkax ★★★★★
()
Ответ на: комментарий от Vsevolod-linuxoid

система с livecd загружена уже (те система не работает). Монтировать диски надо? lsblk их видит.

Какие дальше действия? или clonelilla все же?))

itmgk
() автор топика
Ответ на: комментарий от firkax

Это миф. dd, если нарвётся на bad, вылетит с ошибкой, и его придётся вручную перезапускать с нужного места. Что, конечно, крайне неудобно, но не так фатально как было бы в твоём случае.

Не миф, сталкивался.

Гибкая разметка нужна для:

  1. новичков которые не уверены как им разбить диск
  1. бомжей которые потом кроят погигабайтно между /usr /home и /var (когда на каком-то из них закончился последний байт) вместо того чтоб купить диск побольше вовремя

оба этих случая никакого отношения к «серьёзным серверам» (с) иметь не должны.

Только в твоем манямирке. Ты рассказываешь как должно быть человеку, что с этим работает!

Вот пример, причем у меня был далеко не один такой случай: сервер — виртуальная машина VMware, у него 1 диск, на сервере есть 1 раздел под /opt/programname — и много лет как всё отлично работает.

Но вот нагрузка возросла, и места стало не хватать. Но не беда, LVM же — прямо на ходу увеличиваем размер диска, потом PV, потом LV — и всё замечательно.

А будь у нас обычная разметка и этот раздел был перед каким-то другим — на ходу уже бы не вышло. Пришлось бы добавлять новый диск, создавать там отдельный раздел, копировать данные, перемонтировать… а если авария и нужно срочно и не гася ППО?

Vsevolod-linuxoid ★★★★★
()
Ответ на: комментарий от itmgk

А ты уверен, что это все диски? С LiveCD ты видишь физические, а что на счет презентованных с дискового массива по сети? Они будут видны только из ОС сервера, и если такие есть, нужно продумать, как их подключать на новом сервере.

Vsevolod-linuxoid ★★★★★
()
Ответ на: комментарий от itmgk

Ты планируешь с Clonezilla сбросить бекап на внешний диск, и потом восстановить на новом сервере, или как-то по сети?

Покажи выводы, при этом разметку не забудь — Как правильно копировать вывод терминала

fdisk -l
lsblk -f
cat /proc/mdstat
Vsevolod-linuxoid ★★★★★
()
Ответ на: комментарий от Vsevolod-linuxoid
1 root@rescuepub /dev # fdisk -l
Disk /dev/sda: 465.76 GiB, 500107862016 bytes, 976773168 sectors
Disk model: WDC WD5002ABYS-0
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x00043584

Device     Boot   Start       End   Sectors   Size Id Type
/dev/sda1          2048      4095      2048     1M 83 Linux
/dev/sda2          4096   2004991   2000896   977M fd Linux raid autodetect
/dev/sda3       2004992 976771071 974766080 464.8G fd Linux raid autodetect


Disk /dev/sdb: 465.76 GiB, 500107862016 bytes, 976773168 sectors
Disk model: WDC WD5002ABYS-0
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x000460e1

Device     Boot   Start       End   Sectors   Size Id Type
/dev/sdb1          2048      4095      2048     1M 83 Linux
/dev/sdb2          4096   2004991   2000896   977M fd Linux raid autodetect
/dev/sdb3       2004992 976771071 974766080 464.8G fd Linux raid autodetect


Disk /dev/loop0: 434.82 MiB, 455938048 bytes, 890504 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/md127: 976.99 MiB, 1024446464 bytes, 2000872 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/md126: 464.8 GiB, 499079045120 bytes, 974763760 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/mapper/vg0-swap_1: 11.44 GiB, 12285116416 bytes, 23994368 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/mapper/vg0-root: 9.54 GiB, 10238296064 bytes, 19996672 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/mapper/vg0-home: 443.82 GiB, 476552626176 bytes, 930766848 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
root@rescuepub /dev # lsblk -f
NAME             FSTYPE            FSVER    LABEL    UUID                                   FSAVAIL FSUSE% MOUNTPOINTS
loop0            squashfs          4.0                                                            0   100% /run/archiso/airootfs
sda
├─sda1
├─sda2           linux_raid_member 1.2      cs9481:0 08029b79-063f-6567-8d4c-65f372cc781f
│ └─md127        ext3              1.0               917b9b98-cfb8-4909-92e1-b6682423c299
└─sda3           linux_raid_member 1.2      cs9481:1 bbe7e174-902b-3a7c-711b-f3862d40b36e
sdb
├─sdb1
├─sdb2           linux_raid_member 1.2      cs9481:0 08029b79-063f-6567-8d4c-65f372cc781f
│ └─md127        ext3              1.0               917b9b98-cfb8-4909-92e1-b6682423c299
└─sdb3           linux_raid_member 1.2      cs9481:1 bbe7e174-902b-3a7c-711b-f3862d40b36e
  └─md126        LVM2_member       LVM2 001          5PgouW-BDzB-5qOP-VI5K-1Yhe-mX39-5c6drL
    ├─vg0-swap_1 swap              1                 e1599c25-ead5-4dd0-9eaa-b565315b0f24
    ├─vg0-root   ext3              1.0               4e744e1d-aa23-4a9d-b201-25fb097b8cdc
    └─vg0-home   ext3              1.0               7bb8de5f-b443-470a-9826-bacbbe65b819
root@rescuepub /dev #
root@rescuepub /dev # cat /proc/mdstat
Personalities : [raid1]
md126 : active (auto-read-only) raid1 sdb3[1]
      487381880 blocks super 1.2 [2/1] [_U]

md127 : active (auto-read-only) raid1 sda2[0] sdb2[1]
      1000436 blocks super 1.2 [2/2] [UU]

unused devices: <none>
root@rescuepub /dev #
itmgk
() автор топика
Ответ на: комментарий от itmgk

ext3 — ну и старье… что там у тебя мигрирует, RHEL 5 что ли?

И меня несколько смущают sda1 и sda2 по мегабайту… у меня подозрение, что уж не знаю зачем, но вместо MBR тут стоит загрузчик в PBR, да ещё и на отдельных разделах…

В этом случае ещё головная боль — сможет ли Clonezilla такое понять и воссоздать на новом сервере и сможет ли BIOS нового сервера с таким работать?

Vsevolod-linuxoid ★★★★★
()
Ответ на: комментарий от Vsevolod-linuxoid
root@rescuepub /dev # mdadm --detail /dev/md126
/dev/md126:
           Version : 1.2
     Creation Time : Tue Dec 11 08:51:49 2012
        Raid Level : raid1
        Array Size : 487381880 (464.80 GiB 499.08 GB)
     Used Dev Size : 487381880 (464.80 GiB 499.08 GB)
      Raid Devices : 2
     Total Devices : 1
       Persistence : Superblock is persistent

       Update Time : Sun Dec  3 00:42:56 2023
             State : clean, degraded
    Active Devices : 1
   Working Devices : 1
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : cs9481:1
              UUID : bbe7e174:902b3a7c:711bf386:2d40b36e
            Events : 114046537

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1       8       19        1      active sync   /dev/sdb3
root@rescuepub /dev # mdadm --detail /dev/md127
/dev/md127:
           Version : 1.2
     Creation Time : Tue Dec 11 08:51:49 2012
        Raid Level : raid1
        Array Size : 1000436 (976.99 MiB 1024.45 MB)
     Used Dev Size : 1000436 (976.99 MiB 1024.45 MB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Sun Dec  3 00:42:55 2023
             State : clean
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : cs9481:0
              UUID : 08029b79:063f6567:8d4c65f3:72cc781f
            Events : 1096

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync   /dev/sda2
       1       8       18        1      active sync   /dev/sdb2
root@rescuepub /dev #
itmgk
() автор топика
Ответ на: комментарий от itmgk

Угу, вот это меня и смущает, у нас умирающие диски и неконсистентный рейд. Это обычно ничего хорошего не значит, даже непонятно, а на /dev/sdb3, что заработала, данные-то уцелели или побились…

Vsevolod-linuxoid ★★★★★
()
Ответ на: комментарий от Vsevolod-linuxoid

на самом деле, этот полутруп - dev машина

есть еще боевой сервер с 2 raid1 * 2 диска, на котором все 4 диска умирают… файлы и базу сайта перенес оттуда уже, сейчас главная задача - развернуть на впс окружение с dev, перенести файлы и базу с боевого на него, перенаправить траф с сайта на впс

и в итоге сделать тоже самое с боевым сервером (перенести на новый железный сервер уже)

itmgk
() автор топика
Ответ на: комментарий от futurama

Тред не читай, сразу отвечай.

У него Debian 10 на ext3, из RAID1 уже вылетел раздел, возможно из-за ошибок, и при этом загрузчик поставлен не в MBR, а вроде в PBR.

Vsevolod-linuxoid ★★★★★
()
Последнее исправление: Vsevolod-linuxoid (всего исправлений: 1)
Ответ на: комментарий от itmgk

Мда…

Короче, что /dev/sda3 не входит в /dev/md126 — тому я вижу две возможные причины:

  • Он вылетел ещё на ОС хоста до того, как ты загрузился с LiveCD
  • ОС хоста не закончила синхронизировать меж собой /dev/sda3 и /dev/sdb3, а отложила на потом, а ты тут её выключил и загрузился с LiveCD

В последнем случае сейчас клонировать /dev/md126 нет смысла — ты получишь заведомо кривую копию.

Vsevolod-linuxoid ★★★★★
()
Ответ на: комментарий от itmgk

Я не уверен, что это не приведет к негативным последствиям, но можно попробовать настройки на ОС хоста глянуть…

mount -o ro /dev/mapper/vg0-root /mnt
cat /mnt/etc/fstab
cat /mnt/etc/mdadm/mdadm.conf
Vsevolod-linuxoid ★★★★★
()
Последнее исправление: Vsevolod-linuxoid (всего исправлений: 1)