LINUX.ORG.RU

Избранные сообщения Garik368

Нужна помощь по контейнеру qBittorrent под Docker + Portainer внутри Proxmox LXC-контейнера

Форум — General

Всем хорошего настроения!)

Хочу запусть qBittorrent в виде контейнера на Docker, имеяя при этом хост с Proxmox 7. 90% прошёл, но есть проблема( Описание проблемы в самом низу, для начала опишу свой путь.

Поставил Docker внутри непривилегированного LXC-контейнера на хосте с Proxmox. Шаблон для контейнера - ubuntu 22.04

Привожу на всякий случай конфигурацию этого LXC-контейнера

arch: amd64
cores: 2
features: fuse=1,keyctl=1,mknod=1,nesting=1
hostname: qBitTorrent
memory: 2048
mp0: mpool:subvol-103-disk-1,mp=/mpool,backup=1,size=50G
nameserver: 1.1.1.1 1.0.0.1
net0: name=eth0,bridge=vmbr0,firewall=1,gw=192.168.1.1,hwaddr=92:DB:70:AE:F5:D9,ip=192.168.1.221/24,type=veth
ostype: ubuntu
rootfs: local-zfs:basevol-102-disk-0/subvol-103-disk-0,size=8G
swap: 512
unprivileged: 1

Внутри контейнера добавил Fuse-overlay. Информация об утановленном Docker:

root@qBitTorrent:/# docker info  
Client:
 Context:    default
 Debug Mode: false
 Plugins:
  app: Docker App (Docker Inc., v0.9.1-beta3)
  buildx: Docker Buildx (Docker Inc., v0.9.1-docker)
  scan: Docker Scan (Docker Inc., v0.17.0)

Server:
 Containers: 2
  Running: 2
  Paused: 0
  Stopped: 0
 Images: 2
 Server Version: 20.10.18
 Storage Driver: fuse-overlayfs
 Logging Driver: json-file
 Cgroup Driver: systemd
 Cgroup Version: 2
 Plugins:
  Volume: local
  Network: bridge host ipvlan macvlan null overlay
  Log: awslogs fluentd gcplogs gelf journald json-file local logentries splunk syslog
 Swarm: inactive
 Runtimes: io.containerd.runc.v2 io.containerd.runtime.v1.linux runc
 Default Runtime: runc
 Init Binary: docker-init
 containerd version: 9cd3357b7fd7218e4aec3eae239db1f68a5a6ec6
 runc version: v1.1.4-0-g5fd4c4d
 init version: de40ad0
 Security Options:
  apparmor
  seccomp
   Profile: default
  cgroupns
 Kernel Version: 5.15.53-1-pve
 Operating System: Ubuntu 22.04.1 LTS
 OSType: linux
 Architecture: x86_64
 CPUs: 2
 Total Memory: 2GiB
 Name: qBitTorrent
 ID: V6U6:PFWF:ZO6Q:ETXX:6J3Z:QWYF:QEJM:JOM3:LJG6:EKF2:KZ4O:MK3D
 Docker Root Dir: /var/lib/docker
 Debug Mode: false
 Registry: https://index.docker.io/v1/
 Labels:
 Experimental: false
 Insecure Registries:
  127.0.0.0/8
 Live Restore Enabled: false

Далее внутри это LXC-контейнера установил контейнер с Рortainer. Затем через Stack в Рortainer установил контейнер с qBitTorrent со следующей конфигурацией:

version: "2"
services:
  qbittorrent:
    image: linuxserver/qbittorrent:latest
    container_name: qbittorrent
    environment:
      - PUID=0
      - PGID=0
      - TZ=Europe/Amsterdam
      - WEBUI_PORT=8080
    volumes:
      - /portainer/qbittorrent:/config
      - /mpool/downloads:/media
    ports:
      - 8080:8080
      - 6881:6881
      - 6881:6881/udp
    restart: unless-stopped
    network_mode: "bridge"

ИТАК, в чём проблема?

qBittorrent запускается, работает, но скачивает файлы не в ту папку, которую я ему указал в конфигурации /mpool/downloads, а внутрь системного диска(((

А именно - в папку /var/lib/docker/fuse-overlayfs/3c093fbd88990f06f6de228e0228ddd2d384d3ac8967ceb608d433801f1e09b6/diff/downloads/

Хранилище в этом LXC-контейнере устроено следующим образом

  1. основное хранилище (для ОС) - 8Гб

(rootfs: local-zfs:basevol-102-disk-0/subvol-103-disk-0,size=8G)

  1. у дополнительно к нему через Mount point подмонтируется в виде папки /mpool volume group с хоста mpool (физически это отдельный HDD)

mp0: mpool:subvol-103-disk-1,mp=/mpool,backup=1,size=50G

На него и должны скачиваться файлы в дирректорию /mpool/downloads.

Соответсвенно, при загрузке через торрент большого файла (более 7Гб) место на системном диске внутри LXC-контенера заканчивается и всё ломается.

Как это победить?

P.S. Журнал qBittorrent - вроде ошибок нет (qBittorrent временно запускается под root, чтобы исключить ошибки связанные с правами доступа):

-------------------------------------
GID/UID
-------------------------------------
User uid:    0
User gid:    0
-------------------------------------
[custom-init] No custom files found, skipping...
******** Information ********
To control qBittorrent, access the WebUI at: http://localhost:8080
[ls.io-init] done.

 , , ,

Garik368
()

как правильно настроить раздачу по NFS c LVM-радела

Форум — Admin

Всем привет!

Помогите расшарить LVM-раздел по NFS (на сервере ОС Debian+Proxmox). Я раньше этого не делал, поэтому хочу уточнить пару вопросов, может быть есть какие-то «подводные камни» или неочевидные для меня нюансы.

У меня есть группа LVM-томов vg1 и в ней том lv1. Нужно расшарить этот том vg1/lm1 для полного доступа по сети через nfs.

  1. Нужно ли монитировать том vg1/lm1 на сервере (указать его в /etc/fstab)?

  2. в /etc/exports нужно указывать этот том как /dev/vg1/lm1 или /dev/mapper/vg1-lv1 ?

  3. нужно ли где-то в настройках lvm-тома указать дополнительные опции, связанные с его работой через nfs?

Например, когда я расшаривал для этого ZFS-пул, я указывал в настройках пула опцию zfs set sharenfs=on.

Есть что-то подобное для lvm-тома?

 , ,

Garik368
()

Как правильно создать LVM-том?

Форум — Admin

Всем добрый день!

На сервере с Proxmox хочу создать LVM-пул из нескольких физических дисков для использования его в качестве хранилища данных в виде файлов.

Читаю документацию в Proxmox про использование LVM:

Let’s assume we have an empty disk /dev/sdb, onto which we want to create a volume group named “vmdata”.

  1. First create a partition.
# sgdisk -N 1 /dev/sdb
  1. Create a Physical Volume (PV) without confirmation and 250K metadatasize.
# pvcreate --metadatasize 250k -y -ff /dev/sdb1
  1. Create a volume group named “vmdata” on /dev/sdb1
# vgcreate vmdata /dev/sdb1

Возникают вопросы:

  1. нужно ли предварительное применение команды sgdisk? В других мануалах обходятся без неё, сразу выполняют команду pvcreate.

  2. почему размер metadatasize 250k? Допустим я хочу постепенно добавлять новые диски в пул, в перспективе доведя его емкость до 50Гб? Как мне вычислить необходимый размер metadatasize?

  3. что у pvcreate за опция такая -ff? Не нашёл её в описании pvcreate. Есть просто -f

  4. pvcreate лучше делать над партицией (как в приведённом выше примере pvcreate /dev/sdb1) или над всем диском (pvcreate /dev/sdb)?

  5. соответсвенно и группу томов можно создавать на базе партиции (vgcreate vmdata /dev/sdb1) или на базе всего диска (vgcreate vmdata /dev/sdb). Как правильно/лучше?

Перемещено hobbit из general

 ,

Garik368
()

FFMPEG блокирует работу сайта

Форум — Web-development

Всем добра!

У нас нас сайте фотостока работает готовый скрипт (на php). Сам сайт работает на apache+ngnix, панель управления fastpanel, Сервер сайта - виртуальная машина Proxmox, 8 ядер, 6ГБ ОЗУ.

При загрузке новых видеоматериалов на сайт скрипт генерирует превью этих материалов, используя вызов ffmpeg (через exec()).

При этом, пока ffmpeg работает - сайт висит наглухо. Утилизация процессора ВМ доходит в этот момент до 100%. Это очень неприятно, особенно когда выполняется пакетная обработка входящих материалов.

У ffmpeg есть опция -threads, в которой вроде можно указать кол-во ядер, которое он будет использовать.

Пробовал -threads 6, -threads 4 Да, утилизация CPU снижается (до 50-80%), но сайт всё равно висит, пока вся пакетная обработка видеоматериалов не закончится.

Что ещё можно сделать, чтобы сайт не вис?

 , , ,

Garik368
()

Сетевое устройство entered promiscuous mode, blocking state, disabled state в PVE после перехода на ZFS

Форум — General

Всем привет!

У меня на сервере был установлен Proxmox на одном системном NVMe M.2 диске в режиме LVM. Всё работало нормально.

Потом я добавил в сервер ещё один аналогичный NVMe M.2 диск и переинсталировал Proxmox , при этом настройки диска поставил в режим ZFS RAID1. Все остальные настройки - по умолчанию, кроме статического адреса сетевой карты хоста (адрес, маска, шлюз, днс-сервер).

PVE работает, но теперь на дисплее хоста выводятся сообщения:

Feb  7 08:27:52 pve kernel: [   11.557802] device tap100i0 entered promiscuous mode
Feb  7 08:27:52 pve kernel: [   11.587512] fwbr100i0: port 1(fwln100i0) entered blocking state
Feb  7 08:27:52 pve kernel: [   11.587553] fwbr100i0: port 1(fwln100i0) entered disabled state
Feb  7 08:27:52 pve kernel: [   11.587631] device fwln100i0 entered promiscuous mode
Feb  7 08:27:52 pve kernel: [   11.587706] fwbr100i0: port 1(fwln100i0) entered blocking state
Feb  7 08:27:52 pve kernel: [   11.587736] fwbr100i0: port 1(fwln100i0) entered forwarding state
Feb  7 08:27:52 pve kernel: [   11.590860] vmbr0: port 2(fwpr100p0) entered blocking state
Feb  7 08:27:52 pve kernel: [   11.590891] vmbr0: port 2(fwpr100p0) entered disabled state
Feb  7 08:27:52 pve kernel: [   11.590961] device fwpr100p0 entered promiscuous mode
Feb  7 08:27:52 pve kernel: [   11.591030] vmbr0: port 2(fwpr100p0) entered blocking state
Feb  7 08:27:52 pve kernel: [   11.591058] vmbr0: port 2(fwpr100p0) entered forwarding state
Feb  7 08:27:52 pve kernel: [   11.594126] fwbr100i0: port 2(tap100i0) entered blocking state
Feb  7 08:27:52 pve kernel: [   11.594159] fwbr100i0: port 2(tap100i0) entered disabled state
Feb  7 08:27:52 pve kernel: [   11.594241] fwbr100i0: port 2(tap100i0) entered blocking state
Feb  7 08:27:52 pve kernel: [   11.594288] fwbr100i0: port 2(tap100i0) entered forwarding state

Из-за чего это может быть? И как это исправить?

Информация о сетевых интерфейсах в хосте:

root@pve:~# ethtool
ethtool: bad command line argument(s)
For more information run ethtool -h
root@pve:~# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
2: enp5s0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master vmbr0 state UP group default qlen 1000
    link/ether 00:e0:4c:a5:02:e7 brd ff:ff:ff:ff:ff:ff
3: vmbr0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 00:e0:4c:a5:02:e7 brd ff:ff:ff:ff:ff:ff
    inet 192.168.1.201/24 scope global vmbr0
       valid_lft forever preferred_lft forever
    inet6 fe80::2e0:4cff:fea5:2e7/64 scope link
       valid_lft forever preferred_lft forever
4: tap100i0: <BROADCAST,MULTICAST,PROMISC,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master fwbr100i0 state UNKNOWN group default qlen 1000
    link/ether 3e:5b:9b:c9:06:a2 brd ff:ff:ff:ff:ff:ff
5: fwbr100i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 0a:ed:61:c8:56:34 brd ff:ff:ff:ff:ff:ff
6: fwpr100p0@fwln100i0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
    link/ether 16:69:a8:cc:ad:ea brd ff:ff:ff:ff:ff:ff
7: fwln100i0@fwpr100p0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master fwbr100i0 state UP group default qlen 1000
    link/ether 72:ae:3f:a3:a4:26 brd ff:ff:ff:ff:ff:ff
root@pve:~# ethtool enp5s0
Settings for enp5s0:
        Supported ports: [ TP    MII ]
        Supported link modes:   10baseT/Half 10baseT/Full
                                100baseT/Half 100baseT/Full
                                1000baseT/Half 1000baseT/Full
        Supported pause frame use: Symmetric Receive-only
        Supports auto-negotiation: Yes
        Supported FEC modes: Not reported
        Advertised link modes:  10baseT/Half 10baseT/Full
                                100baseT/Half 100baseT/Full
                                1000baseT/Half 1000baseT/Full
        Advertised pause frame use: Symmetric Receive-only
        Advertised auto-negotiation: Yes
        Advertised FEC modes: Not reported
        Link partner advertised link modes:  10baseT/Half 10baseT/Full
                                             100baseT/Half 100baseT/Full
                                             1000baseT/Full
        Link partner advertised pause frame use: No
        Link partner advertised auto-negotiation: Yes
        Link partner advertised FEC modes: Not reported
        Speed: 1000Mb/s
        Duplex: Full
        Auto-negotiation: on
        master-slave cfg: preferred slave
        master-slave status: slave
        Port: Twisted Pair
        PHYAD: 0
        Transceiver: external
        MDI-X: Unknown
        Supports Wake-on: pumbg
        Wake-on: d
        Link detected: yes

 , , ,

Garik368
()

Слетел загрузчик Proxmox хоста (((

Форум — General

Всем, доброго дня!

В результате эксперементов с БИОС компьютера, на котором был установлен Proxmox VE 7.1-2, слетел загрузчик(((

Система не загружаетеся, пишет что-то вроде «Insert boot media…».

PVE был установлен на NVMe диске 256Гб стандартным образом (настройки диска по умолчанию, без ZFS). Кроме загрузочного разделал были ещё local и local-lvm на LVM.

Загрузился с флешки с Debian LiveCD.

По команде fdisk -l - этот диск (dev/nvme0n1) виден, но без меток.

Запускаю vgscan - не выдаёт ничего.

Что делать? Как восстановить загрузку PVE?

 , , , ,

Garik368
()

Вылазит ошибка при backup хоста Proxmox VE через UrBackup

Форум — General

Хочу наладить резервное копирование сервера Proxmox (backup самого хоста).

Сделал, всё как здесь написано https://dannyda.com/2020/05/28/how-to-backup-proxmox-ve-host/

Название моего хоста pve.

В настройках клиента pve на сервере UrBackup в разделе File backups указал:

Excluded files (with wildcards): /rpool/*;/mnt/proxmox-pve/*;/tmp/*;/var/lib/lxcfs/*;
Default directories to backup: /

При попытке сделать первый Full file backup в логе сервера UrBackup вижу следующую ошибку

Error while listing files in folder "/var/lib/lxcfs". User may not have permissions to access this folder. Errno is 0

Indexing files failed, because of error

Constructing of filelist of "pve" failed: error - index error

Backup had an early error. Deleting partial backup.

Backup не создаётся.

В какую сторону копать?

 , ,

Garik368
()

Оптимальный объём RAM для использования ZFS в Proxmox

Форум — General

Всех приветствую!

Подскажите - как рассчитать минимальный и оптимальный объём памяти, который надо иметь на сервере для использования ZFS? (в зависимости от объёма диска/хранилища и конфигурации).

Например, хочу сделать зеркало из 2х hdd 3Тб (5400 rpm) на базе zfs - сколько памяти надо иметь на сервере (в смысле - только для обслуживания zfs, не считая остальных потребителей памяти)? чтобы не было «тормозов»)

 , , ,

Garik368
()

ProxMox VE установить новый диск и загнать в RAID1

Форум — General

Всем добра! Прошу прощения за тему, не могу разобраться, прошу совета, желательно немного подробнее…

У меня есть немного старая система ProxMox 5.4-13 на одном диске на моем сервере, мне нужно добавить этот диск ProxMox в RAID1, как я могу это сделать?

Я нашел эту статью как перевести систему на RAID1: https://help.ubuntu.ru/wiki/migrate-to-raid, но я думаю, что это немного не подходит для моей задачи? 8-( Кто-нибудь может дать мне совет, если можно с минимальными примерами, как я могу добавить новый диск (мой диск с ProxMox 300 ГБ, я буду добавлять новый диск другого размера конечно 8-)) и создать RAID1 с помощью простого клонирования моей системы ProxMox?

p.s. Я не могу создать RAID1 ресурсами серверной платы, либо иными способами и заново установить ProxMox 8-( все надо сделать максимально быстро и четко…

p.p.s. Я попробовал после создания md0, использовать dd: dd if=/dev/sda of=/dev/md0, но после этого я получил ошибку - несоответствие размера, и мой массив рассыпался…

Что можно сделать, кто что посоветует, заранее ВСЕМ спасибо!

p.p.p.s Видел, читал, искал: PROXMOX 3.4 SOFT RAID1 и https://habr.com/ru/post/218757/ немного не мои случаи… у меня готовая система, мне надо подкинуть диск и загнать в RAID1.

 ,

alexpebody
()

Не пойму в чём дело: -bash: /usr/bin/youtube-dl: No such file or directory

Форум — General

Всем доброго времени! Помогите разобраться - ситуация следующая: на Ubuntu server 20.04 установил программу youtube-dl командой

:~$ sudo pip3 install youtube-dl
Collecting youtube-dl
  Using cached youtube_dl-2021.12.17-py2.py3-none-any.whl (1.9 MB)
Installing collected packages: youtube-dl
Successfully installed youtube-dl-2021.12.17

Для проверки запускаю youtube-dl –version, но получаю ошибку:

:~$ youtube-dl --version
-bash: /usr/bin/youtube-dl: No such file or directory

При этом программа запускается при указании пути к бинарнику:

:~$ /usr/local/bin/youtube-dl --version
2021.12.17

Подумал, что путь /usr/local/bin не находится в PATH - проверил: /usr/local/bin есть в PATH:

:~$ echo $PATH
/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin

Что я не учёл? Как сделать, чтобы youtube-dl запускалась без указания пути к ней?

 , ,

Garik368
()

Размер раздела метадата для LVM-thin

Форум — General

Добрый день!

Присоединил к серверу Proxmox новый диск 3Тб и сделал из него LVM-thin (на весь диск). Всё делал средствами GUI (через веб-интерфейс).

Довольно долго шла его подготовка… После её окончания, посмотрел, как этот диск теперь выглядит в системе:

root@pve:~# lsblk
NAME                         MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda                            8:0    0   2.7T  0 disk 
├─vmdata-vmdata_tmeta        253:8    0  15.8G  0 lvm  
│ └─vmdata-vmdata            253:10   0   2.7T  0 lvm  
└─vmdata-vmdata_tdata        253:9    0   2.7T  0 lvm  
  └─vmdata-vmdata            253:10   0   2.7T  0 lvm  
....

Мне кажется странным, что под метеданные забрали целых 16 Гб. Или это нормально?

Ещё вопрос - система выдала такое предупреждение: Thin pool volume with chunk size 64.00 KiB can address at most 15.81 TiB of data. WARNING: Maximum supported pool metadata size is 15.81 GiB."

Правильно ли я понимаю, что в будущем смогу расширить этот LVM-thin pool максимум до 15 Тб, т.е. добавить в него ещё 4 таких же диска?

А если мне надо будет сделать хранилище больше? Что тогда делать?

 ,

Garik368
()

Вопросы по использованию ZFS в Proxmox

Форум — General

Всем привет!

Я запустил сервер с Proxmox. Системный диск на NVE диске.

Для моего проекта нужно достаточно большое хранилище (в перспективе 15-30 Тб). Но пока денег хватило купить только 1 диск на 3 Тб.

Хотелось бы организовать хранилище таким образом, чтобы можно было бы безболезненно его расширять и менять его конфигурацию (уровень RAID).

Например, сейчас есть 1 диск 3 Тб - делаю размер хранилища 3 Тб, без избыточности и запускаю проект. коплю деньги)

Далее докупаю ещё 1 диск 3 Тб - добавляю его к первому диску и переконфигурирую хранилище на RAID1 (без потери существующих уже на тот момент данных на первом диске).

Потом покупаю, например, ещё 2 диска, добавляю их к существующим - переконфигурирую всё в RAID5, при этом размер хранилища увеличивается с 3 до 9 Тб. И т.д.

Возможно ли так будет сделать используя ZFS?

Что посоветуете? Как лучше сейчас разметить первый диск 3 Тб - ZFS, LVM, LVM-thin?

 ,

Garik368
()

Разбивка диска по умолчанию в Ubuntu Server 20.04.3 LTS

Форум — General

Всем привет! Проясните мне пожалуйста такую ситуацию - исталирую Ubuntu Server 20.04.3 LTS на диск 32 Гб. В процессе инсталяции настройки, касающиеся диска, оставил по умолчанию.

После установки вижу следующую картину:

xxxx:~$ sudo lsblk

NAME                      MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
loop0                       7:0    0 55.4M  1 loop /snap/core18/2128
loop1                       7:1    0 61.9M  1 loop /snap/core20/1270
loop2                       7:2    0 32.3M  1 loop /snap/snapd/12704
loop3                       7:3    0 43.3M  1 loop /snap/snapd/14295
loop4                       7:4    0 70.3M  1 loop /snap/lxd/21029
loop5                       7:5    0 67.2M  1 loop /snap/lxd/21835
loop6                       7:6    0 55.5M  1 loop /snap/core18/2284
sda                         8:0    0   32G  0 disk
├─sda1                      8:1    0    1M  0 part
├─sda2                      8:2    0    1G  0 part /boot
└─sda3                      8:3    0   31G  0 part
  └─ubuntu--vg-ubuntu--lv 253:0    0 15.5G  0 lvm  /
sr0                        11:0    1  1.2G  0 rom

Т.е. правильно я понимаю, что из 32 Гб реально используется только примерно половина, а половина sda3 вообще не распределена и не используется?

Зачем так сделано? Можно ли использовать всё пространство тома sda3?

 , ,

Garik368
()