LINUX.ORG.RU

Сообщения Marshy

 

OVH: Застрял, как сконфигурировать IPv6 дабы использовать их в VM

Форум — Admin

Добрый!

Имею проблему с IPv6, никак не получается настроить чтобы использовать их в VM.

У меня имеется: 2001:41d0:240:8f00::/56

Вопрос, как сконфигурировать бридж(vmbr0), чтобы я мог подать дальше IPv6 и использовать их уже в VM? Мозгов не хватает, для меня IPv6 в новинкую

Вот так сейчас выглядит настройка моей сети (ссылался на: https://support.us.ovhcloud.com/hc/en-us/articles/4408052730387-How-to-Configure-the-Network-on-Proxmox-VE-with-SCALE-and-HG-Servers). IPv4 субнет работает, всё гуд.

auto lo
iface lo inet loopback
  # Enable IP forwarding
  up echo "1" > /proc/sys/net/ipv4/ip_forward
  # Enable proxy-arp only for public bond
  up echo "1" > /proc/sys/net/ipv4/conf/bond0/proxy_arp

# public interface 1
auto enp59s0f0np0
iface enp59s0f0np0 inet manual
    bond-master bond0

# public interface 2
auto ens35f1np1
iface ens35f1np1 inet manual
    bond-master bond0

# private interface 1
auto ens43f0np0
iface ens43f0np0 inet manual

# private interface 2
auto ens43f1np1
iface ens43f1np1 inet manual

# LACP aggregate on public interfaces
# configured in static mode on this example
# Has the server's public IP
auto bond0
iface bond0 inet static
    address 141.95.XXX.XXX/32
    gateway XXX.64.0.X
    bond-slaves enp59s0f0np0 ens35f1np1
    bond-mode 4
    bond-miimon 100
    bond-downdelay 200
    bond-updelay 200
    bond-lacp-rate 1
    bond-xmit-hash-policy layer3+4
    # Use the mac address of the first public interface
    hwaddress b8:ce:f6:XX:XX:XX

#Private
auto bond1
iface bond1 inet static
    bond-slaves ens43f0np0 ens43f1np1
    bond-mode 4
    bond-miimon 100
    bond-downdelay 200
    bond-updelay 200
    bond-lacp-rate 1
    bond-xmit-hash-policy layer3+4
    # Use the mac address of the first private interface
    hwaddress b8:ce:f6:XX:XX:XX

# Configure the bridge with a private address and add route(s) to send the Additional IPs to it
# A.B.C.D/X => Subnet of Additional IPs assigned to the server, this can be a host with /32
# By default Proxmox creates vmbr0.
# You can use it or create another one 
auto vmbr0
iface vmbr0 inet dhcp
    # Define a private IP, it should not overlap your existing private networks on the vrack for example 
    address 192.168.0.1/24
    bridge-ports none
    bridge-stp off
    bridge-fd 0
    # Add block IP
    up ip route add 92.XXX.XXX.XXX/28 dev vmbr0

# Bridge used for private networks on vRack
# The VLAN feature is enabled
auto vmbr1
iface vmbr1 inet manual
        bridge-ports bond1
        bridge-stp off
        bridge-fd 0
        bridge-vlan-aware yes
        bridge-vids 2-4094

 , , ,

Marshy
()

ZFS вызывает аномальную высокую нагрузку на ЦП

Форум — General

Привет! Итак, у меня возникли некоторые проблемы с ZFS. У меня довольно много оперативной памяти (64 ГБ), но используется меньше половины. ARC ограничен 16 ГБ. Ryzen 3900 с 12/24 ядрами/потоками. Пул ZFS в RAID 0 с 2 дисками NVMe (Gen4), так что скорости достаточно.

Были сделаны некоторые модификации:

  1. sync=disabled
  2. compression=off
  3. xattr=sa
  4. ashift=12
  5. atime=off
  6. recordsize=1M

В станадртной нагрузке

https://imgur.com/a/ANm4g9I

Когда я активно использую пул ZFS (нагрузка ненормальная)

https://imgur.com/a/wh056AH

Настройки ВМ VirtIO SCSI single as SCSI controller No cache SSD emulation IO Thread enabled Asycn io: threads

Чем это может быть вызвано? Есть кто сталкивался и мог бы направить на путь истенный?

zfs-2.1.7-pve3 zfs-кмод-2.1.7-pve3 proxmox 7.3.X - kernel 6.1.2-1-pve

 , ,

Marshy
()

Странная ошибка systemd-journald, после которой сервер умирает

Форум — General

Добры!

Вообщем заметил, что сервер стал просто умирать рандомно без причины.

В dmesg заметил вот такое

[   29.115940] systemd-journald[446]: File /var/log/journal/83bfaf99dc8b4015835930788de4192c/user-1001.journal corrupted or uncleanly shut down, renaming and replacing.

Чтобы это могло значить? Есть ли методы исправления?

Использую Debian 11, XFS.

 , , ,

Marshy
()

ZFS Cache с NVMe диском

Форум — General

Добрый!

На текущий момент пытаюсь сделать ZFS Cache с NVMe диском.

Пытаюсь найти более правильный и оптимальный вариант для конфигурации чтобы достичь так скажем хорошую возможноую скорость.

На данный момент использую такую команду

zpool create -O compression=zstd -O recordsize=1M -O relatime=on -O xattr=sa -o ashift=12 tank /dev/sdX cache /dev/nvmeXn1

Ваши рекомендации по оптимизации? Может что-то упускаю =)

Спасибо!

 , , ,

Marshy
()

LXD. Присвоение IP контейнеру

Форум — General

У меня есть сервер с основным IP: 46.xxx.xxx.168. И дополнительный: 46.xxx.xxx.186 (MAC адрес выдать нельзя) Шлюз: 46.xxx.xxx.129

Они находятся под одним и тем же шлюзом/подсетью и тому подобное.

Может я что-то не так делал, но настройка macvlan/routed/bridge мне не помогла

Один из вариантов который я использовал

lxc config device add test eth0 nic nictype=routed parent=eth0 ipv4.address=46.xxx.xxx.186

Или, в моем случае, я должен создать мостовую сеть на хост-компьютере и подключить ее к контейнеру, а затем вручную ввести сетевые конфигурации внутри контейнера?

Провайдер фильтрует IP по физическому (или виртуальному) порту.

Спасибо за помощь!

 , , ,

Marshy
()

LXD. Конфигурация Static IP. Как правильно?

Форум — General

Добрый!

Вообщем пытаюсь первый раз дотронуться до lxc контейнеров и их создания. Вроде как всё понятно, но вот загвоздка у меня с настройкой сети.

Есть IP: 212.7.201.17/26 который хочу использовать на контейнере

Вот конфигруация получается бриджа

# lxc network show lxdbr0
config:
  ipv4.address: 10.74.168.1/24
  ipv4.nat: "true"
  ipv6.address: fd42:4ce7:cc43:7ee::1/64
  ipv6.nat: "true"
description: ""
name: lxdbr0
type: bridge
used_by:
- /1.0/instances/utilites-container
- /1.0/profiles/default
managed: true
status: Created
locations:

Далее я создал сам lxc и мануально ручками в ifcfg-eth0 присвоил IP,

вот что получилось

DEVICE=eth0
BOOTPROTO=none
ONBOOT=yes
IPADDR=212.7.201.17
PREFIX=26
GATEWAY=212.7.201.62
DNS1=8.8.8.8
DNS2=8.8.4.4
HOSTNAME=utilites-container
TYPE=Ethernet
MTU=
DHCP_HOSTNAME=utilites-container
IPV6INIT=yes

Но работать ничего не стало. Что я упускаю? Где ошибся или не сконфигурировал?

Мануально это ни разу не делал.

 , ,

Marshy
()

KVM и/или Docker. Нужен ваш совет по конфигурации

Форум — General

Добрый,

Имеется машинка,

Основная:

Basic System Information:
---------------------------------
Processor  : AMD EPYC 7313 16-Core Processor
CPU cores  : 32 @ 1500.000 MHz
AES-NI     : ✔ Enabled
VM-x/AMD-V : ✔ Enabled
RAM        : 62.8 GiB
Swap       : 0.0 KiB
Disk       : 1.7 TiB

fio Disk Speed Tests (Mixed R/W 50/50):
---------------------------------
Block Size | 4k            (IOPS) | 64k           (IOPS)
  ------   | ---            ----  | ----           ---- 
Read       | 973.22 MB/s (243.3k) | 1.48 GB/s    (23.1k)
Write      | 975.79 MB/s (243.9k) | 1.49 GB/s    (23.3k)
Total      | 1.94 GB/s   (487.2k) | 2.97 GB/s    (46.5k)
           |                      |                     
Block Size | 512k          (IOPS) | 1m            (IOPS)
  ------   | ---            ----  | ----           ---- 
Read       | 1.87 GB/s     (3.6k) | 1.92 GB/s     (1.8k)
Write      | 1.97 GB/s     (3.8k) | 2.05 GB/s     (2.0k)
Total      | 3.85 GB/s     (7.5k) | 3.98 GB/s     (3.8k)

iperf3 Network Speed Tests (IPv4):
---------------------------------
Provider        | Location (Link)           | Send Speed      | Recv Speed     
                |                           |                 |                
Clouvider       | London, UK (10G)          | 974 Mbits/sec   | 8.18 Gbits/sec 
Online.net      | Paris, FR (10G)           | 976 Mbits/sec   | 8.20 Gbits/sec 
Clouvider       | NYC, NY, US (10G)         | 921 Mbits/sec   | 2.10 Gbits/sec 

Geekbench 4 Benchmark Test:
---------------------------------
Test            | Value                         
                |                               
Single Core     | 6090                          
Multi Core      | 70778                         
Full Test       | https://browser.geekbench.com/v4/cpu/16526240

Geekbench 5 Benchmark Test:
---------------------------------
Test            | Value                         
                |                               
Single Core     | 1387                          
Multi Core      | 18104                         
Full Test       | https://browser.geekbench.com/v5/cpu/14129066

VM:

Basic System Information:
---------------------------------
Processor  : AMD EPYC 7313 16-Core Processor
CPU cores  : 32 @ 3000.006 MHz
AES-NI     : ✔ Enabled
VM-x/AMD-V : ✔ Enabled
RAM        : 15.6 GiB
Swap       : 0.0 KiB
Disk       : 20.0 GiB

fio Disk Speed Tests (Mixed R/W 50/50):
---------------------------------
Block Size | 4k            (IOPS) | 64k           (IOPS)
  ------   | ---            ----  | ----           ---- 
Read       | 552.17 MB/s (138.0k) | 5.10 GB/s    (79.7k)
Write      | 553.62 MB/s (138.4k) | 5.12 GB/s    (80.1k)
Total      | 1.10 GB/s   (276.4k) | 10.23 GB/s  (159.8k)
           |                      |                     
Block Size | 512k          (IOPS) | 1m            (IOPS)
  ------   | ---            ----  | ----           ---- 
Read       | 5.15 GB/s    (10.0k) | 5.47 GB/s     (5.3k)
Write      | 5.43 GB/s    (10.6k) | 5.83 GB/s     (5.6k)
Total      | 10.59 GB/s   (20.6k) | 11.30 GB/s   (11.0k)

iperf3 Network Speed Tests (IPv4):
---------------------------------
Provider        | Location (Link)           | Send Speed      | Recv Speed     
                |                           |                 |                
Clouvider       | London, UK (10G)          | 974 Mbits/sec   | 8.71 Gbits/sec 
Online.net      | Paris, FR (10G)           | 976 Mbits/sec   | 7.53 Gbits/sec 
Clouvider       | NYC, NY, US (10G)         | 915 Mbits/sec   | 1.91 Gbits/sec 

Geekbench 4 Benchmark Test:
---------------------------------
Test            | Value                         
                |                               
Single Core     | 5971                          
Multi Core      | 60857                         
Full Test       | https://browser.geekbench.com/v4/cpu/16526228

Geekbench 5 Benchmark Test:
---------------------------------
Test            | Value                         
                |                               
Single Core     | 1402                          
Multi Core      | 15634                         
Full Test       | https://browser.geekbench.com/v5/cpu/14128941

Использую Proxmox.

Так вот, как видите есть разница в производительности, где-то я теряю, где-то получаю.

Первое меня интересует, можно ли как-то ещё улучшить скорость дисков на 4к блоках чтобы она была ближе к оригиналу? writeback включен. Использую VirIO Block.

Моё желание - это как можно меньше потерять в производительности.

По этому следует ещё один вопрос. Стоит ли вообще создавать и разбивать на VMы или просто всё запускать из под докера(что возможно)? Понятное, что это две разные технологии и сравнивать их грех, но как бы всё же Вы посоветовали?

 , ,

Marshy
()

SSH - соединение закрывается сразу после попытки входа

Форум — General

Пытался обновить CentOS 6 на 7, остановился на проблеме то что openssl очень старый, пытался обновить, потом обновил линки до новой версии кентоса, запустил yum update, не понятно почему вошел в цикл, убил сессию и больше не могу попасть на сервер.

Вот что получаю

debug3: send packet: type 50
debug2: we sent a password packet, wait for reply
debug3: receive packet: type 52
debug1: Authentication succeeded (password).
Authenticated to 193.68.68.50 ([193.68.68.50]:22).
debug1: channel 0: new [client-session]
debug3: ssh_session2_open: channel_new: 0
debug2: channel 0: send open
debug3: send packet: type 90
debug1: Requesting no-more-sessions@openssh.com
debug3: send packet: type 80
debug1: Entering interactive session.
debug1: pledge: filesystem full
debug3: receive packet: type 91
debug2: channel_input_open_confirmation: channel 0: callback start
debug2: fd 3 setting TCP_NODELAY
debug3: set_sock_tos: set socket 3 IP_TOS 0x48
debug2: client_session2_setup: id 0
debug2: channel 0: request pty-req confirm 1
debug3: send packet: type 98
debug1: Sending environment.
debug3: Ignored env USER
debug3: Ignored env __CFBundleIdentifier
debug3: Ignored env COMMAND_MODE
debug3: Ignored env LOGNAME
debug3: Ignored env PATH
debug3: Ignored env SSH_AUTH_SOCK
debug3: Ignored env SHELL
debug3: Ignored env HOME
debug3: Ignored env __CF_USER_TEXT_ENCODING
debug3: Ignored env TMPDIR
debug3: Ignored env XPC_SERVICE_NAME
debug3: Ignored env XPC_FLAGS
debug3: Ignored env ORIGINAL_XDG_CURRENT_DESKTOP
debug1: channel 0: setting env LANG = "en_US.UTF-8"
debug2: channel 0: request env confirm 0
debug3: send packet: type 98
debug3: Ignored env TERM
debug3: Ignored env COLORTERM
debug3: Ignored env TERM_PROGRAM
debug3: Ignored env TERM_PROGRAM_VERSION
debug3: Ignored env PWD
debug3: Ignored env SHLVL
debug3: Ignored env OLDPWD
debug3: Ignored env HOMEBREW_PREFIX
debug3: Ignored env HOMEBREW_CELLAR
debug3: Ignored env HOMEBREW_REPOSITORY
debug3: Ignored env MANPATH
debug3: Ignored env INFOPATH
debug3: Ignored env rvm_prefix
debug3: Ignored env rvm_path
debug3: Ignored env rvm_bin_path
debug3: Ignored env rvm_version
debug3: Ignored env GEM_HOME
debug3: Ignored env GEM_PATH
debug3: Ignored env MY_RUBY_HOME
debug3: Ignored env IRBRC
debug3: Ignored env RUBY_VERSION
debug3: Ignored env _
debug2: channel 0: request shell confirm 1
debug3: send packet: type 98
debug2: channel_input_open_confirmation: channel 0: callback done
debug2: channel 0: open confirm rwindow 0 rmax 32768
debug3: receive packet: type 99
debug2: channel_input_status_confirm: type 99 id 0
debug2: PTY allocation request accepted on channel 0
debug2: channel 0: rcvd adjust 2097152
debug3: receive packet: type 99
debug2: channel_input_status_confirm: type 99 id 0
debug2: shell request accepted on channel 0
debug3: receive packet: type 96
debug2: channel 0: rcvd eof
debug2: channel 0: output open -> drain
debug3: receive packet: type 98
debug1: client_input_channel_req: channel 0 rtype exit-status reply 0
debug3: receive packet: type 98
debug1: client_input_channel_req: channel 0 rtype eow@openssh.com reply 0
debug2: channel 0: rcvd eow
debug2: chan_shutdown_read: channel 0: (i0 o1 sock -1 wfd 4 efd 6 [write])
debug2: channel 0: input open -> closed
debug3: receive packet: type 97
debug2: channel 0: rcvd close
debug3: channel 0: will not send data after close
Last login: Sat Apr  2 05:52:40 2022 from 192.168.133.1
debug3: channel 0: will not send data after close
debug2: channel 0: obuf empty
debug2: chan_shutdown_write: channel 0: (i3 o1 sock -1 wfd 5 efd 6 [write])
debug2: channel 0: output drain -> closed
debug2: channel 0: almost dead
debug2: channel 0: gc: notify user
debug2: channel 0: gc: user detached
debug2: channel 0: send close
debug3: send packet: type 97
debug2: channel 0: is dead
debug2: channel 0: garbage collecting
debug1: channel 0: free: client-session, nchannels 1
debug3: channel 0: status: The following connections are open:
  #0 client-session (t4 r0 i3/0 o3/0 e[write]/0 fd -1/-1/6 sock -1 cc -1)

debug3: send packet: type 1
debug3: fd 1 is not O_NONBLOCK
Connection to 193.68.68.50 closed.
Transferred: sent 3200, received 2648 bytes, in 0.0 seconds
Bytes per second: sent 143439.9, received 118696.5
debug1: Exit status 254

А если через рут пользователя то получаю ошибку

Unable to get valid context for root

Можно ли как-то восстановить доступ? Либо устонавливать систему по новому?

 , ,

Marshy
()

Маршрутизация в ProxMox. IP не отвечает. В чём ошибся?

Форум — Admin

Добрый!

В общем использовал этот мануал: https://community.hetzner.com/tutorials/install-and-configure-proxmox_ve/ru?t...

У меня есть основной и дополнительный IP:

Основной: xxx.xxx.200.200/27

Доп.: xxx.xxx.202.175/27

Вот мои настройки на машине

auto enp4s0
iface enp4s0 inet static
        address xxx.xxx.200.200
        netmask 255.255.255.224
        pointopoint xxx.xxx.200.193
        gateway xxx.xxx.200.193

auto vmbr0
iface vmbr0 inet static
    address  xxx.xxx.200.200
    netmask 255.255.255.224
    bridge_ports none
    bridge_stp off
    bridge_fd 0
    up ip route add xxx.xxx.202.175/27 dev vmbr0

А вот настройки на слоте:

auto eth0
iface eth0 inet static
    address xxx.xxx.202.175
    netmask 255.255.255.224
    pointopoint xxx.xxx.200.200
    gateway xxx.xxx.200.200
    

IP не отвечает. Подсоедениться не могу. Где я ошибся?

 , ,

Marshy
()

RSS подписка на новые темы