LINUX.ORG.RU

Сообщения bx1_host

 

Centos 7 сетевая связность

Форум — Admin

Доброго времени суток Уважаемые форумчане!

Есть интересная ситуация: Два сервера, один виртуальный (ВМ), один дедик. Разные подсети, физически в одной стойке в ДЦ, маршрутизаторы разные.

С дедика пинг на ВМ проходит (дедик видит ВМ). С ВМ дедик не пингуется (НЕ видит). Все другие подключения в том же режиме (ssh ftp)

С ВМ доступен шлюз сети дедика и его соседи. Проблемы с сетевой связностью, маршрутами, NS - нет ни там ни там. iptables пустой и там и там. Сетевое оборудование не блокирует запросы.

Вопрос - эт че может быть и куда копать?

 , ,

bx1_host
()

AlmaLunix 8 не видит сетевую карту QLogic 1020 10Gbps

Форум — Linux-hardware

Всем доброго времени суток!

Вкратце: Есть сетевуха Brocade 1020. Не воспринимается как сетевуха в алме 8.7. Не совсем деревянный, делал вот такое:

  1. wget http://mirror.rackspace.com/elrepo/elrepo/el8/x86_64/RPMS/kmod-qla2xxx-10.02.07.400-1.el8_7.elrepo.x86_64.rpm
  2. rpm -Uvh kmod-qla2xxx-10.02.07.400-1.el8_7.elrepo.x86_64.rpm
  3. dnf install kmod-qla2xxx

Короче доп паки с elrepo стоят. Карта не робит.

Сразу для уточнения:

раз

lspci -nn | grep -i net
02:00.2 Ethernet controller [0200]: Cavium QLogic 1010/1020/1007/1741 10Gbps CNA [1657:0014] (rev 01)
02:00.3 Ethernet controller [0200]: Cavium QLogic 1010/1020/1007/1741 10Gbps CNA [1657:0014] (rev 01)
05:00.0 Ethernet controller [0200]: Intel Corporation I350 Gigabit Network Connection [8086:1521] (rev 01)
05:00.1 Ethernet controller [0200]: Intel Corporation I350 Gigabit Network Connection [8086:1521] (rev 01)

два

lshw -C network
  *-network:0 UNCLAIMED
       description: Ethernet controller
       product: 1010/1020/1007/1741 10Gbps CNA
       vendor: Cavium QLogic
       physical id: 0.2
       bus info: pci@0000:02:00.2
       version: 01
       width: 64 bits
       clock: 33MHz
       capabilities: pm msix pciexpress vpd bus_master cap_list
       configuration: latency=0
       resources: memory:fb540000-fb57ffff memory:fb604000-fb607fff memory:fb200000-fb2fffff
  *-network:1 UNCLAIMED
       description: Ethernet controller
       product: 1010/1020/1007/1741 10Gbps CNA
       vendor: Cavium QLogic
       physical id: 0.3
       bus info: pci@0000:02:00.3
       version: 01
       width: 64 bits
       clock: 33MHz
       capabilities: pm msix pciexpress vpd bus_master cap_list
       configuration: latency=0
       resources: memory:fb500000-fb53ffff memory:fb600000-fb603fff memory:fb100000-fb1fffff
  *-network:0
       description: Ethernet interface
       product: I350 Gigabit Network Connection
       vendor: Intel Corporation
       physical id: 0
       bus info: pci@0000:05:00.0
       logical name: eno1
       version: 01
       serial: ac:1f:6b:b1:03:30
       size: 1Gbit/s
       capacity: 1Gbit/s
       width: 32 bits
       clock: 33MHz
       capabilities: pm msi msix pciexpress bus_master cap_list ethernet physical tp 10bt 10bt-fd 100bt 100bt-fd 1000bt-fd autonegotiation
       configuration: autonegotiation=on broadcast=yes driver=igb driverversion=4.18.0-425.3.1.el8.x86_64 duplex=full firmware=1.63, 0x800009fa ip=109.248.45.249 latency=0 link=yes multicast=yes port=twisted pair speed=1Gbit/s
       resources: irq:35 memory:fb720000-fb73ffff ioport:e020(size=32) memory:fb744000-fb747fff memory:90000000-9001ffff memory:90020000-9003ffff
  *-network:1
       description: Ethernet interface
       product: I350 Gigabit Network Connection
       vendor: Intel Corporation
       physical id: 0.1
       bus info: pci@0000:05:00.1
       logical name: eno2
       version: 01
       serial: ac:1f:6b:b1:03:31
       capacity: 1Gbit/s
       width: 32 bits
       clock: 33MHz
       capabilities: pm msi msix pciexpress bus_master cap_list ethernet physical tp 10bt 10bt-fd 100bt 100bt-fd 1000bt-fd autonegotiation
       configuration: autonegotiation=on broadcast=yes driver=igb driverversion=4.18.0-425.3.1.el8.x86_64 firmware=1.63, 0x800009fa latency=0 link=no multicast=yes port=twisted pair
       resources: irq:46 memory:fb700000-fb71ffff ioport:e000(size=32) memory:fb740000-fb743fff memory:90040000-9005ffff memory:90060000-9007ffff

три

ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
2: eno1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
    link/ether ac:1f:6b:b1:03:30 brd ff:ff:ff:ff:ff:ff
    altname enp5s0f0
    inet 109.***.***.***/24 brd 109.***.***.255 scope global noprefixroute eno1
       valid_lft forever preferred_lft forever
3: eno2: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc mq state DOWN group default qlen 1000
    link/ether ac:1f:6b:b1:03:31 brd ff:ff:ff:ff:ff:ff
    altname enp5s0f1

четыре

cat  /proc/net/dev
Inter-|   Receive                                                |  Transmit
 face |bytes    packets errs drop fifo frame compressed multicast|bytes    packets errs drop fifo colls carrier compressed
    lo:       0       0    0    0    0     0          0         0        0       0    0    0    0     0       0          0
  eno1: 5118510   82541    0    0    0     0          0         0   549125    4221    0    0    0     0       0          0
  eno2:       0       0    0    0    0     0          0         0        0       0    0    0    0     0       0          0

Уточнения для ололо:

cat /etc/centos-release
AlmaLinux release 8.7 (Stone Smilodon)

reboot - был

Вопрос - че делать? Как сказать ОС что это сетевая карта и её как бы стоит использовать? =)

 , , , ,

bx1_host
()

NVMe samsung PM1735 low read/write Centos 7

Форум — Linux-hardware

Доброго времени суток! Уважаемые, есть крайне непонятная для меня проблема. Имеется система на supermicro h12dst-b, камень AMD Epyc 7232p, два диска HHHL samsung MZPLJ3T2HBJR-00007. Так вот эти диски не хотят нормально работать. По ТТХ у них скорость чтения 8000мб/с, а hdparm выдаёт вот такое:

hdparm -tT /dev/nvme0n1p1

/dev/nvme0n1p1:
 Timing cached reads:   20398 MB in  2.00 seconds = 10213.54 MB/sec
 Timing buffered disk reads: 6604 MB in  3.00 seconds = 2200.99 MB/sec

hdparm -tT --direct /dev/nvme0n1p1

/dev/nvme0n1p1:
 Timing O_DIRECT cached reads:   6470 MB in  2.00 seconds = 3236.47 MB/sec
 Timing O_DIRECT disk reads: 6528 MB in  3.00 seconds = 2175.69 MB/sec

Как бы в маздае 2019 скорость соответствует заявленной (7400мб/с), в Centos 7.9 (3.10.0-1160.el7.x86_64) - ни в какую.

(parted) print
Model: NVMe Device (nvme)
Disk /dev/nvme0n1: 3201GB
Sector size (logical/physical): 4096B/4096B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system  Name  Flags
 1      1049kB  3201GB  3201GB  ext4

Пробовал переназначать namespace и ставить blocksize по 4k - стало лучше (это то, что сейчас, было вообще 1400мб/с). В биос переключил уже работу pcie на 8x8 с auto, линии нормально используются - ширина по lspci - width 8, в проц пропускная способность не упирается, asmp отключено тоже в биосе.

Уже просто не знаю куда копать и что делать. Появилась больная идея сделать 4 namespace и объединить в RAID0 (да, я в курсе что дичь какая то, но просто третьи сутки пошли уже). Спасайте, какие есть варианты?

 , , , ,

bx1_host
()

exit 0 && shutdown -r now

Форум — Admin

Доброго дня всем!
Первая тема на форуме, прошу фекало-дендральный обстрел не устраивать!
Есть задача, которая ломает мой мозг и логику VMmanager (ПО для организации vps-кластера от ispsystem)
Собственно, в vmmgr есть такая штука - рецепты (по факту - это выполнение bash после установки ОС, конкретно - deb10). В общем сам скрипт то написан, но чтобы его корректно завершить нужно послать exit 0 в конце исполнения (чтобы vmmgr «узнал» что рецепт закончил выполнение успешно). Но при этом, по логике скрипта мне нужна в конце перезагрузка. Банальное решение, приходящее на ум - exit 0 && shutdown -r now НЕ работает. Кто нибудь может просветить как это сделать?

 , ,

bx1_host
()

RSS подписка на новые темы