LINUX.ORG.RU

Сообщения Harliff

 

Rescue LiveCD/LiveUSB с поддержкой ZFS ?

Есть ли адекватный LiveCD/USB (типа SystemRescueCD, GRML и т.д.) с поддержкой ZFS?

 , ,

Harliff
()

Посоветуйте backup dns (сервис)

Сабж.

 

Harliff
()

Веб-интерфейс для DNS

Добрый день!

Какие сегодня есть адекватные веб-интерфейсы (панели управления) для DNS (bind/powerdns)?

 , ,

Harliff
()

vsftpd: CLOSE_WAIT - так и должно быть?

Добрый день!

Стоит vsftpd (3.0.3-12).

По некоторым пользователям наблюдаю кучу записей CLOSE_WAIT в netstat (сегодня было 300 шт, при ~10 активных пользователях) + кучу процессов vsftpd (порядка 200 шт).

При этом в conntrack на маршрутизаторе - только 10 записей для этого сервера.

Некоторых пользователей vsftpd посылает с «Connection refused: too many sessions for this address.»

Это баги vsftpd или я его настраивать не умею?

Конфиг (/etc/vsftpd.conf):

listen=YES
listen_ipv6=NO
anonymous_enable=NO
local_enable=YES
write_enable=YES
local_umask=022
dirmessage_enable=NO
use_localtime=YES
xferlog_enable=YES
connect_from_port_20=YES
chroot_local_user=YES
chroot_list_enable=YES
chroot_list_file=/etc/vsftpd.chroot_list
secure_chroot_dir=/var/run/vsftpd/empty
pam_service_name=vsftpd
rsa_cert_file=/etc/ssl/certs/ssl-cert-snakeoil.pem
rsa_private_key_file=/etc/ssl/private/ssl-cert-snakeoil.key
ssl_enable=NO
pasv_enable=YES
pasv_min_port=10000
pasv_max_port=10999
max_per_ip=50
log_ftp_protocol=YES

 closewait, , , ,

Harliff
()

Очищается буфер обмена

Буфер обмена очищается при закрытии программы, из которой был скопирован тест в буфер обмена.

Есть возможность изменить это поведение?

Use case: переименование документов. Открываем файл ‘‘invoice.pdf’’ в evince, копируем текст (‘‘Счёт № 123 от 08 июня 2020 г.’’), закрываем evince, переименовываем файл (F2), вставляем из буфера скопированный ранее текст.

PS: быстро нагуглить ответ не получилось. Смотрю в сторону применения стороннего софта: https://wiki.archlinux.org/index.php/Clipboard

 ,

Harliff
()

Нумерация версий VirtIO

Не пойму, по какой схеме определяется стабильность/нестабильность версий VirtIO.

У них в архиве есть:

  • Стабильная версия:
    • virtio-win-0.1.171-1
  • Непонятно какие версии:
    • virtio-win-0.1.172-1
    • virtio-win-0.1.173-1
    • virtio-win-0.1.173-2
    • virtio-win-0.1.173-3
    • virtio-win-0.1.173-4
    • virtio-win-0.1.173-5
    • virtio-win-0.1.173-6
    • virtio-win-0.1.173-7
    • virtio-win-0.1.173-8
    • virtio-win-0.1.173-9
  • Последняя версия:
    • virtio-win-0.1.185-1

Почему у них стабильной версией называется .171-1 а не .173-9 или хотя бы не .172-1?

Или они просто забыли обновить ссылку в документации?

 , ,

Harliff
()

Firefox: отключить панель вкладок (решение)

Если кому-нибудь понадобится отключить вкладки в Firefox (например, если он использует Tree Stype Tab или подобные дополнения), то можно воспользоваться вот этой инструкцией:

https://superuser.com/questions/1268732/how-to-hide-tab-bar-tabstrip-in-firefox-57-quantum

 , ,

Harliff
()

Как понять, отчего программа тормозит?

Иногда у меня сильно тормозят некоторые программы (chrome/chromium, файловые менеджеры на разных тулкитах и даже gvim иногда). Иногда я подключаюсь к программе при помощи strace и пытаюсь понять, в чём причина тормозов. Как правило, безуспешно — мне не хватает базовых знаний (я не программист).

Вопрос: что (кроме man strace) нужно знать для поиска тормозов ПО?

Можете накидать годных ссылок на описание процесса решения проблем при помощи strace (и другого ПО)?

 

Harliff
()

WiFi mesh

Доброй ночи!

Есть потребность в создании небольшой mesh сети на одном этаже (5-7 точек, ~3 hop’a, 20 клиентов).

Вопросы:

  • на какую пропускную способность и задержки можно рассчитывать (если всё правильно сделаю)?
  • у меня сложилось негативное отношение к wifi на микротиках (в сравнении с unifi). Я их просто не умею готовить? Есть истории успеха (или наоборот, неуспеха)?
  • есть какое-нибудь ПО, помогающее в построении сети (например, в которое можно загрузить карту этажа и потом в ней отмечать уровень сигнала в разных точках)?

 , , unifi,

Harliff
()

Как лучше монтировать smb-ресурсы?

Таскаю ноутбук между работой и домом. На ноутбуке - debian с i3wm. Часто работаю с виндовыми файловыми ресурсами (редактирую документы, сохраняю туда файлы и т.п.). При недоступности сетевых ресурсов начинаются проблемы с прикладным ПО (файловый менеджер грузится секунд 20, тормозит диалог открытия/сохранения файлов, виснет libreoffice и т.п.).

Ресурсы монтируются либо через autofs, либо через gvfs (через caja/nautilus). С gvfs ситуация немного получше; с autofs - вообще всё плохо (прикладное ПО воспринимает /smb/windows_share как локальный ресурс со всеми вытекающими последствиями)

Это у всех так, или я что-то себе неправильно настроил?

Есть ли способ настроить монтирование, что бы оно не вызывало указанные проблемы?

PS: из прикладного ПО используются: caja, nautilus, firefox, thunderbird, libreoffice.

 , , road warior,

Harliff
()

Отфильтровать dmesg

Всем привет!

В результате работы некоторой программы в виртуалке, логи забиваются сообщениями вида

kvm [7408]: vcpu3, guest rIP: 0xfffff8035a5debb3 kvm_set_msr_common: MSR_IA32_DEBUGCTLMSR 0x1, nop

Сообщения генерируются каждые полсекунды и мешают смотреть логи (ну и место забивают на диске).

Rsyslogd я настроил — больше в /var/log/* эти сообщения не попадают. Но как быть с journald (journalctl) и c dmesg? (про dmesg -D знаю).

Софт: Debian 9, Proxmox 5, KMV (cpu: host, 6 ядер), Windows 2016 в гостевой системе.

Как-нибудь это можно побороть?

 , , , ,

Harliff
()

Proxmox, vlan_aware_bridge + попытка перехода на OVS

Подскажите, что я делаю не так? Есть proxmox 6.0, в нём bridge с bridge_vlan_aware = yes.

Проблемы:

  • виртуалки не видят тегированный трафик на интерфейсах, для которых в админке не указан vlan
  • виртуалки не видят трафик на интерфейсе, для которого в админке указан vlan
  • если создать руками vlan-интерфейс (ip link add link ... type vlan ...), то он тоже не видит тегированный трафик от свича.

Если подключить в этот порт другое устройство - оно принимает тегированный трафик без проблем.

Я что-то не так делаю, или это софт глючит?

Конфиг бриджа:

  5 auto vmbr0
  6 iface vmbr0 inet static
  7         address 172.28.15.12
  8         netmask 255.255.255.0
  9         gateway 172.28.15.1
 10         bridge_ports eno4 ens3f0
 11         bridge_stp off
 12         bridge_fd 0
 13         bridge_vlan_aware yes
 14         bridge-vids 2-4094

 , , ,

Harliff
()

Дизайн сети: L3-коммутаторы + фильтрация трафика

Добрый день.

Рассматриваю возможность внедрения в корпоративной сети L3-коммутаторов для ускорения маршрутизации между VLAN’ами. Сейчас используются L2-свичи + софтроутеры (VyOS), которые терминируют VLAN’ы и выполняют фильтрацию трафика (L4, то есть с учётом портов tcp/udp).

Не пойму, как, с одной стороны, переложить часть работы на L3-свичи, а с другой стороны, продолжать фильтровать трафик на L4.

В принципе, ответ в стиле «используй свичи как L2» тоже устраивает, так как софтроутеры сейчас апгрейдим (взяли простенькие серверы на D-1518 с 10-Гбитными интерфейсами). Так же, VLAN’ы большинства виртуальных машин терминируются на виртуальных маршрутизаторах, работающих на тех-же физических серверах, что и VM.

 , network design, , дизайн сети

Harliff
()

nmap: хост пингуется, но nmap считает, что хост недоступен.

Столкнулся со странным поведением nmap: хост пингуется, но nmap считает, что хост недоступен.

При этом, nmap не отправляет никаких icmp пакетов (в снифере видны только отправка tcp пакетов на 80 и 443 порты).

Это такой баг, или я чего-то не понимаю?

$ nmap 192.168.128.26
Starting Nmap 7.70 ( https://nmap.org ) at 2019-09-05 12:13 MSK
Note: Host seems down. If it is really up, but blocking our ping probes, try -Pn
Nmap done: 1 IP address (0 hosts up) scanned in 3.04 seconds

tcpdump:

12:13:35.643771 IP 192.168.65.14.46960 > 192.168.128.26.80: Flags [S], seq 1355181642, win 29200, options [mss 1460,sackOK,TS val 860506560 ecr 0,nop,wscale 7], length 0
12:13:35.643794 IP 192.168.65.14.44864 > 192.168.128.26.443: Flags [S], seq 1327317304, win 29200, options [mss 1460,sackOK,TS val 860506560 ecr 0,nop,wscale 7], length 0
12:13:37.645092 IP 192.168.65.14.44868 > 192.168.128.26.443: Flags [S], seq 751563836, win 29200, options [mss 1460,sackOK,TS val 860508561 ecr 0,nop,wscale 7], length 0
12:13:37.645120 IP 192.168.65.14.46968 > 192.168.128.26.80: Flags [S], seq 314395223, win 29200, options [mss 1460,sackOK,TS val 860508561 ecr 0,nop,wscale 7], length 0

 

Harliff
()

Если кому-то нужен vyos-config-sync...

Я немного доработал скрипт синхронизации, теперь он работает с ssh-ключами.

https://github.com/Harliff/vyattta-config-sync

 

Harliff
()

Save As -> виндовая шара

Добрый день.

Имеется Debian 10 + i3wm.

Запускаю nautilus, подключаю сетевой ресурс (smb://server/share).

Запускаю файловые менеджеры (caja, thunar и даже doublecmb) - сетевой ресурс в них виден (в боковой панели).

Пробую сохранить что-нибудь из firefox/thunderbird/chrome - в боковой панели сетевого ресурса нет (только локальные). Так же нет возможности там подключить сетевой ресурс или перейти к нему по адресу (smb://...).

Если не понятно - могу выложить скриншоты.

Может, я какой-то компонент (gtk-…) не установил?

PS: монтирование вручную/через autofs не нравится тем, что при обрыве соединения некоторые программы впадают в ступор.

 , ,

Harliff
()

Заблокировать доступ к ~/.ssh/id_rsa всему, кроме sshd

Во первых, можно ли это сделать в apparmor (он активен в моей системе)? Если нет, то чем это лучше сделать (у меня debian stretch)?

ssh приведён для примера, интересует подход к решению таких задач вообще.

 

Harliff
()

Слепить блочное устройство с маппингом файлов в партиции.

Что-то типа такого:

/root/partition1.img > /dev/nbd0p1
/root/partition2.img > /dev/nbd0p2
/dev/mapper/some-lvm-partiton -> /dev/nbd0p3

Такое возможно?

 , , , ,

Harliff
()

KVM: в dmesg куча «kvm_set_msr_common: MSR_IA32_DEBUGCTLMSR»

На одной виртуалке (windows в KVM) есть ПО, которая защищается от копирования путём «привязки к железу». Во время работы этой программы, dmesg забивается подобными записями:

kvm [24340]: vcpu2, guest rIP: 0xfffff8026e160bb3 \
kvm_set_msr_common: MSR_IA32_DEBUGCTLMSR 0x1, nop

С логами я разобрался (настроил rsyslog), мусор в консоли тоже убрал (dmesg -D), теперь хочется вообще избавиться от этих сообщений (что бы их в выводе dmesg не было).

Что делал (и это ничего не дало):

  • переключал модель процессора в KVM (с kvm64 на host и обратно)
  • /sys/module/kvm/parameters/ignore_msrs = Y
  • /sys/module/kvm/parameters/report_ignored_msrs = 0
  • /sys/kernel/debug/tracing/events/kvm/kvm_msr/enable = N

Есть ещё идеи?

Proxmox 5.4, linux 4.15.18-13-pve, windows 2016 в качестве гостя.

 , , , ,

Harliff
()

ZFS: zvol on ssd - низкая производительность (по сравнению с LVM)

Реально ли, при использовании SSD, затюнить ZFS так, что бы zvol выдавал результаты, схожие с LVM (на тех же дисках)?

Буду благодарен ссылкам на истории успеха, либо замечаниям по конфигурации и тестам.

Готов дать более подробную информацию (спрашивайте) или провести ещё тесты (давайте ваши предложения).

Результаты тестов:

  • LVM (завершился полностью):

    • read : io=102400MB, bw=123902KB/s, iops=30975, runt=846292msec
      • clat (usec): min=55, max=30008, avg=1027.43, stdev=708.63
    • write: io=102400MB, bw=114611KB/s, iops=28652, runt=914901msec
      • clat (usec): min=73, max=31133, avg=1111.09, stdev=689.31
  • ZFS (я не выдержал и нажал CTRL+C до окончания теста):

    • read : io=34590MB, bw=50676KB/s, iops=12669, runt=698962msec
      • clat (usec): min=2, max=1259.5K, avg=2521.13, stdev=22789.39
    • write: io=42635MB, bw=62461KB/s, iops=15615, runt=698959msec
      • clat (usec): min=28, max=1262.7K, avg=2044.76, stdev=20667.92

Настройки fio:

( читать дальше... )

Железо:

  • Intel(R) Xeon(R) CPU E5-2650 v4 @ 2.20GHz x1
  • 64 Гб ОЗУ (51 свободно)
  • SSD: Intel SSDSC2BA200G4
  • Система почти простаивает (load average < 1)

Версии софта:

  • proxmox 5.3 (сейчас обновиться до 5.4 не готов).
  • linux 4.15.18-10-pve
  • zfs 0.7.12-1 (cat /sys/module/zfs/version)
  • zfsutils-linux 0.7.12-pve1~bpo1
  • fio-2.16

Параметры zfs:

  • zfs_arc_max: 0
  • не стал писать другие параметры, ибо <cut></cut> не срабатывает в форуме

Настройки пула и zvol:

  • ashift=12
  • primarycache=metadata
  • volblocksize=4K
  • checksum=off
  • compression=off
  • logbias=throughput (logbias=latency пробовал, результаты чуть хуже)
  • dedup=off
  • sync=standard

Настройки lvm: по-умолчанию

UPD: идея в том, что бы понять, какая будет максимальная производительность у ZFS volume (относительно raw disk либо LVM). Понятно, что COW медленней, чем не COW. Вопрос в том, какую производительность можно выжать из COW.

 , , , ,

Harliff
()

RSS подписка на новые темы