Rescue LiveCD/LiveUSB с поддержкой ZFS ?
Есть ли адекватный LiveCD/USB (типа SystemRescueCD, GRML и т.д.) с поддержкой ZFS?
Есть ли адекватный LiveCD/USB (типа SystemRescueCD, GRML и т.д.) с поддержкой ZFS?
Сабж.
Добрый день!
Какие сегодня есть адекватные веб-интерфейсы (панели управления) для DNS (bind/powerdns)?
Добрый день!
Стоит vsftpd (3.0.3-12).
По некоторым пользователям наблюдаю кучу записей CLOSE_WAIT в netstat (сегодня было 300 шт, при ~10 активных пользователях) + кучу процессов vsftpd (порядка 200 шт).
При этом в conntrack на маршрутизаторе - только 10 записей для этого сервера.
Некоторых пользователей vsftpd посылает с «Connection refused: too many sessions for this address.»
Это баги vsftpd или я его настраивать не умею?
Конфиг (/etc/vsftpd.conf):
listen=YES
listen_ipv6=NO
anonymous_enable=NO
local_enable=YES
write_enable=YES
local_umask=022
dirmessage_enable=NO
use_localtime=YES
xferlog_enable=YES
connect_from_port_20=YES
chroot_local_user=YES
chroot_list_enable=YES
chroot_list_file=/etc/vsftpd.chroot_list
secure_chroot_dir=/var/run/vsftpd/empty
pam_service_name=vsftpd
rsa_cert_file=/etc/ssl/certs/ssl-cert-snakeoil.pem
rsa_private_key_file=/etc/ssl/private/ssl-cert-snakeoil.key
ssl_enable=NO
pasv_enable=YES
pasv_min_port=10000
pasv_max_port=10999
max_per_ip=50
log_ftp_protocol=YES
Буфер обмена очищается при закрытии программы, из которой был скопирован тест в буфер обмена.
Есть возможность изменить это поведение?
Use case: переименование документов. Открываем файл ‘‘invoice.pdf’’ в evince, копируем текст (‘‘Счёт № 123 от 08 июня 2020 г.’’), закрываем evince, переименовываем файл (F2), вставляем из буфера скопированный ранее текст.
PS: быстро нагуглить ответ не получилось. Смотрю в сторону применения стороннего софта: https://wiki.archlinux.org/index.php/Clipboard
Не пойму, по какой схеме определяется стабильность/нестабильность версий VirtIO.
У них в архиве есть:
Почему у них стабильной версией называется .171-1 а не .173-9 или хотя бы не .172-1?
Или они просто забыли обновить ссылку в документации?
Если кому-нибудь понадобится отключить вкладки в Firefox (например, если он использует Tree Stype Tab или подобные дополнения), то можно воспользоваться вот этой инструкцией:
https://superuser.com/questions/1268732/how-to-hide-tab-bar-tabstrip-in-firefox-57-quantum
Иногда у меня сильно тормозят некоторые программы (chrome/chromium, файловые менеджеры на разных тулкитах и даже gvim иногда). Иногда я подключаюсь к программе при помощи strace
и пытаюсь понять, в чём причина тормозов. Как правило, безуспешно — мне не хватает базовых знаний (я не программист).
Вопрос: что (кроме man strace) нужно знать для поиска тормозов ПО?
Можете накидать годных ссылок на описание процесса решения проблем при помощи strace (и другого ПО)?
Доброй ночи!
Есть потребность в создании небольшой mesh сети на одном этаже (5-7 точек, ~3 hop’a, 20 клиентов).
Вопросы:
Таскаю ноутбук между работой и домом. На ноутбуке - debian с i3wm. Часто работаю с виндовыми файловыми ресурсами (редактирую документы, сохраняю туда файлы и т.п.). При недоступности сетевых ресурсов начинаются проблемы с прикладным ПО (файловый менеджер грузится секунд 20, тормозит диалог открытия/сохранения файлов, виснет libreoffice и т.п.).
Ресурсы монтируются либо через autofs, либо через gvfs (через caja/nautilus). С gvfs ситуация немного получше; с autofs - вообще всё плохо (прикладное ПО воспринимает /smb/windows_share как локальный ресурс со всеми вытекающими последствиями)
Это у всех так, или я что-то себе неправильно настроил?
Есть ли способ настроить монтирование, что бы оно не вызывало указанные проблемы?
PS: из прикладного ПО используются: caja, nautilus, firefox, thunderbird, libreoffice.
Всем привет!
В результате работы некоторой программы в виртуалке, логи забиваются сообщениями вида
kvm [7408]: vcpu3, guest rIP: 0xfffff8035a5debb3 kvm_set_msr_common: MSR_IA32_DEBUGCTLMSR 0x1, nop
Сообщения генерируются каждые полсекунды и мешают смотреть логи (ну и место забивают на диске).
Rsyslogd я настроил — больше в /var/log/* эти сообщения не попадают. Но как быть с journald (journalctl) и c dmesg? (про dmesg -D
знаю).
Софт: Debian 9, Proxmox 5, KMV (cpu: host, 6 ядер), Windows 2016 в гостевой системе.
Как-нибудь это можно побороть?
Подскажите, что я делаю не так?
Есть proxmox 6.0, в нём bridge с bridge_vlan_aware = yes
.
Проблемы:
ip link add link ... type vlan ...
), то он тоже не видит тегированный трафик от свича.Если подключить в этот порт другое устройство - оно принимает тегированный трафик без проблем.
Я что-то не так делаю, или это софт глючит?
Конфиг бриджа:
5 auto vmbr0
6 iface vmbr0 inet static
7 address 172.28.15.12
8 netmask 255.255.255.0
9 gateway 172.28.15.1
10 bridge_ports eno4 ens3f0
11 bridge_stp off
12 bridge_fd 0
13 bridge_vlan_aware yes
14 bridge-vids 2-4094
Добрый день.
Рассматриваю возможность внедрения в корпоративной сети L3-коммутаторов для ускорения маршрутизации между VLAN’ами. Сейчас используются L2-свичи + софтроутеры (VyOS), которые терминируют VLAN’ы и выполняют фильтрацию трафика (L4, то есть с учётом портов tcp/udp).
Не пойму, как, с одной стороны, переложить часть работы на L3-свичи, а с другой стороны, продолжать фильтровать трафик на L4.
В принципе, ответ в стиле «используй свичи как L2» тоже устраивает, так как софтроутеры сейчас апгрейдим (взяли простенькие серверы на D-1518 с 10-Гбитными интерфейсами). Так же, VLAN’ы большинства виртуальных машин терминируются на виртуальных маршрутизаторах, работающих на тех-же физических серверах, что и VM.
Столкнулся со странным поведением nmap: хост пингуется, но nmap считает, что хост недоступен.
При этом, nmap не отправляет никаких icmp пакетов (в снифере видны только отправка tcp пакетов на 80 и 443 порты).
Это такой баг, или я чего-то не понимаю?
$ nmap 192.168.128.26
Starting Nmap 7.70 ( https://nmap.org ) at 2019-09-05 12:13 MSK
Note: Host seems down. If it is really up, but blocking our ping probes, try -Pn
Nmap done: 1 IP address (0 hosts up) scanned in 3.04 seconds
tcpdump:
12:13:35.643771 IP 192.168.65.14.46960 > 192.168.128.26.80: Flags [S], seq 1355181642, win 29200, options [mss 1460,sackOK,TS val 860506560 ecr 0,nop,wscale 7], length 0
12:13:35.643794 IP 192.168.65.14.44864 > 192.168.128.26.443: Flags [S], seq 1327317304, win 29200, options [mss 1460,sackOK,TS val 860506560 ecr 0,nop,wscale 7], length 0
12:13:37.645092 IP 192.168.65.14.44868 > 192.168.128.26.443: Flags [S], seq 751563836, win 29200, options [mss 1460,sackOK,TS val 860508561 ecr 0,nop,wscale 7], length 0
12:13:37.645120 IP 192.168.65.14.46968 > 192.168.128.26.80: Flags [S], seq 314395223, win 29200, options [mss 1460,sackOK,TS val 860508561 ecr 0,nop,wscale 7], length 0
Я немного доработал скрипт синхронизации, теперь он работает с ssh-ключами.
Добрый день.
Имеется Debian 10 + i3wm.
Запускаю nautilus, подключаю сетевой ресурс (smb://server/share).
Запускаю файловые менеджеры (caja, thunar и даже doublecmb) - сетевой ресурс в них виден (в боковой панели).
Пробую сохранить что-нибудь из firefox/thunderbird/chrome - в боковой панели сетевого ресурса нет (только локальные). Так же нет возможности там подключить сетевой ресурс или перейти к нему по адресу (smb://...).
Если не понятно - могу выложить скриншоты.
Может, я какой-то компонент (gtk-…) не установил?
PS: монтирование вручную/через autofs не нравится тем, что при обрыве соединения некоторые программы впадают в ступор.
Во первых, можно ли это сделать в apparmor (он активен в моей системе)? Если нет, то чем это лучше сделать (у меня debian stretch)?
ssh приведён для примера, интересует подход к решению таких задач вообще.
Что-то типа такого:
/root/partition1.img > /dev/nbd0p1
/root/partition2.img > /dev/nbd0p2
/dev/mapper/some-lvm-partiton -> /dev/nbd0p3
Такое возможно?
На одной виртуалке (windows в KVM) есть ПО, которая защищается от копирования путём «привязки к железу». Во время работы этой программы, dmesg забивается подобными записями:
kvm [24340]: vcpu2, guest rIP: 0xfffff8026e160bb3 \
kvm_set_msr_common: MSR_IA32_DEBUGCTLMSR 0x1, nop
С логами я разобрался (настроил rsyslog
), мусор в консоли тоже убрал (dmesg -D
), теперь хочется вообще избавиться от этих сообщений (что бы их в выводе dmesg
не было).
Что делал (и это ничего не дало):
kvm64
на host
и обратно)/sys/module/kvm/parameters/ignore_msrs = Y
/sys/module/kvm/parameters/report_ignored_msrs = 0
/sys/kernel/debug/tracing/events/kvm/kvm_msr/enable = N
Есть ещё идеи?
Proxmox 5.4, linux 4.15.18-13-pve, windows 2016 в качестве гостя.
Реально ли, при использовании SSD, затюнить ZFS так, что бы zvol выдавал результаты, схожие с LVM (на тех же дисках)?
Буду благодарен ссылкам на истории успеха, либо замечаниям по конфигурации и тестам.
Готов дать более подробную информацию (спрашивайте) или провести ещё тесты (давайте ваши предложения).
Результаты тестов:
LVM (завершился полностью):
ZFS (я не выдержал и нажал CTRL+C до окончания теста):
Настройки fio:
( читать дальше... )
Железо:
Версии софта:
cat /sys/module/zfs/version
)Параметры zfs:
<cut></cut>
не срабатывает в форумеНастройки пула и zvol:
Настройки lvm: по-умолчанию
UPD: идея в том, что бы понять, какая будет максимальная производительность у ZFS volume (относительно raw disk либо LVM). Понятно, что COW медленней, чем не COW. Вопрос в том, какую производительность можно выжать из COW.
← назад | следующие → |