LINUX.ORG.RU

Сообщения Shprot

 

Что за boot разделы на диске...?

NAME         MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
loop0          7:0    0 487.9M  1 loop /run/rootfsbase
sda            8:0    1  14.4G  0 disk 
├─sda1         8:1    1   250K  0 part 
├─sda2         8:2    1   2.8M  0 part 
├─sda3         8:3    1 569.5M  0 part /run/initramfs/live
└─sda4         8:4    1   300K  0 part 
mmcblk2      179:0    0  29.1G  0 disk 
mmcblk2boot0 179:8    0     4M  1 disk 
mmcblk2boot1 179:16   0     4M  1 disk

На mmcblk2, которые boot0 и boot1…?

 

Shprot
()

Не стартует fluxbox на gentoo

В наличии дедушка нетбуков и великий старейшина samsung NP-N102S с лютейшим на борту CPU Intel Atom N2100.
Захотелось погонять дохляка. Установил генту, следом иксы, после рестарта иксы моргнут и тёмный экран показывают. Прочитал что из-за небольшого разрешения (10 дюймов) надо в /etc/default/grub добавить параметр nomodeset. Добавил, загрузка проходит и есть приглашение командной строки. Логинюсь. Ставлю fluxbox, но стартануть не получается. При подаче команды startfluxbox вываливается

xmodmap: unable to open display
Error: Couldn’t connect in Xserver passing null display

А при startx целая портянка, в которой смущают ошибки на open /dev/fb0: No such file or directory и open /dev/dri/card0: No such file or directory и ещё некоторые ероры и варнинги. Спросил в ТГ у игзперда по флуксу, тот сказал что до запуска окошек надо ещё много чего сделать и благополучно испарился.

make.conf

CFLAGS="-march=native -O2 -pipe"
CXXFLAGS="${CFLAGS}"

ACCEPT_LICENSE="*"
USE="X -cdda -cdr -cups -dvd -gnome -gtk-doc -ipv6 -kde -qt5 -qt6 -systemd"

INPUT_DEVICE="libinput synaptic"
VIDEO_CARDS="intel i915"

GENTOO_MIRRORS="https://gentoo-mirror.alexxy.name"

CPU_FLAGS_X86="mmx mmxext sse sse2 sse3 ssse3"

Видео-затычечка

00:02.0 VGA compatible controller: Intel Corporation Atom Processor D2xxx/N2xxx Integrated Graphics Controller (rev 09)
	DeviceName:  Onboard IGD
	Subsystem: Samsung Electronics Co Ltd Device c629

Люд православный, подскажи что я не доделал…?

 , , ,

Shprot
()

QEMU. устройство хранения block vs file.

Всю жЫсть использовал для дисков формат qcow2. В xml’е секция под это выглядит вот так

<disk type='file' device='disk'>
  <driver name='qemu' type='qcow2'/>
  <source file='/kvm/images/vm.qcow2'/>
  <target dev='vda' bus='virtio'/>
  <address type='pci' domain='0x0000' bus='0x04' slot='0x00' function='0x0'/>
</disk>

В ТГ наткнулся на канал, в котором чувак (препод в одной из госконтор) упорото топит во-первых за разметку хоста - lvm (у меня RAID-1), во-вторых диски ВМ он создаёт тоже lvm lvcreate -n vm -L16G vg (некий бутер из lvm получается) и его секция в конфиге выглядит так

<disk type='block' device='disk'>
  <driver name='qemu' type='raw' cache='none' io='native'/>
  <source dev='/dev/ssd/vm' index='2'/>
  <backingStore/>
  <target dev='vda' bus='virtio'/>
  <alias name='virtio-disk0'/>
  <address type='pci' domain='0x0000' bus='0x02' slot='0x00' function='0x0'/>
</disk>

а про qcow2 с пеной у рта кричит: - «ЗАБУДЬТЕ…!!! Это прошлый век. Использование хранилок блочными в сто раз быстрее, чем файлами».

В общем я замерил. Файлом у меня скорость чтение/запись примерно в 8 раз быстрее, чем блоком.
Кто юзает qemu, поделитесь опытом, как всё-таки лучше будет юзать диски под ВМ.

P.S> Лев, если ты это читаешь - сорян. Я хочу выяснить у местного бомонда действительно ли ты прав в своей теории…=)

 , , ,

Shprot
()

LUKS. Шифруете ли Вы дома/на работе диски?

Заскучал я в общем на выходных. Не знал чем себя занять. На просторах всемирной наткнулся на шифрование дисков. Решил пощупать как это делается. По -> этому ману <- поставил, настроил, даже накатил иксы…=) В общем задумался, а кто-нить вообще юзает такое? Даже если захочется спрятать информацию, то терморектальный проктоанализ, под воздействием которого всё равно скажешь passphrase, никто не отменял.

 , ,

Shprot
()

Объясните разницу между ядром (core) и потоком (thread) конкретно в KVM-виртуализации.

В xml-конфиге гостя, присутствует строчка

<vcpu placement='static'>2</vcpu>

Которая отвечает за количество виртуальных процессоров. Чуть ниже есть раздел, в котором указываем сокеты, ядра, потоки…
Будет ли заметна разница в производительности, таких параметров

<cpu mode='host-passthrough' check='none' migratable='on'>
   <topology sockets='1' dies='1' cores='1' threads='2'/>
</cpu>

от таких

<cpu mode='host-passthrough' check='none' migratable='on'>
   <topology sockets='1' dies='1' cores='2' threads='1'/>
</cpu>

 , ,

Shprot
()

IPv6 от туннульного брокера в mikrotik не взлетает...=(

Впервые пытаюсь замутить подобное и практически сразу же залип. Зарегался значит я у брокера, получил необходимые настройки, вооружившись манами эникеев из всемирной паутины, рванул в консоль микрота.

/interface 6to4 add comment="Tunnel Broker" disabled=no local-address=<мой IP> mtu=1280 name=sit1 remote-address=<IP предоставленный брокером>

После введённой команды смущает то, что в IPv6 address list появляется адрес с флагами DIL - что значит Dynamic, Invalid, Link local.

Везде пишут что достаточно трёх команд (туннель, шлюзv6 и адресаv6) для подключения к сайтам, поддерживающим IPv6. Но ЧЯДНТ…? Почему у меня список адресов v6 инвалидные…?

-> скриншот <-

Версия тика самая последняя на сегодня - stable 7.15.3

 , ,

Shprot
()

PHP. Зачем подготавливать запросы при выборке данных?

О-о-очень боялся задать вопрос связанный с PHP, ибо тьма ненавидящих его, но пусть меня закидают тухлой шаурмой с вокзала и какой-нибудь гуру даст ответ…=)

В общем есть интерес к этому ЯП (да стану я писать на PHP красиво и шагну я в мир CRUD’а хотя бы). К примеру есть у меня в МУСКУЛ’е БД с таблицей users и полями в ней id, name и surname с соответствующими данными. Где-то пишут, чтоб выполнить SELECT * FROM users, надо подготовить запрос. Зачем? Какая опасность может подстерегать при выборке?

 , , , ,

Shprot
()

Asterisk вываливает ошибку при регистрации сипа

Регаю 2 сипа. При попытке позвонить друг другу в CLI ничего не происходит. Sngrep отправляет ACK с трубки на АТС и на этом всё.

INVITE (SDP)  
─────────>  
401 Unauthorized  
<─────────  
ACK  
─────────>  

При регистрации сипа АТС регистрирует, но с варнингом WARNING[78017]: res_pjsip_pubsub.c:3396 pubsub_on_rx_publish_request: No registered publish handler for event presence from Ydoglbet62b1 == Endpoint Ydoglbet62b1 is now Reachable

Включил логгер. -> Тут <- кусок лога с ошибкой, в котором SIP/2.0 489 Bad Event – Сервер не понял пакет событий, указанный в поле заголовка события (RFC6665). Может кто подскажет чего? Что не понял сервер…?
tcpdump с АТС UDP и SIP

 ,

Shprot
()

reverse_proxy to nextcloud

Хочу перед клаудом поставить реверс прокси nginx. Соответственно прикрутить let’s encrypts на проксю, а трафик с прокси, так как nginx и клауд в одной LAN-сети, отправлять как proxy_pass http://192.168.0.21, но исходя из доки клауда, я понял что клауд не станет работать у себя на хосте по http, а будет толькоо по https. Получается придётся геморройничить с сертификатами и на проксе для клауда и на самом клауде? Подскажите, был ли у кого-нибудь подобный кейс или как упростить вариант с сертификатами…

 , ,

Shprot
()

Asterisk pjsip и транспорт tls

Впервые настраиваю transport-tls. Сертификаты получил от letsencrypts. Вот pjsip.conf

[transport-tls]
type=transport
protocol=tls
bind=0.0.0.0
method=tlsv1
cert_file=/etc/letsencrypt/live/мой.домен.ком/fullchain.pem
priv_key_file=/etc/letsencrypt/live/мой.домен.ком/privkey.pem

Вот права на файлы сертов ls -l /etc/letsencrypt/live/мой.домен.ком/

lrwxrwxrwx 1 astrx astrx  36 Jul 11 08:20 cert.pem -> ../../archive/мой.домен.ком/cert1.pem
lrwxrwxrwx 1 astrx astrx  37 Jul 11 08:20 chain.pem -> ../../archive/мой.домен.ком/chain1.pem
lrwxrwxrwx 1 astrx astrx  41 Jul 11 08:20 fullchain.pem -> ../../archive/мой.домен.ком/fullchain1.pem
lrwxrwxrwx 1 astrx astrx  39 Jul 11 08:20 privkey.pem -> ../../archive/мой.домен.ком/privkey1.pem

Сервис АТС запускается от пользователя astrx. Рестартую модуль res_pjsip.so из консольки астера, вываливает вот что

Reloading module 'res_pjsip.so' (Basic SIP resource)
[Jul 11 12:13:02] ERROR[1644]: res_pjsip/config_transport.c:1032 transport_tls_file_handler: Transport: transport-tls: cert_file /etc/letsencrypt/live/мой.домен.ком/fullchain.pem is either missing or not readable
[Jul 11 12:13:02] ERROR[1644]: config_options.c:798 aco_process_var: Error parsing cert_file=/etc/letsencrypt/live/мой.домен.ком/fullchain.pem at line 27 of 
[Jul 11 12:13:02] ERROR[1644]: res_sorcery_config.c:422 sorcery_config_internal_load: Could not create an object of type 'transport' with id 'transport-tls' from configuration file 'pjsip.conf'

Мсходя их выхлопа понятно, что он не может прочесть сертификат. В книжке О’Рейли. Астериск. 5 издание. Полное руководство, на 69-ой строке расширение сертификата crt, а приватного ключа key.

Попытка конвертации pem to crt ни к чему не приводит. Ошибка аналогичная…=(

 , ,

Shprot
()

sury обиделся на Россию =(

Есть варик как, не устанавливая VPN, установить php8.3 в debian 12…? Ошибка 451 - блокировка по юридическим причинам

 , ,

Shprot
()

mplayer не воспроизводит файл стянутый с youtube

Решил уйти с VLC на mplayer (smplayer). Пробую запустить видео, стянутое с youtube, выдаёт ошибку Не могу найти кодек для выбранного -vo и видеоформата 0x39307076!. FFmpeg про файл говорит -> вот что <-, а mplayer собран -> с такими флагами <- Так как не особо слежу за кодеками, но тем не менее имею представление, вообще впервые столкнулся с кодеком vp9 (как я понял это свой гугловский). Погуглив ошибку к решению не пришёл…=( Подскажите как завести вышесказанное и порадовать глаз

 ,

Shprot
()

DeadBeeF не показывает абложку альбома...=(

Не так давно обратил внимание на deadbeef и решил попробовать. Учитывая склонность к минимализму, плеер мне «зашёл», но вот только обложку альбома почему-то не показывает. Пробовал как сказано в меню -> хелп - так не работает. Для примера пробую ffplay - обложку показывает. ОСь gentoo, пакет собран с флагами
[ebuild R ] media-sound/deadbeef-1.9.6-r1::gentoo USE="aac alsa converter dts ffmpeg flac hotkeys lastfm libsamplerate mp3 nls nullout opus supereq vorbis -cdda -cover -libretro -musepack -notify -oss -pipewire -pulseaudio -sc68 -shellexec -wavpack -zip"
Подскажите где я что упустил…

 , , ,

Shprot
()

AD-DC на базе Samba и DNS бэкенд на BIND9_DLZ в разных VLAN'ах

Хочу второй AD-DC разместить в другой подсети. В общем всё работает, за исключением DNS. Ввёл виндозную машину в домен, поставил RSAT. При запуске машины в 21-ом влане, -> она видит DNS <- своей сети, но не видит DNS 22-го влана. При смене бриджа машины (всё на kvm в пределах одной железки) -> она видит <- уже другой DNS, из другого влана, в которой она находится.
Конфиг named.conf.options велит обрабатывать запросы и 21-го влана и 22-го. Сетевое взаимодействие между ними есть. Банально пинги между сетями ходят.

cat /etc/network/interfaces - первого AD
auto enp1s0
iface enp1s0 inet static
	address 172.16.22.101
	netmask 255.255.255.0
	gateway 172.16.22.1
	dns-nameservers 172.16.22.101,172.16.21.102
cat /etc/network/interfaces - второго AD
auto enp1s0
iface enp1s0 inet static
	address 172.16.21.102
	netmask 255.255.255.0
	gateway 172.16.21.1
	dns-nameservers 172.16.21.102,172.16.22.101
cat /etc/resolv.conf - первого AD
nameserver	172.16.22.101
nameserver	172.16.21.102
search		мой.домен
cat /etc/resolv.conf - второго AD
nameserver	172.16.21.102
nameserver	172.16.22.101
search		мой.домен

Проверки записей на AD-DC-1 выдают следующее:

host -t A ad-dc-2.мой.домен возвращает ad-dc-2.мой.домен has address 172.16.21.102
------------------------------
ldbsearch -H /var/lib/samba/private/sam.ldb '(invocationId=*)' --cross-ncs objectguid
# record 1
dn: CN=NTDS Settings,CN=AD-DC-1,CN=Servers,CN=Default-First-Site-Name,CN=Sites,CN=Configuration,DC=мой,DC=домен
objectGUID: 2583d372-0ea8-4fed-915d-f8bbc1f51d6a

# record 2
dn: CN=NTDS Settings,CN=AD-DC-2,CN=Servers,CN=Default-First-Site-Name,CN=Sites,CN=Configuration,DC=мой,DC=домен
objectGUID: c57df755-06df-436f-8dfd-6baf8bd719f7

# returned 2 records
# 2 entries
# 0 referrals
------------------------------
host -t CNAME c57df755-06df-436f-8dfd-6baf8bd719f7._msdcs.мой.домен.
c57df755-06df-436f-8dfd-6baf8bd719f7._msdcs.мой.домен is an alias for AD-DC-2.мой.домен.

Аналогичные проверки проходит и AD-DC-2

Почему из одной сети невиден DNS другой сети…?

 , ,

Shprot
()

Roundcube не отправляет почту

Добрых суток!

ОС - Debian-12.5.0-i386-netinst.iso обратите внимание что ОСЬ x86
Установлен и настроен почтовый сервер -> по этому <- и -> этому <- мануалу
Настроены все DNS записи. При отправке письма с почтовых клиентов (протестены thunderbird и outГлюк), mail тестер даёт оценку 10/10.
Ставлю web-морду кубика, авторизируюсь, папки синхронятся с сервером, входящая почта идёт, но при попытке отправить письмо, моментально даёт ошибку SMTP ошибка(): Ошибка авторизации.
Если с почтовых клиентов почта ходит нормально, то думаю нет смысла выкладывать конфиги постфикса и довекота, а вот -> конфиг кубика <- прикладываю.
mail.log при попытке отправить письмо с web-морды
выхлоп dig -x ip.адрес.почтового.сервера
Подскажите ЧЯДНТ…?!?

 , ,

Shprot
()

OpenConnect. Auth = «certificate»

При назревающей лютости РКН, задумался о смене реализации VPN как корпоративного на работе (филиалы + любители «поболеть» и работать из дома), так и личного (для супруги, шоб инстушка была). На данный момент пыхтит OpenVPN. Уж больно он мне полюбился за простоту, гибкость и т.д. Погуглив и сравнив реализации, я остановил свой выбор на OpenConnect. Установил, настроил (auth = сертификаты, не хочу логин/пароль), пощупал, в общем он мне «зашёл», но…
При аутентификации по логину и паролю, есть возможность отключить (не удалять) пользователя командой ocpasswd -c --файл с юзерами-- -l юзер, а при аутентификации по сертам, я такого не нашёл. Ещё у OpenVPN есть OpenVPN monitor - live-time мониторинг с географической картой. Есть ли подобное у OpenConnect либо завернуть мониторинг количества пользователей онлайн в прометей? Может кто поделится опытом использования?

 

Shprot
()

Postfix проверка заголовков перед получением письма. Возможно?

Пролог

( читать дальше... )

У меня почтовик - это postfix+dovecot (естественно со всеми необходимыми DNS записями) без всяких проверок на спам и вирусы. От спама у меня blacklist, куда ручками забиты порядка сотни «левых» доменов. Вопрос: - Как сказать постфиксу, что при получении письма надо проверять значение X-Mailer (адрес источника не скрываю) и если в нём присутствует gophish, эти письма отклонять?

 , ,

Shprot
()

Транк без регистрации, pjsip_wizard.conf и pjsip.conf

В наличии asterisk на механизме realtime, транк без регистрации от ростелекома с данными для подключения, а именно: их IP, протокол, предпочитаемые кодеки и CallerID. С минимальными настройками в pjsip_wizard транк поднимается

[trunk]
type=wizard
remote_hosts=1.2.3.4
transport=transport-udp
endpoint/context=in-trunk
endpoint/allow=!all,alaw
endpoint/from_user=4954954954
endpoint/from_domain=1.2.3.4
aor/qualify_frequency=60

Весь интернет кишит статьями как завести транк с регистрацией что в wizard, что в pjsip, но не могу понять как его прописать в pjsip.conf

P.S> Когда транк в визарде поднимается, в CLI выскакивает строчка что транк ричебл, а в sngrep’e ничего не появляется. Странно, почему?

 ,

Shprot
()

Libvirt (Qemu+KVM+Virt-manager) гостевые ОС люто юзают ресурсы гипервизора

В наличии HP ProLiant DL360 G5 в основном для тестов. Решил развернуть на нём виртуализацию на Debian 12. В общем гостевая ОСь жрёт практически все ресурсы сервера и жёстко тормозит, неважно будь то Win либо Lin. Вот конфиг Win8.1, дал ей 16 Гб ОЗУ и 8 ядер CPU. Тип HDD и сети - virtio. Вот скрин с самого гипервизора (сервера) когда в гостевой ОСи просто открываешь проводник. Что происходит? Это баги на свеженьком дистре дебиана…? На предыдущем релизе виртуализация крутилась отлично

 ,

Shprot
()

Физические интерфейсы -> bonding -> bridge. Правильно сделал...?

Имеется в наличии старый (но не бесполезный) HP ProLiant DL360 G5. Решил пусть послужит ещё. Развернул Debian 12, накатил libvirt+qemu. Решил агрегировать 2 существующие карточки и навесить бридж. Всё взлетело, но не уверен правильно ли я сделал. Господа сетевых дел мастера, подскажите…=)

auto lo
iface lo inet loopback

auto bond0
iface bond0 inet manual
slaves enp3s0 enp5s0
bond-mode balance-rr
bond-miimon 100
bond-downdelay 200
bond-updelay 200

auto br0
iface br0 inet dhcp
bridge_ports bond0
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: enp3s0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP group default qlen 1000
    link/ether 00:1b:78:e4:82:38 brd ff:ff:ff:ff:ff:ff
3: enp5s0: <NO-CARRIER,BROADCAST,MULTICAST,SLAVE,UP> mtu 1500 qdisc mq master bond0 state DOWN group default qlen 1000
    link/ether 00:1b:78:e4:82:38 brd ff:ff:ff:ff:ff:ff permaddr 00:1b:78:e4:82:30
4: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue master br0 state UP group default qlen 1000
    link/ether 00:1b:78:e4:82:38 brd ff:ff:ff:ff:ff:ff
5: br0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 26:cb:3e:76:b3:b9 brd ff:ff:ff:ff:ff:ff
    inet 192.168.0.200/24 brd 192.168.0.255 scope global dynamic br0
       valid_lft 323sec preferred_lft 323sec
    inet6 fe80::24cb:3eff:fe76:b3b9/64 scope link 
       valid_lft forever preferred_lft forever
6: vnet0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master br0 state UNKNOWN group default qlen 1000
    link/ether fe:54:00:0f:1d:69 brd ff:ff:ff:ff:ff:ff
    inet6 fe80::fc54:ff:fe0f:1d69/64 scope link 
       valid_lft forever preferred_lft forever

 , , ,

Shprot
()

RSS подписка на новые темы