LINUX.ORG.RU

Сообщения Entmatix

 

Как в python3 передать в subprocess список как аргументы команды

Например, есть список

    backup_files_list = [
        "/home/user/.vim",
        "/home/user/.vimrc",
        "/home/user/.ssh",
        "/home/user/.mybash"
    ]

Я хочу использовать элементы этого списка как источники для команды rsync.

    run(["rsync", "-aRhv", "--delete", "--dry-run",
         "--prune-empty-dirs", f"--log-file={log_file}",
         " ".join([x for x in backup_files_list]),
         target])

А рсинк ругается

building file list ...
rsync: [sender] link_stat "/home/user/.vim /home/user/.vimrc /home/user/.ssh /home/user/.mybash" failed: No such file or directory (2)

Я так понимаю, что рсинк расценивает этот как целую строку, а не как ряд отдельных источников. Если не джоинить, то рсинк это вообще не съест. По одному передавать в цикле не хотелось бы. Как правильно написать?

И насоветуйте нормальную литературу (именно текстовую информацию, а не видео) по использованию питона в сисадминстве линукса для скриптов и прочего. Нашел из серьезного только ОРайли, но там времен второго питона учебник.

 , ,

Entmatix
()

Какую ОС/дистрибутив вы используете на high availability сервере?

Для критических сервисов, которые должны быть доступны 24/7/365. Знаю, что это не только ОС/дистром обеспечивается, но интересно, что же за дистры используют.

Перемещено hobbit из polls

 , , , ,

Entmatix
()

Количество комментариев на странице

Я как-то то упустил момент, когда из профиля убрали отображение 20 или 25 сообщений на странице. Теперь минимальное это 50. Зачем, не знаю, но стало менее удобно. Верните возможность отображать 20-25 постов на странице.

 ,

Entmatix
()

Использование reverse proxy с ssl для локального сервера

Т.к. матчасть до конца еще не понимаю, прошу подсказать. Домашний серв, для которого не проброшены порты. Он доступен только в локалке и по впн (wireguard) через впс. Для некоторых сервисов хочу/нужно шифрование. Я знаю, что есть duckdns.org и тому подобные r2g сервисы, но я хочу собственный сертификат и свой домен. Так вот, у меня есть домен, допустим, x.ru, который указывает на внутренний (в локалке) адрес сервера, допустим 192.168.0.101. Я создал несколько А записей с поддоменами вроде n1.x.ru, n2.x.ru, которые указывают на этот же адрес. Дальше я через caddy/nginx-proxy-manager (не одновременно, конечно, пробовал, а по очереди) настраиваю прокси с forced ssl через letsencrypt/zerossl. Сертификаты получаю вроде как (это все автоматом происходит)

    ├── archive
    │   └── npm-5
    │       ├── cert1.pem
    │       ├── chain1.pem
    │       ├── fullchain1.pem
    │       └── privkey1.pem

Если делать через nginx, прокси появляются в списке, статус у них зеленый (активный, валидный), указано, что есть ssl, но соединиться по адресу поддомена с сервисом невозможно ни из локалки, ни через внп. Просто нет никакого ответа. Если в браузере открыть, то это белая страница, хоть https. При этом соединение в принципе работает, если по ip адресу заходить. Фаерволл нужное пропускает, с этим проблем нет.

Вопрос: как правильно организовать через reverse proxy, установленный на серваке в локальной сети доступ к сервисам на этом же серваке через https на собственном домене, привязанном к внутреннему адресу сервака, при этом не открывая сервак миру, даже через cloudflare.

Перемещено hobbit из general

 , , , ,

Entmatix
()

docker и nftables

Приходиться изучать докер, а то этих докеров везде насовали, а просто приложений бинарных или хотя бы готовых виртуалок нет… Сразу скажу, я не эксперт в сетях.

Последний докер, все дела. Авто создание iptables правил для докера отключено в системд сервисе (у меня их нет, я ими не пользуюсь, у меня nftables). Создал свою пользовательскую сеть и присоединил к ней

NETWORK ID     NAME            DRIVER    SCOPE
46176c91bd13   bridge          bridge    local
e333dab226db   host            host      local
4baab8ccfc49   my-docker-net   bridge    local
d152559db207   none            null      local

docker network inspect my-docker-net

        "EnableIPv6": false,
        "IPAM": {
            "Driver": "default",
            "Options": {},
            "Config": [
                {
                    "Subnet": "172.18.0.0/16",
                    "Gateway": "172.18.0.1"
                }
            ]
        },
        "Internal": false,
        "Attachable": false,
        "Ingress": false,
        "ConfigFrom": {
            "Network": ""
        },
        "ConfigOnly": false,
        "Containers": {
            "2bddcafec9ceccfbcd487813182caeba9e3bd79bdc29da73d0f60c963f3aaeeb": {
                "Name": "alpine1",
                "EndpointID": "ceeaf90446fc59816a8c186a3017a3da4a7ef4d26a40eb3b4b562d3bd6aa1777",
                "MacAddress": "02:42:ac:12:00:02",
                "IPv4Address": "172.18.0.2/16",
                "IPv6Address": ""
            }
        },
        "Options": {},
        "Labels": {}
    }
]

В итоге на хосте имею 3 новых интерфейса

5: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default
    link/ether 02:42:04:2e:d9:f6 brd ff:ff:ff:ff:ff:ff
    inet 172.17.0.1/16 brd 172.17.255.255 scope global docker0
       valid_lft forever preferred_lft forever
    inet6 fe80::42:4ff:fe2e:d9f6/64 scope link
       valid_lft forever preferred_lft forever
308: br-4baab8ccfc49: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default
    link/ether 02:42:0e:ca:04:45 brd ff:ff:ff:ff:ff:ff
    inet 172.18.0.1/16 brd 172.18.255.255 scope global br-4baab8ccfc49
       valid_lft forever preferred_lft forever
    inet6 fe80::42:eff:feca:445/64 scope link
       valid_lft forever preferred_lft forever
370: vethb40c7f3@if369: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master br-4baab8ccfc49 state UP group default
    link/ether 4e:99:c7:eb:6a:c2 brd ff:ff:ff:ff:ff:ff link-netnsid 0
    inet6 fe80::4c99:c7ff:feeb:6ac2/64 scope link
       valid_lft forever preferred_lft forever

ЕЯПП докер0 это дефолтный интерфейс, бр-4б… это интерфейс, который появился, когда я создал свою сеть, а последний не понятно, что это, но вроде появился, когда я приконнектил контейнер к своей сети. Внутри контейнера с алпайном ситуация такая:

/ # ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
369: eth0@if370: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue state UP
    link/ether 02:42:ac:12:00:02 brd ff:ff:ff:ff:ff:ff
    inet 172.18.0.2/16 brd 172.18.255.255 scope global eth0
       valid_lft forever preferred_lft forever
/ # ip route
default via 172.18.0.1 dev eth0
172.18.0.0/16 dev eth0 scope link  src 172.18.0.2

На хосте включен форвардинг, в нфтейблс конфиг добавлено

define DOCKERDEV = br-4baab8ccfc49
define DOCKERNET = 172.18.0.0/24

 chain my_forward {
     type filter hook forward priority filter; policy accept;
 }

table ip nat {
  chain postrouting {
    type nat hook postrouting priority 100;
    ip saddr $DOCKERNET oifname $ETHDEV masquerade
  }

  chain prerouting {
    type nat hook prerouting priority 0;
  }
}

Конфиг нфтейблс ессено применен. Однако доступа из контейнера в интернет нет. Пинги не проходят, резолвы тоже. Где я сделал что-то не так? Каким боком тут интерфейс vethb40c7f3@if369 ?

 , , ,

Entmatix
()

Как работает read -a и readarray?

Нужно прочитать выхлоп и занести его в массив. Разделитель - новая строка. Пример

dig +noall +short yandex.ru
77.88.55.55
77.88.55.50
5.255.255.80
5.255.255.88

dig +noall +short yandex.ru | readarray arr1
echo ${arr1[@]}
пустота

Тоже самое с read -a, тоже самое с readarray -d '\n', тоже самое с

dig +noall +short yandex.ru | while read -r i; do arr1+=( $i ); done

Судя по всему, дело не в сепараторе элементов (IFS=$‘\n’ не помогает). Как занести все в массив?

 , ,

Entmatix
()

Как через tcpdump увидеть маркированные nftables пакеты

Маркирую трафик через set mark 1. Как увидеть пакеты с этой маркой? Можно даже не tcpdump, а другую тулзу, главное видеть откуда, куда, какой порт и какая марка. tcpdump даже с -vvv не показывает марки. Гугл ничего толкового не предлагает или же я не понял сути сего действа. Пример того, что показывает тспдамп, когда к нему приходят пакеты с сервера, маркированные через set mark 1

sudo tcpdump -i wg0 host 10.70.71.3 -vvv
tcpdump: listening on wg0, link-type RAW (Raw IP), snapshot length 262144 bytes
10:08:13.989431 IP (tos 0x0, ttl 63, id 0, offset 0, flags [DF], proto TCP (6), length 64)
    10.70.71.3.61661 > 10.70.71.4.microsoft-ds: Flags [S], cksum 0x7494 (correct), seq 3042712664, win 65535, options [mss 1240,nop,wscale 6,nop,nop,TS val 2553267249 ecr 0,sackOK,eol], length 0
10:08:13.989491 IP (tos 0x10, ttl 64, id 0, offset 0, flags [DF], proto TCP (6), length 60)
    10.70.71.4.microsoft-ds > 10.70.71.3.61661: Flags [S.], cksum 0xa2c1 (incorrect -> 0x48ad), seq 1841489905, ack 3042712665, win 6840, options [mss 1380,sackOK,TS val 3805997325 ecr 2553267249,nop,wscale 0], length 0
10:08:14.135020 IP (tos 0x0, ttl 63, id 0, offset 0, flags [DF], proto TCP (6), length 52)
    10.70.71.3.61661 > 10.70.71.4.microsoft-ds: Flags [.], cksum 0x893f (correct), seq 1, ack 1, win 2053, options [nop,nop,TS val 2553267399 ecr 3805997325], length 0
10:08:14.135107 IP (tos 0x0, ttl 63, id 0, offset 0, flags [DF], proto TCP (6), length 125)
    10.70.71.3.61661 > 10.70.71.4.microsoft-ds: Flags [P.], cksum 0xbad6 (correct), seq 1:74, ack 1, win 2053, options [nop,nop,TS val 2553267399 ecr 3805997325], length 73
10:08:14.135144 IP (tos 0x10, ttl 64, id 56699, offset 0, flags [DF], proto TCP (6), length 52)
    10.70.71.4.microsoft-ds > 10.70.71.3.61661: Flags [.], cksum 0xa2b9 (incorrect -> 0x75fb), seq 1, ack 74, win 6767, options [nop,nop,TS val 3805997470 ecr 2553267399], length 0

 , ,

Entmatix
()

Как правильно днатить в nftables?

Есть сервер-пир wg сети (wg0), который должен перенаправлять некоторые запросы во внутреннюю сеть (на eth0). Нужно, чтобы при обращении к 10.70.71.4 сервер днатил его на 192.168.77.28 по всем портам. Такие варианты не принимает:

iifname wg0 ip daddr 192.168.77.28 dnat to 10.70.71.4

tcp dport 0-65535 ip daddr 192.168.77.28 dnat to 10.70.71.4
udp dport 0-65535 ip daddr 192.168.77.28 dnat to 10.70.71.4

ip saddr 10.70.71.0/24 ip daddr 192.168.77.28 dnat to 10.70.71.4
ip saddr 10.70.71.0/24 ip daddr 192.168.77.28 dnat to 10.70.71.4

Ошибка

Could not process rule: Operation not supported

Сервер на debian 11. Как написать, чтобы не отвергал? Не могу понять. Или мне вообще не dnat нужен? Сужу по аналогии с микротиковским натом, где у меня похожее правило, которое работает:

chain=dstnat action=dst-nat to-addresses=192.168.77.28 protocol=tcp dst-address=10.70.71.4
chain=dstnat action=dst-nat to-addresses=192.168.77.28 protocol=udp dst-address=10.70.71.4

 ,

Entmatix
()

Насоветуйте, как вытащить битварден из докера или что установить на замену self-hosted

Докер идет лесом. Нужна человеческая установка. Как вытащить? Даже волтварден с этим же докером 🫤. Ужас просто. Может кто-то уже озаботился? Или есть что на замену опенсорсное, даже если платное, но чистый сельфхостед с поддержкой safari+firefox на linux+macos+ios?

 ,

Entmatix
()

Логика получения вложенных объектов при неизвестной степени вложенности

Есть первоначальный конфиг, который помимо прочего может содержать указания на другие конфиги в формате «КОНФИГИ=конфиг1 конфиг2 … конфигN». Каждый из этих конфигов может помимо прочего также содержать указания на другие конфиги, при этом они НЕ пересекаются с множеством конфигов верхнего уровня. Вопрос: как на баше или питоне задать логику получения ВСЕХ вложенных конфигов, при этом сохранить их иерархию (конфиг нижнего уровня должен стоять ПОСЛЕ конфига верхнего, который на него указывал). Готовый код не нужен, мне просто надо понять логику. Какой-то простой цикл тут явно не заходит из-за неизвестной степени вложенности (она точно не бесконечная). Специалисты по алгоритмам, подскажите, что почитать, куда покапать. Спасибо.

 , ,

Entmatix
()

Геймпад для игры в мультиплеерные игры steam

Народ, подскажите нормальные проводные геймпады для игры вдвоем в steam во всякое, вроде мортал комбат, теккен, гонки и прочее. Есессно совместимо с линуксом (убунта 20.04/дебиан булзай). Никогда геймпадами не пользовался, вообще не понимаю, на что у них смотреть. Бюджет до 5к на 2 геймпада.

 , ,

Entmatix
()

Не могу подключиться по ssh

Привет, народ.

Локалка 192.168.77.0/24. В ней nas на убунте 20.04 с адресом 192.168.77.13 и rpi4 192.168.77.21. На роутере, который держит 192.168.77.0/24 стоит впн сервер 10.70.72.0/24. Nas является клиентом впн на впс 10.70.71.0/24 с адресом 10.70.71.2.

На nas НЕТ включенных фаерволов (специально обнулен nftables flush ruleset, проверял по nftables list ruleset, iptables -L, других фаеров нет (ufw/firewalld)).

С удаленного пэка, который является клиентом впн на роутере 10.70.72.3, пробую ssh к малинке - ssh 192.168.77.21 - соединение проходит.

С удаленного пэка, который является клиентом впн на впс 10.70.71.3, пробую ssh к nas - ssh 10.70.71.2 - соединение проходит.

С удаленного пэка, который является клиентом впн на роутере 10.70.72.3, пробую сначала ssh на малину - ssh 192.168.77.21, а с малины на nas - ssh 192.168.77.13 - соединение НЕ проходит.

С удаленного пэка, который является клиентом впн на роутере 10.70.72.3, пробую ssh к nas - ssh 192.168.77.13 - соединение НЕ проходит.

Лог последнего соединения:

debug1: Reading configuration data /etc/ssh/ssh_config
debug1: /etc/ssh/ssh_config line 21: include /etc/ssh/ssh_config.d/* matched no files
debug1: /etc/ssh/ssh_config line 54: Applying options for *
debug2: resolve_canonicalize: hostname 192.168.77.13 is address
debug3: expanded UserKnownHostsFile '~/.ssh/known_hosts' -> '/Users/user/.ssh/known_hosts'
debug3: expanded UserKnownHostsFile '~/.ssh/known_hosts2' -> '/Users/user/.ssh/known_hosts2'
debug1: Authenticator provider $SSH_SK_PROVIDER did not resolve; disabling
debug3: ssh_connect_direct: entering
debug1: Connecting to 192.168.77.13 [192.168.77.13] port 22.
debug3: set_sock_tos: set socket 3 IP_TOS 0x48

При этом, если удаленный пэка оказывается непосредственно в сети 192.168.77.0/24, то он успешно коннектится к nas. Точно такие же симптомы с веб сервером и самбой на этом же nas.

На роутере никаких ограничений нет (к малинке подключается, к другим ресурсам локалки доступ тоже есть). В dmesg на nas записи при отключенном фаерволле не идут. Если включить nftables, предварительно разрешив коннект к ssh, то показывает такое:

[652574.783481] SSH: IN=wg0 OUT= MAC= SRC=10.70.71.3 DST=10.70.71.2 LEN=64 TOS=0x08 PREC=0x40 TTL=63 ID=0 DF PROTO=TCP SPT=50057 DPT=22 WINDOW=65535 RES=0x00 SYN URGP=0 
[652639.216694] SSH: IN=eno1 OUT= MAC=18:СКРЫТО SRC=10.70.72.3 DST=192.168.77.13 LEN=64 TOS=0x08 PREC=0x40 TTL=63 ID=0 DF PROTO=TCP SPT=50082 DPT=22 WINDOW=65535 RES=0x00 SYN URGP=0 
[652706.921377] SSH: IN=wg0 OUT= MAC= SRC=10.70.71.3 DST=10.70.71.2 LEN=64 TOS=0x08 PREC=0x40 TTL=63 ID=0 DF PROTO=TCP SPT=50163 DPT=22 WINDOW=65535 RES=0x00 SYN URGP=0

Первая и третья запись - коннект к nas с удаленного пэка через впн на впс. Вторая запись - попытка коннекта к nas через внп на роутере. Все маршруты есть, они в порядке, ведь к rpi, которая в той же локалке, я успешно подключаюсь, а к nas почему-то нет. Второй день ломаю голову. Пинги и трасса, кстати, тоже не проходят. И именно до nas. Все остальные ресурсы локалки доступны. В чем причина может быть?

 ,

Entmatix
()

Отваливается первый клиент wireguard если подключается второй

Всех с наступающим!

Я рискнул проапгрейдить ROS до 7.1. Вроде все норм. Поднял wireguard сервер, создал два пира - один rpi4 (bullseye), второй десктопный дебиан (bullseye). Ключи и адреса у пиров разные, приватный ключ сервера и интерфейс естественно один и тот же. Проблема - если подключен первый пир, я подключаю второй пир - сначала он не подключается. Точнее в интерфейсе я получаю такое

wg0: <POINTOPOINT,NOARP,UP,LOWER_UP> mtu 1420 qdisc noqueue state UNKNOWN group default qlen 1000
    link/none 
    inet 10.70.72.3/24 scope global wg0
       valid_lft forever preferred_lft forever

link/none Маршруты добавляются правильные, но пингануть я ничего не могу, потому что шлюз (в моем случае 10.70.72.1 то бишь роутер с wireguard сервером) недоступен. Пару раз вручную перезапустив подключение через wg-quick второй пир поднимается, но тут же падает первый пир. Почему - не понятно. Такое ощущение, что за одним натом может быть только 1 пир, хотя нигде упоминания этого ограничения я не встретил. Как настроить, чтобы работало одновременно несколько пиров? Любую инфу дам, скажите только какую надо.

Примеры конфигов:

Пир 1

[Interface]
Address = 10.70.72.2/24
PrivateKey = client1_priv

[Peer]
PublicKey = server_pub
AllowedIPs = 10.70.72.0/24,192.168.1.0/24
Endpoint = public_ip:13231
PersistentKeepalive = 25

Пир 2

[Interface]
Address = 10.70.72.3/24
PrivateKey = client2_priv

[Peer]
PublicKey = server_pub
AllowedIPs = 10.70.72.0/24,192.168.1.0/24
Endpoint = public_ip:13231
PersistentKeepalive = 25

Сервер

interface/wireguard/print detail 
Flags: X - disabled; R - running 
 0  R name="wireguard1" mtu=1420 listen-port=13231 private-key="server_priv" 
      public-key="server_pub"


 1   ;;; client1
     interface=wireguard1 public-key="client1_pub" endpoint-address=10.70.72.2 endpoint-port=0 
     current-endpoint-address=10.70.72.2 current-endpoint-port=0 allowed-address=10.70.72.0/24,192.168.1.0/24 persistent-keepalive=25s rx=7.7MiB 
     tx=130.3MiB last-handshake=1h51m31s 

 2   ;;; client2
     interface=wireguard1 public-key="client2_pub" endpoint-address=10.70.72.3 endpoint-port=0 
     current-endpoint-address=10.70.72.3 current-endpoint-port=5694 allowed-address=10.70.72.0/24,192.168.1.0/24 persistent-keepalive=25s 
     rx=2421.1KiB tx=45.8MiB last-handshake=2m47s

Update. Хендшейки с обоих клиентов постоянно обновляются, с этим проблем нет. Маршруты тоже правильные и одинаковые на обоих пирах

default via 192.168.2.1 dev eth0 proto dhcp src 192.168.2.24 metric 202 
10.70.72.0/24 dev wg0 proto kernel scope link src 10.70.72.3 
192.168.1.0/24 dev wg0 scope link 
192.168.2.0/24 dev eth0 proto dhcp scope link src 192.168.2.24 metric 202

 , , ,

Entmatix
()

Лагает hd контент в локалке 😳

Какой-то бред происходит у меня в локалке. Никак не соображу, где та самая собака.

Исходные данные

Есть локалка на гигабитном роутере с 5ггц вайфаем. Два клиента: ноутбук и сервер на дебиане 11 с гигабитной картой. Задача: воспроизводить фильмы с сервера (1080p до 20 Мбпс).

Проблема

Периодически лагает видео при просмотре на ноутбуке. Периодичность произвольная (от десятков секунд до десятков минут), проявляется на всех фильмах, где битрейт больше примерно 1 Мбит. Пробую это делать на samba, nfs, sshfs. Везде +- одно и то же. Фильм может проигрываться несколько минут без проблем, а потом идет треш несколько минут. На влс это зависание и скип нескольких секунд кадров (аудио продолжает идти), в мпв это слайдшоу без звука.

Что пробовал/смотрел

Кеширование в плеерах включено. Пробовал от 1 секунды до 60 секунд в влц и 10 минут в мпв. Пробовал отключать кеширование.

Мерил iperf-ом скорости - стабильные 150 Мбит до сервера по tcp с дефолтным размером пакета. Пинг в пределах 7 мс.

По данным ethtool, карта сервера успешно работает на 1 Гбите.

В момент лагов никаких затыков в загрузке процессора по htop, загрузке диска по iotop нет. При этом по iotop скорость чтения с диска абсолютно такая же, как при нормальном просмотре (без лагов).

Температуры, смарт (проверил смартцтлом и сельфтестом) и память в порядке (проверил мемтестом).

Пинги в момент лагов фильма тоже не отличаются от обычных.

Все фаерволлы пробовал полностью вырубать (на ноуте, роутере, сервере). На роутере никаких запретов нет. Фасттрак и фастпас включены. Арп сервера и ноута в таблице есть. Друг друга прекрасно видят. IP статика. Пробовал переключаться на 2,4 ггц.

Кабель от роутера к серверу рабочий (проверил тестером). На всякий случай попробовал другой.

На ноуте любой контент с ютуба (8к 60фпс, hdr) и нетфликса работает на ура без лагов в браузере.

Доступ к файлам на сервере получаю через маунт или из фм в разделе с сетью (на сервере включен анонс шары через авахи).

В общесистемных логах, логах самбы, нфс, ссх никаких намеков на проблемы.

Вопрос

Куда смотреть?

P.S. Проблема не в фильмах. Если их скачать на ноут, то просмотр работает без лагов.

P.P.S. Раньше такого не была. Правда я так не смотрел фильмы с полгода. До этого на сервере была слакварь.

 , , , ,

Entmatix
()

SSH один host и несколько hostname

Кто как решает такое неудобство? Допустим есть хост, который является клиентом нескольких сетей. Подключаться к нему с клиента нужно по разным сетям, в зависимости от доступности. Сейчас у меня добавлены разные суффиксы к названию хоста в ~/.ssh/config вроде

host host-vpn1
HostName 10.8.2.28
...

Host host-local
HostName 192.168.43.212
...

Host host-vpn2
HostName 10.8.0.3
...

Неудобно вспоминать каждый раз, по какой сети хост доступен. Как это вывести на автоматический уровень? Из хендмейд решений сделать скрипт, который парсит сети на интерфейсах и на основании этого заполняет адрес подключения, но это запасной вариант. Неужели нет уже готовых терминальных решений для таких случаев?

 ,

Entmatix
()

Какое self-hosted решение для чата, передачи файлов и звонков выбрать для небольшой группы

Сабж. До 20 человек, настоящее e2e шифрование, звонки (можно без видео), стабильная работа, возможность передачи файлов. Глянул на комбайн nextcloud. Нужен php, нужно что-то самому допиливать на нем, нужно ставить сторонние плагины, которые могут дропнуть в любой момент. Приуныл. ☹️

Есть что-то более… простое и надежное? Пусть и не свободное ПО. Разворачиваться будет на vps 4 ядра, 8 Гб, 100 Гб сторэдж. Одновременное общение предполагается не более, чем 10 людям в режиме звонка и не более 5 в режиме конференции. Чаты постоянно. Передачи файлов иногда.

Забыл добавить, что клиент должен быть доступен на ios и android без танцев с бубном.

 , , ,

Entmatix
()

Не определяется структура жд после регистратора

Привет, народ. Вытащил из вышедшего из строя регистратора жд, хочу посмотреть последние съемки и прочее. Вставил в линуксовый десктоп. Диск определяется, работает, но он представлен как неразмеченный. Прокинул его в виртуалку с виндой - там так же. Диск живой, смарт нормальный, но не определяется, что за фс и таблица разделов гпт/мбр/еще что-то. Всякие фаты, эксфаты, нтфсы и прочие фсы на моей системе определяются нормально, а этот диск нет. Может подскажет кто, как не повредив данные определить, что там за фс и смонтировать его хотя бы в режиме чтения на линуксе? Регистратор китайский ноунейм, которому лет 10 уже. Вряд ли найду концы, чтобы поинтересоваться у создателей, что там под капотом. Скорее всего что-то типовое.

 , ,

Entmatix
()

RSS подписка на новые темы