LINUX.ORG.RU
решено ФорумAdmin

Глючит 1С на FreeNAS в Proxmox

 ,


0

2

Товарищи, поднял хоронилище данных на FreeNAS внутри Proxmox, ввёл в домен, разобрался с правами и наследованием и уже думал что вот-вот наступят обещанные 10 лет счастья, но облом. Разместил там базу 1Сv7 в файловом режиме, с одним пользователем работает вроде без сбоев, как только набирается 4-5, база падает, 1с-ка вываливает окно с абракадаброй вместо кириллицы в пути к базе (https://yadi.sk/i/PuzziCMH3ZEzZ6). Само хоронилище становится недоступно по SMB до перезагрузки, проц загружается на 100 процентов процессами smbd и syslog-ng, в консоли появляется сообщение

"I/O error occured while writing; fd='21', error='No space left on device (28)'
Сначала подозревал проблему с проброшенными из гипервизора дисками, попробовал дать FreeNAS'у диск-образ, с разными режимами подключения (ide,sata,virtio) проблема сохраняется. Попробовал на хоронилище создать iscsi-таргет и отдать его виртуалке на которой выполняется 1С, разместил базы на нём, всё заработало стабильно, видимо проблема в самбе, что она хочет ума не приложу...



Последнее исправление: poedyatel (всего исправлений: 2)

No space left on device

Так что с этим? Вы так и не описали.

anc ★★★★★
()

Блин ну когда же вы читать научитесь? Пишет же закончилось место на диске, выделить в проксе больше места и все будет хорошо.

anonymous
()
Ответ на: комментарий от anonymous

Да умеем мы читать, я потому на этой строке внимание и акцентировал, что места то там полно.
Вот так выглядит htop при 5-6 клиентах

1  [|                         0.5%]   Tasks: 56, 0 thr; 2 running
  2  [||                        1.6%]   Load average: 0.38 0.30 0.26 
  Mem[|||||||             594M/7.96G]   Uptime: 10:55:32
  Swp[                      0K/2.00G]

  PID USER      PRI  NI  VIRT   RES S CPU% MEM%   TIME+  Command
11289 root       20   0  216M  169M S  0.0  2.1  0:12.25 /usr/local/sbin/smbd --
    0 root      -16   0     0 20096 S  0.0  0.2  0:10.19 kernel
61249 root       20   0  7568  4156 R  0.0  0.0  0:00.27 htop
61247 root       20   0  7744  3860 S  0.0  0.0  0:00.01 -csh
61245 root       20   0 13776  8256 S  0.0  0.1  0:00.05 sshd: root@pts/0
61244 root       22   0  4192  1996 S  0.0  0.0  0:00.00 sleep 300
59409 root       20   0 13004  7348 S  0.0  0.1  0:00.00 /usr/local/sbin/sshd
56180 root       30   0  7744  3852 S  0.0  0.0  0:00.02 -su
56179 root       24   0  7556  3416 S  0.0  0.0  0:00.01 /usr/bin/su -l root
 9797 root       20   0  175M  142M S  0.0  1.8  0:00.22 /usr/local/sbin/smbd --
 5194 root       20   0 18928  6504 S  0.0  0.1  0:01.42 /usr/local/sbin/syslog-
 5130 root       52   0  6364  2200 S  0.0  0.0  0:00.00 /usr/libexec/getty Pc t
 5129 root       52   0  6364  2200 S  0.0  0.0  0:00.00 /usr/libexec/getty Pc t
 5128 root       52   0  6364  2200 S  0.0  0.0  0:00.00 /usr/libexec/getty Pc t
 5127 root       52   0  6364  2200 S  0.0  0.0  0:00.00 /usr/libexec/getty Pc t
 5126 root       52   0  6364  2200 S  0.0  0.0  0:00.00 /usr/libexec/getty Pc t
вот так меняется в момент зависания
 1  [|||||||||||||||||||||||||||||||||||||||||||||||100.0%]   Tasks: 57, 0 thr; 4 running
  2  [|||||||||||||||||||||||||||||||||||||||||||||||100.0%]   Load average: 2.65 1.27 0.66 
  Mem[||||||||||                                 600M/7.96G]   Uptime: 11:09:29
  Swp[                                             0K/2.00G]

  PID USER      PRI  NI  VIRT   RES S CPU% MEM%   TIME+  Command
 5194 root       80   0 18936  6604 R 90.9  0.1  2:09.09 /usr/local/sbin/syslog-ng -p /var/run/syslog.pid
11289 OFFICE\4  100   0  224M  176M R 90.0  2.2  2:21.94 /usr/local/sbin/smbd --daemon --configfile=/usr/local/etc/smb4.conf
62655 root       20   0  7568  4476 R  0.0  0.1  0:00.01 htop
62585 root       20   0  176M  144M S  0.0  1.8  0:00.40 /usr/local/sbin/smbd --daemon --configfile=/usr/local/etc/smb4.conf
62440 root       21   0  4192  1996 S  0.0  0.0  0:00.00 sleep 300
61247 root       20   0  7744  4148 S  0.0  0.0  0:00.02 -csh
61245 root       20   0 13776  8284 S  0.0  0.1  0:00.18 sshd: root@pts/0
59409 root       20   0 13004  7348 S  0.0  0.1  0:00.00 /usr/local/sbin/sshd
56180 root       30   0  7744  3852 S  0.0  0.0  0:00.02 -su
56179 root       24   0  7556  3416 S  0.0  0.0  0:00.01 /usr/bin/su -l root
а так выглядит df -h
Filesystem                                                         Size    Used   Avail Capacity  Mounted on
freenas-boot/ROOT/default                                          7.7G    836M    6.9G    11%    /
devfs                                                              1.0K    1.0K      0B   100%    /dev
tmpfs                                                               32M     10M     22M    32%    /etc
tmpfs                                                              4.0M    8.0K    4.0M     0%    /mnt
tmpfs                                                              2.7G    328M    2.3G    12%    /var
freenas-boot/grub                                                  6.9G    6.8M    6.9G     0%    /boot/grub
fdescfs                                                            1.0K    1.0K      0B   100%    /dev/fd
store-template                                                     360M     88K    360M     0%    /mnt/store-template
store10g                                                           6.7G     88K    6.7G     0%    /mnt/store10g
store10g/ds.netdrive                                               7.1G    405M    6.7G     6%    /mnt/store10g/ds.netdrive
store10g/ds.users                                                  6.7G    4.7M    6.7G     0%    /mnt/store10g/ds.users
store-template/.system                                             869M    509M    360M    59%    /var/db/system
store-template/.system/cores                                       366M    6.4M    360M     2%    /var/db/system/cores
store-template/.system/samba4                                      360M    388K    360M     0%    /var/db/system/samba4
store-template/.system/syslog-b3147af497d748f98f845f65b942be53     360M     88K    360M     0%    /var/db/system/syslog-b3147af497d748f98f845f65b942be53
store-template/.system/rrd-b3147af497d748f98f845f65b942be53        360M     88K    360M     0%    /var/db/system/rrd-b3147af497d748f98f845f65b942be53
store-template/.system/configs-b3147af497d748f98f845f65b942be53    360M    796K    360M     0%    /var/db/system/configs-b3147af497d748f98f845f65b942be53
tmpfs                                                              1.0G     44M    980M     4%    /var/db/collectd/rrd

poedyatel
() автор топика

Файловая база при одновременной работе более чем одного юзера = боль.

Deleted
()
Ответ на: комментарий от Deleted

Да, понимаю, но с SQL пока связываться не хочу по причине того что это для меня лишнее сложное звено, да и пока шара лежит на NTFS, хоть локально на терминальном сервере, хоть на сетевом диске на виндовой файлопомойке всё работает стабильно и даже шустро (больше 10 юзеров не бывает в базах)

Понял что гуглил не то, искал проблему FreeNAS + 1C, а надо было samba + 1C, чтото там с блокировками файлов надо тюнить, изучаю...

poedyatel
() автор топика

7.7 вроде не работает на самбе нормально (насколько это слово применимо к файловой базе).

anonymous
()

проброшенными из гипервизора дисками

Виртуальный FreeNAS работает нормально только с проброшенными HBA, так что ничего удивительного.

Deleted
()
Ответ на: комментарий от iTA05

Не понял назначение fdescfs,но на свежей только что установленной FreeNAS он так же заполнен.

А это #df -i во время бага


Filesystem                                                1K-blocks   Used   Avail Capacity iused    ifree %iused  Mounted on
freenas-boot/ROOT/default                                   8052747 855856 7196891    11%   86672 14393782    1%   /
devfs                                                             1      1       0   100%       0        0  100%   /dev
tmpfs                                                         32768  10640   22128    32%    1111   113577    1%   /etc
tmpfs                                                          4096      8    4088     0%       3    14333    0%   /mnt
tmpfs                                                       2783208 161092 2622116     6%     396  9740832    0%   /var
freenas-boot/grub                                           7203899   7008 7196891     0%     348 14393782    0%   /boot/grub
fdescfs                                                           1      1       0   100%       4   234825    0%   /dev/fd
store10g                                                    6154176     88 6154088     0%       9 12308176    0%   /mnt/store10g
store10g/ds.netdrive                                        6983836 829748 6154088    12%   27501 12308176    0%   /mnt/store10g/ds.netdrive
store10g/ds.users                                           6158968   4880 6154088     0%     829 12308176    0%   /mnt/store10g/ds.users
tmpfs                                                       1048576  41328 1007248     4%     268  3669748    0%   /var/db/collectd/rrd
store10g/.system                                            6675512 521424 6154088     8%      25 12308176    0%   /var/db/system
store10g/.system/cores                                      6162104   8016 6154088     0%      10 12308176    0%   /var/db/system/cores
store10g/.system/samba4                                     6154412    324 6154088     0%     163 12308176    0%   /var/db/system/samba4
store10g/.system/syslog-b3147af497d748f98f845f65b942be53    6154176     88 6154088     0%       7 12308176    0%   /var/db/system/syslog-b3147af497d748f98f845f65b942be53
store10g/.system/rrd-b3147af497d748f98f845f65b942be53       6154176     88 6154088     0%       7 12308176    0%   /var/db/system/rrd-b3147af497d748f98f845f65b942be53
store10g/.system/configs-b3147af497d748f98f845f65b942be53   6154776    688 6154088     0%      14 12308176    0%   /var/db/system/configs-b3147af497d748f98f845f65b942be53

poedyatel
() автор топика

Как у меня, может вам подойдет.
1 Ставим просто контейнер (lxc) в нем поднимаем samba вводим ее в домен
2 Добавляем точку монтирования к lxc
3 Шарим ее самбой в lxc
4 Делаем снапшоты если крутится на zfs на хосте proxmox скриптами
5 Профит админу доступны все снапшоты т.е. история, юзеры через AD рулятся
6 Все. Курим бамбук или то, что курят в ГОСдуме, если не получилось то курим man

pvvking ★★
()
Ответ на: комментарий от Deleted

Видимо, я что-то путаю. В любом случае, 7.7 вживую не видел, а v8 использую только с PostgreSQL.

anonymous
()
Ответ на: комментарий от anonymous

Ну если в раб. время то да в курсе. Но если ты решил их делать (снапшоты) и не занимаеш чужое место на работе, и думаеш тем чем надо, то можно найти время когда не кто не работает в 1с, и все будет норм (тем более база ФАЙЛОВАЯ)

pvvking ★★
()
Ответ на: комментарий от Deleted

Также подтверждаю данный факт. Даже когда самба толком с AD не умела работать все нормально работало. Пользователей было 10-15 одновременно.

pvvking ★★
()
Ответ на: комментарий от pvvking

не занимаеш чужое место на работе, и думаеш тем чем надо

...то используешь клиент-серверный вариант.

anonymous
()
Ответ на: комментарий от anonymous

Ну на клиент сервер не все перешли тем более с 1cv7 (как по мне так это просто посмотреть старые данные, т.к. почти везде уже 8.3 ну у меня). А так да сервер Linux+PostgreSQL (опять все в lxc) = 7 лицух от 1с бесплатно (т.е. одновременно можно работать с базой)

pvvking ★★
()
Последнее исправление: pvvking (всего исправлений: 1)

Оставьте в покое уже 1Сv7 ,дайте ей спокойно умереть не занимайтесь некрофилией...

skynetyar
()

Немного улучшил ситуацию. Создал dataset с опцией Case Sensitivity = Insensitive, похоже хоронилище перестало зависать с ошибкой «No space left on device» при падении 1С (Изначально при создании датасетов оставлял эту опцию по умолчанию, Sensitive, ибо на шаре через самбу всё и так работало в привычном виндовом стиле, без учёта регистра). завис, case sensitivity ни при делах.

В сети полно рекомендаций относительно блокировок для шары 1С, все противоречивы, пробую и так и эдак, результата пока нет. Уже начинаю подумывать поднять самбу на линуксе, попробовал контейнеры - разочаровали. Скачал file-server, не стартует, скачал debian 9 standart, при развёртывании пишет что несовместимая версия, скачал ubuntu - тоже самое. Желание юзать контейнеры отбило напрочь.

poedyatel
() автор топика
Ответ на: комментарий от poedyatel

попробовал контейнеры - разочаровали

Это потому что сначала надо почитать что-нибудь по теме. А не «скачал чё-то откуда-то, пишет непонятно что, когда что-то пытаюсь сделать».

anonymous
()
Ответ на: комментарий от pvvking

Что у вас lxc в proxmox не завелся.

Он же написал: FreeNAS в Proxmox. Зачем туда тащить LXC, если и так уже стоит натуральная FreeBSD?! Откуда такая тяга к ядру GNU/Linux во всём, что шевелится?

iZEN ★★★★★
()
Ответ на: комментарий от iZEN

попробовал контейнеры - разочаровали. Скачал file-server, не стартует, скачал debian 9 standart, при развёртывании пишет что несовместимая версия, скачал ubuntu - тоже самое. Желание юзать контейнеры отбило напрочь.

pvvking ★★
()
Ответ на: комментарий от anonymous

Он же написал: самба нормально не работает.

В матрёшке SMB -> FreeNAS -> Proxmox -> Debian довольно трудно начинающему разобраться, где происходит затык.

Я предлагаю установить FreeNAS на чистый раздел и попробовать поднять файлохранилище на нём одном, без «прокладок» сомнительной свежести. Во FreeBSD/FreeNAS у SMB лучшая нативная поддержка.

iZEN ★★★★★
()
Ответ на: комментарий от iZEN

Я предлагаю установить FreeNAS на чистый раздел и попробовать поднять файлохранилище на нём одном, без «прокладок» сомнительной свежести.

Предлагаю не предлагать столь сомнительные предложения :)

anonymous
()
Ответ на: комментарий от poedyatel

не поможет :) гугли виндовый сервер терминалов, можно сделать не очень честный ;) с remoteapps

Morin ★★★★
()
Ответ на: комментарий от anonymous

Это потому что сначала надо почитать что-нибудь по теме. А не «скачал чё-то откуда-то, пишет непонятно что, когда что-то пытаюсь сделать».

Господа, разумеется я читал, причём не чтото там, а вот прям официальное руководство открытое из ссылки в веб-интерфейсе проксмокса, и согласно указаниям там выполнил сначала
pveam available
увидел список, из предложенного попробовал то что перечислил
pveam download local debian-...
проксмокс у меня ванильный, с образа, без каких либо хирургических вмешательств, 5.0

не поможет :) гугли виндовый сервер терминалов, можно сделать не очень честный ;) с remoteapps

Дак он уже настроен, сама 1С крутится на нём, но базы я хотел разместить в пределах FreeNAS, чтобы все задачи бекапирования выполнялись в пределах одного интерфейса. По сути я планировал делать на фринасе снапшоты доступные юзерам, а сам фринас синкать на другой такой же, резервный, расположенный на другой ноде. Но видимо придётся терминальному серверу (он там же в проксмоксе крутиться) пробрасывать диск (можно даже iscsi-таргет расположенный на FreeNAS), хранить базы на нём и заморачиваться с одтельным бекапированием.

poedyatel
() автор топика
Ответ на: комментарий от poedyatel

Вот, собственно, то «непонятно что», мной скачанное, можете сами попробовать, если у Вас заведётся, значит либо у меня проксмокс поломан, либо я настолько криворук что даже «next, next, next, ок» не мой вариант

pveam download local debian-9.0-standard_9.3-1_amd64.tar.gz
pveam download local ubuntu-18.04-standard_18.04-1_amd64.tar.gz
pveam download local debian-8-turnkey-fileserver_14.2-1_amd64.tar.gz

а вот поставить FreeNAS на голое железо и голый винт, на самом деле может быть и не такая уж плохая идея, на самом деле у меня там довольно много прослоек, в проксмоксе винты (2 шт) добавлены в LVM, не то что бы мне это было сильно надо, просто я хотел чтобы в интерфейсе там где указано какой диск проброшен в машину была не абракадабра в духе ata-WDC_WD5000HHTZ-04N21V1_WD-WX71EB3T1942, а красивое /dev/vg.freenas/disk1. Таким образом во FreeNAS прокинуто два логических диска LVM, каждый из которых находится на физическом томе. Затем во фринасе они собраны в RAID0. Вот это вот реально матрёшка и чёрт его знает что там в ней происходит. Попробую завтра действительно всё упростить. Хотя без LVM я пробовал, я прокидывал во FreeNAS виртуальный диск, тот что в проксмокс штатно создаётся.

poedyatel
() автор топика
Ответ на: комментарий от poedyatel

Попробовал сейчас скачать контейнеры на другой ноде, там Proxmox 5.2, всё запустилось. Толи мой основной прокс поломан, толи контейнеры пилят под самый свежак... На основной ноде не стартанул ни Debian-8.0-standart ни даже Debian-7

poedyatel
() автор топика
Ответ на: комментарий от dhameoelin

Вы имеете в виду, что следует собрать его на Proxmox (или даже аппаратно) и в виртуалку отдать уже готовое блочное устройство? Я исходил из предположения, что не важно на каком уровне будет идти разделение данных - в госте или в хосте, и коль гость позволяет делать рейд из гуя, пусть он этим и займётся, всё должно оставаться простым и очевидным, не для красноглазых. Поясните, если не трудно, почему так хуже?

poedyatel
() автор топика
Ответ на: комментарий от poedyatel

А зачем софт рейд в виртуалки. На хосте это просто данные их даже понять нельзя (типа принисли восстановить винт с рейд контролера? какой контролер был? какой уровенеь рейда? и что мы хотим получить? ответ хозяина винта - да мне всеровно, я не чего не знаю, но вы востановите ВСЕ, что там было, вы же типа админы и боги компов все можете), ну а теперь по делу. Хост всегда работает быстрей (ВСЕГДА!!!) и если можно на нем почти все сделать то в виртуалку или контейнер как по мне не стоит пихать.

pvvking ★★
()
Ответ на: комментарий от pvvking

ответ хозяина винта - да мне всеровно, я не чего не знаю, но вы востановите ВСЕ, что там было, вы же типа админы и боги компов все можете)

Такие обычно сами в пешее эротическое идут

dhameoelin ★★★★★
()
Ответ на: комментарий от pvvking

Я в подобном случае шутить не стал. Ну да ладно.

Как мы будем объяснять ТС, что он осьмиручка?

dhameoelin ★★★★★
()

После неудачного опыта с отказом дисков, я себе в ногу больше не стреляю и предпочитаю обязательное бекапирование, по возможности двухуровневое, с делегированием задачи регулярной проверки восстанавливаемости кому-нибудь из бухгалтеров, под подпись об ответственности. Последние 8 лет данные больше не терял.

Я проводил бенч рейда собранного в виртуалке и собранного на хосте, разница при моей нагрузке оказалась несущественной, хотя бенч файлового хранилища не такая уж простая задача и возможно я намерял не того, тем не менее работает оно достаточно быстро и остаётся простым в устройстве настолько, чтобы когда через 5 лет понадобится добавить или поменять там диск, я не шарил снова по справкам как там работает этот md, а просто сунул, вынул и бежать, нажал кнопку add, и спокойно пошёл дальше своими делами заниматься.

Потому, если аргументы только «издержки по производительности», которой в данном случае более чем достаточно (до этого всё крутилось на одном шпендельном диске, теперь на двух в RAID0) и «сложность восстановления дисков», которую вообще следует исключать при планировании, считаю что собрать диски в рейд в виртуалке допустимо. Ни коим образом не утверждаю что перечисленные минусы являются единственными и нет других подводных камней, я такую схему применяю впервые и о них не знаю, так что с благодарностью приму ваш опыт, если вы разумеется опишите конкретную проблему, а не «аффтар лох, так никто нидалаэ, патамушта это палаховски»

poedyatel
() автор топика
Ответ на: комментарий от poedyatel

до этого всё крутилось на одном шпендельном диске, теперь на двух в RAID0

Надеюсь вы не всерьез RAID0. Рассмотрю на RAID1

fHDD0\      /vHDD0\
      -rHDD-       vrHDD0
fHDD0/      \vHDD1/
fHDD физические диске
rHDD рейд0 диск хост система
vHDD виртуальные диски
vrHDD виртуальный рейд0 диск в госте
Теперь запишим 1 байт
vrHDD0 - 1 байт
vHDD[0,1] - 2 байт
rHDD - 2 байт
fHDD[0,1] - 4 байт
Как по мне при записи 1 байта в госте, на физических дисках получаем 4 байта это не приемлемо. Ну а про RAID0 говорить точно не буду.

pvvking ★★
()
Ответ на: комментарий от mogwai

за кириллицу в пути к базе руки бы оторвал

Зачем? Должно же всё работать и с кириллицей, и с другими национальными символами в путях к ресурсам. Не в XX веке живём, где 256 знакомест на всё дозволяется. Если не работает, то нах нужна такая система-инвалидная.

iZEN ★★★★★
()
Ответ на: комментарий от iZEN

Затем, что X:\1c\<super+space>имя_базы_данных_<super+space>v7\.

mogwai ★★★★★
()
Ответ на: комментарий от mogwai

RAID0 по каким критериям выбрал?

просто чтобы просуммировать скорости дисков.

Клиенты кто? Не XP, случайно?

Клиенты 1Сv7 для FreeNAS выполняются на терминале Windows Server 2012

Надеюсь вы не всерьез RAID0

Такими темпами я засомневаюсь что вообще выбрал ту работу... А что не так то с RAID0. Быстро, вместительно, резервирование данных идёт на одиночный диск объёмом равным объёму массива.

poedyatel
() автор топика
Ответ на: комментарий от poedyatel

резервирование данных идёт на одиночный диск объёмом равным объёму массива.

Резервирование данных в страйпе? Щито?

просто чтобы просуммировать скорости дисков.

Т.е. на сохранность данных тебе плевать?

mogwai ★★★★★
()
Ответ на: комментарий от mogwai

Т.е. на сохранность данных тебе плевать?

Да, на него может даже самолёт упасть, мне плевать, потому что даныее, каждый день дописываются на другой диск:

          DISK1
FreeNAS_1<  +   = RAID0 
          DISK2     |
                    |
                  rsync
                    |
                   \|/
        FreeNAS_2-DISK1
причём копирование идёт методом синхронизации dataseta, таким образом в случае полного отказа основного FreeNAS, тот что принимает бекап, за 15 минут конфигурируется в основной и раздаёт файлопомойку дальше, лишь чуть медленнее, так как в нём только 1 диск. На FreeNAS 1 каждый день делаются снапшоты со сроком жизни 1 месяц, чтобы пользователи могли самостоятельно через вкладку «предыдущая версия» восстановить любой файл. На FreeNAS2 делаются снапшоты раз в месяц со сроком жизни 1 год, дабы иметь возможность откатиться подальше, но уже с привлечением администратора. Таким образом в любой момент времени имеем 2 полные копии актуальных данных, первая - рабочая, на RAID0, быстрая, с 30-ю бекапами с шагом в 1 день. Вторая - резервная, на одном диске, с 30-ю бекапами с шагом в день, и 12-ю бекапами с шагом в месяц

poedyatel
() автор топика
Ответ на: комментарий от Deleted

Спасибо, очень доходчиво. Видимо за неимением PCI контроллера, придётся переезд на FreeNAS отложить. Сегодня проверил это практикой - отправил на него 1,5ТБ всякого разного, на 450-ом гигабайте FreeNAS завис. А жаль, очень удобная система бекапирования вырисовывалась, без красноглазия.

poedyatel
() автор топика

https://pve.proxmox.com/wiki/Pci_passthrough

Note:

PCI passthrough is an experimental feature in Proxmox VE
Minona ★★☆
()

Эта zfs в могилу меня сведёт... Отбросив бодания с виртуализацией freenas решил реализовать схему pvvking: Поднять контейнер с линуксом, пробросить ему zfs-директорию с хоста и расшарить самбой. Битва с самбой ещё в разгаре, но беда пришла откуда не ждали.
На хосте я создал zfs-pool, в нём датасет ds.store, в нём ещё один ds.netdrive и в нём ds.led

#tree /zfs-pool
/zfs-pool
└── ds.shares
    └── ds.netdrive
        └── ds.led
затем пробросил в контейнер второй уровень этого дерева:
pct set 305 -mp0 /zfs-pool/ds.shares,mp=/mnt/ds.shares
и всё поначалу работало как и надо, в госте я получил дерево
#tree /mnt
/mnt
└── ds.shares
    └── ds.netdrive
        └── ds.led
Но потом чтото пошло не так, примерно после операций с назначением владельца ds.netdrive на стороне гостя. Я перестал видеть вложенный датасет ds.led в дереве гостя, на хосте он по прежнему виден. Проверил владельца и права на стороне хоста и гостя, на все объекты в дереве вывод #ls -la одинаковый - drwxr-xr-x 3 root root. Ну думаю поломал, с каждым бывает. Взял и грохнул датасет ds.shares и создал всё дерево заново, и нифига! не помогло. Тогда я создал в ds.shares ещё одно поддерево и оно нормально отображается в госте
вот так в хосте:

#tree /zfs-pool
/zfs-pool
└── ds.shares
    ├── ds.netdrive
    │   └── ds.led
    └── ds.netdrive2
        └── ds.led2

а в госте блин так:

#tree /mnt
/mnt
└── ds.shares
    ├── ds.netdrive
    └── ds.netdrive2
        └── ds.led2
В госте я могу работать в каталоге ds.netdrive и даже создать там каталог ds.led. Господа, что происходит и почему даже удаление датасета не исправило ситуацию?

poedyatel
() автор топика
Ответ на: комментарий от poedyatel

Дополнил эксперимент, создал через гостя по папке в ds.netdrive и ds.netdive2 вот такая картина вышла на госте:

/mnt
└── ds.shares
    ├── ds.netdrive
    │   └── folder1
    └── ds.netdrive2
        ├── ds.led2
        └── folder2
а такая на хосте:
/zfs-pool
└── ds.shares
    ├── ds.netdrive
    │   └── ds.led
    └── ds.netdrive2
        ├── ds.led2
        └── folder2
тоесть ds.netdrive2 работает очевидным образом, папки или датасеты созданные в нём на стороне хоста, доступны гостю, а папки созданные гостем видны в хосте, а ds.netdrive обладает двумя измерениями, независимыми для гостя и хоста, можно даже одинаковые папки создавать.

poedyatel
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.