LINUX.ORG.RU

Сообщения NOPA

 

SAMBA с авторизацией через SSSD или LDAP/Kerberos

ОС - CentOS 6.8

SSSD настроен на авторизацию LDAP/Kerberos

Хочу настроить авторизацию SAMBA, но:

-если security = domain - winbind ругается «Could not fetch our SID - did we join? unable to initialize domain list»;

-если security = server, а password server = srv.my.domain, то в логи сыплется, что secuity server not found.

Можно пример работающего конфига или ссылку на толковый материал?

 

NOPA
()

CentOS 6.7 и Intel 82576 GBE

Похоже, адаптер Intel 82576 GBE не работает в CentOS 6.7 нормально.

-через некоторое время перестаёт пропускать multicast-трафик;

-при большом количестве запросов, LDAP может не получить всю информацию о пользователе, в результате «User not found»;

-проблемы с клиент-серверными службами, подозреваю, что по той же причине.

Кто-то боролся с такой напастью?

 

NOPA
()

Проблема с NFS

Возникла непонятная проблема с NFS.

Производится два действия:

1) Упаковывается локальная папка в архив .tar на локальном диске.

2) Файл копируется (cp) в смонтированную папку NFS.

На действии 2 возникает проблема: растёт Load Average, iotop на хосте и на сервере ZFS/NFS показывает почти что нулевую активность.

В dmesg на хосте:

nfs: server 10.95.0.4 not responding, still trying
При этом на других узлах всё отлично работает.

Копирование файла .tar через scp с хоста в примонтированную NFS-папку на других узлах - почти мгновенно.

NFS монтируется командой:

mount.nfs 10.95.0.4:/zfs1t/root /pxeroot -o vers=3,nolock

ОС - CentOS 6.7

В чём может быть дело?

 ,

NOPA
()

Ganglia (gmond) - проблема с трафиком multicast

Беда с Ganglia. У нас узлы конфигурации А и Б. ОС одна (копирование) - CentOS 6.7. С узлами Б порядок. С узлами А: демон gmond отправляет данные по multicast (239.2.11.71:8649). Пока служба не запущена - трафика нет (это нормально, как я понимаю). Запускаю службу - появляеся трафик со всех узлов. Проблема в том, что через несколько минут трафик с других узлов пропадает и остаётся только трафик с самого узла (localhost).

В настройках gmond можно задать буфер, сказано, что при большом объёме трафика значение можно ставить равное 10 МБ или даже больше. Не работает, максимально рабочий параметр - 4 МБ (и не быйтом больше, значение в байтах).

С узлами Б такой проблемы нет.

Отключение iptables не помогает, selinux отключен.

 ,

NOPA
()

echo и перевод строки

Требуется заменить строку в файле, однако после echo перевод строк съедается. Так не работает:

sed=`sed "s/string1/string2/" file.txt`

echo $sed

Так тоже:

sed=`sed "s/string1/string2\n/" file.txt`

echo $sed

И так нет:

sed=`sed "s/string1/string2\n/" file.txt`

echo -e $sed

Как быть?

 ,

NOPA
()

Чертовщина с Ganglia

Раньше работало, теперь нет.

1) Головная машина на головной машине мониторится исправно. 2) После перезапуска службы на головной машине один из узлов начинает некоторое время мониторится. Недавно произошло чудо - несколько других узлов тоже мониторились некоторое время.

Потом всё красное - и мониторится только головной узел.

Selinux на головном узле в статусе Permissible, на остальных узлах disabled.

Остановка iptables не помогает. Порт 8649 разрешён.

Что странно - на головном узле уж какая-то слабая активность на интерфейсе, через который работает Ganglia. Смотрю iptraf.

 

NOPA
()

Создание разделов на диске

Есть /dev/sda. Надо создать /ext4 и swap из скрипта.

Вроде как для этого подходят mkfs.ext4 и mkswap. Но как задать желаемый размер раздела? Нужно, например, 10 ГБ для ext4 и на весь остаток swap.

 

NOPA
()

Проблемы с SSH

Обновил Ubuntu до 14.04 и получил проблему с SSH.

Захожу через putty - работает;

С того же хоста через X2Go - «too many authentication failures»;

С другого хоста из CentOS 6.7 - «too many authentication failures».

В чём может быть дело?

 ,

NOPA
()

mount.nfs по другому адресу без размонтирования предыдущего

Нормально ли монтировать NFS заново по новому адресу без размонтирования предыдущего (было 192.168.0.1:/folder /folder, смонтировали ещё раз из другой сети 172.168.0.1:/folder /folder)? В /proc/mounts показывается два монтирования.

 

NOPA
()

xauth: timeout in locking authority file

Пользователи живут в домашних папках /home и /home2. В home проблем нет, а в /home2 не работает X, так как

xauth:  timeout in locking authority file /home2/user/.Xauthority
. Права на /home и /home2 и папки пользователей одинаковы. Обе папки на одной корневой ФС ext4. Пробовал touch .Xauthority, не помогает.

 

NOPA
()

SSH - чтобы не спрашивал, доверяю ли я хосту

Подскажите, пожалуйста, опцию в конфигурационном файле (ssh_config) для отключения вопроса о доверии хосту при первом заходе.

 

NOPA
()

Беда с LDAP over TLS

Пытаюсь прицепить удалённый узел к кластеру по LDAP с TLS. В /var/log/messages оседает

Could not start TLS encryption. TLS error -8172:Peer's certificate issuer has been marked as not trusted by the user.

На кластере я этот вопрос решал так:

/etc/pki/tls/misc/c_hash /etc/openldap/certs/server.crt

9e92c263.0 => /etc/openldap/certs/server.crt

ln -s server.crt 9e92c263.0

Тут же, скопировав с кластера server.crt и проделав ту же операцию - не работает.

Без TLS работает. В чём может быть дело?

ОС - CentOS 6.7

 ,

NOPA
()

Fibre Channel SAN и Centos 6.7

Две машины, две СХД HP MSA2040, подключенных по FC.

На одной всё отлично, FC подхватился ещё во время установки CentOS 6.7.

На другой нет, дисковая утилита palimpsest не видит СХД. В dmesg:

[root@localhost ~]# dmesg | grep qla
qla2xxx [0000:00:00.0]-0005: QLogic Fibre Channel HBA Driver: 8.07.00.16.06.7-k.
qla2xxx 0000:00:02.2: PCI INT A -> GSI 16 (level, low) -> IRQ 16
qla2xxx [0000:00:02.2]-001d: Found an ISP2532 irq 16 iobase 0xffffc9000187e000.
qla2xxx 0000:00:02.2: irq 31 for MSI/MSI-X
qla2xxx 0000:00:02.2: irq 32 for MSI/MSI-X
qla2xxx 0000:00:02.2: setting latency timer to 64
qla2xxx 0000:00:02.2: firmware: requesting ql2500_fw.bin
scsi0 : qla2xxx
qla2xxx [0000:00:02.2]-00fb:0: QLogic HPAJ764A - HP 8Gb Dual Channel PCI-e 2.0 FC HBA.
qla2xxx [0000:00:02.2]-00fc:0: ISP2532: PCIe (5.0GT/s x8) @ 0000:00:02.2 hdma+ host#=0 fw=7.03.00 (90d5).
qla2xxx 0000:00:02.3: can't derive routing for PCI INT B
qla2xxx 0000:00:02.3: PCI INT B: no GSI
qla2xxx [0000:00:02.3]-001d: Found an ISP2532 irq 255 iobase 0xffffc9000187c000.
qla2xxx 0000:00:02.3: irq 33 for MSI/MSI-X
qla2xxx 0000:00:02.3: irq 34 for MSI/MSI-X
qla2xxx 0000:00:02.3: setting latency timer to 64
qla2xxx [0000:00:02.2]-500a:0: LOOP UP detected (8 Gbps).
scsi1 : qla2xxx
qla2xxx [0000:00:02.3]-00fb:1: QLogic HPAJ764A - HP 8Gb Dual Channel PCI-e 2.0 FC HBA.
qla2xxx [0000:00:02.3]-00fc:1: ISP2532: PCIe (5.0GT/s x8) @ 0000:00:02.3 hdma+ host#=1 fw=7.03.00 (90d5).
qla2xxx [0000:00:02.3]-500a:1: LOOP UP detected (8 Gbps).
dmesg | grep 2040
scsi 0:0:0:0: Enclosure         HP       MSA 2040 SAN     G210 PQ: 0 ANSI: 6
scsi 1:0:0:0: Enclosure         HP       MSA 2040 SAN     G210 PQ: 0 ANSI: 6

Условия установки ОС не равные: вторая машина виртуальная на базе FBSD 10.1 + bhyve. Адаптер FC проброшен полностью. Из-за того, что bhyve не поддерживает графику, установщик CentOS 6.7, мягко говоря, ужасен, и не позволяет выбрать пакеты для установки.

Возможно, что-то нужно доставить?

 ,

NOPA
()

GFS2, NFS, LDAP+Kerberos, quota

Хочу включить квотирование на томе GFS2, раздаваемому по NFS. ОС - CentOS 6.7 Пользователи в LDAP с паролями в Kerberos. Вопрос - квотирование в данном случае включается обычным образом?

/dev/gfs2vol    /folder   gfs2    defaults,usrquota,grpquota       0	0

 ,

NOPA
()

Сборка MESA - libudev-dev or sysfs required for building DRI

Делаю ./configure для mesa 11.2.0-rc2 (с 10.6.9 аналогично), получаю

libudev-dev or sysfs required for building DRI
.

Параметры:

./configure --prefix=/opt/mesa/11.2.0-rc2 --enable-driglx-direct --enable-dri --with-dri-drivers="swrast"

Пакет libudev-devel-147-2.63.el6_7.1.x86_64 установлен, есть файл /usr/include/libudev.h. Также

pkg-config --list-all | grep libudev
говорит, что
libudev                    libudev - Library to access udev device information

Почему может возникать ошибка? ОС - CentOS 6.7

 ,

NOPA
()

Пользователи-призраки

Создал в Kerberos/LDAP несколько пользователей.

Сервисы krb5kdc и slapd остановил, базу Kerberos удалил.

И всё равно - id user говорит, что пользователь есть. Можно залогинится.

И только если authconfig-gtk поставить локальную аутентификацию, пользователи перестают видеться. Возвращаю аутентификацию LDAP - пользователи появляются.

Что за чертовщина?

 , ,

NOPA
()

Centos 6.7 - LDAP + Kerberos

Требуется сделать, чтобы Kerberos читал пользователей из LDAP.

Модуль krb5-server-ldap-1.10.3 установил, даже успел схему добавить в LDAP. Но такое чувство, что делаю что-то не то...

Пытаюсь действовать по инструкции: http://ldaphome.com/op/openldap-kerberos-authentication.php

Так ли это делается на самом деле?

 , ,

NOPA
()

Kerbaros/LDAP авторизация

CentOS 6.7

Настроил авторизацию Kerberos/LDAP между сервером (head) и нодой (node). Завел пользователя testuser. На head отрабатывает и id testuser, и ssh testuser@domain.my

На node id testuser говорит, что такого пользователя нет. SSH тоже не срабатывает.

head.domain.my и node.domain.my взаимно резолвятся. iptables отключены (на время отладки). Конфиги одинаковые, ldap и kerberos на node находят пользователя.

Что я упустил?

 , ,

NOPA
()

Программа работает только через sudo. Куда смотреть?

Почему-то в моей CentOS 6.7, SLURM работает только через SUDO.

user -> sudo -s -> команда -> ok.

user -> su -> команда -> ошибки

user -> команда -> ошибки

Куда смотреть?

 , ,

NOPA
()

SLURM - вопрос доступа

Возникла трудность с SLURM.

Когда поставил - работало. Теперь началось что-то непонятное:

От root: sinfo - вывод ok;

root -> su user -> user:

sinfo - вывод ok;

От user:

sinfo:

sinfo: /usr/lib64/slurm/auth_munge.so: Incompatible Slurm plugin version (15.8.4)
sinfo: error: Couldn't load specified plugin name for auth/munge: Incompatible plugin version
sinfo: error: cannot create auth context for auth/munge
sinfo: /usr/lib64/slurm/auth_munge.so: Incompatible Slurm plugin version (15.8.4)
sinfo: error: Couldn't load specified plugin name for auth/munge: Incompatible plugin version
sinfo: error: cannot create auth context for auth/munge
sinfo: /usr/lib64/slurm/auth_munge.so: Incompatible Slurm plugin version (15.8.4)
sinfo: error: Couldn't load specified plugin name for auth/munge: Incompatible plugin version
sinfo: error: cannot create auth context for auth/munge
sinfo: error: authentication: authentication initialization failure
slurm_load_partitions: Protocol authentication error

Я уже и в /etc/slurm/slurm.conf указал

PluginDir=/usr/lib64/slurm

К выводу прибавилась инфа о несовместимой версии. К чему оно не может получить доступ?

 ,

NOPA
()

RSS подписка на новые темы