Есть у меня iSCSI сторадж, там нарезаны тома, подключены к серверам, разбиты в LVM и скормлены виртуалкам.
Хочу нарезать тома помельче, что бы без промежуточного LVM на хостовой машине - напрямую отдавать небольшие тома виртуалкам.
В плюсе - удобство управления и миграции.
Как минус - я не знаю, как правильно их скормить kvm'у к примеру:
Есть у меня сервантик Postfix+Dovecot со STARTTLS на самописном сертификате.
Пользователей стало больше, хочу «официально-подписанный» сертификат.
Нашел на reg.ru самый дешевый wildcard от Comodo, завернуть ещё веб-морду да и резервный почтовик.
Саппорт ихний сказал что «для почтовых серверов нужен специальный сертификат, мы такой не продаём».
Поиском нашелся пример прикручивания обычного самописного вайлдкарда к почтовику... итого:
Какой сертификат(ы) мне нужен для STARTTLS SMTP/pop3/IMAP на одном почтовике?
А для веб-морды почтовой?
А если я захочу SMTP over SSL, PKI и так далее?
Спасибо за внимание.
PS. Если порекомендуйте другого ресселлера и/или материалы по теме буду особо благодарен.
Есть у меня бинд с зоной example.com
Даже два - в разных подсетях.
Подсетей несколько по 24й маске.
Следует мне сделать одну реверс зону по, к примеру, 16й маске (168.192.in-addr.arpa) или наплодить кучу этих самых реверс-зон по 24й маске (1.168.192.in-addr.arpa, 2.168.192.in-addr.arpa и т.д.).
Если подскажите RFC, который это регламентирует, буду очень признетелен.
Есть у меня машинка с сабжем.
Надобно подставить костыль в инит CUPS'a.
Не могу найти откуда оно берёт содержимое /etc/init.d/ и /etc/runlevels (default, safe и т.д.)
На флешке встроенной, откуда разворачивается система в /etc его нет.
Подскажите, какой там может быть способ инициализации.
Есть физический сервант с XEN'ом.
В нём крутятся несколько виртуалок, в том числе с самбой и почтовиком. А ещё гейтвей.
В гейтвей воткнута, помимо инета, вторая сеть.
При обращении из этой самой второй сети к самбовой шаре или почтовику пакеты дропает.
Проблема решается понижением MTU на клиенте до 1492.
На соседнем физическом сервере поднят KVM, трафик на него со второй сети идёт через ксеновую виртуалку-гейтвей.
Там, в качестве эксперимента, аналогичным образом поднята шара. К ней обращения из второй сети идут без проблем.
MTU на всех интерфейсах хостовой машины XEN'a 1500.
Внутри виртуалок тоже.
Буду благодарен за соображения, что может быть с бриджами или самим ксеном.
Есть две сети:
192.168.1.0/24 и 172.16.0.0/24.
Есть сервер с самбой в первой сети, включённый в AD.
[global]
workgroup = MYDOMAIN
realm = MYDOMAIN.LOCAL
netbios name = SAMBA
server string = "Global share"
security = ads
encrypt passwords = true
dns proxy = no
socket options = TCP_NODELAY SO_RCVBUF=8192 SO_SNDBUF=8192
auth methods = winbind
template homedir = /mnt/samba/%D/%U
template shell = /bin/bash
client use spnego = yes
client ntlmv2 auth = yes
restrict anonymous = 2
domain master = no
local master = no
preferred master = no
os level = 0
domain logons = no
load printers = no
show add printer wizard = no
printcap name = /dev/null
disable spoolss = yes
log level = 2
log file = /var/log/samba/%M.log
smb ports = 139
interfaces = eth0
bind interfaces only = yes
winbind separator = ^
winbind enum users = yes
winbind enum groups = yes
winbind use default domain = yes
winbind nss info = rfc2307
winbind refresh tickets = Yes
winbind normalize names = Yes
idmap config HOME:schema_mode = rfc2307
idmap config HOME:range = 210000-3100000
idmap config HOME:backend = ad
idmap config * : range = 210000-3100000
idmap config * : backend = tdb
invalid users = root
[Docs]
comment = Open share
path = /mnt/samba/Docs
browseable = yes
writable = yes
create mask = 0666
directory mask = 0777
map acl inherit = yes
locking = no
inherit permissions = yes
В этой самой сети всё хорошо, но клиенты из второй сети, заходя на шару несколько секунд шарятся по ней без проблем, после чего эксплорер на клиенте виснет на минуту, и так после каждой смены каталога.
Открывать файлы на шаре из второй сети невозможно - отваливается по таймауту.
Виндовые шары открываются без проблем.
Есть сервант, бездисковый, с двумя сетевушками.
Одна смотрит в сеть iSCSI, другая в локалку.
При загрузке была проблема, после изменения /etc/sysconfig/grub (1й комментс) всё поднялось.
Сейчас мне нужно на каждом интефейсе по бриджу для виртуалок.
На том что в локалку - без проблем.
А вот для iSCSI оно само конфигурирует физический интрефейс, и бридж после загрузки не фурычит.
Понятно, что эта конфигурация происходит до ifcfg.
Есть ли варианты завернуть это в бридж, или разрулить как-то более грамотно?
Теперь у меня есть два канала в интернет.
Организовать, думаю, так:
В случае падения одного из них, все ходят(во вне) через оставшийся. В случае подения обоих, все страшно кричат.
example.com. 3600 IN A XXX.XXX.XXX.XXX
example.com. 3600 IN MX 10 example.com.
www.example.com. 3600 IN A XXX.XXX.XXX.XXX
Для веб-сервера я добавляю ещё одну A-запись, если один из хостов не доступен - все лезут на второй.
А как с MX'ом?
Ещё один MX с тем же или меньшим приоритетом и тот же PTR на другом ip?
Почтовый сервер только один(postfix), на EHLO обучен отвечать однозначно.
Как можно сделать лучше?
Есть директория с картинками. Отсортированы по дате создания.
Стоковый Eye of the GNOME в убунту кажет картинки сортируя по имени.
Как заставить его руководствоваться другим критериями при сортировке?
Ну или посоветуйте другой вьювер.
Есть у меня инстанс в RAC(11.2) и заббикс-сервер.
Интересуюсь:
1. Чем лучше выдирать информацию: самописные скрипты с sqlplus или что-то типа orabbix.
2. Необходимый минимум параметров на доступность, как то:
- статус листенера,
- кол-во и занятость серверов-процессов,
- ситуация с ASM-томом
и далее.
Нашел много примеров на производительность, а вот собрать себе что-то именно на доступность сервиса не получается.
Есть кастомное веб-приложение на PHP.
Работает под апачем.
Шутки ради запустил его под nginx+php-fpm.
Не находятся css и js.
error.log кажет примерно следующее:
2014/04/16 13:13:23 [error] 32009#0: *22 open() "/var/www/htm/css/style.1234351_light.css" failed (2: No such file or directory), client 10.10.10.10, server : myhost.example.com, request: "GET /css/style.1234351_light.css HTTP/1.1", host "myhost.example.com", refferrer: "http://myhost.example.com"
И так далее на несколько десятков строк.
Но в наличии есть файл /var/www/htm/css/style.css.
И если его переименовать в искомый var/www/htm/css/style.1234351_light.css оно работает и аналогичным образом не находит что-то дальше.
Есть мнение, используется что-то вроде рерайта или какой-то хитрый апачевый костыль.
Страничка информационная, показывается раз в день, всё приложение динамическое.
Какой код правильнее использовать в таком случае?
Чем червато использование произвольного кода 5xx из числа неиспользуемых?
Есть у меня сервантик домашний, без X-ов.
Встроенной графики нет, в PCI-E воткнут GeForce 320Gt или что-то такое, с пассивным охлаждением.
Этот девайс яростно греется, к радиатору не прикоснутся, хотя нагрузок на него быть не может по определению.
Вопрос - отчего так, и можно ли что-то с этим сделать
Ставлю Oracle Clusterware.
Хосты в KVM(машина тестовая), tgtd на другой машине.
При запуске root.sh-скртита на втором хосте:
CRS-4402: The CSS daemon was started in exclusive mode but found an active CSS daemon on node rac1, number 1, and is terminating
An active cluster was found during exclusive startup, restarting to join the cluster
Start of resource "ora.asm" failed
CRS-2672: Attempting to start 'ora.asm' on 'rac2'
CRS-5017: The resource action "ora.asm start" encountered the following error:
ORA-48189: OS command to create directory failed
Linux-x86_64 Error: 13: Permission denied
Additional information: 2
. For details refer to "(:CLSN00107:)" in "/u01/app/grid/11.2.0/log/rac2/agent/ohasd/oraagent_grid/oraagent_grid.log".
CRS-2674: Start of 'ora.asm' on 'rac2' failed
CRS-2679: Attempting to clean 'ora.asm' on 'rac2'
CRS-2681: Clean of 'ora.asm' on 'rac2' succeeded
CRS-4000: Command Start failed, or completed with errors.
Failed to start Oracle Grid Infrastructure stack
Failed to start ASM at /u01/app/grid/11.2.0/crs/install/crsconfig_lib.pm line 1339.
/u01/app/grid/11.2.0/perl/bin/perl -I/u01/app/grid/11.2.0/perl/lib -I/u01/app/grid/11.2.0/crs/install /u01/app/grid/11.2.0/crs/install/rootcrs.pl execution failed
ASM-диск подключен через iscsi, в логах иницатора:
Есть у кого kmod-oracleasm-2.0.6.rh1-3.el6_5.x86_64.rpm?
Оракуль его больше отдельно не выкладывает, а RH только в закрытом разделе.
Нашел kmod-oracleasm-2.0.6.rh1-2.el6.x86_64.rpm на сайте какого-то Тайландского университета, но оно не проходит по чексамам.
Есть необходимость собрать сестовый стенд под Oracle RAC.
Будет две виртуалки в KVM, нужно хранилище под ASM.
В продакшне стоит iSCSI от HP.
Имеет смысл городить iSCSI targer под линуксом, или можно взять NFS или что-то такое?
Сеть - гигабит, производительность не критична смысл - поиграться на обкорнанной базе.