Вопрос по mdadm
Вопрос, есть ли какой либо реальный выигрыш в скорости чтения/записи при использовании mdadm raid 10, вместо raid 1?
Вопрос, есть ли какой либо реальный выигрыш в скорости чтения/записи при использовании mdadm raid 10, вместо raid 1?
Есть Server 4.2.2. В конфиге пачка subnet которые должны получать клиенты.
Работает он на eth1 (192,168,0,2/24). Вопрос, почему, пока в конфиг сервера не добавишь:
subnet 192.168.0.0 netmask 255.255.255.0
{
range 192.168.0.3 192.168.0.254;
option routers 192.168.0.1;
option broadcast-address 192.168.0.255;
}
Он отказывается запускаться, выдавая следующее:
Nov 18 12:40:54 dhcpd: No subnet declaration for eth1 (192.168.0.2).
Nov 18 12:40:54 dhcpd: ** Ignoring requests on eth1. If this is not what
Nov 18 12:40:54 dhcpd: you want, please write a subnet declaration
Nov 18 12:40:54 dhcpd: in your dhcpd.conf file for the network segment
Nov 18 12:40:54 dhcpd: to which interface eth1 is attached. **
Nov 18 12:40:54 dhcpd:
Nov 18 12:40:54 dhcpd:
Nov 18 12:40:54 dhcpd: Not configured to listen on any interfaces!
Из этой подсети (192,168,0,0/24) адреса мне выдавать не нужно.
Понятно, что он хочет чтобы я декларировал сеть 192,168,0,0, но зачем?
Решил заморочиться и построить небольшой кластер. Смысл в том, что кластер состоит из нескольких физических машин, объеденных в одну логическую. Далее, запускаю кучу VM, например на KVM, а в них нужные мне сервисы. Причем, все ноды должны балансировать нагрузку между собой. Можно отключить одну-две ноды, без остановки кластера в целом.
Но, вот незадача, не могу найти нужного мне решения. Есть heartbeat, который подключает slave сервер, в случае падения master. Все прочее время slave простаивает - не годится. Есть вариант, когда используется балансер и несколько нод, но не представляю, как применить такую схему к моей задаче. Это больше подходит для нагруженных web проектов.
Может кто-то направит на верный путь?
Хотелось бы поюзать какой-нибудь blade сервер с пачкой лезвий. Денег на закупку говорят есть 5*10^6 рублей. Использоваться будет либо под облачный сервис, либо под vps. ОС - debian. Кто что может посоветовать? Чтобы с контроллерами не было проблем итд.
Спасибо.
З.Ы. Просьба не флудить.
Есть домен mydomain.ru. Есть некие служебные домены второго уровня, например: switch.mydomaun.ru и router.mydomain.ru. Отдавать они должны, по идее только для определенных подсетей.
Есть allow-query, но его можно применить либо для всех доменов, либо для одного файла зоны, тобишь всего mydomain.ru.
А как бы мне сделать так, как хочу я, не могу сообразить?..
Есть сервер. Raid контроллер в нем нет. В Бебеиане вроде бы нет softraid 60. Возник вопрос, что лучше (4 диска):
1) raid 10 - на потерю емкости в два раза плевать, беспокоит то, что если выйдут из строя два рядом стоящих диска, система навернется, а этого ой как не хочется. Сейчас поднял 10, но есть опасения... Да и Ц.П. грузит здорово;
2) raid 6 - из строя могут выйти два любых диска. Однако, будет потеря в производительности дисковой системы, насколько это критично? Грузит ли Ц.П так же как и raid 10?
З.Ы. Говорю про mdadm. Сервер будет использоваться под middleware, где-то на сотню абонентов с возможным ростом нагрузки до нескольких тысяч.
Так же думаю, как лучше разбить дисковую подсистему. По идее, почти все свободное место надо выделить под Б.Д. Можно конечно использовать lvm, но это лишняя нагрузка на Ц.П опять же...
В общем, не хотелось бы накосячить на этом этапе, а потом переделывать, ибо второго сервера для резервирования нет, а сервис важный.
Вопрос на миллион: есть неплохой сервер, два процессора по 4 ядра, 16Г памяти. Стоит бесхозный, скучает. Подо что бы его пустить?
Идеи уже кончились...
Я думаю все знают, для чего используется tacacs+. Есть кучка серверов на debian. Хотелось бы найти для них нечто вроде tacacs+. Чтобы, завел один раз учетку и не парился.
Кто что может посоветовать?
В общем настроил я таки openvpn. Под unix клиентами все хорошо. Под виндой, как всегда:
Sat Sep 14 14:04:44 2013 There is a problem in your selection of --ifconfig endpoints [local=10.100.0.4, remote=10.100.0.3]. The local and remote VPN endpoints must exist within the same 255.255.255.252 subnet. This is a limitation of --dev tun when used with the TAP-WIN32 driver. Try 'openvpn --show-valid-subnets' option for more info.
Какого?.. В гугле что-то ничего нет...
Адреса же в одной подсети.
Здравствуйте, поднял openvpn не могу выполнить привязку к ip.
Пробовал через ipp.txt. В конфиге сервера
ifconfig-pool-persist ipp.txt
username,ip-address
Дописывал в конфиг сервера
client-config-dir ccd
ifconfig-push ip-ip
Как выполнить привязку к ip?
Авторизация по логин/паролю с помощью openvpn-auth-pam.so
Добрый день, есть такая странность. Сервер с одним процессором:
lshw -class cpu
*-cpu
description: CPU
product: Intel(R) Xeon(R) CPU E3-1230 V2 @ 3.30GHz
vendor: Intel Corp.
physical id: 4
bus info: cpu@0
version: Intel(R) Xeon(R) CPU E3-1230 V2 @ 3.30GH
serial: To Be Filled By O.E.M.
slot: CPU 1
size: 3301MHz
capacity: 4GHz
width: 64 bits
clock: 100MHz
capabilities: x86-64 fpu fpu_exception wp vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx smx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms cpufreq
configuration: cores=4 enabledcores=4 threads=8
А другой сервер, с двумя процессорами:
lshw -class cpu
*-cpu:0
description: CPU
product: Intel(R) Xeon(R) CPU E5-2609 0 @ 2.40GHz
vendor: Intel Corp.
physical id: 4
bus info: cpu@0
version: Intel(R) Xeon(R) CPU E5-2609 0 @ 2.40GHz
slot: CPU 1
size: 1200MHz
capacity: 2400MHz
width: 64 bits
clock: 100MHz
capabilities: x86-64 fpu fpu_exception wp vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx pdpe1gb rdtscp constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx smx est tm2 ssse3 cx16 xtpr pdcm pcid dca sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx lahf_lm arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid cpufreq
configuration: cores=4 enabledcores=4 threads=4
*-cpu:1
description: CPU
product: Intel(R) Xeon(R) CPU E5-2609 0 @ 2.40GHz
vendor: Intel Corp.
physical id: 6
bus info: cpu@1
version: Intel(R) Xeon(R) CPU E5-2609 0 @ 2.40GHz
slot: CPU 2
size: 1200MHz
capacity: 2400MHz
width: 64 bits
clock: 100MHz
capabilities: x86-64 fpu fpu_exception wp vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx pdpe1gb rdtscp constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx smx est tm2 ssse3 cx16 xtpr pdcm pcid dca sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx lahf_lm arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid cpufreq
configuration: cores=4 enabledcores=4 threads=4
Тоже 8 ядер, что за? И что такое threads?..
Есть два DNS, оба на debian 7. В логах slave сервера вижу такое:
19-Aug-2013 08:54:24.282 general: error: dumping master file: /etc/bind/mydomain/in-addr.arpa.zone/tmp-PIt9WKYvrG: open: file not found
19-Aug-2013 08:58:54.372 general: error: dumping master file: /etc/bind/mydomain/in-addr.arpa.zone/tmp-721Ko4uR8Z: open: file not found
19-Aug-2013 09:02:13.472 general: error: dumping master file: /etc/bind/mydomain/tmp-FAKrg3biuo: open: file not found
Трансервинг зон проходит нормально, но, что за файлы «tmp-721Ko4uR8Z»? Права на папки стоят 640.
Есть зарегестрированная сеть белых адресов /22, для её регистрации необходимо было иметь два dns. И их сделали из ноутбуков... Зарегистрирован домен mydomain.ru
Сейчас, имеются два человеческих сервера с bind9. Они настроены и работают, адреса у них из локальной сети. Я планирую, поднять на каждом второй сетевой интерфейс присвоить им белый ip из реальной сети и пустить в работу. Вопросы:
1) ip можно брать любой из диапазона реальных адресов или dns регистрируются на определенные адреса и с других адресов из сети /22 работать не будут?
2) Как запустить bind на определенном eth?
3) На dns я добавляю запись qwerty.mydomain.ru (домен третьего уровня), то, происшествии определенного времени, он будет ресолвится и на вышестоящих серверах. Или, его тоже необходимо регистрировать.
Я плакать. Усатые дяденьки решили, что мы теперь хостинг провайдер.
В связи с этим вопрос: кто какие системы использует под хостинг (биллинг итд.), открытые, платные, самописные? Linux или freedsd? И вообще, на что стоит обратить внимание при начальном проектировании системы? Опыта в подобном деле нет, буду рад любым советам и помощи.
Вопрос: если raid 6 из 6, то дисков отказать может 3 диска или 2 диска? По логике 3, но что-то я не уверен...
Прошу помощи, я залип...
Есть сервер intel server board S2600GZ/GL hot swap на 12 дисков. Хочу поднять на нем bacula и хранить бэкапы. Для большей надежности хочу поднять soft-raid 10 (mdadm). Но, возникла загвоздка:
На сервере стоит raid expander (res2sv240) и raid контроллер (rms25cb040) который умеет только raid 0/1/5/6, хоть в описании и говорится, что он поддерживает raid 10 или мне нужно сделать raid 1, а поверх raid 0?. К тому же, при hard raid не будет работать smart.
Если я отключаю raid котроллер и оставляю эспандер система перестаёт видеть жесткие диски, шаманства с биосом ни к чему не приводят. Если убрать эспандер, то мне не хватит одного sas разъема для дисков.
Вопрос, как сделать, чтобы система увидела диски? И почему же она их не видет. Возможно, кто-то сталкивался с этим.
Прошу помощи, я залип...
Есть сервер intel server board S2600GZ/GL на 12 дисков. Хочу поднять на нем bacula и хранить бэкапы. Для большей надежности хочу поднять soft-raid 10 (mdadm). Но, возникла загвоздка:
На сервере стоит sas эспандер и raid контроллер (rms25cb040) который умеет только raid 0/1/5/6, хоть в описании и говорится, что он поддерживает raid 10. К тому же, при hard raid не будет работать smart.
Если я отключаю raid котроллер и оставляю эспандер система перестаёт видеть жесткие диски, шаманства с биосом ни к чему не приводят. Если убрать эспандер, то мне не хватит одного sas разъема для дисков.
Вопрос, как сделать, чтобы система увидела диски? И почему же она их не видет. Возможно, кто-то сталкивался с этим.
Есть soft raid 1. Как можно увеличить существующий раздел (md0), при условии что на обоих дисках есть неразмеченное место.
Вариант с удалением раздела из рейда, удалением раздела с дисков и создание нового раздела большей ёмкости не подходит.
Для большей наглядности пусть на md0 будет смонтирован /.
А куда в wheezy делся suhosin? В debian 6 он был. Насколько это критично для безопасности?
Люди добры, подскажите, никак не могу сообразить, как передать переменную скрипту на expect из скрипта на bash?
Например:
#!/bin/bash
pass=123
ла-ла-ла
expect -c '
spawn ssh -p 22 admin@192.168.0.1;
expect password ;
send "$pass\n" ;
send "cd /var/logr";
expect "ssh>"'
Так скрипт ругнется, если задать переменную как «set pass 123», после expect -c то всё нормально. Я понимаю, что когда выхывается expect он определяет свои переменные Но, мне нужно значение переменной именно до expect -c.
← назад | следующие → |