LINUX.ORG.RU

Сообщения keferoff

 

CentOS 6.4 - Fan removed on enclosure

Доброго времени суток! Случился внезапный отказ вентиляторов продувки дисковой полки. Случился спонтанно посреди рабочего дня. - CentOS release 6.3 (Final) - MB: Supermicro x9scl-f

[root@tor log]# cat /var/log/messages | grep -i fan
May 11 05:17:28 tor kernel: ACPI: Fan [FAN0] (off)
May 11 05:17:28 tor kernel: ACPI: Fan [FAN1] (off)
May 11 05:17:28 tor kernel: ACPI: Fan [FAN2] (off)
May 11 05:17:28 tor kernel: ACPI: Fan [FAN3] (off)
May 11 05:17:28 tor kernel: ACPI: Fan [FAN4] (off)
May 11 05:17:37 tor MR_MONITOR[2124]: <MRMON170> Controller ID:  0   Fan removed on enclosure:   1  Fan#012      1
May 11 05:17:37 tor MR_MONITOR[2124]: <MRMON168> Controller ID:  0   Fan failed on enclosure:   1  Fan#012      1
May 11 05:17:37 tor MR_MONITOR[2124]: <MRMON170> Controller ID:  0   Fan removed on enclosure:   1  Fan#012      2
May 11 05:17:37 tor MR_MONITOR[2124]: <MRMON168> Controller ID:  0   Fan failed on enclosure:   1  Fan#012      2
May 11 05:17:37 tor MR_MONITOR[2124]: <MRMON170> Controller ID:  0   Fan removed on enclosure:   1  Fan#012      3
May 11 05:17:37 tor MR_MONITOR[2124]: <MRMON168> Controller ID:  0   Fan failed on enclosure:   1  Fan#012      3
May 11 05:17:37 tor MR_MONITOR[2124]: <MRMON170> Controller ID:  0   Fan removed on enclosure:   1  Fan#012      1
May 11 05:17:37 tor MR_MONITOR[2124]: <MRMON168> Controller ID:  0   Fan failed on enclosure:   1  Fan#012      1
May 11 05:17:37 tor MR_MONITOR[2124]: <MRMON170> Controller ID:  0   Fan removed on enclosure:   1  Fan#012      2
May 11 05:17:37 tor MR_MONITOR[2124]: <MRMON168> Controller ID:  0   Fan failed on enclosure:   1  Fan#012      2
May 11 05:17:37 tor MR_MONITOR[2124]: <MRMON170> Controller ID:  0   Fan removed on enclosure:   1  Fan#012      3
May 11 05:17:37 tor MR_MONITOR[2124]: <MRMON168> Controller ID:  0   Fan failed on enclosure:   1  Fan#012      3
Как считаете проблема аппаратная или это проблемы с linux acpi? UPDATE: посмотрел состояние вентиляторов через ipmi, показывает что исправны и даже скорость оборотов показывает.

keferoff
()

postfix + vacation проблема с кодировками

Доброго времени суток!

Существующая инфраструктура: Использую связку postfix + vacation (автоответчик на случай отпуска и т.д.)

Задача: vacation в теле письма а также теме сообщения должен отправлять русский текст.

Проблема: Русский текст отправляется, но в заголовке сообщения вместо текста иероглифы похожие на китайские. Ещё одна проблема в том что в теле сообщения при получении на gmail, yandex mail, всё отлично, а если получать thunderbird или outlook таже самая проблема с кодировками.

Вопрос: Как повлиять на эту ситуацию? Заранее спасибо за помощь!

keferoff
()

Dovecot + outlook 2007 странная проблема

Доброго времени суток! Имеется Dovecot 1.0.7 и outlook 2007. Проблема в том что примерно раз в неделю outlook 2007 перестаёт синхронизировать новые сообщения по imap. Тоесть новые сообщения в ящике есть, но outlook их невидит. Проблема решается мистическим путём через всегда разный промежуток времени.

В /var/log/maillog начало проблемы знаменуется такими записями:

May 23 13:01:02 mail2 dovecot: IMAP(alexey): maildir: root=/home/alexey/Maildir, index=/home/alexey/Maildir, control=, inbox= May 23 13:01:02 mail2 dovecot: imap-login: Login: user=<alexey>, method=PLAIN, rip=::ffff:127.0.0.1, lip=::ffff:127.0.0.1, secured May 23 13:01:03 mail2 dovecot: IMAP(alexey): Disconnected: Logged out

А когда всё нормально такими:

May 23 12:59:46 mail2 dovecot: IMAP(alexey): maildir: root=/home/alexey/Maildir, index=/home/alexey/Maildir, control=, inbox= May 23 12:59:46 mail2 dovecot: imap-login: Login: user=<alexey>, method=PLAIN, rip=::ffff:192.168.2.10, lip=::ffff:192.168.0.135, TLS

Конфигурационный файл Dovecot: ############################################ # Protocols configuration # ############################################

protocols = imap imaps pop3 pop3s mail_location = maildir:~/Maildir/ mail_debug=yes

############################################# # IMAP specific settings # #############################################

protocol imap { imap_client_workarounds = delay-newmail outlook-idle netscape-eoh }

############################################# # POP3 specific settings # #############################################

protocol pop3 { pop3_uidl_format = %08Xu%08Xv pop3_client_workarounds = outlook-no-nuls oe-ns-eoh }

############################################# # LDA specific settings # #############################################

protocol lda { postmaster_address = postmaster@example.com }

############################################# # AUTH Configuration # #############################################

auth default { mechanisms = plain login passdb pam { } userdb passwd { } socket listen { client { path = /var/spool/postfix/private/auth mode = 0660 user = postfix group = postfix } } } ############################################# # TLS Configuration # #############################################

protocol imap { ssl_cert_file = /etc/postfix/tls/ca.crt ssl_key_file = /etc/postfix/tls/ca.key } protocol pop3 { ssl_cert_file = /etc/postfix/tls/ca.crt ssl_key_file = /etc/postfix/tls/ca.key }

############################################# # Other conf parameters # #############################################

dict { }

plugin { }

keferoff
()

Postfix + Spamassasin (ошибка подключения транспорта)

Доброго времени суток!
CentOS5.4
postfix-2.3.3-2.1.el5_2
spamassassin-3.2.5-1.el5

Первый раз настраиваю почтовую связку: postfix+dovecot+spamassassin
Postfix+dovecot настроил, почта уходит и приходит.

Проблема:
Немогу прикрутить spamassassin к postfix.
Получаю ошибки в логах:
Код:

May 5 14:04:45 postfix postfix/qmgr[3196]: warning: connect to transport spam: No such file or directory
May 5 14:05:45 postfix postfix/qmgr[3196]: warning: connect to transport spam: No such file or directory


Изменения внесённые мной в файл master.cf
Код:

smtp inet n - n - - smtpd -o content_filter=spamassassin

spamassassin unix - n n - - pipe
user=nobody argv=/usr/bin/spamc -u ${user} -e /usr/sbin/sendmail.postfix -oi -f ${sender} ${recipient}




Почта уходит, но висит в /var/spool/postfix/active и я немогу её не сбросить не забрать через dovecot.

Настраиваю по официальной документации:
http://wiki.apache.org/spamassassin/IntegratedSpamdInPostfix


Идеи кончились, подскажите, что это может быть?

keferoff
()

mdadm не переживает перезагрузку системы

Доброго времени суток!
CentOS5.4, mdadm - v2.6.9 - 10th March 2009
Собирал 3 единицы raid1. всё отлично работает. Системный диск не в зеркале.
mdadm.conf
Код:

[root@dionis dev]# cat /etc/mdadm/mdadm.conf
ARRAY /dev/md0 level=raid1 num-devices=2 metadata=0.90 UUID=34bd2d02:def34e52:dff5af3e:5d9e6d7d auto=md spare-group=1
ARRAY /dev/md1 level=raid1 num-devices=2 metadata=0.90 UUID=04a9a744:8e4497c4:7b735356:e7f6d207 auto=md spare-group=1
ARRAY /dev/md2 level=raid1 num-devices=2 metadata=0.90 UUID=6f0ca3b7:9c5c0f8e:e26a0ff8:5b5e86fc auto=md spare-group=1


/proc/mdstat
Код:

[root@dionis dev]# cat /proc/mdstat
Personalities : [raid1]
md2 : active raid1 sde[0] sdg[1]
312571136 blocks [2/2] [UU]

md1 : active raid1 sdc[0] sdd[1]
312571136 blocks [2/2] [UU]

md0 : active raid1 sda[0] sdb[1]
312571136 blocks [2/2] [UU]

unused devices: <none>

Но после перезагрузки, система не собирает массив, и ругается на отсутствие md1, md2 устройств.

/var/log/messages
Код:

Apr 30 18:34:03 dionis kernel: raid1: raid set md2 active with 2 out of 2 mirrors
Apr 30 18:34:45 dionis kernel: EXT3 FS on md0, internal journal
Apr 30 18:34:45 dionis kernel: EXT3 FS on md1, internal journal
Apr 30 18:34:45 dionis kernel: EXT3 FS on md2, internal journal
Apr 30 19:10:14 dionis kernel: md: md driver 0.90.3 MAX_MD_DEVS=256, MD_SB_DISKS=27
Apr 30 19:10:14 dionis kernel: md: bitmap version 4.39
Apr 30 19:10:15 dionis kernel: md: Autodetecting RAID arrays.
Apr 30 19:10:15 dionis kernel: md: autorun ...
Apr 30 19:10:15 dionis kernel: md: ... autorun DONE.
Apr 30 19:23:11 dionis kernel: md: md0 stopped.
Apr 30 19:23:11 dionis kernel: md: bind<sdb>
Apr 30 19:23:11 dionis kernel: md: bind<sda>
Apr 30 19:23:11 dionis kernel: md: raid1 personality registered for level 1
Apr 30 19:23:11 dionis kernel: raid1: raid set md0 active with 2 out of 2 mirrors
Apr 30 19:23:15 dionis kernel: md: md1 stopped.
Apr 30 19:23:15 dionis kernel: md: bind<sdd>
Apr 30 19:23:15 dionis kernel: md: bind<sdc>
Apr 30 19:23:15 dionis kernel: raid1: raid set md1 active with 2 out of 2 mirrors
Apr 30 19:23:19 dionis kernel: md: md2 stopped.
Apr 30 19:23:19 dionis kernel: md: bind<sdg>
Apr 30 19:23:19 dionis kernel: md: bind<sde>
Apr 30 19:23:19 dionis kernel: raid1: raid set md2 active with 2 out of 2 mirrors
Apr 30 19:24:04 dionis kernel: EXT3 FS on md0, internal journal
Apr 30 19:24:04 dionis kernel: EXT3 FS on md1, internal journal
Apr 30 19:24:04 dionis kernel: EXT3 FS on md2, internal journal
Apr 30 20:25:07 dionis kernel: md: md driver 0.90.3 MAX_MD_DEVS=256, MD_SB_DISKS=27
Apr 30 20:25:07 dionis kernel: md: bitmap version 4.39
Apr 30 20:25:08 dionis kernel: md: Autodetecting RAID arrays.
Apr 30 20:25:08 dionis kernel: md: autorun ...
Apr 30 20:25:08 dionis kernel: md: ... autorun DONE.
Apr 30 20:33:01 dionis kernel: md: md0 stopped.
Apr 30 20:33:01 dionis kernel: md: bind<sdb>
Apr 30 20:33:01 dionis kernel: md: bind<sda>
Apr 30 20:33:01 dionis kernel: md: raid1 personality registered for level 1
Apr 30 20:33:01 dionis kernel: raid1: raid set md0 active with 2 out of 2 mirrors
Apr 30 20:33:01 dionis kernel: md: md1 stopped.
Apr 30 20:33:01 dionis kernel: md: bind<sdd>
Apr 30 20:33:01 dionis kernel: md: bind<sdc>
Apr 30 20:33:01 dionis kernel: raid1: raid set md1 active with 2 out of 2 mirrors
Apr 30 20:33:01 dionis kernel: md: md2 stopped.
Apr 30 20:33:01 dionis kernel: md: bind<sdg>
Apr 30 20:33:01 dionis kernel: md: bind<sde>
Apr 30 20:33:01 dionis kernel: raid1: raid set md2 active with 2 out of 2 mirrors

Вопрос:
Как сделать так чтобы массив автоматически собирался после перезагрузки системы?

keferoff
()

Установка CentOS 5.4 на ASUS P5BV\SAS

Доброго времени суток!
Имеется материнская плата ASUS P5BV\SAS. На которую нужно установить CentOS5.4

Проблема: машина аварийно завершает работу в процессе установки.
Тоесть, вставляю диск в привод (SATA|IDE пробовал оба) поднимается гуй, далее выбираю язык, следующий пункт должен найти диски и проверить не имеется ли уже установленной ОС, на этом пункте и происходит аварийная остановка. Причём Win2003 установился в штатном режиме, что наталкивает на мысль что проблема сугубо софтверная.
Отладочной информации никакой. Подскажите плиз что это может быть?
И ещё один нюанс, при использовании SATA привода, аварийна остановка происходит до поднятия GUI.
И второй нюанс, после аварийной остановки, систему нельзя запустить через выключатель питания. Нужно обесточить материнскую плату, потом заново подать напряжение, и только потом нажать выключатель подачи питания на корпусе.

keferoff
()

PPP циклически удаляет default route

Доброго времени суток! Имеется рутер с тремя сетевыми интерфейсами: eth0 (ppp0) - ISP 1 eth1 (ppp1) - ISP 2 eth2 - LAN

Проблема в том что у меня есть два ppp соединения и скрипт проверяющий доступность этих самый соединений. Скрипт также устанавливает маршрут поумолчанию. Проблема в том что при падении одного из ppp соединений, pppd начинает циклические попытки подключений, при этом если подключение прошло неудачно он убивает маршрут по умолчанию, и неважно, кто этот маршрут по умолчанию создал. опция DEFROUTE=no не спасает. как я подозреваю, дело в кривых скриптах инициализации. Подскажите какие именно скрипты посмотреть чтобы ppp не удалял default route при падении канала на который этот самый defroute указывает? Знаю что криво, но в моей ситуации самое оно!

keferoff
()

Пропали правила из таблицы маршрутизации

Доброго времени суток!
Имеется рутер с тремя сетевыми интерфейсами:
eth0 (ppp0) - ISP 1
eth1 (ppp1) - ISP 2
eth2 - LAN

Policy routing делаю через статический роутинг.
Код:

# Custom routing tables flushing
$IP route flush table megalink
$IP rule del table megalink

$IP route flush table vega_archer
$IP rule del table vega_archer

################################
# Policy routing configuration #
################################

# Routing into router ---------------------------------------------------------------------------------------------
# Confguring megalink table
$IP route add $GW_MEGALINK dev $MEGALINK_IFACE src $MEGALINK_SRC table megalink
$IP route add default via $GW_MEGALINK table megalink
$IP route add 10.10.10.2 dev tun0 src 10.10.10.1 table megalink
$IP route add 10.10.10.0/24 via 10.10.10.2 dev tun0 table megalink
$IP route add 192.168.0.0/24 dev eth2 src 192.168.0.1 table megalink
$IP route add 192.168.2.0/24 dev eth1 src 192.168.2.1 table megalink
$IP route add 195.248.185.180/30 dev eth2:1 src 195.248.185.182 table megalink
$IP route add 127.0.0.0/8 dev lo table megalink

# Confguring vega_archer table
$IP route add $GW_VEGA_ARCHER dev $VEGA_ARCHER_IFACE src $VEGA_ARCHER_SRC table vega_archer
$IP route add default via $GW_VEGA_ARCHER table vega_archer
$IP route add 10.10.10.2 dev tun0 src 10.10.10.1 table vega_archer
$IP route add 10.10.10.0/24 via 10.10.10.2 dev tun0 table vega_archer
$IP route add 192.168.0.0/24 dev eth2 src 192.168.0.1 table vega_archer
$IP route add 192.168.2.0/24 dev eth1 src 192.168.2.1 table vega_archer
$IP route add 195.248.185.180/30 dev eth2:1 src 195.248.185.182 table vega_archer
$IP route add 127.0.0.0/8 dev lo table vega_archer

# main routing table configuration
$IP route add $GW_MEGALINK dev $MEGALINK_IFACE src $MEGALINK_SRC
$IP route add $GW_VEGA_ARCHER dev $VEGA_ARCHER_IFACE src $VEGA_ARCHER_SRC

$IP route add default dev $MEGALINK_IFACE src $MEGALINK_SRC
$IP route add default dev $MEGALINK_IFACE src $MEGALINK_SRC

# routing realms
$IP rule add from $MEGALINK_SRC table megalink
$IP rule add from $VEGA_ARCHER_SRC table vega_archer

# Routing decision about fwmarks
$IP rule add fwmark 10 table megalink
$IP rule add fwmark 20 table vega_archer

# Flush route cache
$IP route flush cache



Трафик направляется в нужные таблицы маршрутизации на основе таргета iptables MARK (657 правил, если будет необходимо показать выложу отдельным файлом)

В нормальном состоянии таблица маршрутизации выглядит так:
Код:

1 Kernel IP routing table
2 Destination Gateway Genmask Flags Metric Ref Use Iface
3 195.248.176.xxx 0.0.0.0 255.255.255.255 UH 0 0 0 ppp1
4 10.10.10.2 0.0.0.0 255.255.255.255 UH 0 0 0 tun0
5 193.200.32.x 0.0.0.0 255.255.255.255 UH 0 0 0 ppp0
6 195.248.32.x 0.0.0.0 255.255.255.255 UH 0 0 0 ppp0
7 195.248.185.xxx 0.0.0.0 255.255.255.252 U 0 0 0 eth2
8 192.168.2.0 0.0.0.0 255.255.255.0 U 0 0 0 eth1
9 192.168.0.0 0.0.0.0 255.255.255.0 U 0 0 0 eth2
10 10.10.10.0 10.10.10.2 255.255.255.0 UG 0 0 0 tun0
11 169.254.0.0 0.0.0.0 255.255.0.0 U 0 0 0 eth2
12 0.0.0.0 0.0.0.0 0.0.0.0 U 0 0 0 ppp0



В аварийной ситуации так:
Код:

1 Kernel IP routing table
2 Destination Gateway Genmask Flags Metric Ref Use Iface
3 195.248.176.xxx 0.0.0.0 255.255.255.255 UH 0 0 0 ppp1
4 10.10.10.2 0.0.0.0 255.255.255.255 UH 0 0 0 tun0
5 193.200.32.x 0.0.0.0 255.255.255.255 UH 0 0 0 ppp0
6 195.248.185.xxx 0.0.0.0 255.255.255.252 U 0 0 0 eth2
7 192.168.2.0 0.0.0.0 255.255.255.0 U 0 0 0 eth1
8 192.168.0.0 0.0.0.0 255.255.255.0 U 0 0 0 eth2
9 10.10.10.0 10.10.10.2 255.255.255.0 UG 0 0 0 tun0
10 169.254.0.0 0.0.0.0 255.255.0.0 U 0 0 0 eth2



При аварийно ситуации команды:
ping -I ppp0 ya.ru
ping -I ppp1 ya.ru
Возвращают: Operation not permitted
это при условии
iptables -P INPUT ACCEPT
iptables -P OUTPUT ACCEPT

Вопрос, что могло грохнуть маршруты? ICMP redirect например?
_________________

keferoff
()

HTB шейпинг исходящего трафика

Доброго времени суток!
Неполучается зашейпить исходящий из LAN трафик. Входящий шейпится в штатном режиме.

На ppp0 работает SNAT


Имеется рутер CentOS5.4
eth0 (ppp0) - WAN
eth1 - LAN (192.168.2.0/24)

Правила шейпера:
DEV=«eth1»
RATE=«4500»

tc qdisc del dev $DEV root 2> /dev/null > /dev/null
tc qdisc del dev $DEV ingress 2> /dev/null > /dev/null

#Add root discipline to device eth1 -----------------------------------------------------------
tc qdisc add dev $DEV root handle 1:0 htb default 200

#Add root classes to root discipline ----------------------------------------------------------
#Add root class for workstations packets flow
tc class add dev $DEV parent 1:0 classid 1:1 htb rate ${RATE}kbit

#Add branch classes to root classes -----------------------------------------------------------
#Add leaf classes to 1:1 root class
tc class add dev $DEV parent 1:1 classid 1:10 htb rate 512kbit ceil 512kbit
tc class add dev $DEV parent 1:1 classid 1:11 htb rate 512kbit ceil 512kbit

#Add filter for ingress packets flow from workstations
tc filter add dev $DEV protocol ip parent 1:0 prio 1 u32 match ip dst 192.168.2.245 flowid 1:10
tc filter add dev $DEV protocol ip parent 1:0 prio 1 u32 match ip src 192.168.2.245 flowid 1:11

Вот что показывает tc

[root@hydra shaper]# tc -s filter show dev eth1
filter parent 1: protocol ip pref 1 u32
filter parent 1: protocol ip pref 1 u32 fh 800: ht divisor 1
filter parent 1: protocol ip pref 1 u32 fh 800::800 order 2048 key ht 800 bkt 0 flowid 1:10 (rule hit 37870 success 1270)
match c0a802f5/ffffffff at 16 (success 1270 )
filter parent 1: protocol ip pref 1 u32 fh 800::801 order 2049 key ht 800 bkt 0 flowid 1:11 (rule hit 36600 success 0)
match c0a802f5/ffffffff at 12 (success 0 )

[root@hydra shaper]# tc -s qdisc show dev eth1
qdisc htb 1: r2q 10 default 200 direct_packets_stat 106744
Sent 121612780 bytes 108109 pkt (dropped 0, overlimits 5832 requeues 0)
rate 0bit 0pps backlog 0b 0p requeues 0

[root@hydra shaper]# tc -s class show dev eth1
class htb 1:11 parent 1:1 prio 0 rate 512000bit ceil 512000bit burst 1664b cburst 1664b
Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
rate 0bit 0pps backlog 0b 0p requeues 0
lended: 0 borrowed: 0 giants: 0
tokens: 26000 ctokens: 26000

class htb 1:1 root rate 4500Kbit ceil 4500Kbit burst 2161b cburst 2161b
Sent 1129251 bytes 1411 pkt (dropped 0, overlimits 0 requeues 0)
rate 11848bit 3pps backlog 0b 0p requeues 0
lended: 0 borrowed: 0 giants: 0
tokens: 3659 ctokens: 3659

class htb 1:10 parent 1:1 prio 0 rate 512000bit ceil 512000bit burst 1664b cburst 1664b
Sent 1129251 bytes 1411 pkt (dropped 0, overlimits 0 requeues 0)
rate 11848bit 3pps backlog 0b 0p requeues 0
lended: 1411 borrowed: 0 giants: 0
tokens: 24375 ctokens: 24375


Тестирую через speedtest.net Результат теста:

Download Speed: 50KBps (как и указано в правилах)

Upload Spped: 1.7Mbps (не как у казано в правилах :) )

keferoff
()

WRT160NL организация SSH доступа

Доброго времени суток! Специально купил wi-fi рутер WRT160NL для установки на него специально модифицированного nginx. Попытался зайти по SSH, а его нет! К томуже увидел сдесь http://bc.whirlpool.net.au/bc/hardware/?action=h_view&model_id=940 Что SSH не поддерживается... Но в тоже самое время WRT160N поддерживает SSH из коробки и я недумаю что разница между этими моделями настолько велика.

Вопрос: Есть идеи как организовать SSH доступ?

keferoff
()

Расспределение ключей OpenVPN

Доброго времени суток!

Существующая инфрастуктура:

Имеется OpenVPN сервер - единственный вход в корпоративную сеть. Имеется более 80 заказчиков, на расстоянии от OpenVPN сервера от 100км до 5000км.

Задача: Как организовать механизм безопасного расспределения ключей? Ведь первоначально заказчику для установления связи с OpenVPN сервером приходится пересылать следующие данные:

ca ca.crt - публичный ключ УЦ key user.key - Секретный клю пользователя (защищён паролем) cert user.crt - Публичный ключ пользователя (сейчас пересылаю в архиве с паролем)

И самое страшное если атакующему удастся подобрать пароль к user.key Тем самым теряется всё преимущество от PKI. (я как будто пересылаю ключ симетричного шифрования просто запароленый) Или может в OpenVPN уже придумано как распределять ключи, наиболее безопасным способом, между сервером и клиентами?

Заранее спасибо за ответы!

keferoff
()

RSS подписка на новые темы