Размер проверяемого письма в spamassassin
Приветствую, коллеги! Обнаружил в почтовых логах вот такие вещи:
Nov 17 13:15:04 deb7 spampd[26971]: skipped large message (884.0966796875KB)
Приветствую, коллеги! Обнаружил в почтовых логах вот такие вещи:
Nov 17 13:15:04 deb7 spampd[26971]: skipped large message (884.0966796875KB)
Приветствую, коллеги!
Обнаружил странную штуку с хардами. Есть пачка серваков (HP G8 и SuperMicro) все одноюнитовые, в каждом по 4 харда. Так вот, те харды, что установлены в первые 2 корзины, показывают, что они, как и положено, работают на 6 Gb/s, а вот те, что стоят в третьей и четвёртой корзине, почему-то работают на 3 Gb/s.
Смотрел через smartctl.
root@virt-node-04:~# smartctl -a /dev/sda | grep current
SATA Version is: SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
root@virt-node-04:~# smartctl -a /dev/sdb | grep current
SATA Version is: SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
root@virt-node-04:~# smartctl -a /dev/sdc | grep current
SATA Version is: SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
root@virt-node-04:~# smartctl -a /dev/sdd | grep current
SATA Version is: SATA 3.0, 6.0 Gb/s (current: 3.0 Gb/s)
Это вообще нормально? Что нужно сделать, что бы они все завелись на 6 Gb/s?
P. s. в биосе выставлен режим SATA3 для всех контроллеров.
Спасибо!
Приветствую, коллеги!
Имеется кластер из пачки серверов, которые наконец-то решили проапгрейдить. Закупили сетевух 10G, теперь встал вопрос о планировании апгрейда. Т. к. новые сетевухи оптические, а старые гигабитные медные, то подумалась мне такая схема: на новых десятках собираем LACP (на старых гигабитных он уже собран), а из двух LACP'ов собираем bond active-backup, где active будет LACP из десятоток, а backup LACP из гигабитов. Вопрос собственно в том, делал-ли кто-то что-нибудь подобное, жизнеспособное-ли это решение в принципе (а-то ИМХО, сильно костылями попахивает), ну и какие подводные камни есть при настройке сего чуда?
Спасибо!
P. s. OS - Debian 7 и Debian 8.
Сейчас занимаюсь постройкой нового кластера MariaDB+Galera. Кластер планируется из трёх нод + арбитратор (на данный момент в наличии только две, для третей и арбитратора ещё железо не готово), на каждой ноде стоит Debian Jessie, запущена MariaDB в режиме MM-репликации, так же стоит corosync и pacemaker для мониторинга состояния MariaDB и в случае её отказа, переноса vip-адреса на живую ноду.
В процессе конфигурирования столкнулся со следующими проблемами: 1. Если демону mysqld сделать kill -9, то corosync, вместо того, что бы передвинуть ip на живую ноду, пытается снова запустить mysqld на этой же ноде. Как сделать так, что бы айпишник переезжал при недоступности, а в идеале, при неработоспособности демона (например, выполнялся тестовый запрос, если результат отличен от ожидаемого, передвинуть адрес на другую ноду и оповестить админа)?
2. При рестарте демона corosync, зачем-то рестартится и MariaDB. Как сделать, что бы оно не трогало mysqld при рестарте?
3. Как при запущенном mysld сбросить статус OFFLINE/Fail/Stopped в corosync? (reprobe не подходит, потому-что при resource reprobe mariadb-01 так же происходит рестарт mysqld).
Зачем оно вообще на каждый чих рестартит то, бесперебойную работу чего должно обеспечивать?
Конфиги: /etc/corosync/corosync.conf:
totem {
version: 2
token: 3000
nodeid: 10
token_retransmits_before_loss_const: 10
clear_node_high_bit: yes
crypto_cipher: none
crypto_hash: none
transport: udpu
interface {
ringnumber: 0
bindnetaddr: 10.100.22.50
mcastaddr: 224.0.0.50
}
}
logging {
to_logfile: yes
logfile: /var/log/corosync/corosync.log
debug: off
timestamp: on
logger_subsys {
subsys: QUORUM
debug: off
}
}
quorum {
provider: corosync_votequorum
expected_votes: 3
}
nodelist {
node {
ring0_addr: mariadb-01.sdn
}
node {
ring0_addr: mariadb-02.sdn
}
node {
ring0_addr: mariadb-03.sdn
}
}
crm configure show:
node 10: mariadb-01
node 20: mariadb-02
primitive IP-rsc_mysqld IPaddr2 \
params ip=10.100.22.50 nic=bond0.22 cidr_netmask=24 \
meta migration-threshold=2 \
op monitor interval=2 timeout=20 on-fail=restart
primitive mysqld mysql \
params binary="/usr/bin/mysqld_safe" config="/etc/mysql/my.cnf" user=mysql group=mysql log="/var/log/mysql/mysql_err.log" pid="/run/mysqld/mysqld.pid" datadir="/var/lib/mysql" socket="/run/mysqld/mysqld.sock" replication_user=root replication_passwd=MY_SECRET_PASS \
meta migration-threshold=2 target-role=Started is-managed=true \
op monitor timeout=30s interval=2s on-fail=restart role=Master interleave=true ordered=true \
op start interval=0 timeout=300s \
op stop interval=0 timeout=300s
ms mariadb_cluster mysqld \
meta target-role=Started is-managed=true
colocation ip_with_mariadb inf: IP-rsc_mysqld mariadb_cluster
property cib-bootstrap-options: \
dc-version=1.1.12-561c4cf \
cluster-infrastructure=corosync \
stonith-enabled=no \
no-quorum-policy=ignore \
default-resource-stickiness=100 \
stop-all-resources=no \
symmetric-cluster=true
property mysql_replication: \
mysqld_REPL_INFO="mariadb-01|mariadb-bin.000867|345"
Приветствую, коллеги!
Не могу понять, в чём проблема. OpenDCIM при генерации отчёта в PDF, вместо кириллицы рисует знаки вопроса (при этом с XML и Exel-отчётами всё в порядке). Методом научного тыка в файле fpdf.php было найдено следующее:
$txt=utf8_decode($txt); // Comment this line and uncomment the next line to use TrueType fonts from loadfonts.php
//$txt=iconv("UTF-8","Windows-1251",$txt);
Сделав то, что написано в комментарии, вместо знаков вопроса, увидел кракозябры, которые при дальнейшем расследовании оказались текстом в cp1251, отображённым в iso8859-1. Дальнейшие пляски с бубном пока не увенчались успехом. Поиск в коде по «8859» ни чего внятного не выдал (в php я не особо силён, поэтому может пропустил что-то).
Если кто подскажет, как забороть сию проблему, буду весьма благодарен.
Спасибо.
Люди, кто-то с таким сталкивался?
# rsync --progress --verbose -urclK --exclude-from /var/mirror/excludes --delete --delete-excluded --safe-links rsync://mirror.yandex.ru/epel /var/mirror/epel
@ERROR: Unknown module 'epel'
rsync error: error starting client-server protocol (code 5) at main.c(1534) [Receiver=3.0.9]
Приветствую, коллеги! Подумалось мне, что парк железа уже весьма большой и разнообразный и надо бы сделать сервак или виртуалку с DHCP/BOOTP-сервером, которая будет грузить по PXE разные образа и раскатывать их в автоматическом режиме. Задача в целом не сложная, но хочется сделать красиво и изобрести минимум велосипедов. В общем, нужен веб-управлятор всей этой системой, что бы можно было сказать ему, вон-тот сервак на реинсталл, раскатать такой-то образ с такой-то разбивкой диска и прописать такой-то айпишник, после чего система пнёт этот сервак по ipmi/ilo/idrac/etc на ребут, сгенерит для его мака загрузочный конфиг в соответствии с тем, что был указан в веб-морде и загрузит его. В общем, интересует, есть-ли какие-то готовые решения для подобных вещей или надо собирать всё самому по кусочкам? Быстрогугл не помог, если скажите, какие есть варианты и как они называются, буду премного благодарен!
Приветствую, коллеги! Есть сервер, на котором поднят rsyslog, на него стучатся железки и другие серваки. Заметил такую проблему, Сообщения в логах отстают минут на 10 в среднем от текущего времени. Рестарт ситуацию исправляет на 15-20 минут, потом снова начинается отставание. Долго гуглил на эту тему, на stackoverflow нашёл похожую проблему, где человеку посоветовали оторвать ДНС от машины. Для экспериментов пробовал очищать resolv.conf и рестартить rsyslog, после этого проблема решалась, но мне такой вариант не подходит, ибо на этой же машине стоит мониторинг, который опрашивает хосты по именам, а заносить их все в hosts я считаю идеологически неверным решением. Поставил кеширующий локальный DNS (pdnsd), расчитывая на то, что исчезнут сетевые задержки на DNS-запросы и всё станет хорошо, но увы, ситуацию это не изменило. В конфигах rsyslog поотключал всё, что можно, что бы он не резолвил адреса в имена, но задержка по-прежнему есть. Подскажите, как от неё избавиться? Хочется читать логи в реальном времени, а не с опозданием, пусть даже на 10 минут.
Вот конфиги rsyslog:
/etc/rsyslog.conf
$ModLoad imudp
$UDPServerRun 514
$ActionFileDefaultTemplate RSYSLOG_TraditionalFileFormat
$IncludeConfig /etc/rsyslog.d/*.conf
*.emerg *
$WorkDirectory /var/lib/rsyslog
$ActionQueueSyncQueueFiles on
$ActionQueueWorkerThreadMinumumMessages 10
$ActionQueueSaveOnShutdown on
$ActionQueueType LinkedList
*.* @127.0.0.1
/etc/rsyslog.d/20-remotelogs.conf
$template RemoteHost,"/var/log/remotelogs/%fromhost-ip%/%$YEAR%/%$MONTH%/%$DAY%/%programname%.log"
*.* ?RemoteHost
/etc/sysconfig/rsyslog
SYSLOGD_OPTIONS="-x -c 5"
Спасибо.
Появилась задача по миграции с Confluence на DokuWiki (чем-то оно их не устроило), в гугле удалось найти только описание миграции с DokuWiki на Confluence. Если кто-то подскажет, как перетащить данные, кроме тупого копирования (CTRL+C, CTRL+V), то буду весьма признателен. Спасибо!
Приветствую, коллеги! Есть несколько виртуалок (веб-бекендов), стоит задача: дёшево и сердито организовать синхронизацию содержимого определённой папки. Городить из-за этого ceph, gluster или lustre ни какого желания не возникает, нужно более простое и менее функциональное решение, но удовлетворяющее следующим требованиям:
1. Синхронизация содержимого между всеми узлами в реальном времени.
2. Автоматическое монтирование при загрузке (желательно из fstab)
3. Простота настройки.
4. Возможность простого добавления новых нод.
5. Отсутствие громоздких механизмов аутентификации (например Kerberos). Можно вообще без контроля доступа, ибо под это будет сделана изолированная сеть.
6. Отсутствие единой точки отказа (в т. ч. отсутствие мастер-ноды).
7. Приемлемая скорость чтения/записи (не менее 50% от пропускной способности сети).
Так вот, товарищи, кто что может порекомендовать?
З. ы.: Всякие монструозные вещи типа ceph не предлагать, ибо это в данном случае оверинженеринг. Я уже копал в сторону OpenAFS и Pohmelfs, но первая сильно завязана на керберос, а городить огород с ним не хочется, а вторая в сильно заброшенном состоянии (правда выяснилось, что оно теперь называется elliptics и её даже яндекс юзает, но нормальных доков не нашёл, а все эксперименты остановились на том, что демон выжирает всю память и прибивается ядром).
Господа, прошу помощи! Был установленный редмайн (из git), при переезде на новый сервак, было решено поставить редмайн из пакета (debian), а базу перетащить из старого. После некоторых плясок с бубном и конвертировании базы через rake db:migrate RAILS_ENV=production редмайн взлетел и вроде всё заработало. Осталась проблема при обновлении и создании задач. В логах пишет: при обновлении:
Started PATCH "/issues/3140" for 9.3.8.4 at 2014-12-01 12:31:03 +0300
Processing by IssuesController#update as HTML
Parameters: {"utf8"=>"✓", "authenticity_token"=>"oV3FylSekaaRqatcGRbsyVHK5sjOew=", "issue"=>{"tracker_id"=>"1", "subject"=>"test", "description"=>"test", "status_id"=>"4", "priority_id"=>"6", "assigned_to_id"=>"21", "fixed_version_id"=>"", "parent_issue_id"=>"", "start_date"=>"2014-11-25", "due_date"=>"", "estimated_hours"=>"", "done_ratio"=>"0", "notes"=>"", "lock_version"=>"2"}, "time_entry"=>{"hours"=>"", "activity_id"=>"9", "comments"=>""}, "last_journal_id"=>"9503", "commit"=>"Принять", "id"=>"3140"}
Current user: admin (id=1)
Rendered mailer/_issue.text.erb (1.9ms)
Rendered mailer/issue_edit.text.erb within layouts/mailer (3.1ms)
Rendered mailer/_issue.html.erb (1.5ms)
Rendered mailer/issue_edit.html.erb within layouts/mailer (2.3ms)
Completed 500 Internal Server Error in 484ms
ArgumentError (invalid value for Integer(): "{:conditions=>{:issue_id=>3140"):
app/models/issue.rb:174:in `create_or_update'
app/controllers/issues_controller.rb:483:in `block in save_issue_with_child_records'
app/controllers/issues_controller.rb:471:in `save_issue_with_child_records'
app/controllers/issues_controller.rb:189:in `update'
при добавлении:
Started POST "/projects/test/issues" for 9.3.8.4 at 2014-12-01 12:42:54 +0300
Processing by IssuesController#create as HTML
Parameters: {"utf8"=>"✓", "authenticity_token"=>"1S9cnBj305En0mkHKf+aBrZzSg=", "issue"=>{"is_private"=>"0", "tracker_id"=>"4", "subject"=>"test", "description"=>"test", "status_id"=>"1", "priority_id"=>"13", "assigned_to_id"=>"32", "fixed_version_id"=>"", "parent_issue_id"=>"", "start_date"=>"2014-12-01", "due_date"=>"", "estimated_hours"=>"", "done_ratio"=>"0"}, "commit"=>"Создать", "project_id"=>"test"}
Current user: admin (id=1)
Rendered mailer/_issue.text.erb (1.1ms)
Rendered mailer/issue_add.text.erb within layouts/mailer (1.9ms)
Rendered mailer/_issue.html.erb (3.9ms)
Rendered mailer/issue_add.html.erb within layouts/mailer (5.7ms)
Completed 500 Internal Server Error in 478ms
ArgumentError (invalid value for Integer(): "{:conditions=>{:issue_id=>3172"):
app/models/issue.rb:174:in `create_or_update'
app/controllers/issues_controller.rb:151:in `create'
Из этого понятно, что ему не нравится, что вместо int прилетает что-то другое, но как это исправить, не понимаю, ибо в ruby не силён.
Вот Файлы: issues_controller.rb и issue.rb
Буду очень признателен, если кто скажет, где нужно поправить, что бы оно заработало.
Есть задача, вывести netstat'ом список активных соединений, потом пробежаться по каждому не локальному скриптом, который посмотрит на каждый коннект по несколько секунд и скажет среднюю скорость данного соединения. Гугл не помог, всякие iftop и htop не умеют встраиваться в скрипты (или может я чего-то не знаю?). Кто знает, чем можно померить скорость, поделитесь инфой пожалуйста.
Приветствую!
Имеется в наличии: 1. Кластер с ceph. 2. Кластер с виртуалками.
Задача: создать виртуалку, примонтировать на ней через rbd кусок ceph и раздать юзерам по разным протоколам (в основном cifs, nfs, ftp и ownCloud).
Из того, что более-менее подходит, было найдено решение openmediavault, но у него были выяевлены некоторые фатальные недостатки. В частности: отсутствие изкоробочной поддержки rbd (с помощью шаманства удалось заставить его видеть lvm натянутый на rbd), кривая работа с квотами (нет возможности создать группу и сказать, что всем, кто в нее входит, ставить квоту, например 10 гигов, а не 10 гигов на всю группу, как оно делает), кривая работа с группами (все юзеры включаются в группу users и попытка добавить их в другие группы ни к чему не приводит), корявая реализация иерархии хранилища (такое чувство, что разработчики вообще не задавались целью изоляции клиентов, а предполагалось просто создание общей папки, одной на всех, и раздача в нее доступа).
Отсюда вопрос, кто что может посоветовать в качестве системы управления файлопомойкой, свободной от этих недостатков и где вообще можно почитать что-либо вменяемое по теме? Все, что удалось нагуглить, в основном про мелкие домашние помойки примерно того же качества, что и вышеназванный openmediavault.
Есть два сервака на Powerdns+Mysql, один из них мастер, второй, соответственно, слейв. убил пол дня, но так и не смог победить обновление зон на слейве, в логах матерится:
на мастере:
Aug 6 16:21:24 ns-01 pdns[17538]: gmysql Connection successful
Aug 6 16:21:24 ns-01 pdns[17538]: AXFR of domain 'local' initiated by 10.10.2.104
Aug 6 16:21:24 ns-01 pdns[17538]: AXFR of domain 'local' allowed: client IP 10.10.2.104 is in allow-axfr-ips
Aug 6 16:21:24 ns-01 pdns[17538]: gmysql Connection successful
Aug 6 16:21:24 ns-01 pdns[17538]: gmysql Connection successful
Aug 6 16:21:24 ns-01 pdns[17538]: Exception: Unknown record was stored incorrectly, need 3 fields, got 1: .
Aug 6 16:21:24 ns-01 pdns[17538]: TCP Connection Thread died because of STL error: Unknown record was stored incorrectly, need 3 fields, got 1: .
на слейве:
Aug 6 16:23:22 ns-02 pdns[10884]: 1 slave domain needs checking, 0 queued for AXFR
Aug 6 16:23:22 ns-02 pdns[10884]: Received serial number updates for 1 zones, had 0 timeouts
Aug 6 16:23:22 ns-02 pdns[10884]: Domain local is stale, master serial 2014080624, our serial 2014080611
Aug 6 16:23:22 ns-02 pdns[10884]: Initiating transfer of 'local' from remote '10.10.2.2'
Aug 6 16:23:22 ns-02 pdns[10884]: gmysql Connection successful
Aug 6 16:23:22 ns-02 pdns[10884]: gmysql Connection successful
Aug 6 16:23:22 ns-02 pdns[10884]: gmysql Connection successful
Aug 6 16:23:22 ns-02 pdns[10884]: AXFR started for 'local', transaction started
Aug 6 16:23:22 ns-02 pdns[10884]: Unable to AXFR zone 'local' from remote '10.10.2.2' (resolver): Remote nameserver closed TCP connection
Aug 6 16:23:22 ns-02 pdns[10884]: Aborting possible open transaction for domain 'local' AXFR
Нагуглил старую багу, но сказано, что она давно пофикшена (ещё в 2.9.что-то там, у меня стоит 3.1)
Делал по статье http://thelinuxforce.org/article/30 Если кто подскажет, в чём глюк порылся, буду очень признателен!
UPD: заметил, что глюк проявляется только с зоной .local с нормальными зонами проблем нет, буду рад, если кто подскажет, как научить powerdns понимать обновления зоны первого уровня. Вариант «не использовать» не подходит, ибо у вендузятников контроллеры домена на неё прибиты.
Имеется в наличии: три сервака тестового стенда, на которых развёрнут ceph, каждый из них является так же клиентом ceph-кластера. На каждый из них примаплен один и тот же RBD-раздел.
Собственно задачи: Выбрать наилучшую ФС для использования на RBD, обеспечить максимально быстрое и синхронное отображение изменений ФС на всех серверах.
В данный момент ситуация такая: Пишем с одного сервера на раздел RBD, пытаемся прочитать на другом серваке, и видим, что записанные файлы либо читаются не все, либо некоторые из них не видны вовсе. монтировал с sync, пробовал разные фс (ext3/4,xfs,btrfs), ситуация практически не меняется.
Кто, что может посоветовать? Такое вообще возможно, или я желаю странного?
Предваряя вопрос, почему же я не использую нативный mount.ceph, отвечу, что он по каким-то непонятным причинам не работает, так же, как и ceph-fuse (оба поросто висят бесконечно долго молча, пока не ткнёшь ctrl+c, ни в dmesg ни в логах ни чего нет, модуль ceph загружен). ОС: Ubuntu 14.04
Благодарю.
Приветствую!
Интересует, каким образом наиболее грамотно решить следующую задачу.
Есть массив array('a','b','c','d') нужно в цикле сортировать этот массив так, что бы он преобразовывался в array('a','c','b','d'), array('a','d','c','b'), array('b','a','c','d') и т. д., пока не переберет все возможные варианты расположения элементов (количество элементов от 3 до 8, если это имеет какое-то значение). Гугл не помог, стандартных функций, которые это реализуют, не нашел, возможно не то искал, ибо в php пока не очень силен. Подскажите, если кто знает, как это правильно реализовать.
Спасибо!
Приветствую, други!
Подохла вай-фай точка, решил не покупать новую, а воткнуть USB-свисток в домашний сервак, откопал в закромах какой-то микропупельный NetGear на чипе Realtek, воткнул, настроил hostapd, все работает, инет бегает, но при сколь-нибудь нтенсивном трафике вафля отваливается, потом может через пару секунд подключиться, а может и вообще на несколько минут залипнуть так, что даже ssid из списка доступных сетей пропадает. В общем, ясное дело, надо поставить что-то с нормальным чипом, PCI/mPCI/PCI-e не предлагать, ибо в серваке слотов свободных нету. Посоветуйте какую-нибудь нормальную usb-вафлю, которая будет стабильно работать и для которой не надо шаманств с дровами на подобии древнних брудкомов. Присмотрел вот такое чудо, http://www.ulmart.ru/goods/493942 кто что скажет?
Спасибо!
Подскажите софт, если таковой есть в природе, что бы из консоли клиента можно было пробрасывать порт через UPnP на серваке. Гуглил, но кроме жабовского портмаппера не нашел ни чего. :(
Всякие поделки на java не предлагать, ибо не хочу ее ставить только ради этого, так же не предлагать всякие гуевые вещи, ибо планирую встроить это дело в bash-скрипт. Спасибо!
Пытаюсь написать скрипт для автоматической установки портов, застопорился на том, что когда порту в первый раз делаешь make install то он сначала запускает диалог конфига, а это не то, что нужно. Надо что бы порт и все его зависимости просто собирались с дефолтными опциями. Кто в курсе, подскажите, есть-ли какой-нить волшебный ключик или другой способ для отключения всяких диалогов?
В общем есть vps в России и сервак в Германии. На серваке в Германии крутится довольно большая кучка сайтов, на vps несколько сайтов, для которых критичны русские айпишники. недавно к нам закинули очень нагруженный сайт, которому нужен русский ip, в результате vps легла. Было принято решение, положить сайты с vps на немецкий сервак, а http-трафик с vps гнать на немецкий сервак через openvpn. Настроил на vps openvpn-сервак, на немецком серваке настроил клиента, на впске пробросил порты 80 и 443 на впн сервака в германии и обнаружил пренеприятнейшую вещь. Оказывается, что не зависимо на какой интерфейс пришел пакет, ответ на этот пакет уходит по дефолтному маршруту, если хост, который отправил пакет серваку, находится не в одной подсети с каким-либо интерфейсом сервака. Погуглил, почитал это http://habrahabr.ru/blogs/linux/117620/ это http://habrahabr.ru/blogs/sysadm/30076/ и это http://habrahabr.ru/blogs/linux/100919/
Все перепробовал, результат нулевой, пакеты все-равно все отправляются по дефолтному маршруту, я уже моск вывихнул с ними, подскажите, где еще можно подкрутить это дело.
З. ы.: на впске стоит Дебиан Сквизи, на серваке - Центось 5.6
следующие → |