postfix авторизация
А подскажите каким быстрым способом сделать на почтовом сервере авторизацию по паре логин пароль? гугление выдает всякие навороченные схемы, а мне впринципе достаточно будет одного локального пользователя.
А подскажите каким быстрым способом сделать на почтовом сервере авторизацию по паре логин пароль? гугление выдает всякие навороченные схемы, а мне впринципе достаточно будет одного локального пользователя.
В фирму взяли на лето школьника. Стоит задача сделать из него вебдевелопера, ну и чтоб он компании пользу какую нибудь принес. Знает си и немножко питон. По питону я с ним поговорил, знания, конечно начального уровня, но рассуждает верно, интуиция правильно работает.
У нас в фирме постоянного веб девелопера нет, задачи отдаются на аутсосрс, так что обучаться он будет самостоятельно. Посоветуйте книжку по php у нас фреймворк yii и js+css+html. Ну и по mysql.
А как мне в дебианчике сделать такую хитрую штуку. Мне надо одновременно установить несколько версий своего пакета и как-то оперативно между ними переключаться.
Настраиваю iscsi и все работает, кроме одной вещи. Мне надо ограничить доступ к таргету так, чтобы одновременно к нему мог подключиться только один инициатор. И что-то никак не гуглится где они эти ограничения выставляются.
Есть у меня некая плата OwlBoard plus и надо бы собрать для нее некий софт (asterisk). И так как я с кросскомпиляцией никогда не сталкивался, то у меня возникает резонный вопрос, а как это сделать с одной стороны идеологически верным, а с другой не очень длинным в настройке интсрументария путем.
Ссылки на howto, гайды и ключевые слова для гугла приветствуются. Еще есть идея подгрузить железку по сети и компилировать прямо на ней, правда есть опасения что 256 метров оперативки может не хватить.
Объединил в bond два интерфейса eth1 и vlan на eth0. Настройки на двух серверах отличаются только ip 192.168.250.1 и 192.168.250.2 Сервера соединены eth0 через управляемый свитч вланом с тэгом 2 и кроссовым патчкордом через eth1
/etc/interfaces
auto bond0
iface bond0 inet manual
up ip addr add 192.168.250.1/24 dev $IFACE
up ip link set up dev $IFACE
up /sbin/ifenslave $IFACE eth1
up /sbin/vconfig add eth0 2
up /sbin/ifenslave $IFACE eth0.2
down ip link set down $IFACE
cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.5.0 (November 4, 2008)
Bonding Mode: fault-tolerance (active-backup)
Primary Slave: eth1
Currently Active Slave: eth1
MII Status: up
MII Polling Interval (ms): 0
Up Delay (ms): 0
Down Delay (ms): 0
ARP Polling Interval (ms): 100
ARP IP target/s (n.n.n.n form): 192.168.250.2
Slave Interface: eth1
MII Status: up
Link Failure Count: 2
Permanent HW addr: 00:04:23:be:47:02
Slave Interface: eth0.2
MII Status: down
Link Failure Count: 2
Permanent HW addr: 00:04:23:be:47:03
Драйвер настроен так, чтобы предпочтительно посылать трафик через сетевушку eth1
cat /etc/modprobe.d/bonding.conf
options bonding mode=active-backup primary=eth1 arp_interval=100 arp_ip_target=192.168.250.2
Но при этом если вырвать кросс, а потом воткнуть обратно. Трафик начинает идти через eth0.2, а потом не возвращаятся обратно в предпочитаемый интерфейс. И еще на vlan всегда горит «MII Status: up», хотя падение линка отрабатывает корректно.
Ethernet Channel Bonding Driver: v3.5.0 (November 4, 2008)
Bonding Mode: fault-tolerance (active-backup)
Primary Slave: eth1
Currently Active Slave: eth0.2
MII Status: up
MII Polling Interval (ms): 0
Up Delay (ms): 0
Down Delay (ms): 0
ARP Polling Interval (ms): 100
ARP IP target/s (n.n.n.n form): 192.168.250.2
Slave Interface: eth1
MII Status: down
Link Failure Count: 3
Permanent HW addr: 00:04:23:be:47:02
Slave Interface: eth0.2
MII Status: up
Link Failure Count: 2
Permanent HW addr: 00:04:23:be:47:03
Есть такое решение для репликации мускуля. Слейв автоматически переключается мастером, можно настроить подцеплять резервный сервер автоматом. http://www.mysqlperformanceblog.com/2011/11/29/percona-replication-manager-a-...
Свежий конфиг вот https://github.com/jayjanssen/Percona-Pacemaker-Resource-Agents/blob/master/d...
У кого нибудь получилось заставить работать?
Нужно генерировать массу похожих файлов. Хочется задействовать для этого какой-нить движок. Скорость создания не важна, так как результатом прогона будет статичный конфигурационный файл. Главное удобство разработки. Беглый гуглинг вывел на http://wiki.python.org/moin/Templating там тьма их. Порекомендуйте что нибудь легковесное, модное и стабильное.
Нужно собрать кластер из двух серверов, так что один будет рабочим, а второй горячим резервом. Из ресурсов на кластере будет крутится общий внешний ip, cервер MySQL и asterisk. Узлы соеденены в локалку через управляемый свитч. Еще понадобится общая файловая система, организованная как некий сетевой аналог зеркального рейда.
Пока остановился на связке pacemaker + heartbeat + glusterfs Конфигурация для астериска, его логи и записи разговоров пишется на сетевую ФС. С MySQL пока решил сделать связку master - slave, но не нравится, что будет разная конфигурация на разных узлах, хотелось бы, чтобы софт был настроен идентично. Может быть стоит просто вынести файлы БД (все мои таблицы в isam) на сетевую ФС. Pacemaker следит за целостностью кластера и поднимает ресурсы на резервном узле, в случае падения основного. heartbeat - транспорт. Вроде как рекомендуют corosync, но никаких внятных его преемуществ мне нагуглить не удалось.
Кто не верит вот ссылка http://ru.wikipedia.org/wiki/Беспорядок
Разыскиваю годный учебник по комбинаторике, а если еще и задачник будет, то вообще супер. Собираюсь тренировать засыхающие мозги.
прописал в /etc/fstab строчку, как рекомендуется в мануалах
localhost:/share /mnt/data glusterfs defaults,_netdev 0 0
Пока решил проблему патчиком /etc/init.d/glusterfs-server в функцию do_start добавил
sleep 5
mount -a
Образ в формате raw создан командой
qemu-img create -f raw distr.img 2G
dd if=distr.img of=/dev/sdb bs=1M
fsck.ext4 -v /dev/sdb1
e2fsck 1.41.14 (22-Dec-2010)
fsck.ext4: Superblock invalid, trying backup blocks...
fsck.ext4: Bad magic number in super-block при попытке открыть /dev/sdb1
The superблок could not be read or does not describe a correct ext2
ФС. If the устройство is valid and it really contains an ext2
ФС (and not swap or ufs or something else), then the superблок
is corrupt, and you might try running e2fsck with an alternate superблок:
e2fsck -b 8193 <устройство>
fdisk -l /dev/sdb
Диск /dev/sdb: 82.3 ГБ, 82348277760 байт
22 heads, 16 sectors/track, 456921 cylinders
Units = цилиндры of 352 * 512 = 180224 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000161d7
Устр-во Загр Начало Конец Блоки Id Система
/dev/sdb1 6 11916 2096128 83 Linux
# fdisk -l ipats_distr.img
Вы должны установить цилиндры.
Вы можете сделать это из меню дополнительных функций.
Диск ipats_distr.img: 0 МБ, 0 байт
22 heads, 16 sectors/track, 0 cylinders
Units = цилиндры of 352 * 512 = 180224 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000161d7
Устр-во Загр Начало Конец Блоки Id Система
ipats_distr.img1 6 11916 2096128 83 Linux
Раздел 1 имеет различные физические/логические начала (не-Linux?):
физ=(0, 32, 33) логич=(5, 18, 1)
Раздел 1 имеет различные физические/логические окончания:
физ=(261, 21, 16) логич=(11915, 13, 16)
А есть ли в природе панель для управление нодой LXC контейнеров? Наворотов не надо, самые рутинные операции: создание, клонирование, мониторинг.
Хочется чтоб история копирования открывалась в выпадающей менюшке и по ней можно было выбирать стрелочками как при ctrl-n
Собсно вот
# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sda2[1] sdb2[2]
970904192 blocks [2/1] [_U]
[=>...................] recovery = 5.2% (50561536/970904192) finish=15822.0min speed=969K/sec
А через несколько минут уже
# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sda2[1] sdb2[2]
970904192 blocks [2/1] [_U]
[=>...................] recovery = 5.5% (53678080/970904192) finish=1996.8min speed=7653K/sec
Примерно раз в десять минут сваливается сообщение. Началось после втыкание в сервер платы Wildcard TE410P. А может так просто совпало. Хотелось бы разобраться это плата с браком или умирает железо, некотрые пишут, что это битая память. Вобщем, ничего внятного нагуглить не удалось. Все это еще осложняется еще и тем, что сервер боевой: экперементы можно будет поставить только ночью на выходных.
Sep 6 06:56:01 aster kernel: [1914231.114319] Uhhuh. NMI received for unknown reason 30 on CPU 0.
Sep 6 06:56:01 aster kernel: [1914231.114319] Do you have a strange power saving mode enabled?
Sep 6 06:56:01 aster kernel: [1914231.114319] Dazed and confused, but trying to continue
Купил себе телефон huawei u8800. Подключаю, детектится.
#dmesg
[86589.695234] scsi58 : usb-storage 5-1:1.0
[86590.696672] scsi 58:0:0:0: Direct-Access Android Adapter 0000 PQ: 0 ANSI: 2
[86590.699652] scsi 58:0:0:1: CD-ROM Android Adapter 0000 PQ: 0 ANSI: 2
[86590.702649] scsi 58:0:0:2: Direct-Access Android Adapter 0000 PQ: 0 ANSI: 2
[86590.703770] sd 58:0:0:0: Attached scsi generic sg2 type 0
[86590.729564] sr1: scsi3-mmc drive: 0x/0x caddy
[86590.729826] sr 58:0:0:1: Attached scsi CD-ROM sr1
[86590.730039] sr 58:0:0:1: Attached scsi generic sg3 type 5
[86590.730441] sd 58:0:0:2: Attached scsi generic sg4 type 0
[86590.764463] sd 58:0:0:0: [sdb] Attached SCSI removable disk
[86590.813393] sd 58:0:0:2: [sdc] Attached SCSI removable disk
Но не видно разметки дисков.
# fdisk -l /dev/sdc
#
# mount /dev/sdc /mnt
mount: /dev/sdc: unknown device
Есть много серверов и несколько админов. На сервера админы по своим админским делам естественно заходят под рутом. У них всех разные предпочтения (шел, альясы и прочие PS1) Сейчас это все реализовано через такой костыль в bashrc:
if [[ "${SSH_CLIENT:0:10}" == "$ADMIN_1_IP" ]]
then
source .admin_1_rc
fi
Посоветуйте консольный редактор с подсветкой синтаксиса и прочими автоотступами. Только чтобы юзерфрендли, ибо человек два дня назад пересел с винды на линукс.
zsh можно научить не раскрывать определенные параметры командной строки, для конкретных программ? Хотелось бы делать
% find -name *.pdf
% find -name \*.pdf
← предыдущие | следующие → |