LINUX.ORG.RU

Сообщения constin

 

Exim greylist X.X.X.0/24

привет, я редко использую Exim, поэтому мне требуется помощь.

Задача сделать так, чтобы в грелист IP попадали не целиком, а целыми подсетями.

те , например, письмо пришло с 1.1.1.1 и загрейлистилось, затем если оно же через правильное время приходит с адреса 1.1.1.2 , мне надо, чтобы его пропустили. те мне надо записывать в базу 1.1.1.0/24

Может мне кто-нибудь дать быстрое решение, как это написать самому или готовую надстройку, которая такое умеет?

У Postfix это умеет postfix-gld. А у Exim?

В идеале мне надо весь вот этот функционал:

#
# Shall we use lightgrey option ? (0=No,1=Yes) (default is 0)
#
# The lightgrey option, mask the last octet of IP addresses
# and thus we greylist only C classes (/24) instead of individual IPs.
#
LIGHTGREY=1
#
# Shall we use the mxgrey algorithm ? (0=No,1=Yes) (default is 0)
#
# the mxgrey algorithm is a variation of the greylist algorithm.
# When this is enabled, we allow all incoming mails from an IP address
# whatever source/destination email as long as this IP has been greylisted
# one time and succeded the mail resend .
#
# Example:
# The IP 1.2.3.4 sends an email from src@domain.com to user@yourdomain.com
# We greylist this mail as this IP is not yet in database and send a 450 SMTP code
# After some time, the IP re-send the mail from src@domain.com to user@yourdomain.com
# We update the db.
# Some time after the ip 1.2.3.4 sends an email from john@domain.com to fred@yourdomain.com
# We will accept this mail without any greylisting, as this ip already succeded a greylist test
# and thus seems to be a valid smtp server and not a spammer .
#
# The advantage of this method, is that it reduce the re-send time due to greylisting to
# one mail per server instead of one mail per destination .
#
# Please, note that enabling this feature automaticly enable the UPDATE feature.
#
MXGREY=1
#
# Shall we use lightgrey on domains ? (0=No,1=Yes) (default is 0)
#
# lightgreydomain
# after a normal triplet (full sender, full recipient, IP) has
# verified and email passed, create a domain triplet
# sender domain, recipient domain, IP
# match future emails against domain triplet.  The user triplet
# can then expire from the database
# This means at least one normal greylist has to be verified
# and then future emails between domains aren't delayed
#
# Do not activate this feature without understanding it ....
#
LIGHTGREYDOMAIN=1

 , ,

constin
()

debian не меняет ip при перезапуске networking

Странная штука меня постигла.

debian 9 виртуалка на kvm. клонирую машинку с новенького темплейта, который я сделал, отключив эти веселые названия типа ens19 и оставив eth0.

Update:

посколько практически все читают этот пост не так , как я написал, я сделал вывод, что может быть я не понятно описал ситуацию.

действия:

на машине есть 1 интерфейс с 1 айпи.

заходим в /etc/network/interfaces и МЕНЯЕМ айпи.

перегружаем сервиc networking любым способом.

IP не меняется. подробнее ниже.

Конец апдейта. ----------

/etc/network/interfaces

source /etc/network/interfaces.d/*

auto lo
iface lo inet loopback

allow-hotplug eth0
iface eth0 inet static
	address 10.10.10.200/24
	gateway 10.10.10.1
	dns-nameservers 8.8.8.8

меняю 10.10.10.200 на 10.10.10.199

перезапускаю сервис 

/etc/init.d/networking restart

и eth0 падает. Поднимаю его и на нем тот же ип 10.10.10.200

в syslog

ifdown[857]: RTNETLINK answers: Cannot assign requested address

потому что старый айпи не сбрасывается

#  ip addr show
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
    link/ether 12:45:cd:11:c5:68 brd ff:ff:ff:ff:ff:ff
    inet 10.10.10.200/24 brd 10.10.10.255 scope global eth0
       valid_lft forever preferred_lft forever
    inet 10.10.10.199/24 brd 10.10.10.255 scope global secondary eth0
       valid_lft forever preferred_lft forever
    inet6 fe80::1045:cdff:fe11:c568/64 scope link 
       valid_lft forever preferred_lft forever

если поменять allow-hotplug eth0 на auto eth0 , то все тоже самое , за исключением того, в первом действии eth0 не падает.

При перезагрузке само -собой адрес меняется, но это уже перебор - перегружать машину из-за смены IP ( хотя мы стремимся к этому благодаря системдику)

И вот вопрос, это я дурак или мейнтейнеры опять херни наделали?

 , , ,

constin
()

Cups на readonly FS

Сетка, все компы грузятся по PXE boot , загружают ядро и дальше маунтят рут по сети в режиме ридонли. Для папок с кешами сделаны tmpfs.

Проблема с cups. Чудный капс использует /etc/cups в том числе и в качестве кеша, ходит туда как к себе домой и пытается пересоздавать конфиги и делать временные конфиги. Ну и обламывается естественно, так как readonly. Список файлов всегда одинаковый и поэтому я делаю костыль в виде при загрузке клиента создавать симлинки на эти файлы в папку /tmp , которая tmpfs. Но может есть какое-то решение получше?

 , ,

constin
()

Посоветуйте портал для документации

Привет.

Хочу найти что-нибудь очень простое в использовании для ведения документации. С drag'n'drop, с ajax, чтобы это не выглядело приветом из 200x. Встроенный редактор, гуи для создания меню или автоматическое меню. Не в облаке, а у меня на сервере. Вся дата в базе данных, те прямо в движке оно и пишется. Бесплатно.

Бывает такое?

 , ,

constin
()

VDI, OPENRDP, BROKER, X2GO, SPICE, FOSS-Cloud etc. Помогите выбрать инфрастуктуру для thin client

Привет. В данный момент у меня все работает так: thin client при загрузке получает небольшой имидж с установленным x2go client, с помощью которого пользователь коннектится на через broker на ноды. /home/ на всех нодах подцеплен на файлсервер через NFS. Основная проблема в NX протоколе- он не поддерживает форваринг видео карты и еще кучи всего, туповат протокол. Например, прокрутка в браузере лагает. Есть у кого хорошая рабочая схема? В идеале я бы хотел грузить полноценную ось на thin. Типа загружается клиент, под него создается виртаулка, он на ее использует, после использования виртуалка уничтожается.

 , ,

constin
()

вопрос по клонированию физического сервера на KVM

Приветствую. Мне нужно перекинуть удаленный железный сервак в kvm виртуалку. На железном серваке один hdd с двумя партишенами / и /boot размер корня 800 гигов, реально оно заполнено на 80 гигов.

На серваке с KVM SSD 250Gb.

Вопрос, правильно я понимаю, что если я буду делать DD партишена сразу на KVM по ssh, то оно мне будет делать имидж размеров в 800 гигов? Если так, то как бы мне извернуться?

Есть вариант, сделать имидж самому и потом откопировать его через rsynс, но что при это делать с mbr?

Когда я делаю так:

железо # dd if=/dev/sda of=./mbr.bin bs=512 count=1

KVM HOST# dd if=./mbr.bin of=./image.raw bs=512 count=1 conv=notrunc

то fdisk начинает показывать, то в имидже партишен в 800 гигов, при изначальном размере файла имиджа в 100.

 , ,

constin
()

RSS подписка на новые темы