LINUX.ORG.RU

Сообщения Morbid

 

OSPF & iptables & snat

Добрый день, есть такая ситуация.

Три НАТа, на базе Debian, стоит квага, настраиваю OSPF.

У каждого ната есть ip из 172.16.0.xxx. Что бы Наты могли ходить в инет, понятно что они СНАТяться.

Все бы ок, но вот беда.

Когда поднимаю ОСПФ на данном интерфейсе, то сервера не могут увидеть друг друга, tcpdump-ом посмотрел, и вижу что hello пакеты идут от IPшников на которые я делаю СНАТ. Стоит мне поднять Алиас, из другой сети (который не снатится) все друг друга видят и все ок.

Собственно вопрос, каким образом можно добавить исключение в iptables что бы эти правила не распространялись на OSPF пакеты?

пробовал:
-d 224.0.0.0/4 -j ACCEPT
-d 224.0.0.5 -j ACCEPT
-d 224.0.0.6 -j ACCEPT
-p ospf -j ACCEPT

ни одно из них не помогло, пакеты все равно приходят от ip на который делаю снат. :(

 , ,

Morbid
()

Qagga OSPF на несколько линков

Добрый день.

Есть такая задачка,

есть роутер на базе линукс, стоит Квага, с другой стороны стоит л3. подключены прямым линком. Все ок, ни каких вопросов. Теперь возникла потребность подключить еще один Л3, к этому же роутеру, так же сделал прямой линк. получается как то так Л3 (192.168.100.1) - (192.168.100.6)QUAGGA(172.16.0.6) - (172.16.0.1)

Собственно вопрос, как настроить OSPF на кваге, что бы он вещал одну area в одну сторону, а другую area в другую сторону?

Сейчас настроено так:

interface eth0
!
interface eth1
!
interface eth1.606
!
interface eth2
!
interface eth3
!
interface eth3.10
!
interface eth3.400
!
interface gre0
!
interface lo
!
router ospf
 ospf router-id 192.168.100.6
 network 192.168.100.0/24 area 0.0.0.2
 network 10.10.10.0/23 area 0.0.0.2
 network 10.10.10.0/23 area 0.0.0.3
 neighbor 192.168.100.1
 neighbor 172.16.0.1



ну и собственно на последнем ни чего не работает :(
Morbid
()

Debian & tc + bonding

Добрый день.

Есть такого рода проблема:

Как только добавлю одну единственную строчку на НАТа (около 3к клиентов)

tc qdisc add dev bond1.400 root handle 1: htb default 2

практический сразу (в течение 1-3 минут) при пинге с клиентов сети, начинают идти потери, как только удаляю правило, все возвращается на круги своя.

В чем могут быть проблемы? Ядро? настройки сетевой? Не могу понять куда копать :(

Машина: Ядро: 2.6.32-5-amd64 Сетевуха интел, 4 головы, прерывания распределены равномерно, очереди включены. Процессоры: два проца, по 4 ядра, гипертрейдинг включен. Трафика: около 1-1,5Гбита

З.Ы. Заметил что когда отключаю fprobe, но добавляю правило, потери пропадают. То есть есть подозрение что машина не справляется с нагрузкой.

Morbid
()

Шейпер на linux (tc)

Есть шлюз, на базе Linux (debian)

16 ядер (HT), сетевая от Интел 4х головая, поддерживающая очереди.

Сделан Бондинг, два гига в одну сторону, два гига в другую сторону.

При настройки шейпинга через tc, при добавление первой команды

/sbin/tc qdisc add dev bond1.400 root handle 1: htb default 6666

сразу наблюдаться просидеание по скорости, если до этого фаил качался со скорость к примеру 3Мб в сек, то после добавления падает до 700Кб/сек.

В пике, все пользователе не потребляют больше 1Гбита в секунуд.

Подскажите куда копать, хочется все таки настроить шейпинг правильно.

Morbid
()

Потери при пинге большими пакетами

Добрый день, есть непонятка, не могу разобраться в чем может быть дело:

есть NAT, Линукс Бокс (debian). Интеловская сетевуха, 4 головы, по гигабиту каждая. Сделан бондинг, 2 линка в локалку, 2 линка наружу.

Сеть А, Сеть Б, Сесть В, Сеть Г. Для каждой из них поднят на алиасе свой щлюз.

В трех из них, при пинге большими пакетами (5к - 10к) шлюза, проблем не наблюдается. В четвертой подсети, наблюдаются потери до 30%.

Физический это одна машина, одна сетевуха, и все одинаково. Не могу понять с чем это может быть связано. При пинге до 1500 ни каких потерь нет.

Подскажите куда копать? что посмотреть?

Morbid
()

Debian & bonding (равномерно распределить трафик)

Приветствую.

Есть router (linux-box debian 2.6.32-5-amd64)

Стоит сетевуха интеловская четырех портовая, на ней настроен бондинг, два интерфейса в наружу (в экстрим x480), другие два в локал.

Смотрю статистику по портам на экстриме и вижу что время от времени, нагрузка на одному порту 0, на другом 100%, а потом может на оборот, и так гуляет то туда то сюда.. (не сразу 0-100.. а постепенно)

Есть подозрения что не корректно настрое бондинг.

iface bond0 inet static
address xxx.xxx.xxx.xxx
netmask 255.255.255.0
slaves eth2 eth3
bond_mode 0
bond_miimon 100
bond_downdelay 200
bond_updelay 200
auto bond0

Экстрим с другой стороны ни как не настраивался (на агрегацию портов)

Может кто подскажет что можно и как подправить?

Morbid
()

Debian & ksoftirqd

Есть внешний шлюз:

Debian squeeze 6.0.2
Собрано ядро 3.6.2
Xntel(R) Xeon(R) CPU           X3360  @ 2.83GHz (4 дяра)
4 Гига мозгов.
Сетевая Intel PRO/1000 quad (Intel 82580)
На машине стоит quaggа(принимает ФуллВью) и все.

2 порта в транке смотрят в сторону провайдера, 2 порта в транке смотрят в сторону внутреннего шлюза(НАТа).

В час пик, шлюз начинает резко затыкаться, то есть один из процессов ksoftirq вылезает в топ и там сидит. в 90-100% загрузке. Причем очень резко, скажем 5 минут назад не было ни каких проблем... а спустя, бах и все...

В сислогах нету ничего... Драйвер на сетевую:

driver: igb
version: 4.0.1-k
firmware-version: 3.190, 0x00013bdb
bus-info: 0000:01:00.1

4 очереди на tx и rx, на каждый интерфейс.

Подскажите куда копать, что посмотреть? что может вызывать загрузку ksoftirqd?

Morbid
()

IPSec и скорость соединения.

Добрый день.

Подскажите пожалуйста, при использование Cisco IPsec (AES 128) резко меняется скорость доступа, скажем при скорости 50 мегабит без него, с ним падает до 10-12 мегабит. Это нормально?

Morbid
()

как скрыть узел при трассировке

Добрый день.

Подскажите пожалуйста каким образом можно сделать так что бы при трассировке\MTRе узел не ресолвился, а отображался там вопросиками или *** (что бы не было видно ипшник и имя сервера).

Morbid
()

Потери при mtr, или какие то непонятки

Хай.

Помогите разобраться, сегодня начали происходить какие то странные вещи. При трассировки (mtr) из локальной сети, показывают что есть потери на внутренем шлюзе... но дальше (на других узлах) потерь нету, то есть что-то со шлюзом, как то он криво отвечает...

Проверил нагрузку на проц, сетевуху, сис логи.. все ок, ни ошибок, ни привышений ни чего (

Пингую напрямую шлюз, все без потерь, без нареканий, а через mtr есть потери (((

Скажите куда посмотреть, что проверить?

все это на базе debian-а. Началось только сегодня с утра, у меня даже идей нету что еще можно проверить.

Morbid
()

Debian + Amarok 2.3. + потоковое радио с кирилицой

Помогите пожалуйста. Все отлично, все хорошо, но вот потоковое радио с русскими названиями как то не пашет.. ну то есть пашет, но в названиях абра кадабра. Подскажите куда копать, что посмотреть, что бы название композиций отображалось корректно (

 , , ,

Morbid
()

Python & SNMP

Подскажите пожалуйста библиотеки или другие способы работы из python-а с SNMP.

Попробывал связаться с pysnmp, не проканало (куча ошибок, да и способ обращения с этой библиотекой из доков, что то не обрадовал, как то все через чур наворочено). Проще уж выполнять шеловские команды стандартные и их обрабатывать. хочеться чего нить попроще и по «красивее» =)

Morbid
()

Python и строки (дополнить до нужного кол-ва знаков)

Блин глупый вопрос, но видать ближе к вечеру уже туплю.

Есть в питоне что нить аналогичное str_pad в php? или подскажите как это можно красиво реализовать?

есть переменая string она колеблится от 6 символов до 15 необходимо что бы, она всегда была одинакогвого размера (то есть в конец дописывалось необходимое кол-во пробелов, если вдруг симоволов меньше чем 15).

заранее спасибо.

Morbid
()

Python прочитать фаил от начала до конца

Добрый день.

Задача, есть фаил логов статитики от биллинга, его надо разобрать по байтно и запихнуть в базу. Читать побайтно я научился, но не могу понять как правильно написать цикл для того что бы он прочитал фаил целиком, подскажите пожалуйста!

функцию чтения и разбора написал

f = open(«test_raw.raw», «rb»)

def fReadRawLine(f):

udef = f.read(4); # 1-4
src_ip = f.read(4); # 5-8
dst_ip = f.read(4); # 9-12
undef = f.read(8); # 13-20
packets = f.read(4); # 21-24
bytes = f.read(4); # 25-28
undef = f.read(4); # 29-32
undef = f.read(4); # 33-36
src_p = f.read(2); # 37-38
dst_p = f.read(2); # 39-40
undef = f.read(16); # 41-56
acc_id = f.read(4); # 57-60
undef = f.read(4); # 61-64
tclass = f.read(4); # 65-68
tstamp = f.read(4); # 69-72
undef = f.read(4); # 73-76

src_ip = struct.unpack(«i», src_ip)
dst_ip = struct.unpack(«i», dst_ip)
packets = struct.unpack(«i», packets)
bytes = struct.unpack(«i», bytes)
src_p = struct.unpack(«h», src_p)
dst_p = struct.unpack(«h», dst_p)
acc_id = struct.unpack(«i», acc_id)
tclass = struct.unpack(«i», tclass)
tstamp = struct.unpack(«i», tstamp)

С питоном только начинаю дружить, поэтому буду рад любому совету, может в целом подход и реализация не правильная?

Morbid
()

dhcpd & option82

Такой вопрос, есть сеть на 3.5к+ абонентов.

Хочу выдавать ипшники в зависимости от портов в коммутаторах.

Как сделать это в целом понятно, но есть такой момент... что абоненты постоянно добавляються, следовательно придется постоянно обновлять конфигурационный фаил dhcpd и рестартовать сервис.

Как это может сказывать на работе сети и на нагрузке? или может есть какое то решение что бы обновлять настройки без перегрузки сервиса?

Morbid
()

Распределение нагрузки (канала)

Привет.

Имеется PC шлюз, (debian) в него приходят два канала (по гигу каждый) от одного провайдера. По одному каналу FV по другому дефолт. Все было ок, но сейчас нагрузка возросла и один канал в час пик забивается по максимуму и начинаются тормоза. (по которому приходит FV)

Подскажите пожалуйста как правильно распределить нагрузку, что бы часть трафика шла по одному каналу, часть по другому.

З.Ы. Запросить в во второй канал FV или что нить другое кроме одного дефолта, не проблема.

Morbid
()

Тонкая настройка fprobe

Добрый день.

Подскажите пожалуйста на счет «тонкой» настройки fprobe

используеться на шлюзе для сбора статистки для биллинга.

но не так давно начали вылезать косяки, абонентам сваливаються «большие объемы» в короткий срок и абоненты начали вылетать в минуса. Такое ощущения что fprobe копить у себя большой буфер а потом скидывает их...

начал разбираться с параметрами и не много не понимаю следующие значения:

-----------------------------

-s <seconds>

How often scan for expired flows. [default=5]

-g <seconds>

Fragmented flow lifetime. [default=30]

-d <seconds>

Idle flow lifetime (inactive timer). [default=60]

-e <seconds>

Active flow lifetime (active timer). [default=300]

-------------------------

как понимаю «играться» надо с этими значениями, но не понимаю точно что означают эти параметры.

Подскажите пожалуйста.

Morbid
()

Два линка до одного провайдера

Добрый вечер.

Есть один магистральный провайдер, до него есть два разных физических канала, так же есть AS и PI адреса. Хотелось бы сделать резервирование (аки Кольцо), точнее автоматическое переключение с одного канала на другой, если скажем первый лег.

Оба канала принимает Linux-Box посредством медиков.

Подскажите как это можно реализовать?

Morbid
()

bind9 & внешние\вунтренние домены

Всем привет.

Есть bind который «анонсит» домен второго и третьего уровня в инет, необходимо ограничить анонсы некоторых доменов третьего уровня только локальным сетям.

то есть грубо говоря

site.ru - в инет и локал name1.site.ru - в инет и локал name2.site.ru - в инет и локал name3.site.ru - только в локал

Народ подскажите как быть, куда копать, такое вообще реально сделать?

Morbid
()

Два канала & резервирование

Всем привет.

Есть два канала, по одному (основному) принимается дефаулт и еще определенная часть маршрутов (но не full view). По другому (резервному) принимается только дефаулт.

Все это делает софтовый роутер на базе Дебиана и Кваги.

Минимум что надо, это сделать так что в случае падение основного канала, все начинало ходить через второй (автоматический).

А в целом хотелось бы что бы загрузить одновременно оба канала (аля балансировка). Хотя конечно второй канал по сравнению с первым намного меньше, но зато у него маршруты «короче»

Попробовал сделать через ip route scope global что то не получилось ( то есть все как бы есть.. но если падает первый канал.. на второй ни чего не идет (

Morbid
()

RSS подписка на новые темы