LINUX.ORG.RU

Сообщения AAndreychuk

 

почта по одному из каналов?

Есть два канала в интернет.
Хочу направить по одному из них серфинг, а по второму http-сервер и почта.

Сделал так:
в mangle
-A PREROUTING -p tcp -s 172.16.0.0/24 -d 0/0 --dport 25 -j MARK --set-mark 0x5

в таблицу nat:
-A POSTROUTING -s 172.16.0.0/255.255.255.0 -o eth5 -j SNAT --to-source 192.168.1.2


#!/bin/sh
IP1=x.x.x.x
IP2=192.168.1.2
P1=y.y.y.y
P2=192.168.1.1
ip route add default via $P1 table T1
ip route add default via $P2 table T2
ip route add default via $P2
ip rule add from $IP1 table T1
ip rule add from $IP2 table T2
ip rule add fwmark 0x5 table T1

серфинг заработал (через таблицу T2), но IP1 и шлюз P1 из сетки 172.16.0.0/24 не пингуется и почта все равно идет через таблицу T2.
Использую Sendmail. Что у меня не правильно? Срочно нужно что б заработала почта через первый канал. Помогите

AAndreychuk
()

Пересылка почты во внутреннюю сеть

Ситуация:
есть шлюз, на нем sendmail, домен xxxxx.ua
нужно добавить домен yyyyy.ua на него, но почта на этот сервер должна пробрасываться на почтовый сервер (sendmail, Linux) во внутренней сети.
Как это организовать? какое имя хоста будет у внутреннего почтовика? Вся почта от этого внутреннего почтового сервера должна быть yyyyy.ua и их локальная почта не должна идти через шлюз.

AAndreychuk
()

Возвращаясь к MOXA CP168U...

Замучился я с ней.... Зависает комп наглухо. Может проработать 1 час до зависания, а может и сутки-полтора. И под ядром 2.4 пробовал, и под 2.6 Ставил уже и родные ее драйвера (1.8.5) и которые в 2.6 - одинаково. Но стоить вытянуть плату и поработать на обычных COM-портах - все ОК! (mgetty+pppd).
Кто-нить ставил уже себе? Как собирали? Какие major-minor ставили? Работаю на SuSE 10.0

Вопрос такой уже поднимал в http://www.linux.org.ru/view-message.jsp?msgid=1276745
но, хочется услышать полный ответ.

AAndreychuk
()

Затавить работать прозрачный SQUID(с парент) без ДНС

На сервере работает прозрачный SQUID, который работает через парент. Но на сервере лег ДНС. Как заставить ресолвится ДНС-запросы от клиентских машин через парент?

AAndreychuk
()

У кого есть опыт использования MOXA CP168U?

Замучился я с ней.... Зависает комп наглухо. Может проработать 1 час до зависания, а может и сутки-полтора. И под ядром 2.4 пробовал, и под 2.6 Ставил уже и родные ее драйвера (1.8.5) и которые в 2.6 - одинаково. Но стоить вытянуть плату и поработать на обычных COM-портах - все ОК! (mgetty+pppd).
Кто-нить ставил уже себе? Как собирали? Какие major-minor ставили?

AAndreychuk
()

ping & DUP!

Народ, подскажите, почему на wireless канале встречается такая бяка?
Windows-машина:
ping 172.10.0.4
PING 172.10.0.4 (172.10.0.4) 56(84) bytes of data.
64 bytes from 172.10.0.4: icmp_seq=1 ttl=127 time=3.87 ms
64 bytes from 172.10.0.4: icmp_seq=2 ttl=127 time=7.84 ms
64 bytes from 172.10.0.4: icmp_seq=3 ttl=127 time=5.01 ms
64 bytes from 172.10.0.4: icmp_seq=4 ttl=127 time=4.77 ms
64 bytes from 172.10.0.4: icmp_seq=5 ttl=127 time=3.64 ms
64 bytes from 172.10.0.4: icmp_seq=6 ttl=127 time=33.5 ms
64 bytes from 172.10.0.4: icmp_seq=6 ttl=127 time=34.6 ms (DUP!)
64 bytes from 172.10.0.4: icmp_seq=6 ttl=127 time=35.7 ms (DUP!)
64 bytes from 172.10.0.4: icmp_seq=7 ttl=127 time=3.60 ms
64 bytes from 172.10.0.4: icmp_seq=8 ttl=127 time=16.6 ms
64 bytes from 172.10.0.4: icmp_seq=8 ttl=127 time=19.4 ms (DUP!)
64 bytes from 172.10.0.4: icmp_seq=8 ttl=127 time=22.5 ms (DUP!)
64 bytes from 172.10.0.4: icmp_seq=8 ttl=127 time=25.1 ms (DUP!)
64 bytes from 172.10.0.4: icmp_seq=9 ttl=127 time=5.60 ms
64 bytes from 172.10.0.4: icmp_seq=10 ttl=127 time=5.28 ms
64 bytes from 172.10.0.4: icmp_seq=11 ttl=127 time=5.34 ms
64 bytes from 172.10.0.4: icmp_seq=12 ttl=127 time=3.52 ms
64 bytes from 172.10.0.4: icmp_seq=13 ttl=127 time=10.9 ms
64 bytes from 172.10.0.4: icmp_seq=14 ttl=127 time=5.46 ms
64 bytes from 172.10.0.4: icmp_seq=15 ttl=127 time=31.5 ms
64 bytes from 172.10.0.4: icmp_seq=15 ttl=127 time=34.3 ms (DUP!)

хотя, есть точка, которая пингуентся без DUP-ов (Linux-машина)...
ping 172.10.0.16
PING 172.10.0.16 (172.10.0.16) 56(84) bytes of data.
64 bytes from 172.10.0.16: icmp_seq=1 ttl=254 time=3.00 ms
64 bytes from 172.10.0.16: icmp_seq=2 ttl=254 time=2.39 ms
64 bytes from 172.10.0.16: icmp_seq=3 ttl=254 time=2.47 ms
64 bytes from 172.10.0.16: icmp_seq=4 ttl=254 time=2.36 ms
64 bytes from 172.10.0.16: icmp_seq=5 ttl=254 time=3.59 ms
64 bytes from 172.10.0.16: icmp_seq=6 ttl=254 time=3.25 ms
64 bytes from 172.10.0.16: icmp_seq=7 ttl=254 time=3.01 ms
64 bytes from 172.10.0.16: icmp_seq=8 ttl=254 time=2.48 ms
64 bytes from 172.10.0.16: icmp_seq=9 ttl=254 time=2.44 ms
64 bytes from 172.10.0.16: icmp_seq=10 ttl=254 time=2.40 ms
64 bytes from 172.10.0.16: icmp_seq=11 ttl=254 time=2.96 ms
64 bytes from 172.10.0.16: icmp_seq=12 ttl=254 time=3.52 ms

AAndreychuk
()

Как получить ip_conntrack_pptp на ядре 2.6.11

Какие пакеты нужно ставить из patch-o-matic-ng-20050526, что б скомпилировать ip_conntrack_pptp?

AAndreychuk
()

Suse 9.3 проблема со SCSI?

Иногда комп замирает на минуту-две, а потом в логах появляются такие записи:
May 26 17:32:55 ws kernel: >>>>>>>>>>>>>>>>>> Dump Card State Begins <<<<<<<<<<<<<<<<<
May 26 17:32:55 ws kernel: scsi0: Dumping Card State in Data-out phase, at SEQADDR 0x54
May 26 17:32:55 ws kernel: Card was paused
May 26 17:32:55 ws kernel: ACCUM = 0x0, SINDEX = 0x22, DINDEX = 0x52, ARG_2 = 0xff
May 26 17:32:55 ws kernel: HCNT = 0xfc SCBPTR = 0x1c
May 26 17:32:55 ws kernel: SCSISIGI[0x4]:(BSYI) ERROR[0x0] SCSIBUSL[0xe2] LASTPHASE[0x0]
May 26 17:32:55 ws kernel: SCSISEQ[0x12]:(ENAUTOATNP|ENRSELI) SBLKCTL[0xa]:(SELWIDE|SELBUSB)
May 26 17:32:55 ws kernel: SCSIRATE[0x93]:(SINGLE_EDGE|WIDEXFER) SEQCTL[0x10]:(FASTMODE)
May 26 17:32:55 ws kernel: SEQ_FLAGS[0x20]:(DPHASE) SSTAT0[0x0] SSTAT1[0x2]:(PHASECHG)
May 26 17:32:55 ws kernel: SSTAT2[0x40]:(SHVALID) SSTAT3[0x0] SIMODE0[0x8]:(ENSWRAP)
May 26 17:32:55 ws kernel: SIMODE1[0xac]:(ENSCSIPERR|ENBUSFREE|ENSCSIRST|ENSELTIMO)
May 26 17:32:55 ws kernel: SXFRCTL0[0x80]:(DFON) DFCNTRL[0x2c]:(DIRECTION|HDMAEN|SCSIEN)
May 26 17:32:55 ws kernel: DFSTATUS[0x82]:(FIFOFULL|PRELOAD_AVAIL)
May 26 17:32:55 ws kernel: STACK: 0x83 0x83 0x166 0x62
May 26 17:32:55 ws kernel: SCB count = 52
May 26 17:32:55 ws kernel: Kernel NEXTQSCB = 1
May 26 17:32:55 ws kernel: Card NEXTQSCB = 1
May 26 17:32:55 ws kernel: QINFIFO entries:
May 26 17:32:55 ws kernel: Waiting Queue entries:
May 26 17:32:55 ws kernel: Disconnected Queue entries:
May 26 17:32:55 ws kernel: QOUTFIFO entries:
May 26 17:32:55 ws kernel: Sequencer Free SCB List: 29 25 8 16 6 31 30 24 3 21 1 9 0 7 27 4 18 2 15 20 10 26 13 22 23 12 11 17 5 14 19
May 26 17:32:55 ws kernel: Sequencer SCB Info:
May 26 17:32:55 ws kernel: 0 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:55 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:55 ws kernel: 1 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:55 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:55 ws kernel: 2 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:55 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:55 ws kernel: 3 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:55 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:55 ws kernel: 4 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:55 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:55 ws kernel: 5 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:55 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:55 ws kernel: 6 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:55 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:55 ws kernel: 7 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:55 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:55 ws kernel: 8 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:55 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:55 ws kernel: 9 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:55 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:55 ws kernel: 10 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:55 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:55 ws kernel: 11 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:55 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:55 ws kernel: 12 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:55 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:55 ws kernel: 13 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:55 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:55 ws kernel: 14 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:55 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:55 ws kernel: 15 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:55 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:55 ws kernel: 16 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:55 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:55 ws kernel: 17 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:55 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:55 ws kernel: 18 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:55 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:55 ws kernel: 19 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:55 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:55 ws kernel: 20 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:56 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:56 ws kernel: 21 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:56 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:56 ws kernel: 22 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:56 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:56 ws kernel: 23 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:56 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:56 ws kernel: 24 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:56 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:56 ws kernel: 25 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:56 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:56 ws kernel: 26 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:56 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:56 ws kernel: 27 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:56 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:56 ws kernel: 28 SCB_CONTROL[0x60]:(TAG_ENB|DISCENB) SCB_SCSIID[0x17] SCB_LUN[0x0]
May 26 17:32:56 ws kernel: SCB_TAG[0x1b]
May 26 17:32:56 ws kernel: 29 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:56 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:56 ws kernel: 30 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:56 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:56 ws kernel: 31 SCB_CONTROL[0xe0]:(TAG_ENB|DISCENB|TARGET_SCB) SCB_SCSIID[0x17]
May 26 17:32:56 ws kernel: SCB_LUN[0x0] SCB_TAG[0xff]
May 26 17:32:56 ws kernel: Pending list:
May 26 17:32:56 ws kernel: 27 SCB_CONTROL[0x60]:(TAG_ENB|DISCENB) SCB_SCSIID[0x17] SCB_LUN[0x0]
May 26 17:32:56 ws kernel: Kernel Free SCB list: 32 3 13 44 45 41 38 36 51 11 43 47 0 42 29 8 7 35 15 28 40 5 19 9 26 23 24 33 25 39 34 6 31 22 18 20 10 37 17 46 12 21 30 2 14 4 16 50 49 48
May 26 17:32:56 ws kernel: DevQ(0:0:0): 0 waiting
May 26 17:32:56 ws kernel: DevQ(0:1:0): 0 waiting
May 26 17:32:56 ws kernel:
May 26 17:32:56 ws kernel: <<<<<<<<<<<<<<<<< Dump Card State Ends >>>>>>>>>>>>>>>>>>

Что это может значить?????

AAndreychuk
()

Копирование почты в sendmail

Как настроить sendmail, чтоб он копировал входящую почту на адрес (my@my.com) с определенного адреса (a@bbb.com) на адрес b@ccc.com?

AAndreychuk
()

Ограничение траффика с помощью iptables

Подскажите, реально ли ограничить входящие и исходящие скорости разных сервисов в канале? HTB прошу не предлагать, так как интерфейс ppp* - замучился постоянно запускать...

AAndreychuk
()

Сделать внутренний ftp доступным из мира

Во внутренней сетке есть ftp-сервер. На шлюзе есть ftp-сервер. Как сделать так, что б из мира можно было попадать на эти сервера?

AAndreychuk
()

Помогите с HTB

Есть такой скриптик:
/usr/sbin/tc qdisc del dev ppp0 root
/usr/sbin/tc qdisc add dev ppp0 root handle 1 htb default 30

/usr/sbin/tc class add dev ppp0 parent 1: classid 1:2 htb rate 110Kbit burst 3K

/usr/sbin/tc class add dev ppp0 parent 1:2 classid 1:10 htb rate 40Kbit burst 3K
/usr/sbin/tc qdisc add dev ppp0 parent 1:10 handle 10 sfq perturb 10
/usr/sbin/tc filter add dev ppp0 parent 1:0 protocol ip prio 100 u32 match ip sport 80 0xffff classid 1:10

/usr/sbin/tc class add dev ppp0 parent 1:2 classid 1:20 htb rate 60Kbit ceil 110Kbit burst 3K
/usr/sbin/tc qdisc add dev ppp0 parent 1:20 handle 20 sfq perturb 10
/usr/sbin/tc filter add dev ppp0 parent 1:0 protocol ip prio 100 u32 match ip dport 25 0xffff classid 1:20

/usr/sbin/tc class add dev ppp0 parent 1:2 classid 1:30 htb rate 80Kbit ceil 110Kbit burst 3K
/usr/sbin/tc qdisc add dev ppp0 parent 1:30 handle 30 sfq perturb 10

/usr/sbin/tc class add dev ppp0 parent 1:2 classid 1:40 htb rate 60Kbit ceil 110Kbit burst 3K
/usr/sbin/tc qdisc add dev ppp0 parent 1:40 handle 40 sfq perturb 10
/usr/sbin/tc filter add dev ppp0 parent 1:0 protocol ip prio 100 u32 match ip sport 20 0xfffe classid 1:40
 
Я правильно понимаю, что он ограничивает исходящий www с сервера 
до 40К и не больше, почту исходящую до 60К (если нет загрузки, то 
до 110К), ftp с сервера до 60К (если нет загрузки, то 
до 110К)?
Пождскажите что еще можно добавить?
AAndreychuk
()

clamav-milter не компилируется

при компиляции вылетает с такой ошибкой:
gcc -DSENDMAIL_BIN=\"\" -g -O2 -o .libs/clamav-milter  ../libclamav/.libs/libclamav.so -lz /usr/lib/libbz2.so /usr/lib/libgmp.so -L/z/3/sendmail-8.13.1/obj.Linux.2.4.21-99-default.i686/libmilter -lmilter -lpthread -L/z/3/sendmail-8.13.1/obj.Linux.2.4.21-99-default.i686/libsmutil -lsmutil -Wl,--rpath -Wl,/usr/local/lib
/usr/lib/gcc-lib/i586-suse-linux/3.3.1/../../../crt1.o(.text+0x18): In function `_start':
../sysdeps/i386/elf/start.S:98: undefined reference to `main'
collect2: ld returned 1 exit status
make[2]: *** [clamav-milter] Error 1
make[2]: Leaving directory `/z/3/clamav-0.75/clamav-milter'
make[1]: *** [all-recursive] Error 1
make[1]: Leaving directory `/z/3/clamav-0.75'
make: *** [all] Error 2

Чего ему не хватает?
AAndreychuk
()

Привязка номера pppd

Как привязать к pppd определенный номер (ppp10, ppp11) если используется pptpd и каждому пользователю в chap выдается жестко IP
pptpd выдает адреса в диапазоне 192.168.0.40-60
команда unit 10-30 в конфигурации не работает
AAndreychuk
()

Не грузятся некоторые сайты

Есть выход в инет через ppp0, есть внутрення eth1 (172.16.0.0)
Прописал:
iptables -t nat -A POSTROUTING -s 172.16.0.0/24 -o ppp0 -j MASQUERADE
i
все правила POLICY ACCEPT
все работает, пинг в мир идет, сайты грузатся, но не все - hotmail.com, microsoft.com - никак не хотят. Используя парент прокси - все работает нормально.
Не могу понять, вчем проблема? Где копать?
AAndreychuk
()

https через прозрачный прокси

Сделал прозрачный прокси, завернул все на прокси:
iptables -t nat -A POSTROUTING -s x.x.x.x/27 -o ppp0 -j MASQUERADE
iptables -t nat -A PREROUTING -s x.x.x.x/27 -d ! 195.69.y.y -p udp -m multiport --dport 8082,8083,8091,8100,8101,8102,8103,8080,8888,777 -j REDIRECT --to-port 3128
iptables -t nat -A PREROUTING -s x.x.x.x/27 -d ! 195.69.y.y -p tcp -m multiport --dport 8082,8083,8091,8100,8101,8102,8103,8080,8888,777 -j REDIRECT --to-port 3128
iptables -t nat -A PREROUTING -s x.x.x.x/27 -d ! 195.69.y.y -p udp -m multiport --dport 80,81,82,83,88,443,563,8000,8001,8002,8080,8081 -j REDIRECT --to-port 3128
iptables -t nat -A PREROUTING -s x.x.x.x/27 -d ! 195.69.y.y -p tcp -m multiport --dport 80,81,82,83,88,443,563,8000,8001,8002,8080,8081 -j REDIRECT --to-port 3128


Все работает ок, кроме почты на hotmail.com - не заходит.
В чем может быть проблема? 
AAndreychuk
()

Маршрутизация

Можно ли сделать такую маршрутизацию: на Server1(2.2.) шлюз по умолчанию x.x.x.x на интерфейсе eth0. Есть Server2(2.2.) к которому можно через этот шлюз попасть в инет. Как выйти в Инет с Server1? Сервера на реальных IP. Просто дальше по маршруту сетка Server1 закрыта :(((

AAndreychuk
()

Ограничение траффика

Ситуация: ppp0 - выход в инет, eth0 (172.16.0.0) и eth1(172.16.1.0) - локалки. Надо сделать так, чтоб из сети eth0 была гарантированная скорость, например, 40kbit. Если из eth0 траффика нет, то пусть весь канал отдается eth1 соответственно. Ядро 2.4.18 Как проще это реализовать?

AAndreychuk
()

Помогите перенаправить пакеты...

Как заставить входящие UDP пакеты(порт 5060 и 16500) на интерфейс eth0 (X.X.X.X) пересылать во внутреннюю сетку на 172.16.0.200 на соответствующие порты????

AAndreychuk
()

pptp+route

Ситуация: настраиваю спутник, поднял интерфейс dvb0_0, поднял VPN, получил, например локальный адр. на ppp0 81.181.254.100, а адрес сервера 81.181.252.4 У меня на провайдера работает интерфейс eth0(195.XXX.XXX.YYY) с шлюзом по умолчанию 195.XXX.XXX.XXX. После поднятия ppp0 маршрутизация не меняется, хотя в конфигурационных файлах везде стоит defaultroute... Когда удаляю шлюз по умолчанию и добавляю по умолчанию ppp0, то VPN падает, так как он не знает, что надо идти через 195.XXX.XXX.XXX. Подскажите, какие правила в маршрутизации надо добавить, что б VPN знал, что надо идти через 195.XXX.XXX.XXX, а все ходило через VPN. Замучился совсем...

AAndreychuk
()

RSS подписка на новые темы