LINUX.ORG.RU

Сообщения ishk0

 

Docker mtu

Форум — Admin

Добрый день. Да я знаю что тема избитая, но ни как не могу найти ответ.

Тут озвучивают идентичную проблему

Опишу вопрос: Я пытаюсь изменить mtu для docker сети. Вот что имею сейчас

NETWORK ID     NAME              DRIVER      SCOPE
cd2d01a8acc6   bridge            bridge      local
dd8c6a9f4517   docker_gwbridge   bridge      local
3e35ba2e2099   host              host        local
0cc1f316585d   none              null        local
d1ce1ec9acbb   weave             weavemesh   local
brctl show
bridge name	bridge id		STP enabled	interfaces
docker0		8000.0242fcaba1fc	no		
docker_gwbridge		8000.0242521e3da7	no		veth07f48e9
							veth1652ce1
							veth1893f80
weave		8000.da8c4dfe6225	no		vethwe-bridge
							vethwl068b34874
							vethwl0d2d738d7

Три варианта как я пробую изменить mtu

1.Вар

/etc/docker/daemon.json
{
    "mtu": 1400
}

2.Вар

systemd docker 
--mtu=1400

Так как у меня не исп docker0 (он даже в состоянии DOWN) патаюсь поменять конкретно для docker_gwbridge

3.Вар - самый малопредпочтительный для меня.

docker network create -d bridge \
 --subnet 172.18.0.0/16 \
 --opt com.docker.network.bridge.name=docker_gwbridge \
 --opt com.docker.network.bridge.enable_icc=false \
 --opt com.docker.network.bridge.enable_ip_masquerade=true \
 --opt com.docker.network.driver.mtu=1400 \
 docker_gwbridge

Проверяю (рестартанул докер, перезагрузил ПК, создал сервер с нуля, повторил тест на родной ubuntu. Результат один и тот же) но mtu остаётся 1500.

13: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default 
    inet 172.17.0.1/16 brd 172.17.255.255 scope global docker0
23: docker_gwbridge: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default 
    inet 172.18.0.1/16 brd 172.18.255.255 scope global docker_gwbridge

Правда при 3.Вар вижу 1400 в inspect

docker network inspect docker_gwbridge | grep mtu 
            "com.docker.network.driver.mtu": "1400"

Но интеррфейс то 1500!

И это не поведение конкретной сборки, ядра, версии. Тут какая то иная логика. И понять какая не могу.

Подскажите пожалуйста. Буду рад ссылке, ману, комменту, да хоть пинку в нужную сторону.

Спасибо.

 ,

ishk0
()

jq + bash. Помогите склеить файлы.

Форум — Admin

Добрый день. Задачка ни как мне не даётся. Помогите пожалуйста, с виду всё просто: Два json добавить в третий bash скриптом.

1.json

{"male": {"Petr": "24", "Duck": "2"}}

2.json

{"women": {"Anna": "21", "swan": "2"}}

config.json

{
  "droid": {
    "bb8": "live",
    "r2d2": {
      "sleep: "true"
    }
  }    
}

Мне нужно дописать 1.json и 2.json в поле «human» и вставить в корень. Итог вот такой пытаюсь получить:

{
  "droid": {
    "bb8": "live",
    "r2d2": {
      "sleep: "true"
    }
  }    
  "human": {
    "male": {
      "Petr": "24", 
      "Duck": "2"
    },
    "women": {
      "Anna": "21", 
      "swan": "2"
    }
  }
}

Подскажите пожалуйста, как мне сделать это в bash? Я упёрся в то, что не могу прокидывать переменные в jq. Пробовал через –argjson или просто jq -c «. + {human: (.human + ${1json}) }». Не выходит аленький цветочек (

Спасибо за любую помощь.

 ,

ishk0
()

nginx upstream. как переключиться на постоянку?

Форум — Admin

Приветствую! Есть два сервера приложений дублирующие друг друга. Работают на портах 8080 и 8081. Стали странно зависать - соединение по порту создают, но не отвечают (виснут не одновременно).

Задача настроить nginx upstream что бы переключал запросы от зависшего - рабочему.

upstream up_svet {
    server 127.0.0.1:8080 max_fails=1 fail_timeout=5s;
    server 127.0.0.1:8081 max_fails=1 fail_timeout=5s backup;
}

server {
listen       80;
server_name svet.ru;

 location /platform {
#       proxy_pass http://localhost:8080/platform;
        proxy_pass http://up_svet;
        proxy_redirect default;
        proxy_set_header   X-Real-IP $remote_addr;
        proxy_set_header   Host $http_host;
        proxy_set_header   X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_set_header   X-Forwarded-Proto $scheme;
        add_header Front-End-Https on;
        proxy_buffering off;
        proxy_connect_timeout       40;
        proxy_send_timeout          40;
        proxy_read_timeout          40;
        send_timeout                40;
#        proxy_next_upstream error timeout;

    }

При отключенном 8080 - переключение на 8081 работает идеально.

При зависшем 8080 переключение работает НО! каждый следующий запрос опять идёт в 8080 и ждёт тайм аута 40 сек. Пользоваться сайтом не возможно.

Приложу лог:

40.006, 0.002|24/Jul/2019:09:30:04 +0300|192.168.98.14|192.168.98.88:8080, 127.0.0.1:8081|"GET /platform/javax.faces.resource/theme.css.xhtml?ln=primefaces-platform-P1Platform HTTP/1.1"|304|40.006, 0.002
40.000, 0.002|24/Jul/2019:09:30:04 +0300|192.168.98.14|127.0.0.1:8080, 192.168.98.88:8081|"GET /platform/javax.faces.resource/css/layout.less.xhtml?ln=primefaces-platform-P1Platform HTTP/1.1"|304|40.000, 0.002
0.000, 0.000, 0.002|24/Jul/2019:09:30:04 +0300|192.168.98.14|[::1]:8081, [::1]:8080, 192.168.98.88:8081|"GET /platform/javax.faces.resource/fonts/RubikRegular.ttf.xhtml?ln=primefaces-platform-P1Platform HTTP/1.1"|304|0.000, 0.000, 0.002
0.001|24/Jul/2019:09:30:04 +0300|192.168.98.14|127.0.0.1:8081|"GET /platform/javax.faces.resource/fa/fontawesome-webfont.woff2.xhtml?ln=primefaces&v=6.2?v=4.7.0 HTTP/1.1"|304|0.001
0.039|24/Jul/2019:09:30:05 +0300|192.168.98.14|127.0.0.1:8081|"GET /platform/catalogfile/cons_libraryFiles/PTSansRegular/PT_Sans-Web-Regular.ttf HTTP/1.1"|200|0.039
0.002|24/Jul/2019:09:30:05 +0300|192.168.98.14|192.168.98.88:8081|"GET /platform/javax.faces.resource/images/resize.png.xhtml?ln=primefaces-platform-P1Platform HTTP/1.1"|304|0.002
0.004|24/Jul/2019:09:30:06 +0300|192.168.98.14|127.0.0.1:8081|"GET /platform/catalogfile/cons_libraryFiles/calendarIcon/calendarIcon.png HTTP/1.1"|200|0.004
1.389|24/Jul/2019:09:30:06 +0300|192.168.98.14|192.168.98.88:8081|"GET /platform/dmsfile/3db34fb2-1111-4a93-ba4d-c5497916ef55 HTTP/1.1"|200|1.389
40.004, 40.000, 0.001, 0.104|24/Jul/2019:09:34:45 +0300|192.168.98.254|127.0.0.1:8080, 192.168.98.88:8080, [::1]:8080, 127.0.0.1:8081|"GET /platform/portal/cons_main HTTP/1.1"|200|40.004, 40.000, 0.001, 0.104
0.002|24/Jul/2019:09:34:46 +0300|192.168.98.254|192.168.98.88:8081|"GET /platform/javax.faces.resource/theme.css.xhtml?ln=primefaces-platform-P1Platform HTTP/1.1"|304|0.002
0.000, 0.002|24/Jul/2019:09:34:46 +0300|192.168.98.254|[::1]:8081, 127.0.0.1:8081|"GET /platform/javax.faces.resource/css/add.less.xhtml?ln=primefaces-platform-P1Platform HTTP/1.1"|304|0.000, 0.002
0.001|24/Jul/2019:09:34:46 +0300|192.168.98.254|192.168.98.88:8081|"GET /platform/javax.faces.resource/css/layout.less.xhtml?ln=primefaces-platform-P1Platform HTTP/1.1"|304|0.001
0.001|24/Jul/2019:09:34:46 +0300|192.168.98.254|127.0.0.1:8081|"GET /platform/javax.faces.resource/css/mini-screen.less.xhtml?ln=primefaces-platform-P1Platform HTTP/1.1"|304|0.001
0.001|24/Jul/2019:09:34:46 +0300|192.168.98.254|192.168.98.88:8081|"GET /platform/javax.faces.resource/components.css.xhtml?ln=primefaces&v=6.2 HTTP/1.1"|304|0.001
0.001|24/Jul/2019:09:34:46 +0300|192.168.98.254|192.168.98.88:8081|"GET /platform/javax.faces.resource/screen.css.xhtml?ln=css HTTP/1.1"|304|0.001
0.001|24/Jul/2019:09:34:46 +0300|192.168.98.254|127.0.0.1:8081|"GET /platform/javax.faces.resource/fileupload/fileupload.css.xhtml?ln=primefaces&v=6.2 HTTP/1.1"|304|0.001

Тут видно что он сначала стучится на 8080 - виснет там ожидая тайм аута 40сек и потом переключает. Я могу уменьшить тайм ауты, но это не дело.

Не обходимо как то исключать «зависший» сервер из приоритета.

Буду рад любым подсказкам - спасибо!

 

ishk0
()

Потеря пакетов до шлюза

Форум — Admin

Добрый день.

У меня на шлюз: OpenWrt Attitude Adjustment 12.09-rc1 / LuCI 0.11 Branch (0.11+svn9769) Kernel Version 3.3.8 (всё это на BusyBox v1.19.4 на отдельной старенькой машинке с двумя сетевухами)

Он же выступает DHCP сервером.

Я решаю проблему внезапно срабатывающего мониторинга zabbix (который просто проверят код 200 от моих внешних сайтов).

Входе поиска причин увидел потерю пакетов до моего шлюза. При том на разные сайты по разному.

ниже проверки от My traceroute [v0.92] под убунту, и под винду (с соседнего ПК) и traceroute. Картина и там и там таже.

с убунту:

ishk0-desktop (192.168.98.14)                                                                                                       2019-01-31T08:51:49+0400
Keys:  Help   Display mode   Restart statistics   Order of fields   quit
                                                                                                                    Packets               Pings
 Host                                                                                                             Loss%   Snt   Last   Avg  Best  Wrst StDev
 1. _gateway                                                                                                      87.5%   537    0.4   0.3   0.3   0.4   0.0
 2. 81.23.180.65                                                                                                   0.0%   537    0.8   0.7   0.6   1.4   0.1
 3. zz217-113-116-19.tlt.ru                                                                                        0.0%   537    1.4   1.6   1.2  14.3   0.9
 4. 212.46.219.1                                                                                                   0.0%   537    1.9   1.7   1.3   2.8   0.2
 5. pe01.spb.gldn.net                                                                                              0.0%   536   26.4  26.7  26.0  81.4   4.5
 6. beeline-gw-c0.spb.vkontakte.ru                                                                                 0.0%   536   29.2  29.3  29.0  44.7   1.4
 7. srv247-191-240-87.vk.com                                                                                       0.0%   536   29.9  29.8  29.6  31.8   0.2
 8. ???
 9. ???
10. srv71-129-240-87.vk.com                                                                                        0.0%   536   29.3  29.2  29.2  29.6   0.1

До майла нет потерь
ishk0-desktop (192.168.98.14)                                                                                                       2019-01-31T08:55:15+0400
Keys:  Help   Display mode   Restart statistics   Order of fields   quit
                                                                                                                    Packets               Pings
 Host                                                                                                             Loss%   Snt   Last   Avg  Best  Wrst StDev
 1. _gateway                                                                                                       0.1%   671    0.3   0.2   0.2   0.4   0.1
 2. 81.23.180.65                                                                                                   0.0%   671    0.7   0.6   0.6   1.2   0.1
 3. zz217-113-116-19.tlt.ru                                                                                        0.0%   671    1.5   1.6   1.2  13.1   0.9
 4. 212.46.219.1                                                                                                   0.0%   671    1.7   1.6   1.3   2.7   0.2
 5. pe05.KK12.Moscow.gldn.net                                                                                      0.0%   670   18.8  18.7  18.4  47.4   1.4
 6. be10.tf01-02.Moscow.gldn.net                                                                                   0.0%   670   64.3  64.0  63.9  66.3   0.2
 7. pe02.8marta.Moscow.gldn.net                                                                                    0.0%   670   19.3  19.8  19.0  40.3   2.3
 8. 82.142.138.26                                                                                                  0.0%   670   20.2  20.7  20.0  78.3   4.2
 9. ???
10. ???
11. ???
12. mail.ru                                                                                                        0.0%   670   68.3  68.2  65.3 159.6   5.2

а тут странности. до ya.ru (и до большинства сайтов) Долго определяет gateway, или не определяет вовсе:

ishk0-desktop (192.168.98.14)                                                  2019-01-31T08:57:08+0400
Keys:  Help   Display mode   Restart statistics   Order of fields   quit
                                                               Packets               Pings
 Host                                                        Loss%   Snt   Last   Avg  Best  Wrst StDev
 1. ???
 2. 81.23.180.65                                              0.0%   465    0.6   0.6   0.6   1.2   0.1
 3. zz217-113-116-19.tlt.ru                                   0.0%   465    1.2   1.7   1.2  14.2   1.0
 4. 212.46.219.1                                              0.0%   465    1.9   1.7   1.3   3.2   0.2
 5. pe03.KK12.Moscow.gldn.net                                 0.0%   464   18.7  18.6  18.3  43.7   1.7
 6. 195.239.153.234                                           0.0%   464   19.5  20.3  19.3  50.7   3.3
 7. sas1-2d2-eth-trunk214-1.yndx.net                          0.0%   464   28.3  28.4  27.3  69.4   2.8
 8. ??? 9. ya.ru                                              0.0%   464   28.8  27.2  25.6  29.4   1.2
$ traceroute ya.ru
traceroute to ya.ru (87.250.250.242), 30 hops max, 60 byte packets
 1  * * *
 2  81.23.180.65 (81.23.180.65)  0.580 ms  0.601 ms  0.605 ms
 3  zz217-113-116-19.tlt.ru (217.113.116.19)  1.479 ms  1.535 ms  1.655 ms
 4  212.46.219.1 (212.46.219.1)  1.743 ms  1.816 ms  1.347 ms
 5  pe03.KK12.Moscow.gldn.net (79.104.235.215)  18.347 ms  18.427 ms pe03.KK12.Moscow.gldn.net (79.104.235.213)  18.919 ms
 6  195.239.153.234 (195.239.153.234)  19.327 ms  19.503 ms  19.253 ms
 7  ya.ru (87.250.250.242)  22.561 ms  22.137 ms  21.786 ms

при том если стучусь на прямую на шлюз - проблем нет

ishk0-desktop (192.168.98.14)                                                   2019-01-31T08:58:33+0400
Keys:  Help   Display mode   Restart statistics   Order of fields   quit
                                                                Packets               Pings
 Host                                                         Loss%   Snt   Last   Avg  Best  Wrst StDev
 1. _gateway                                                   0.0%    39    0.3   0.3   0.2   0.3   0.0

С винды

C:\Users\Администратор>tracert ya.ru

Трассировка маршрута к ya.ru [87.250.250.242]
с максимальным числом прыжков 30:

  1    <1 мс     *        *     192.168.98.1
  2    <1 мс    <1 мс    <1 мс  81.23.180.65
  3     3 ms     3 ms     1 ms  zz217-113-116-19.tlt.ru [217.113.116.19]
  4     1 ms     1 ms     1 ms  212.46.219.1
  5    18 ms    18 ms    18 ms  pe03.kk12.moscow.gldn.net [79.104.235.215]
  6    19 ms    19 ms    19 ms  195.239.153.234
  7    28 ms    27 ms    28 ms  sas1-2d2-eth-trunk214-1.yndx.net [93.158.160.15]

  8     *        *        *     Превышен интервал ожидания для запроса.
  9    28 ms    26 ms    28 ms  ya.ru [87.250.250.242]

Трассировка завершена.
mtr
                 Host              -   %  | Sent | Recv | Best | Avrg | Wrst | Last |
|------------------------------------------------|------|------|------|------|------|------|
|                            192.168.98.1 -   42 | 20873 | 12288 |    0 |    0 |    1 |    0 |
|                            81.23.180.65 -    0 | 55031 | 55031 |    0 |    0 |   61 |    0 |
|                 zz217-113-116-19.tlt.ru -    0 | 55063 | 55063 |    1 |    1 |   37 |    1 |
|                            212.46.219.1 -    0 | 55032 | 55032 |    1 |    1 |   13 |    1 |
|                       pe01.spb.gldn.net -    0 | 55190 | 55190 |   25 |   28 |  131 |   32 |
|          beeline-gw-c1.spb.vkontakte.ru -    0 | 55186 | 55186 |   25 |   28 |  191 |   32 |
|                srv239-191-240-87.vk.com -    0 | 55250 | 55250 |   29 |   30 |   72 |   35 |
|                   No response from host -  100 | 11050 |    0 |    0 |    0 |    0 |    0 |
|                   No response from host -  100 | 11050 |    0 |    0 |    0 |    0 |    0 |
|                srv136-180-240-87.vk.com -    0 | 55250 | 55250 |   29 |   30 |  167 |   35 |
|________________________________________________|______|______|______|______|______|______|

DNS server у меня свой на Bind 9 под Centos6.8. Ранее они с DHCP были в связке - новое устройство добавлялось в лист DNS, но сейчас связи нет, что то поломалось и руки сейчас не дойдут это починить.

Проблем с DNS нет. Интернер работает исправно, не лагает.

Буду рад любому вашему размышлению. Спасибо за участие и время. Хоть пните в нужную сторону )

 ,

ishk0
()

Postfix два порта - два конфига. Реально?

Форум — Admin

Здравствуйте.

Есть рабочий майл сервер на postfix слушает 25, и релем от учетки gmail работает согласно моему конфигу. Всё устраивает.

Задача сделать майл сервер для нужд разработки с определёнными условиями (письма все валятся в один ящик не зависимо от адресата, наружу не вылетают и т.п.)

Мне бы не хотелось плодить Всервера, а решить задачу почты на одном сервере. Идеальным вариантом было бы два порта слушающих smtp. Прилетело на 25-й отработал один конфиг, на 26-й другой конфиг. Либо установить\запустить postfix2. На другой pid и отработает другой конфиг соответственно.

Как думаете возможно? Буду рад любым вашим размышлениям. Спасибо.

 ,

ishk0
()

nginx. как отобразить 500 ошибку?

Форум — Admin

Приветствую Вас.

Задача стоит показывать error_page вслучае возникновения внештатной ситуации. Разрабов попросил присылать мне 500-ю ошибку при таких ситуациях, что бы у меня отрабатывал конфиг:

    error_page   500 502 503 504 403 /50x/er.html;
        location /50x {
        root   /var/www/;
        allow all;
    }

проверяю так: ставлю deny all; ----> вижу er.html ---- хорошо

Но когда сайт мне присылает 500 по проверочному url, я вижу строку «Could not process request», хотя ожидаю увидеть er.html

Проверочный url такой: http://site.com/test.xhtml

F12 в браузере вижу:

name  \ status \ type \ initiator 
test.xhtml \ 500 \ document \ other 

Вроде я получил code 500. Почему же не отрабатывает его nginx? Что я не так написал?

Заранее спасибо за потраченное на этот вопрос время.

РЕШЕНИЕ :

И вы правы! (vel)

По вашей ссылке раскрутил вопрос: https://stackoverflow.com/questions/8715064/nginx-not-serving-my-error-page/8...

Узнал что error_page обрабатывает ошибки, только сгенерированные nginx. По умолчанию nginx возвращает все, что возвращает прокси-сервер, независимо от кода состояния http.

Итог: Добавил proxy_intercept_errors on; в основной location. Теперь nginx хватает ошибки возвращаемые как свои и показывает мне мой error_page.

(делал это что бы при падении БД за которую цепляется сайт, была не ошибка 500, а красивая заглушка подставленная в error_page)

Большое спасибо за ваше время и верное направление!

 

ishk0
()

Centos 6 ---> 7 и жонглирование ядрами

Форум — Admin

Добрый день. Столкнулся с задачей - Обновить

CentOS release 6.8 (Final) Linux 2.6.32-642.el6.x86_64
в 
CentOS release 7.*    core - 3.18 

Именно это ядро.

И среди разнообразия инструкций, не нашел как ставить именно интересующее тебя ядро.

Не ясно можно ли понижать версию ядра? Если обновиться в 4.18 например (тут вероятно да)

Не понимаю как посмотреть версию ядра лежащего в репозитории. И можно ли выбрать устанавливаемое?

http://mirror.centos.org/centos/7/os/

! Рад любым направлениям - «почитай тут», «тебе основы нужны - они здесь» и т.п. ...

Спасибо за вашу отзывчивость

 ,

ishk0
()

nginx Помогите понять лог.

Форум — Admin

Добрый день. Помогите пожалуйста... Не могу понять, на что именно ругается?

Вот такой лог вижу в error.log nginx`a когда просто захожу на сайт. (Строку ентером поломал, для удобства чтения)

 
2018/11/21 20:17:10 [error] 24418#24418: *1 connect() failed (111: Connection refused) while connecting to upstream, 
client: 192.168.1.14, server: tp.la.ru, request: "GET /platform/javax.faces.resource/theme.css.xhtml?ln=primefaces-platform-P1Platform HTTP/1.1", 
upstream: "http://[::1]:8080/platform/javax.faces.resource/theme.css.xhtml?ln=primefaces-platform-P1Platform", 
host: "tp.la.ru", referrer: "http://tp.la.ru/platform/portal/teh"
Притом в network в chrome (F12) ошибок не вижу, там всё по плану. Код 200 или 304

Вот конфиг nginx ( В нём было много чего, но в поисках проблемы выбросил все, но ошибка в логе осталась)

server {
    listen 80;
    server_name  tp.la.ru;
    access_log  /var/log/nginx/tp.la.ru/access.log;
    error_log /var/log/nginx/tp.la.ru/error.log;

location /platform {
        proxy_pass http://localhost:8080;
        proxy_redirect default;
        proxy_set_header   X-Real-IP $remote_addr;
        proxy_set_header   Host $http_host;
        proxy_set_header   X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_buffering off;
        proxy_connect_timeout       3600;
        proxy_send_timeout          3600;
        proxy_read_timeout          3600;
        send_timeout                3600;
    }

}

Спасибо за любой совет и направление ))

 

ishk0
()

openVPN непобедимый.

Форум — Admin

Добрый день. Большое Спасибо за уделённое время.

Я взялся за vpn впервые. Делаю сервер для авторизации по логину паролю без сертификатов по статьям через скрипт. Но мне кажется что сервер даже не видет моих попыток подключиться.

Конфиг сервера

port 1194
#proto udp
proto tcp
dev tun

daemon
mode server
#tls-server
comp-lzo

ca keys/ca.crt
cert keys/issued/vpn-server.crt
key keys/private/vpn-server.key
dh keys/dh.pem

#tls-auth keys/ta.key 0
server 10.8.0.0 255.255.255.0
#Запись ИП клиентов
ifconfig-pool-persist ipp.txt
#Пинги клиента 10сек 120 сек откл.
keepalive 10 120
max-clients 32
#Что бы клиенты видели друг друга
client-to-client

persist-key
persist-tun

status /var/log/openvpn/openvpn-status.log
log-append /var/log/openvpn/openvpn.log
#Уровень логирования 0-9  стандарт 4.
verb 9
#Не более 20 послед сообщений в журнал.
mute 20

#Авторизация скриптом
auth-user-pass-verify /etc/openvpn/verify.sh via-file
# Без проверки серт клиента
verify-client-cert none
# Проверка по введённому username
username-as-common-name
tmp-dir /tmp
# Разрешить выполнять внешние скрипты
script-security 2
netstat -lntp
0.0.0.0:1194            0.0.0.0:*               LISTEN      1212/openvpn 

Скрипт авторизации «verify.sh» взял отсюда - https://skeletor.org.ua/?p=1571

Пробую телнетом с соседней машины тюкнють в этот порт - посмотреть реакцию - видит : telnet 192.168.98.215 1194 - В логе сервера вижу то пишет про мой IP. (длинный и не нужный тут ввывод лога). А если пробую с убунты PPTP или с винды, то в логе сервера тишина. Он как будто и не видит, что к нему обращались.

Выяснили:

PPTP к такой конфигурации не подключится. win openvpn просит сертификат. Лог: Options error: You must define CA file (--ca) or CA path (--capath)

Задача, подключаться по логину паролю. Подключить и ubuntu и win клиентов, и удалённые роутеры (раздать филиалам ресурсы).

Благодарен любым вашим мыслям и направлениям ).

 

ishk0
()

nginx и вездесущие Рег.Выражения. Rewrite и исключения.

Форум — Admin

Добрый день уважаемые.

Ни как не могу разобраться с nginx. Задача проста вроде бы.

По наброску конфига станет ясно чего добиваюсь:

server {
    listen 443 ssl;
    server_name  test.ru;

location /db/prod/cons_(.*)$ {
    if ($uri != $scheme://$server_name/db/prod/cons_(one$|two$) {
    rewrite ^/ $scheme://$server_name/error.html;
    }

    proxy_pass http://localhost:8080;
    }
}

Разьясню: если запрос не равен строго указанным папкам (one$|two$), то он реврайтит на еррор. Если запрос на них - отправляется на сервер в 8080.

запрос test.ru/db/prod/cons_onee тоже должен на еррор.

Как я только не эксперементировал. То location не цепляет, то реврайт не работает. if - вообще не смог добиться что бы отрабатывал.

Укажите на ошибки пожалуйста. На литературу по теме. Буду очень благодарен за любые отзывы.

Спасибо за внимание.

пара ссылок по которым строил эти суждения:

http://docs.mirocow.com/doku.php?id=nginx:%D0%B2%D1%81%D1%82%D1%80%D0%BE%D0%B5%D0%BD%D0%BD%D1%8B%D0%B5_%D0%BF%D0%B5%D1%80%D0%B5%D0%BC%D0%B5%D0%BD%D0%BD%D1%8B%D0%B5_nginx
https://nginx.org/ru/docs/http/ngx_http_rewrite_module.html#if
http://itzx.ru/linux/derektiva-nginx-location-s-primerami

 

ishk0
()

nginx proxy_pass + rewrite + key

Форум — Admin

Добрый день. Снова обращаюсь на спасительный форум )

Задача перенаправить и подставить ключ в внешний URL, но сам ключ не засветить пользователю (в яндекс апи ключ - но это не важно)

Пытаюсь сделать так. Браузер шлёт:

http://(мой_домен).ru/platform/portal/api-maps/2.1/

и улетает:

https://enterprise.api-maps.yandex.ru/2.1/?lang=ru_RU&apikey=(тут_сам_ключ)

Сделал вот так:

set $api_key &apikey=(тут сам ключ);
set $lang ?lang=ru_RU;

location /platform/portal/api-maps/ {
rewrite ^/platform/portal/api-maps/(.+)$ https://enterprise.api-maps.yandex.ru/$1$lang$api_key;
Всё отлично работает, но ключ видно пользователю при переадресации. Это конечно недопустимо.

А далее пошли признания в безграмотности :) - пытаюсь сделать через прокси:

    location /platform/portal/api-maps/ {
    rewrite ^/platform/portal/api-maps/(.+)$ ^/platform/portal/api-maps/$1$lang$api_key;
    proxy_pass https://enterprise.api-maps.yandex.ru/;
не работает. Эксперементирую, то 404 то 500.

Друзья, подскажите пожалуйста как правильно.

(И уроки по nginx на эту тематику если не сложно)

Спасибо за ваше внимание!

 

ishk0
()

Проброс порта iptables в одной сети.

Форум — Admin

Добрый день. Я понимаю уже 1000 постов про это написаны, но ни как не могу осилить простуйшую проблему. Подскажите пожалуйста где ошибка?

Задача ,была длинная, я упростил до примера:

Пробросить порт 2233 на другой хост на порт 22 в одной подсети.

1. Выступает шлюзом 192.168.1.78. На нём разрешаю всем, в данном примере, на IP 192.168.1.203:22 через 2233.

iptables -t nat -A PREROUTING -p tcp --dport 2233 -j DNAT --to-destination 192.168.1.203:22 
Вижу своё правило:
iptables -t nat -L -n
Chain PREROUTING (policy ACCEPT)
target     prot opt source               destination         
DNAT       tcp  --  0.0.0.0/0            0.0.0.0/0           tcp dpt:2233 to:192.168.1.203:22 

Chain INPUT (policy ACCEPT)
target     prot opt source               destination         

Chain OUTPUT (policy ACCEPT)
target     prot opt source               destination         

Chain POSTROUTING (policy ACCEPT)
target     prot opt source               destination 

проверяю с этого же хоста, где применил правило:

 telnet localhost 2233
Trying ::1...
telnet: connect to address ::1: Connection refused
Trying 127.0.0.1...
telnet: connect to address 127.0.0.1: Connection refused

Проверяю с еще одного ПК в этой же подсети:

telnet 192.168.1.78 2233 
Trying 192.168.1.78...
telnet: connect to address 192.168.1.78: Connection timed out
 ssh user@192.168.1.78 -p 2233 
ssh: connect to host 192.168.1.78 port 2233: Connection refused

Правил ограничивающих нет. Я включил разрешения на всякий (не помогло)

iptables -L -n
Chain INPUT (policy ACCEPT)
target     prot opt source               destination         
ACCEPT     tcp  --  0.0.0.0/0            0.0.0.0/0           

Chain FORWARD (policy ACCEPT)
target     prot opt source               destination         
ACCEPT     tcp  --  0.0.0.0/0            0.0.0.0/0           tcp 
ACCEPT     tcp  --  0.0.0.0/0            192.168.1.203      tcp dpt:22 
ACCEPT     tcp  --  0.0.0.0/0            0.0.0.0/0           

Chain OUTPUT (policy ACCEPT)
target     prot opt source               destination         
ACCEPT     tcp  --  0.0.0.0/0            0.0.0.0/0        
sestatus
SELinux status:                 disabled

У меня есть подобные правила на Боевом шлюзе - всё работает. В внешки в сеть пробрасывает. А внутри подсети - немогу.

Буду рад любой подсказке. Спасибо за ваше внимание.

 

ishk0
()

systemd добавить своё не инсталлированное приложение

Форум — Admin

Добрый день. Буду рад любым подсказкам.

Есть сервер на котором крутится приложение Wildfly12. Ранее пользовал Centos6.9 и запускал\рестартил\стопил вот таким скриптом:

(под cut спрятать не получается. Скрипт запуска большеват - выложил скрипт: перейти по ссылке )

Теперь пытаюсь поднять все на Centos7.4. Скрипт скопировал с старого сервера в init.d, и само приложение в /opt/.

Приложение стартует так /etc/init.d/wildfly12 start - После старта, скрипт сам не завершается, хотя по логам мне видно что всё приложение поднялось. Ctrl+c - всё я запустился

Приложение стартует и так с ошибкой (и всё работает):

#systemctl start wildfly12.service   
Job for wildfly12.service failed because a timeout was exceeded. See "systemctl status wildfly12.service" and "journalctl -xe" for details.

# journalctl -xe
-- Начат процесс запуска юнита wildfly12.service.
июн 06 14:18:28 preducation-test.osslabs.ru runuser[2775]: pam_unix(runuser:session): session opened for user wildfly by (uid=0)
июн 06 14:18:59 preducation-test.osslabs.ru wildfly12[2760]: Starting wildfly: [  OK  ]
июн 06 14:18:59 preducation-test.osslabs.ru systemd[1]: PID file /var/run/wildfly/wildfly.pid not readable (yet?) after start.
июн 06 14:23:28 preducation-test.osslabs.ru systemd[1]: wildfly12.service start operation timed out. Terminating.
июн 06 14:23:28 preducation-test.osslabs.ru systemd[1]: Failed to start SYSV: WildFly startup script.
-- Subject: Ошибка юнита wildfly12.service
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Произошел сбой юнита wildfly12.service.
-- 
-- Результат: failed.
июн 06 14:23:28 preducation-test.osslabs.ru systemd[1]: Unit wildfly12.service entered failed state.
июн 06 14:23:28 preducation-test.osslabs.ru systemd[1]: wildfly12.service failed.
июн 06 14:23:28 preducation-test.osslabs.ru polkitd[620]: Unregistered Authentication Agent for unix-process:2754:2054320 (system bus name :1.56, object path /org/freedesktop/PolicyKit1/AuthenticationAgent, locale ru_RU.UTF-8) (disconnected from bus) 

Остановить не могу ни как (только через kill {PID}):

systemctl stop wildfly12.service
/etc/init.d/wildfly12 stop
Stopping wildfly12 (via systemctl):                          OK  

но ни чего не происходит - приложение продолжает работать. В journalctl -xe

июн 06 14:43:46 preducation-test.osslabs.ru polkitd[620]: Registered Authentication Agent for unix-process:3125:2206177 (system bus name :1.58 [/usr/bin/pkttyagent --notify-fd 5 --fallback], object path /org/freedesktop/PolicyKit1/AuthenticationAgent, locale ru_RU.UTF-8)
июн 06 14:43:46 preducation-test.osslabs.ru polkitd[620]: Unregistered Authentication Agent for unix-process:3125:2206177 (system bus name :1.58, object path /org/freedesktop/PolicyKit1/AuthenticationAgent, locale ru_RU.UTF-8) (disconnected from bus)
Понимаю что в systemd нужно както добавить юнит моего приложения, но как это сделать - не представляю.

 systemctl status wildfly12.service
● wildfly12.service - SYSV: WildFly startup script
   Loaded: loaded (/etc/rc.d/init.d/wildfly12; bad; vendor preset: disabled)
   Active: failed (Result: exit-code) since Ср 2018-06-06 13:11:55 MSK; 1h 0min ago
     Docs: man:systemd-sysv-generator(8)
  Process: 2439 ExecStart=/etc/rc.d/init.d/wildfly12 start (code=exited, status=1/FAILURE)
   CGroup: /system.slice/wildfly12.service
           ├─1196 /bin/sh /etc/rc.d/init.d/wildfly12 start
           ├─1201 runuser -s /bin/bash wildfly -c ulimit -S -c 0 >/dev/null 2>&1 ; LAUNCH_JBOSS_IN_BACKGROUND=1 JBOSS_PIDFILE=/var/run/wildfly/wildfly12.pid /opt/wildfly-12.0.0.Final/bin/standalone.sh -c standalone.xml
           ├─1202 bash -c ulimit -S -c 0 >/dev/null 2>&1 ; LAUNCH_JBOSS_IN_BACKGROUND=1 JBOSS_PIDFILE=/var/run/wildfly/wildfly12.pid /opt/wildfly-12.0.0.Final/bin/standalone.sh -c standalone.xml
           ├─1203 /bin/sh /opt/wildfly-12.0.0.Final/bin/standalone.sh -c standalone.xml
           └─1254 /opt/jdk1.8.0_144/jre/bin/java -D[Standalone] -server -Xms1024m -Xmx2048m -XX:MetaspaceSize=96M -XX:MaxMetaspaceSize=400m -Djava.net.preferIPv4Stack=true -Djboss.modules.system.pkgs=org.jboss.byteman -Djava.awt.he...

июн 06 13:11:55 preducation-test.osslabs.ru systemd[1]: Starting SYSV: WildFly startup script...
июн 06 13:11:55 preducation-test.osslabs.ru wildfly12[2439]: Starting wildfly: wildfly is already running[СБОЙ ]
июн 06 13:11:55 preducation-test.osslabs.ru systemd[1]: wildfly12.service: control process exited, code=exited status=1
июн 06 13:11:55 preducation-test.osslabs.ru systemd[1]: Failed to start SYSV: WildFly startup script.
июн 06 13:11:55 preducation-test.osslabs.ru systemd[1]: Unit wildfly12.service entered failed state.
июн 06 13:11:55 preducation-test.osslabs.ru systemd[1]: wildfly12.service failed.

Подскажите пожалуйста, что нужно делать. Как такой вопрос решается по уму?

Большое спасибо за ваше время и внимание.

 

ishk0
()

Postfix запритить отправку на один домен

Форум — Admin

Здравствуйте. Подозреваю что с postfix`сом замучали тупить уже, и у меня, к сожалению то же базовый вопрос, на котором споткнулся.

Нужно запретить отправку на один домен. Для примера исп. yandex.ru и\или полностью .ru

smtpd_recipient_restrictions =.
    check_recipient_access hash:/etc/postfix/conf/sender_access.
    reject

cat /etc/postfix/conf/sender_access
mymail@yandex.ru reject
@yandex.ru reject
yandex.ru reject
.ru reject

Apr 22 15:18:31 mail postfix/pickup[9482]: 661916454: uid=500 from=<analit>
Apr 22 15:18:31 mail postfix/cleanup[9488]: 661916454: message-id=<20180422191831.661916454@myhost.ru>
Apr 22 15:18:31 mail postfix/qmgr[9483]: 661916454: from=<analit@myhost.ru>, size=466, nrcpt=1 (queue active)
Apr 22 15:18:32 mail postfix/smtp[9490]: 661916454: to=<mymail@yandex.ru>, relay=smtp.gmail.com[74.125.205.108]:587, delay=1.4, delays=0.02/0.02/0.64/0.72, dsn=2.0.0, status=sent (250 2.0.0 OK 1524424712 g13sm2023444ljk.0 - gsmtp)
Apr 22 15:18:32 mail postfix/qmgr[9483]: 661916454: removed

Письмо приходит. Я попробовал уже кучу вариантов конфигураций. Не пойму как запретить. Подскажите пожалуйста.

пс: postmap /etc/postfix/conf/sender_access - конечно делал.

 

ishk0
()

date proxmox

Форум — Admin

Друзья. Споткнулся об date - Не могу сменить время.

История переносил контейнеры с OpenVZ на Proxmox5.1. vzdump не работает, поэтому переносим топорно - через tar. Создал на Proxmox LXC - распаковал в него.

Список папок которые не включал в перенос:

.bash_history 
lost+found 
./dev/* 
./mnt/* 
./tmp/* 
./proc/* 
./sys/* 
./usr/src/* 
./etc/shadow 
./etc/inittab 
./etc/mtab 
./etc/rc.sysinit 
./etc/fstab 
./etc/sysconfig/network 
./etc/modprobe.d/blacklist 
./etc/resolv.conf 
./etc/sysconfig/network-scripts/*

Запускаю всё работает.

Программы контейнера используют date в коде. И мне порой нужно его править (разработка, тесты). И я не могу его сменить.

Зашел по ssh - Невозможно сменить! Ни через ln -s /usr/share/zoneinfo/Asia/Yekaterinburg /etc/localtime, ни прямым способом:

[root@tpl-demo]# date 04062345 
date: невозможно установить дату: Операция не позволяется 
Птн Апр 6 23:45:00 +04 2018 

Зашел через ноду меняется (и видно что от ноды не зависит):

[root@tpl-demo ~]# date 
Fri Apr 6 22:29:24 +07 2018 
[root@tpl-demo ~]# mv /etc/localtime /etc/localtime.bak 
mv: overwrite `/etc/localtime.bak/localtime'? ye 
[root@tpl-demo ~]# ln -s /usr/share/zoneinfo/Asia/Yekaterinburg /etc/localtime 
[root@tpl-demo ~]# date 
Fri Apr 6 20:29:56 +05 2018 
[root@tpl-demo ~]# exit 
exit 
root@pve13:~# date 
Fri Apr 6 19:37:27 +04 2018 
root@pve13:~# lxc-attach -n 907 
[root@tpl-demo ~]# date 
Fri Apr 6 20:37:34 +05 2018 
[root@tpl-demo ~]#

Тут же проверяю через shh - а там всё по старому:

ssh root@192.168.98.* 
root@192.168.98.*'s password: 
Last login: Fri Apr 6 20:00:35 2018 from 192.168.98.203 
[root@tpl-demo ~]# date 
Птн Апр 6 18:37:37 EAT 2018 

Если сощдаь новый контейнер на ноде, то все управляется прекрасно. Проблема явно в переносе. Но как переинсталировать date я не нашел.

Буду рад любым размышлениям. Спасибо.

 ,

ishk0
()

ZFS Proxmox - монтирование дисков.

Форум — Admin

Приствую.

Задача получить доступ к дискам VM. (лишние строки буду убирать чтоб не засорять)

Вот проблема

zfs set mountpoint=/mnt rpool/data/vm-803-disk-1
cannot set property for 'rpool/data/vm-803-disk-1': 'mountpoint' does not apply to datasets of this type
Конечно же инфо:
root@pve13:~# zfs list 
NAME                           USED  AVAIL  REFER  MOUNTPOINT
rpool                          205G   694G   104K  /rpool
rpool/ROOT                     145G   694G    96K  /rpool/ROOT
rpool/ROOT/pve-1               145G   694G   145G  /
rpool/data                    51.1G   694G   112K  /rpool/data
rpool/data/subvol-901-disk-1   737M  9.28G   737M  /rpool/data/subvol-901-disk-1
rpool/data/vm-803-disk-1       582M   694G   582M  -

root@pve13:~# zfs get mounted
NAME                          PROPERTY  VALUE    SOURCE
rpool                         mounted   yes      -
rpool/ROOT                    mounted   yes      -
rpool/ROOT/pve-1              mounted   yes      -
rpool/data                    mounted   yes      -
rpool/data/subvol-901-disk-1  mounted   yes      -
rpool/data/vm-803-disk-1      mounted   -        -
root@pve13:~# zfs get mountpoint
NAME                          PROPERTY    VALUE                          SOURCE
rpool                         mountpoint  /rpool                         default
rpool/ROOT                    mountpoint  /rpool/ROOT                    default
rpool/ROOT/pve-1              mountpoint  /                              local
rpool/data                    mountpoint  /rpool/data                    default
rpool/data/subvol-901-disk-1  mountpoint  /rpool/data/subvol-901-disk-1  default
rpool/data/subvol-902-disk-1  mountpoint  /rpool/data/subvol-902-disk-1  default
rpool/data/subvol-903-disk-1  mountpoint  /rpool/data/subvol-903-disk-1  default
rpool/data/vm-603-disk-1      mountpoint  -                              -
rpool/data/vm-803-disk-1      mountpoint  -                              -
rpool/swap                    mountpoint  -                              -
root@pve13:~# zfs get all rpool/data/vm-803-disk-1
NAME                      PROPERTY              VALUE                  SOURCE
rpool/data/vm-803-disk-1  type                  volume                 -
rpool/data/vm-803-disk-1  creation              Tue Apr  3 15:54 2018  -
rpool/data/vm-803-disk-1  used                  582M                   -
rpool/data/vm-803-disk-1  available             694G                   -
rpool/data/vm-803-disk-1  referenced            582M                   -
rpool/data/vm-803-disk-1  compressratio         1.34x                  -
rpool/data/vm-803-disk-1  reservation           none                   default
rpool/data/vm-803-disk-1  volsize               197G                   local
rpool/data/vm-803-disk-1  volblocksize          8K                     default
rpool/data/vm-803-disk-1  checksum              on                     default
rpool/data/vm-803-disk-1  compression           on                     inherited from rpool
rpool/data/vm-803-disk-1  readonly              off                    default
rpool/data/vm-803-disk-1  createtxg             367363                 -
rpool/data/vm-803-disk-1  copies                1                      default
rpool/data/vm-803-disk-1  refreservation        none                   default
rpool/data/vm-803-disk-1  guid                  6354045710005334828    -
rpool/data/vm-803-disk-1  primarycache          all                    default
rpool/data/vm-803-disk-1  secondarycache        all                    default
rpool/data/vm-803-disk-1  usedbysnapshots       0B                     -
rpool/data/vm-803-disk-1  usedbydataset         582M                   -
rpool/data/vm-803-disk-1  usedbychildren        0B                     -
rpool/data/vm-803-disk-1  usedbyrefreservation  0B                     -
rpool/data/vm-803-disk-1  logbias               latency                default
rpool/data/vm-803-disk-1  dedup                 off                    default
rpool/data/vm-803-disk-1  mlslabel              none                   default
rpool/data/vm-803-disk-1  sync                  standard               inherited from rpool
rpool/data/vm-803-disk-1  refcompressratio      1.34x                  -
rpool/data/vm-803-disk-1  written               582M                   -
rpool/data/vm-803-disk-1  logicalused           775M                   -
rpool/data/vm-803-disk-1  logicalreferenced     775M                   -
rpool/data/vm-803-disk-1  volmode               default                default
rpool/data/vm-803-disk-1  snapshot_limit        none                   default
rpool/data/vm-803-disk-1  snapshot_count        none                   default
rpool/data/vm-803-disk-1  snapdev               hidden                 default
rpool/data/vm-803-disk-1  context               none                   default
rpool/data/vm-803-disk-1  fscontext             none                   default
rpool/data/vm-803-disk-1  defcontext            none                   default
rpool/data/vm-803-disk-1  rootcontext           none                   default
rpool/data/vm-803-disk-1  redundant_metadata    all                    default

Совершенно встрял вроде с не сложной задачей. Спасите помогите ) В ножки кляняюсь. Спасибо за любое участие.

 ,

ishk0
()

Proxmox кластер. Хранилище local-lvm при добавлении к кластеру исчезло.

Форум — Admin

Добрый день. Думаю меня нужно направить куда то почитать. Спасибо за уделённое время!

Цель создать Кластер proxmox. Тренируюсь на двух нодах (pve02 pve13). В планах 7 боевых нод загнать в кластер.

-pve02 при установке исп. zfs RAID1 (1Tb+1Tb)

-pve13 при установке исп. LVM (так как диск 1)

Вопросы:

1. Хранилище local-lvm на pve13, после присоединения pve13 к кластеру на pve02 исчезло. Появилось local-zfs - нерабочее конечно.

Хранилище local на pve13 то доступно, то нет.

cat /etc/pve/storage.cfg
dir: local
<------>path /var/lib/vz
<------>content iso,vztmpl,backup

zfspool: local-zfs
<------>pool rpool/data
<------>sparse
<------>content images,rootdir 

Как нужно поправить конфиг что бы видеть свои ранее созданные хранилища на кождой ноде? (Единого хранилища для всех НОД (NAS СХД) нет и не будет к сожалению, каждая нода будет хранить свои машины на своих винтах)

2. На нодах которые запланировал присоединить к кластеру уже есть контейнеры и ВМы. Есть возможность присоединить вместе с ними? (усложняется всё совпадающими CTID)

3. Для чего служит HA - сердечко. По какому принципу эта система работает?

4. Что еще нужно учесть при создании кластера?

Спасибо Вам за любое участие.

Еще вопрос: на pve02 создал RAID1 - zfs. Тестирую - выключаю 1 HDD. Перезапускаю - работает. Сообщений об отсутствии 1-ого HDD в RAID1 не вижу.

Скажите пожалуйста:

5. Как мониторить состояние RAID1 ?

6.Как добавить новый HDD в RAID1 в замен успорченного?

 ,

ishk0
()

RSS подписка на новые темы