LINUX.ORG.RU

Сообщения Garcia

 

nginx cors

добавил в конфиг

if ($request_method = 'OPTIONS') {
        add_header 'Access-Control-Allow-Origin' '*';
        add_header 'Access-Control-Allow-Methods' 'GET, POST, OPTIONS, PATCH, DELETE';
        add_header 'Access-Control-Allow-Headers' 'DNT,User-Agent,X-Requested-With,If-Modified-Since,Cache-Control,Content-Type,Range,X-Platform,X-Type,X-User-Id,X-User-Token';
        add_header 'Access-Control-Max-Age' 1728000;
        add_header 'Content-Type' 'text/plain; charset=utf-8';
        add_header 'Content-Length' 0;
        return 204;
}
if ($request_method = 'DELETE') {
        add_header 'Access-Control-Allow-Origin' '*';
        add_header 'Access-Control-Allow-Methods' 'GET, POST, OPTIONS, PATCH, DELETE';
        add_header 'Access-Control-Allow-Headers' 'DNT,User-Agent,X-Requested-With,If-Modified-Since,Cache-Control,Content-Type,Range,X-Platform,X-Type,X-User-Id,X-User-Token';
        add_header 'Access-Control-Expose-Headers' 'Content-Length,Content-Range';
}

и при запросе DELETE, он проверяет запрос через OPTIONS

заголовки запроса

Host: ie.test.com
User-Agent: Mozilla/5.0 (Macintosh; Intel Mac OS X 10.15; rv:70.0) Gecko/20100101 Firefox/70.0
Accept: */*
Accept-Language: ru-RU,ru;q=0.8,en-US;q=0.5,en;q=0.3
Accept-Encoding: gzip, deflate, br
Access-Control-Request-Method: DELETE
Access-Control-Request-Headers: x-platform,x-type,x-user-id,x-user-token
Referer: https://test.com/profile/pay
Origin: https://test.com
Proxy-Authorization: Basic c2ltYToxODAy
Connection: keep-alive

заголовки ответа

HTTP/1.1 204 No Content
Server: nginx
Date: Fri, 06 Dec 2019 10:10:40 GMT
Connection: keep-alive
Access-Control-Allow-Origin: *
Access-Control-Allow-Methods: GET, POST, OPTIONS, PATCH, DELETE, PUT
Access-Control-Allow-Headers: DNT,User-Agent,X-Requested-With,If-Modified-Since,Cache-Control,Content-Type,Range,X-Platform,X-Type,X-User-Id,X-User-Token
Access-Control-Max-Age: 1728000
Content-Type: text/plain; charset=utf-8
Content-Length: 0

а для DELETE

заголовки запроса

Host: ie.test.com
User-Agent: Mozilla/5.0 (Macintosh; Intel Mac OS X 10.15; rv:70.0) Gecko/20100101 Firefox/70.0
Accept: application/json, text/plain, */*
Accept-Language: ru-RU,ru;q=0.8,en-US;q=0.5,en;q=0.3
Accept-Encoding: gzip, deflate, br
X-Platform: web
X-Type: desktop
X-User-Id: 36764
X-User-Token: tSdtsFUCx6ivyrk_iGuS
Origin: https://test.com
Proxy-Authorization: Basic c2ltYToxODAy
Connection: keep-alive
Referer: https://test.com/profile/pay
Pragma: no-cache
Cache-Control: no-cache

заголовки ответа

HTTP/1.1 400 Bad Request
Server: nginx
Date: Fri, 06 Dec 2019 12:21:10 GMT
Content-Type: application/json; charset=utf-8
Transfer-Encoding: chunked
Connection: keep-alive
X-Frame-Options: SAMEORIGIN
X-XSS-Protection: 1; mode=block
X-Content-Type-Options: nosniff
Cache-Control: no-cache
Set-Cookie: request_method=DELETE; path=/
X-Request-Id: 40edd65f-cee8-4431-9e28-477969bca5c4
X-Runtime: 0.010758

хотя если проверяю на другом url

для OPTIONS

заголовки запроса

Host: ie.test.com
User-Agent: Mozilla/5.0 (Macintosh; Intel Mac OS X 10.15; rv:70.0) Gecko/20100101 Firefox/70.0
Accept: */*
Accept-Language: ru-RU,ru;q=0.8,en-US;q=0.5,en;q=0.3
Accept-Encoding: gzip, deflate, br
Access-Control-Request-Method: DELETE
Access-Control-Request-Headers: x-platform,x-type,x-user-id,x-user-token
Referer: https://test.com/profile/places/
Origin: https://test.com
Proxy-Authorization: Basic c2ltYToxODAy
Connection: keep-alive
Pragma: no-cache
Cache-Control: no-cache

заголовки ответа

HTTP/1.1 204 No Content
Server: nginx
Date: Fri, 06 Dec 2019 12:43:34 GMT
Connection: keep-alive
Access-Control-Allow-Origin: *
Access-Control-Allow-Methods: GET, POST, OPTIONS, PATCH, DELETE
Access-Control-Allow-Headers: DNT,User-Agent,X-Requested-With,If-Modified-Since,Cache-Control,Content-Type,Range,X-Platform,X-Type,X-User-Id,X-User-Token
Access-Control-Max-Age: 1728000
Content-Type: text/plain; charset=utf-8
Content-Length: 0

для DELETE

заголовки запроса

Host: ie.test.com
User-Agent: Mozilla/5.0 (Macintosh; Intel Mac OS X 10.15; rv:70.0) Gecko/20100101 Firefox/70.0
Accept: application/json, text/plain, */*
Accept-Language: ru-RU,ru;q=0.8,en-US;q=0.5,en;q=0.3
Accept-Encoding: gzip, deflate, br
X-Platform: web
X-Type: desktop
X-User-Id: 36764
X-User-Token: tSdtsFUCx6ivyrk_iGuS
Origin: https://test.com
Proxy-Authorization: Basic c2ltYToxODAy
Connection: keep-alive
Referer: https://test.com/profile/places/
Pragma: no-cache
Cache-Control: no-cache

заголовки ответа

HTTP/1.1 200 OK
Server: nginx
Date: Fri, 06 Dec 2019 12:43:34 GMT
Content-Type: application/json; charset=utf-8
Transfer-Encoding: chunked
Connection: keep-alive
X-Frame-Options: SAMEORIGIN
X-XSS-Protection: 1; mode=block
X-Content-Type-Options: nosniff
ETag: W/"6731f2d8a8e7286397d1c340c0fbfd40"
Cache-Control: max-age=0, private, must-revalidate
Set-Cookie: request_method=DELETE; path=/
X-Request-Id: 62fb2377-bf38-41da-9e8b-980d44d60e16
X-Runtime: 0.046917
Access-Control-Allow-Origin: *
Access-Control-Allow-Methods: GET, POST, OPTIONS, PATCH, DELETE
Access-Control-Allow-Headers: DNT,User-Agent,X-Requested-With,If-Modified-Since,Cache-Control,Content-Type,Range,X-Platform,X-Type,X-User-Id,X-User-Token
Access-Control-Expose-Headers: Content-Length,Content-Range

что не так настроено?

 , ,

Garcia
()

postgres_exporter pg_stat_statements для prometheus

настраивал по этой доке

файл metrics.yaml

pg_database:
  query: " SELECT pg_database.datname, pg_database_size(pg_database.datname) as size FROM pg_database"
  metrics:
    - datname:
        usage: "LABEL"
        description: "Name of the database"
    - size:
        usage: "GAUGE"
        description: "Disk space used by the database"

pg_stat_statements:
  query: "SELECT queryid, datname, left(query, 100) as short_query, sum(calls) as calls, sum(total_time) as total_time, min(min_time) as min_time, max(max_time) as max_time, sum(mean_time*calls)/sum(calls) as mean_time FROM pg_stat_statements JOIN pg_database ON pg_stat_statements.dbid = pg_database.oid group by queryid, short_query, datname"
  metrics:
    - queryid:
        usage: "LABEL"
        description: "Query ID"
    - datname:
        usage: "LABEL"
        description: "Database name"
    - short_query:
        usage: "LABEL"
        description: "Query limited to 100 symbols"
    - calls:
        usage: "COUNTER"
        description: "Number of times executed"
    - total_time:
        usage: "COUNTER"
        description: "Total time spent in the statement, in milliseconds"
    - min_time:
        usage: "GAUGE"
        description: "Minimum time spent in the statement, in milliseconds"
    - max_time:
        usage: "GAUGE"
        description: "Maximum time spent in the statement, in milliseconds"
    - mean_time:
        usage: "GAUGE"
       description: "Mean time spent in the statement, in milliseconds"

запустил экспортер

DATA_SOURCE_NAME="postgresql://user_db:password_db@127.0.0.1:5432/db?sslmode=disable" ./postgres_exporter --extend.query-path="./metrics.yaml"

по логам все ок

INFO[0000] Established new database connection to "127.0.0.1:5432".  source="postgres_exporter.go:814"
INFO[0000] Semantic Version Changed on "127.0.0.1:5432": 0.0.0 -> 9.6.15  source="postgres_exporter.go:1335"
INFO[0000] Starting Server: :9187                        source="postgres_exporter.go:1576"

но если проверить метрики, то ничего нет

curl -s 127.0.0.1:9187/metrics | grep pg_stat_statements_mean_time | wc -l
0

и вообще по pg_stat_statements

curl -s 127.0.0.1:9187/metrics | grep pg_stat_statements
# HELP pg_settings_pg_stat_statements_max Sets the maximum number of statements tracked by pg_stat_statements.
# TYPE pg_settings_pg_stat_statements_max gauge
pg_settings_pg_stat_statements_max{server="127.0.0.1:5432"} 5000
# HELP pg_settings_pg_stat_statements_save Save pg_stat_statements statistics across server shutdowns.
# TYPE pg_settings_pg_stat_statements_save gauge
pg_settings_pg_stat_statements_save{server="127.0.0.1:5432"} 1
# HELP pg_settings_pg_stat_statements_track_utility Selects whether utility commands are tracked by pg_stat_statements.
# TYPE pg_settings_pg_stat_statements_track_utility gauge
pg_settings_pg_stat_statements_track_utility{server="127.0.0.1:5432"} 1
что-то вообще ничего нет

ЧЯДНТ?

 ,

Garcia
()

elasticsearch cluster в docker

делаю конфиг docker-compose.yml

version: '2'
services:
  elasticsearch:
    image: docker.elastic.co/elasticsearch/elasticsearch:5.0.2
    restart: always
    container_name: elasticsearch
    environment:
      - bootstrap.memory_lock=true
      - "ES_JAVA_OPTS=-Xms2g -Xmx2g"
      - xpack.security.enabled=false
      - "discovery.zen.ping.unicast.hosts=ip1:9500,ip2:9500,ip3:9500"
      - "discovery.zen.minimum_master_nodes=2"
      - "path.repo=/backup/snapshot"
      - "cluster.name=docker"
      - "node.name=n1"
      - "network.host=0.0.0.0"
    ulimits:
      memlock:
        soft: -1
        hard: -1
    ports:
      - "9400:9200"
      - "9500:9300"
    volumes:
      - esdata:/usr/share/elasticsearch/data
      - /backup/snapshot:/backup/snapshot

volumes:
  esdata:
    driver: local

пробую запускать docker-compose up -d и получаю ошибки

[2019-09-20T09:46:54,529][INFO ][o.e.x.m.e.Exporters      ] [n1] skipping exporter [default_local] as it isn't ready yet
[2019-09-20T09:46:54,529][ERROR][o.e.x.m.AgentService     ] [n1] exception when exporting documents
org.elasticsearch.xpack.monitoring.exporter.ExportException: exporters are either not ready or faulty
        at org.elasticsearch.xpack.monitoring.exporter.Exporters.export(Exporters.java:188) ~[x-pack-5.0.2.jar:5.0.2]
        at org.elasticsearch.xpack.monitoring.AgentService$ExportingWorker.run(AgentService.java:208) [x-pack-5.0.2.jar:5.0.2]
        at java.lang.Thread.run(Thread.java:745) [?:1.8.0_92-internal]

 , ,

Garcia
()

nginx перенаправление без смены url

есть сайт example.com мультиязычный (en, ru, de, fr), хочу сделать, что бы по домену example.de открывался сайт example.com/de и все его ссылки example.com/de/url - example.de/url, добавляю в Nginx

location = / {
  proxy_pass  http://example.com/de;
  proxy_set_header Host example.de;
}

location / {
  proxy_pass  http://example.com/de$uri;
  proxy_set_header Host example.de;
}

так главная открывается как надо, а вот страницы открываются в адресной строке - http://example.de/de/pricing и получаю 404, если убрать лишнюю de и открыть http://example.de/pricing то все ок, подскажите как мне убрать лишнюю de из $uri ?

 

Garcia
()

заблокировать udp порт

делаю

-A INPUT -i eth0 -p udp -m udp --dport 67 -j DROP

проверяю

0     0 DROP       udp  --  br0    *       0.0.0.0/0            0.0.0.0/0            udp dpt:67

и проверяю через nmap и вижу, что порт все еще открыт

67/udp   open|filtered dhcps

что не так?

 ,

Garcia
()

aerospike php error

есть 2 сервера, на одном все работает, на другом в логах ошибки

2019/08/07 12:59:43 [error] 1247#1247: *818680 FastCGI sent in stderr: "PHP message: PHP Fatal error:  Uncaught Exception: Failed to connect in /var/www/asp.php:61
Stack trace:
#0 /var/www/asp.php(61): Aerospike->__construct(Array)
#1 {main}
  thrown in /var/www/asp.php on line 61" while reading response header from upstream, client: 1.2.3.4, server: *.example.com, request: "GET /asp/75702373089/.jpg HTTP/1.1", upstream: "fastcgi://unix:/var/run/php5-fpm.sock:", host: "send.example.com", referrer: "https://test.com/firebase.js"

aerospike стоит одинаковой версии

ii  aerospike-server-community       4.2.0.3-1                          amd64        The Aerospike distributed datastore allows fully scalable and reliable data storage with elastic server properties.
ii  aerospike-tools                  3.15.3.8                           amd64        Aerospike server tools.

модуль php был скопирован с работающего сервера, где нет ошибок

cat /etc/php/7.0/fpm/conf.d/aerospike.ini
extension=aerospike.so
aerospike.udf.lua_system_path=/usr/local/aerospike/lua
aerospike.udf.lua_user_path=/usr/local/aerospike/usr-lua
aerospike.shm.use = 1

1.2.3.4 - - [07/Aug/2019:12:59:43 +0300] "GET /asp/75702373089/.jpg HTTP/1.1" 500 5 "https://test.com/firebase.js" "Mozilla/5.0 (Linux; Android 9; RMX1825) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.99 Mobile Safari/537.36"
1.2.3.4 - - [07/Aug/2019:12:59:44 +0300] "GET //images/usr.58db988a0ac8c/hahzlxfavmkstudzdwmqcxtl.jpg HTTP/1.1" 200 78076 "https://test.com/firebase.js" "Mozilla/5.0 (Linux; Android 9; RMX1825) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.99 Mobile Safari/537.36"

после 500, сразу отдается 200 код

php -v
PHP 7.0.33-0+deb9u3 (cli) (built: Mar  8 2019 10:01:24) ( NTS )
Copyright (c) 1997-2017 The PHP Group
Zend Engine v3.0.0, Copyright (c) 1998-2017 Zend Technologies
    with Zend OPcache v7.0.33-0+deb9u3, Copyright (c) 1999-2017, by Zend Technologies

подскажите куда еще посмотреть, какие библиотеки надо сравнить?

 ,

Garcia
()

aerospike monitoring disk memory

через asadm -e info смотрю

Seed:        [('127.0.0.1', 3000, None)]
Config_file: /root/.aerospike/astools.conf, /etc/aerospike/astools.conf
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~Network Information (2019-08-05 15:28:35 UTC)~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
                           Node               Node                   Ip       Build   Cluster   Migrations        Cluster     Cluster         Principal   Client       Uptime
                              .                 Id                    .           .      Size            .            Key   Integrity                 .    Conns            .
aerospike1:3000   *BB9D4512311B36C   1.2.3.4:3000   C-4.3.0.7         2      0.000     930430C64D1D   True        BB9D4512311B36C     2432   3634:13:21
aerospike2:3000   BB9BC512311B36C    5.6.7.8:3000    C-4.3.0.7         2      0.000     930430C64D1D   True        BB9D4512311B36C     2434   2856:13:55
Number of rows: 2

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~Namespace Usage Information (2019-08-05 15:28:35 UTC)~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
Namespace                              Node      Total     Expirations,Evictions     Stop       Disk    Disk     HWM   Avail%          Mem     Mem    HWM      Stop
        .                                 .    Records                         .   Writes       Used   Used%   Disk%        .         Used   Used%   Mem%   Writes%
puh                         aerospike1:3000    1.197 B   (6.214 B, 205.455 M)      false    2.117 TB   53      80      23       151.774 GB   80      96     98
puh                         aerospike2:3000    1.197 B   (405.285 M, 0.000)        false    2.117 TB   37      80      48       151.104 GB   48      90     90
puh                                         2.393 B   (6.619 B, 205.455 M)               4.234 TB                            302.878 GB
pus                         aerospike1:3000   13.365 K   (154.559 M, 103.768 M)    false         N/E   N/E     50      N/E        2.206 MB   1       90     98
pus                                         13.365 K   (154.559 M, 103.768 M)             0.000 B                               2.206 MB
pus2                        aerospike2:3000    0.000     (0.000,  0.000)           false         N/E   N/E     50      N/E        0.000 B    0       60     90
pus2                                         0.000     (0.000,  0.000)                    0.000 B                               0.000 B
Number of rows: 7

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~Namespace Object Information (2019-08-05 15:28:35 UTC)~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
Namespace                              Node      Total     Repl                           Objects                   Tombstones             Pending   Rack
        .                                 .    Records   Factor        (Master,Prole,Non-Replica)   (Master,Prole,Non-Replica)            Migrates     ID
        .                                 .          .        .                                 .                            .             (tx,rx)      .
puh      aerospike1:3000    1.197 B   2        (499.580 M, 697.031 M, 0.000)     (0.000,  0.000,  0.000)      (0.000,  0.000)     0
puh      aerospike2:3000    1.197 B   2        (697.031 M, 499.580 M, 0.000)     (0.000,  0.000,  0.000)      (0.000,  0.000)     0
puh                                         2.393 B            (1.197 B, 1.197 B, 0.000)         (0.000,  0.000,  0.000)      (0.000,  0.000)
pus       aerospike1:3000   13.366 K   1        (13.366 K, 0.000,  0.000)         (0.000,  0.000,  0.000)      (0.000,  0.000)     0
pus                                         13.366 K            (13.366 K, 0.000,  0.000)         (0.000,  0.000,  0.000)      (0.000,  0.000)
pus2      aerospike2:3000    0.000     1        (0.000,  0.000,  0.000)           (0.000,  0.000,  0.000)      (0.000,  0.000)     0
pus2                                         0.000              (0.000,  0.000,  0.000)           (0.000,  0.000,  0.000)      (0.000,  0.000)
Number of rows: 7

как можно мониторить Disk Used% и Mem USed%
если Disk Used% больше HWM DISK% аларм
если Mem USed% больше HWM Mem% аларм

писать regexp или можно как-то командами получить эти значения или через прометей вытянуть эти значения?

 ,

Garcia
()

rabbitmq общее кол-во обработанных сообщений

как можно посмотреть сколько сообщений прошло через rabbitmq?

 , ,

Garcia
()

запуск chrome удаленно

debian 9
chrome 51.0.2704.84-1

пробую подключаться к серверу ssh -X user@server.com, там запускаю google-chrome и получаю ошибку

[27070:27070:0702/152514:ERROR:CONSOLE(1)] "Failed to set referrer policy: The value 'strict-origin' is not one of 'always', 'default', 'never', 'no-referrer', 'no-referrer-when-downgrade', 'origin', 'origin-when-crossorigin', or 'unsafe-url'. This document's referrer policy has been left unchanged.", source: https://www.google.com/_/chrome/newtab?espv=2&ie=UTF-8 (1)

и так висеть может больше часа и окна я у себя локально не вижу, подскажите как увидеть удалённый хром на локальной машине?

 , ,

Garcia
()

zabbix уведомления

можно ли в заббиксе сделать так, что бы если 1 триггер сработал, например

{example.com:error_code.last()}>1
срабатывал второй триггер
{example.com:log[/var/log/test.log,500 ",,,skip].change()}>0
и мне приходили уведомления от лога /var/log/test.log ?

или может быть посоветуйте другое решение

 , ,

Garcia
()

проверка kubernetes pods restart

надо настроить уведомление, если pods был перезагружен, есть какая-то команда как можно посмотреть какой pods был перезагружен?

 ,

Garcia
()

php-fpm core dump

добавил

cat /proc/sys/kernel/core_pattern
/tmp/core.%e.%p.%t

в конфиг php-fpm.conf

rlimit_core = unlimited

ulimit -c unlimite

все перезапустил

в логах

WARNING: [pool www] child 9193 exited on signal 11 (SIGSEGV - core dumped) after 40.309703 seconds from start
NOTICE: [pool www] child 10337 started

но в /tmp/ пусто

попробовал еще добавить в /etc/sysctl.conf

kernel.core_pattern = /tmp/core.%e.%p.%h.%t
fs.suid_dumpable = 1
kernel.core_uses_pid = 1

в /etc/security/limits.conf

*       -       core    unlimited
root    -       core    unlimited

попробовал через тестовый файл сделать core файл, все создается в /tmp, но от php-fpm нет coredump, почему он не создается?

 , ,

Garcia
()

elasticsearch backup

есть такое https://github.com/taskrabbit/elasticsearch-dump

но при restore mapping ошибка

Error Emitted => {"root_cause":[{"type":"mapper_parsing_exception","reason":"analyzer [ru_RU] not found for field [manufacturer]"}],"type":"mapper_parsing_exception","reason":"analyzer [ru_RU] not found for field [manufacturer]"}

да и вообще долго бэкапится через эту утилиту, индекс ~1G

кто как вообще бэкапит elasticsearch?

 ,

Garcia
()

syslog-ng логирование консоли

я попробовал добавить - local7.*
пробую разные команды вводить в консоли, но в логе ничего нет

можно ли логировать действия в консоли через syslog-ng?

 , , ,

Garcia
()

lxc Operation not permitted

есть debian 9

на нем поднят Proxmox и через него созданы lxc контейнеры
lxc - 3.1.0-devel
сейчас на одном контейнере посыпались ошибки

Jun  7 12:32:12 server systemd[1]: systemd-journal-flush.service: Failed to reset devices.list: Operation not permitted
Jun  7 12:32:12 server systemd[1]: Starting Flush Journal to Persistent Storage...
Jun  7 12:32:12 server keyboard-setup.sh[47]: Couldn't get a file descriptor referring to the console
Jun  7 12:32:12 server systemd[1]: Started Nameserver information manager.
Jun  7 12:32:12 server keyboard-setup.sh[47]: Couldn't get a file descriptor referring to the console
Jun  7 12:32:12 server systemd[1]: Started Set the console keyboard layout.
Jun  7 12:32:12 server resolvconf[54]: /etc/resolvconf/update.d/libc: Warning: /etc/resolv.conf is not a symbolic link to /run/resolvconf/resolv.conf
Jun  7 12:32:12 server keyboard-setup.sh[47]: Couldn't get a file descriptor referring to the console
Jun  7 12:32:12 server systemd[1]: Reached target Local File Systems (Pre).
Jun  7 12:32:12 server keyboard-setup.sh[47]: setupcon: We are not on the console, the console is left unconfigured.
Jun  7 12:32:12 server systemd[1]: Reached target Local File Systems.
Jun  7 12:32:12 server systemd[1]: plymouth-read-write.service: Failed to reset devices.list: Operation not permitted
Jun  7 12:32:12 server systemd[1]: Starting Tell Plymouth To Write Out Runtime Data...
Jun  7 12:32:12 server netfilter-persistent[89]: run-parts: executing /usr/share/netfilter-persistent/plugins.d/15-ip4tables start
Jun  7 12:32:12 server systemd[1]: console-setup.service: Failed to reset devices.list: Operation not permitted
Jun  7 12:32:12 server systemd[1]: Starting Set console font and keymap...
Jun  7 12:32:12 server systemd[1]: netfilter-persistent.service: Failed to reset devices.list: Operation not permitted
Jun  7 12:32:12 server systemd[1]: Starting netfilter persistent configuration...
Jun  7 12:32:12 server systemd[1]: Started Dispatch Password Requests to Console Directory Watch.
Jun  7 12:32:12 server systemd[1]: Reached target Local Encrypted Volumes.
Jun  7 12:32:12 server systemd[1]: Started Set console font and keymap.
Jun  7 12:32:12 server systemd[1]: Started Flush Journal to Persistent Storage.
Jun  7 12:32:12 server systemd[1]: Started Tell Plymouth To Write Out Runtime Data.
Jun  7 12:32:12 server systemd[1]: systemd-tmpfiles-setup.service: Failed to reset devices.list: Operation not permitted
Jun  7 12:32:12 server systemd[1]: Starting Create Volatile Files and Directories...
Jun  7 12:32:12 server systemd[1]: Started Create Volatile Files and Directories.
Jun  7 12:32:12 server systemd[1]: Failed to set devices.allow on /system.slice/systemd-resolved.service: Operation not permitted
Jun  7 12:32:12 server systemd[1]: Failed to set devices.allow on /system.slice/systemd-resolved.service: Operation not permitted
Jun  7 12:32:12 server systemd[1]: Failed to attach 97 to compat systemd cgroup /system.slice/systemd-resolved.service: No such file or directory
Jun  7 12:32:12 server systemd[1]: Starting Network Name Resolution...
Jun  7 12:32:12 server systemd[1]: systemd-update-utmp.service: Failed to reset devices.list: Operation not permitted
Jun  7 12:32:12 server systemd[1]: Starting Update UTMP about System Boot/Shutdown...
Jun  7 12:32:12 server systemd[1]: Reached target System Time Synchronized.
Jun  7 12:32:12 server systemd[97]: Failed to attach 97 to compat systemd cgroup /system.slice/systemd-resolved.service: No such file or director

ни один сервис не стартует, как такое вылечить?

 , ,

Garcia
()

iptables docker закрыть порт

есть открытые порты

netstat -nlpt
tcp        0      0 0.0.0.0:6379            0.0.0.0:*               LISTEN      25324/redis-server
tcp6       0      0 :::6479                 :::*                    LISTEN      11829/docker-proxy
tcp6       0      0 :::9400                 :::*                    LISTEN      25423/docker-proxy
tcp6       0      0 :::9500                 :::*                    LISTEN      25409/docker-proxy

через iptables разрешил доступ к портам 6379, 6479, 9400 и 9500 только определенным серверам и заблокировал доступы всем другим

-A INPUT -i lo -j ACCEPT
-A INPUT -m state --state RELATED,ESTABLISHED -j ACCEPT
-A INPUT -s 1.1.1.1/32 -m comment --comment "serv1" -j ACCEPT
-A INPUT -s 2.2.2.2./32 -m comment --comment "serv2" -j ACCEPT
-A INPUT -s 3.3.3.3/32 -m comment --comment "serv3" -j ACCEPT
-A INPUT -s 1.2.3.4/26 -m comment --comment "serv4" -j ACCEPT
-A INPUT -p tcp -m tcp --dport 6379 -j DROP
-A INPUT -p tcp -m tcp --dport 6479 -j DROP
-A INPUT -p tcp -m tcp --dport 9400 -j DROP
-A INPUT -p tcp -m tcp --dport 9500 -j DROP
-A FORWARD -j DOCKER-USER
-A FORWARD -j DOCKER-ISOLATION-STAGE-1
-A FORWARD -o br-0f75263b9b1b -m conntrack --ctstate RELATED,ESTABLISHED -j ACCEPT
-A FORWARD -o br-0f75263b9b1b -j DOCKER
-A FORWARD -i br-0f75263b9b1b ! -o br-0f75263b9b1b -j ACCEPT
-A FORWARD -i br-0f75263b9b1b -o br-0f75263b9b1b -j ACCEPT
-A FORWARD -o br-b66de0109fd4 -m conntrack --ctstate RELATED,ESTABLISHED -j ACCEPT
-A FORWARD -o br-b66de0109fd4 -j DOCKER
-A FORWARD -i br-b66de0109fd4 ! -o br-b66de0109fd4 -j ACCEPT
-A FORWARD -i br-b66de0109fd4 -o br-b66de0109fd4 -j ACCEPT
-A FORWARD -o docker0 -m conntrack --ctstate RELATED,ESTABLISHED -j ACCEPT
-A FORWARD -o docker0 -j DOCKER
-A FORWARD -i docker0 ! -o docker0 -j ACCEPT
-A FORWARD -i docker0 -o docker0 -j ACCEPT
-A DOCKER -d 172.19.0.2/32 ! -i br-b66de0109fd4 -o br-b66de0109fd4 -p tcp -m tcp --dport 9300 -j ACCEPT
-A DOCKER -d 172.19.0.2/32 ! -i br-b66de0109fd4 -o br-b66de0109fd4 -p tcp -m tcp --dport 9200 -j ACCEPT
-A DOCKER -d 172.23.0.2/32 ! -i br-0f75263b9b1b -o br-0f75263b9b1b -p tcp -m tcp --dport 6379 -j ACCEPT
-A DOCKER-ISOLATION-STAGE-1 -i br-0f75263b9b1b ! -o br-0f75263b9b1b -j DOCKER-ISOLATION-STAGE-2
-A DOCKER-ISOLATION-STAGE-1 -i br-b66de0109fd4 ! -o br-b66de0109fd4 -j DOCKER-ISOLATION-STAGE-2
-A DOCKER-ISOLATION-STAGE-1 -i docker0 ! -o docker0 -j DOCKER-ISOLATION-STAGE-2
-A DOCKER-ISOLATION-STAGE-1 -j RETURN
-A DOCKER-ISOLATION-STAGE-2 -o br-0f75263b9b1b -j DROP
-A DOCKER-ISOLATION-STAGE-2 -o br-b66de0109fd4 -j DROP
-A DOCKER-ISOLATION-STAGE-2 -o docker0 -j DROP
-A DOCKER-ISOLATION-STAGE-2 -j RETURN
-A DOCKER-USER -j RETURN

таблица nat

-A PREROUTING -m addrtype --dst-type LOCAL -j DOCKER
-A OUTPUT ! -d 127.0.0.0/8 -m addrtype --dst-type LOCAL -j DOCKER
-A POSTROUTING -s 172.23.0.0/16 ! -o br-0f75263b9b1b -j MASQUERADE
-A POSTROUTING -s 172.19.0.0/16 ! -o br-b66de0109fd4 -j MASQUERADE
-A POSTROUTING -s 172.17.0.0/16 ! -o docker0 -j MASQUERADE
-A POSTROUTING -s 172.19.0.2/32 -d 172.19.0.2/32 -p tcp -m tcp --dport 9300 -j MASQUERADE
-A POSTROUTING -s 172.19.0.2/32 -d 172.19.0.2/32 -p tcp -m tcp --dport 9200 -j MASQUERADE
-A POSTROUTING -s 172.23.0.2/32 -d 172.23.0.2/32 -p tcp -m tcp --dport 6379 -j MASQUERADE
-A DOCKER -i br-0f75263b9b1b -j RETURN
-A DOCKER -i br-b66de0109fd4 -j RETURN
-A DOCKER -i docker0 -j RETURN
-A DOCKER ! -i br-b66de0109fd4 -p tcp -m tcp --dport 9500 -j DNAT --to-destination 172.19.0.2:9300
-A DOCKER ! -i br-b66de0109fd4 -p tcp -m tcp --dport 9400 -j DNAT --to-destination 172.19.0.2:9200
-A DOCKER ! -i br-0f75263b9b1b -p tcp -m tcp --dport 6479 -j DNAT --to-destination 172.23.0.2:6379

но что-то не срабатывают правила для 6479, 9400 и 9500, срабатывает только для 6379
не доходит до цепочки filter?

 , , ,

Garcia
()

inotify большой файл

настроил крон incrontab

/home/test/files IN_MODIFY /home/test/bin/test.sh

сам скрипт test.sh

#!/bin/bash

if pidof -o %PPID -x "test.sh"; then # что бы не плодить процессы
            exit 1
fi


rclone copy /home/test/files selectel:files

но если я закачиваю большой файл, например

wget http://mirror.fsmg.org.nz/centos/7.6.1810/isos/x86_64/CentOS-7-x86_64-DVD-1810.iso

то в облаке я получаю пустой/битый файл
как можно обойти такое, что бы файл закачивался в облако только после того как полностью закачался локально?

 , ,

Garcia
()

elasticsearch cluster

есть 1 сервер, на нем уже стоит эластик и есть данные, купили еще 2 сервера и надо настроить кластер между 3 серверами, как это лучше сделать, что бы не убить данные на 1 сервере?

 ,

Garcia
()

bitrix производительность

есть centos 7
Процессор
Intel Xeon E3-1230 3.2 ГГц
Память
16 ГБ DDR3
Диск
4 × 1000 ГБ SATA
nginx+apache+mpm_prefork (был бы php-fpm, если бы на нем получилось завести push and pull)

при проверке производительности получаю

из-за Среднее время отклика, падает значение Процессор (CPU)

конфиг mysql

[mysqld]
datadir=/var/lib/mysql
socket=/var/lib/mysql/mysql.sock
tmpdir=/var/lib/mysql/tmp
security risks
symbolic-links=0

innodb_buffer_pool_size = 6GB
innodb_log_buffer_size = 64M
innodb_flush_log_at_trx_commit = 2
innodb_flush_method = O_DIRECT
innodb_file_per_table
innodb_log_file_size = 512M
innodb_buffer_pool_instances = 8

thread_cache_size = 200
table_open_cache = 8192

tmp_table_size=512M
max_heap_table_size=128M
skip-name-resolve=1

slow_query_log_file = /var/log/mysql/slow-query.log
slow_query_log = On
long_query_time = 1

[mysqld_safe]
log-error=/var/log/mariadb/mariadb.log
pid-file=/var/run/mariadb/mariadb.pid

#
# include all files from the config directory
#
!includedir /etc/my.cnf.d

как мне повысить Среднее время отклика ?

 , ,

Garcia
()

lxc systemd не перезапускаются процессы

есть железный сервер centos 7, настроены 3 контейнера lxc centos 7, после нескольких месяцев, при перезапуске любого процесса, например

systemctl restart cron
Failed to restart cron.service: Connection timed out
See system logs and 'systemctl status cron.service' for details.
в логе
May 17 13:42:26 h1 crond[31325]: pam_systemd(crond:session): Failed to create session: Connection timed out
May 17 13:42:26 h1 crond[31324]: pam_systemd(crond:session): Failed to create session: Connection timed out
May 17 13:42:26 h1 crond[31323]: pam_systemd(crond:session): Failed to create session: Connection timed out
и
May 17 13:42:26 h1 systemd-logind: Failed to start session scope session-c964476.scope: Connection timed out

что ему не хватает, какую сессию он не может стартовать?

 , , ,

Garcia
()

RSS подписка на новые темы