Никак не могу заставить работать корректно resolver!
Есть такой конфиг:
upstream a {
server first.example.com;
}
server {
resolver 8.8.8.8 valid=30s ipv6=off;
set $backend http://a; # пробовал описывать это и в location
location / {
proxy_pass $backend;
}
}
Например, я принудительно меняю ip адрес у first.example.com
Но почему то nginx до сих пор пытается открыть сайт со старого ip. И по истечении 10 минут, и по истечении часа и даже сутки ждал.
TTL у домена 300 секунд.
nginx -s reload
такая команда сразу сбрасывает весь dns кеш.
Как заставить делать nginx это автоматом? Что я делаю не так?
Не могу до конца понять как работает upstream в nginx. Прошу помощи!
На данный момент имеет такой тестовый конфиг:
upstream a {
server 1.1.1.1;
server 2.2.2.2 backup;
}
server {
location / {
#...
proxy_pass http://a;
#...
}
}
Все работает отлично пока сервер 1.1.1.1 доступен по сети.
Если он «падает» (проблема с сетью) то приходится ждать очень и очень долго для того чтобы сайт открылся с сервера 2.2.2.2
Причем след. запрос работает ровно так же - очень долго ожидание.
Как сделать так, чтобы nginx сразу(или за максимально короткий срок) пытался открыть сайт с сервера 2.2.2.2 если сервер 1.1.1.1 перестал быть доступным?
И вижу, что нифига не работает! Если прописать в файл allow_referer.txt точные совпадения - то все работает как и ожидалось. А если просто домен - выдает 403! Как быть? Неужели про регулярки забыли в параметре MapName ?
На одном сервере nginx, используется в качестве http proxy.
На другом сервере apache(в роли бекенда).
Как грамотно протестировать есть ли какие-либо проблемы по каналу между этими серверами? Иногда бывает, что сайты открываются по долгу, хотя на apache никакой существенной нагрузки нет, да и сервер где nginx тоже не фиксирует оверлода какого-либо.
Гугл пейджспид показывает, что некоторые страницы по 5 секунд задержка открытия. Причем спустя час-два-три этой проблемы может не быть и все «летает»(кеш разумеется предварительно на nginx удаляю).
Ошибка:
Время от времени браузер не может установить безопасное соединение с сайтом и оно прерывается(хотя зеленый замочек горит). Сертификат валиден(проверено кучей сервисов) и не проэкспайрен. В логах ошибок нет!
Перезапуск апача помагает и все опять работает без сбоев 5-7 дней!!!
С чем связано такое поведение и как его исправить?
Причем с части ip-адресов если заходить на сайт - все в порядке, а с части пишет, что обрыв!
Сервер точно доступен, пинги и прочее - все без сбоев.
P.S. Знаем про nginx, но в данном случае нужен именно apache!
Есть ли в природе какой-либо софт(пока только puppet нагуглился) для того чтобы обновлять/удалять/устанавливать пакеты и обновлять ОС на удаленных машинах?
Например, есть какой то главный сервер, с какой-нибудь админкой. Я ввожу логин/пароль от удаленного сервера(в админку), он как то «цепляется» к удаленному серверу и ставит нужный софт(должна быть возможность указать, что именно ставить) и добавляет ssh ключ. И впоследствии я могу на этом сервере что то обновлять(например nginx) либо удалять(например apache за ненадобностью) из единой админки, в которой добавлены все сервера.
Ребят, просветите, а то совсем «темень» с этом вопросе!
Спасибо.
loaded the Generic plugin can't make «generic.orientation» because no QAccelerometer sensors exist
/usr/bin/xvfb-run: line 181: 13887 Ошибка сегментирования DISPLAY=:$SERVERNUM XAUTHORITY=$AUTHFILE «$@» 2>&1
/usr/bin/xvfb-run: line 186: kill: (13884) - Нет такого процесса
На борту:
CentOS release 6.7 (Final)
Kernel \r on an \m
Ребят, в администрировании и тем более линухах не силен! Куда копать и что ему не хватает?
Нажимаю на кнопку - все выключается! НО если обратно комментировать эти строчки - происходит точно такое же действие. Такое ощущение, что они ни на что не влияют!
Как проверить, что комп выключается корректно по кнопке? Именно, правильно завершаются все процессы. Может там просто чего принудительно прерывается. Боюсь потерять данные!
p.s. Файловая система закриптована, при загрузке ввожу пароль.
При обращении к php-файлам в логах возникает следующая ошибка:
2016/01/13 10:25:42 [error] 3372#0: *53 testing "/etc/nginx/html" existence failed (2: No such file or directory) while logging request, client: 192.168.1.49, server: *.site.loc, request: "GET /index.php?=PHPE9568F35-D428-11d2-A769-00AA001ACF42 HTTP/1.1", upstream: "fastcgi://127.0.0.1:9000", host: "test.site.loc", referrer: "http://test.site.loc/"
Нагуглил вроде бы ответ но что то не понимаю что нужно и где править? Как уже стало понятно - я новичек и только вчера «открыл» nginx для себя! Строго не пинайте. Натолкните на путь истинный.
Есть домен site.com
Добавили папку на сервере(DOCUMENT_ROOT/subdomain), положили в нее файл index.html
Нужно чтобы этот файл был доступен как subdomain.site.com/index.html
Папки будут создаваться/удаляться динамически, точно знаю что у апача есть такая возможность настройки(при создании папки, имя папки становится именем сабдомена и сразу доступен для внешнего мира).
Подскажите какая настройка отвечает за это?
p.s. Прописывать каждый саб домен в httpd.conf ессно не вариант!
Вопщем суть в чем. Есть сайт А, он находится на сервере SERVER (далее master). В один прекрасный момент сервер упал(проблемы с сетью в дата-центре, взрыв под землей, луна не совпала с солнцем и т.д.).
Сайт А соответственно не открывается. Понимаю, что наиболее простым решением является смена DNS(ну это я так думаю).
Т.е. размещаю сайт А на SERVER2(далее slave, точную копию что и на master).
Как мне заставить работать сайт А со slave когда master недоступен?
Натолкнулся на сервис Amazon 53, судя по описанию он решит мою проблему.
Подскажите, насколько эффективен данный подход и сервис? Можете наспамить аналогов с более простой настройкой?
p.s. сайт А статичен! Никаких синхронизаций делать не нужно. На сервере установлен DirectAdmin, но для него никаких «примочек» не смог найти по решению данной проблемы. Если что то есть - пожалуйста ткните, что где почитать!
Собственно хотим как то обезопасить и защитить все машины от ботов.
По факту получается, что на сайтах есть куча ботов, которые парсят контент и прочее. В итоге получается колоссальная «пустая» нагрузка и порой бендвич стремится к своему лимиту.
Поделитесь опытом, кто как, и самое главное какие ставит защиты? Хотелось бы на уровне iptables решить этот вопрос.
На данный момент часть ip заблокирована, добавлена защита на проверку User-Agent. Нагрузка снизилась, но не очень намного.