Апач выдает: «symbolic link is not allowed or link target not accessible»
Гуглю уже почти 6 часов. Уже все по нескольку раз перепроверил даже побуквенно все конфиги. Символьная ссылка рабочая. Юзером апача читается и выполняются все что есть по симлинку. Никаких селинуксов и аппарморов нету.
Если вместо симлинка подсунуть оригинал - все работает. WTF?!
Что ему еще надо чтобы прочитать этот чертов симлинк? Помогите плз! Я бы и плюнул на это дело, но не могу. Надо доковыряться до истины.
Есть уже давно настроенный и работающий OpenVPN сервер для удаленного доступа remote юзеров. 10.8.0.0/24 - это сетка для юзеров. Из этого диапазона начиная с .3 выдаются адреса. Вот маршруты на сервере:
tun0: flags=8051<UP,POINTOPOINT,RUNNING,MULTICAST> metric 0 mtu 1500
options=80000<LINKSTATE>
inet 10.8.0.1 --> 10.8.0.2 netmask 0xffffff00
nd6 options=21<PERFORMNUD,AUTO_LINKLOCAL>
Opened by PID 1291
Вопрос такой: почему tun0 это POINTOPOINT и зачем нужен адрес 10.8.0.2? Это как то связано с тем что написано в man tun? Типа 10.8.0.1 - это локалхост, а 10.8.0.2 - интерфейс подконтрольный OpenVPN?
Копаюсь во внутренностях GNS3 ибо интересно понять как это все работает. Использую gui на винде и в ней же виртуалка с линуксом под vmware. Захотел сдампить трафик изнутри виртуалки, но понял что ни один из инстансов не юзает системные интерфейсы. Наткнулся на ubridge. Особо инфы нигде нет, а исходники я читать не умею.
Например создаю я в gui простой свитч и цепляю к нему vpcs. При этом в vm запускается dynamips, vpcs и ubridge. Я правильно понимаю что dynamips и vpcs слушают и отправляют L2 фреймы на своих udp портах, а ubridge к ним с обоих сторон коннектится и делает между ними мост?
На домашней машинке решил поиграться с автоматизацией деплоя. Какие инструменты используются для KVM+libvirt связки? Раньше все ручками делал. В курсе про такие штуки как pxe,preseed/kickstart, немножко ковырял ansible. Но хотелось бы бест практисов каких нибудь.
Всем привет. Есть winsrv2008r2 крутящийся в Qemu/KVM+libvirt под centos 7.4 С iops'ами проблем вроде нет, virtio дрова имеются. Вижу другую проблему - если например в винде проц кажет 0% загрузки, то на kvm хосте ниже ~1.3% не опускается. Почитал различные performance tweaks, отключил usb tablet(с ним вообще ниже ~7% cpu load не опускалось), balooning.
В общем то ~1% не критично вроде, но по сравнению с linux гостями поведение не совсем обычное. Может можно еще что нибудь подкрутить?
То файл окажется пустым. Если запускать как обычно из юзерской или рутовой консоли - выхлоп есть. Если любую другую команду скормить крону - выхлоп так же будет. Но с mdadm пусто. Никаких ошибок cron на mail не шлет.
Всем привет. В последнее время по вечерам, когда я из дома подключаюсь к конкретному удаленному серваку, начинает ужасно лагать ssh сессия. На другие сервера все норм. Лаги эти совершенно рандомные. Т.е. я могу открыть одну сессию и она будет нормальной, вторая также может быть нормальной, а третья лагает будто я совсем к другому серваку подключился. А может и сразу начать лагать. Причем те сессии, что изначально открылись нормально - работают нормально пока не выйдешь. Также и с лагающими сессиями - лагать будут до конца.
Все это происходит только по вечерам. Пробовал днем и утром - все норм. Сам сервак не особо нагружен, а по вечерам так вообще load average по нулям и сетевая активность тоже минимальна. Единственное что я заметил - это в resource monitor - tcp connections винды, в поле latency лагающие сессии выдают >400, а нормальные как положено ~20. ICMP пинг заблочен, но если пинговать nping'ом то там никакого криминала нет. В Tcpdump и wireshark тоже вроде чисто, хотя мб не туда смотрю.
Понятно что это какая то сетевая проблема, но вот куда копать дальше? Провайдер на стороне сервера шалит?
Решил вкатиться в python и начать с книги A byte of python. Читаю, вникаю, вроде бы все понятно, но потом застрял на главе посвященной ООП. Мой текущий уровень программирования - написание скриптов автоматизации на баше.
Стоит ли мне напрягаться с освоением ООП на данный момент? Пока мне бы хотелось просто освоить питон для решения админских задач. Ну и вообще нужно ли знание ООП админу или девопсу?
Добрый вечер всем. Может и ламерский вопрос, но все же. Хочу перед обновлением на centos 7.4 хорошенько забэкапится, ну и заодно сделать уже бэкап по крону. Вот у меня есть такая разметка сейчас:
/boot и /boot/efi на зеркале. Рут на lvm поверх зеркала.
Насколько консистентым и рабочим получится бэкап, если просто взять и затарить/рсинкать(dd?) /boot и /boot/efi? А для рута сделать lvm снэпшот и чем нибудь тоже забэкапить. Повторюсь, что все это хотелось бы сделать на работающей системе.
Ну и пользуясь случаем заодно спрошу про бэкап работащих kvm виртуалок. Появилось ли что нито новее guest agent для freezefs внутри виртуалки?
rsync error: some files/attrs were not transferred (see previous errors) (code 23) at main.c(1196) [sender=3.1.2]
Хотя все файлы копируются, но на них остаются висеть атрибуты SELinux, которые мне бы нафиг не нужны при копировании обратно. Пробовал setenforce 0 и setsebool rsync_full_access on - ничего не меняется.
Может есть еще способы кроме полного выключения SELinux?
Всем привет. В логах почтовика давно заметил что sa-update уже 3 месяца не обновлял правила, потому что нет обновлений. Да и собственно последняя версия самого SA вышла в 2015 году. Читал списки рассылки - чето как то мутно все. Вроде судя по ruleqa.spamassassin.org чето обновляется, но в официальной репе обновлений так и нет.
Не скажу что совсем не устраивает как на данный момент SA отрабатывает, но все равно неспокойно. Может кто знает че там у разрабов с планам на счет SA? И если все плохо, то посоветуйте чем в 2017 году актуально фильтровать спам?
Добрый день. Есть потребность прокинуть доп хранилище в samba виртуалку. В конечном итоге гость должен видеть lvm thin pool на зеркале из md девайсов. Как лучше все это организовать? Сейчас я пока сделал рейд1 средствами mdadm хостовой системы и уже этот /dev/md прокинут как /dev/vdb в гостя. И также средствами гостя сделан thin pool поверх /dev/vdb. Этот thin pool я задумал для создания в нем отдельных samba шар со своей фс на каждую чтобы завезти квоты.
Или все таки лучше прокинуть в гостя оба харда как есть и уже из гостя организовывать raid и тд? Или вообще нет разницы и оставить все как есть?
Здрасьте! Нужно организовать доступ к SMB шарам так, чтобы к ним было не сильно геморно(по версии юзеров) подключаться извне, но относительно секурно(без торчащей наружу самбы). Так то уже есть OpenVPN, но люди как то косо на меня смотрели когда я им описывал последовательность действий для подключения. Этот вариант я отбрасывать не буду, но хотелось бы узнать у местных спецов как еще можно все это дело организовать?
Нагуглил пока вариант с Nextcloud, вроде норм. В общем как всегда интересует бест практис)
Добрый вечер всем!
Есть желание как нибудь заняться постепенным разгребанием бардака что у меня на одном объекте. Убрать кучу soho мыльниц, поставить нормальные свичи и чтоб все аккуратненько было в кабельных каналах и с розетками. Это для начала. Потом уже буду смотреть в сторону VLANов и прочего.
Собственно хотел бы чтобы мне посоветовали литературу или какие нибудь ресурсы в инете посвященные этой теме. Честно гуглил, но везде слишком общо пишут. Например интересует такой вопрос - на данный момент все устроено так - есть условный управляемый длинк(центральный на весь этаж). От него расходятся кабеля до кабинетов. В этих кабинетах как правило стоят свои soho мыльницы к которым уже подключеный компы(а то и еще соседние кабинеты). В общем выходит так что на одном порту центрального свича может висеть овер9000 маков, и я даже port security не могу включить из за лимита на количество адресов per port.
Вопрос: как должно быть по правильному? Выкинуть все эти длинки в комнатах, поставить один нормальный свич(или несколько) на весь этаж и уже от него тянуть до каждого компа?
Всем привет. Хочу развернуть еще одну вирталку на Debian 9. Сейчас одна уже в работе и это версия 8.9 в качестве DC. Работает, каши не просит. Но всегда ж лучше когда у тебя не зоопарк из разых версий, а все примерно одинаково.
Поэтому возник вопрос, а есть ли какие то бест практис по апгрейдам боевых серверов до свежих релизов? Не конкретно Debian или даже *nix, а в общем. Здравый смысл конечно подсказывает что лучше этого не делать:) Но все равно интересно. Нужно ли это делать вообще, если все работает или забить на это дело до наступления EOL?
Всем привет, создаю отдельную тему по мотивам моей предыдущей темы.
Вот с чего начинается мой stateful IPFW скрипт закрытого типа:
#!/bin/sh
fwcmd="/sbin/ipfw -q"
oif="re0"
iif="re1"
lan="192.168.10.0/24"
# Localhost
${fwcmd} add allow all from any to any via lo0
# Check for dynamic rules
${fwcmd} add check-state
# Drop established tcp sessions
${fwcmd} add deny tcp from any to any established
И вот некоторые правила:
${fwcmd} add allow tcp from ${lan} to me 587,993 in via ${iif} setup keep-state
${fwcmd} add allow tcp from ${lan} to me 3128 in via ${iif} setup keep-state
Непонятки заключаются в том что если посмотреть на кол-во срабатываний конкретных правил по ipfw show, то с огромным отрывом преобладает правило 00300 и дропается весьма приличное кол-во нужных пакетов, если включить логгирование.
00100 112949 259970808 allow ip from any to any via lo0
00200 0 0 check-state
00300 4461606 1649862458 deny tcp from any to any established
02200 58889 54243602 allow tcp from 192.168.10.0/24 to me dst-port 587,993 in via re1 setup keep-state
03600 15410 757296 allow tcp from 192.168.10.0/24 to me dst-port 3128 in via re1 setup keep-state
При условии что все мои правила c keep-state, я не могу понять почему вообще что-то доходит до 00300, ведь все должно отрабатывать еще на check-state.
Подскажите пожалуйста, а то у меня уже соображалки не хватает совсем.
Со squid(правило 03600) вообще какая то странная жопа. Даже если разрешать established пакеты(то бишь пакеты перестают дропаться в обе стороны), то все равно продолжается та хрень из моей предыдущей темы пока не убрать к чертям keep-state и setup и явно не прописать трафик в обе стороны. Либо оставить setup, но разрешить established.
Всем привет! Есть роутер на FreeBSD 10.3 с PCI картой RealTek 8169/8169S/8169SB(L)/8110S/8110SB(L) Gigabit Ethernet смотрящей во внутрь.
Судя по top этот реалтек грузит одно ядро до 70% в пике. Помониторил нагрузку на сеть через iftop и увидел что скачки прерываний непосредственно связаны с одновременным увеличением TX rate к клиенту и RX rate от него. Т.е. при TX и RX раным 5Mb уже начинаются скачки прерываний.
Вот часть вывода iftop -i re1:
Однако при сиплексной передаче где наблюдается только высокий TX rate никаких скачков прерываний нету.
Вопроса у меня два:
1. Это реалтек такое гавно(если да, то почему) и насколько лучше станет с intel?
2. Второй вопрос возник пока описывал проблему и тоже не менее интересный для меня.
Почему вообще в iftop обычные запросы к squid дуплексные? Открывал параллельно лог сквида и не видел там ничего чтобы указывало на аплоад юзером чего либо да еще на такой скорости. Также параллельно открывал iftop на внешнем интерфейсе - так вот там аплоад вообще не виден в таких количествах, т.е. вообще не равен тому что показывается на внутреннем интерфейсе. Мистика какая то.
Всем привет. Интересует сабж. Есть ли какие то бест практис? Port security на свичах и прочие aclки завязанные на мак адреса конечно помогут от не сильно продвинутых товарищей, но как быть в случае спуфа маков? Например берем любой домашний роутер, втыкаем его в нашу локалку вместо какого нибудь валидного компа, берем его мак и прописываем роутеру, ну а потом настриваем NAT и открываем нашу локалку по wifi всем желающим. Сам я такой сценарий не пробовал на практике, но в теории все так и должно работать.
Читал про 802.1x - это оно? Или есть еще какие то варианты?
Всем привет. Есть слегка модифицированный скрипт вот отсюда https://wiki.samba.org/index.php/Configure_DHCP_to_update_DNS_records_with_BIND9
Вкратце - это скрипт, который dhcpd исполняет при наступлении событий связаных с лизами(commit, release, expiry). Конкретно этот скрипт выполняет dns secure updates. Думаю что содержание скрипта тут неважно ибо он успешно отрабатывает, если его запускать вручную от юзера dhcpd:
Всем привет. Есть сетап из Samba AD DC + BIND как dns backend. Все работает, но именно WinXP клиенты не обновляют свои записи в зоне. При этом Win7 отрабатывает нормально. Tcpdump на DC никакой активности со стороны XP клиентов не показывает после ipconfig /registerdns, в отличии от 7. Соответвенно и в логах никаких ошибок. Единсвенное что видно - XP клиенты отправляют DHCPREQUEST на dhcp сервер, который работает на другой машине.
Конечно с одной стороны удобнее чтобы зоны обновлялись dhcp сервером, и можно было бы не заморачиваться по поводу клиентов, но именно AD integrated зоны isc-dhcp обновлять не умеет без костылей ввиде длинных скриптов.