Посоветуйте, пожалуйста, сабж. Для бубунты, с поддержкой N-стандарта. Имеющийся AR9462 на ноуте Acer V3-371 достал своими перебоями. Колдовал с конфигами драйвера, менял настройки - все равно со случайным интервалом валится соединение. Иногда день все нормально, иногда и пяти минут не поработать. С WAP все впоряде - телефоны связь не теряют.
На компе бубунта 10.хх. С недавнего времени, нажимая кнопку «del», файл удаляется минуя корзину и без диалога подтверждения. Может маленькая племянница что-то перенастроила или какая-то кнопка на клаве клинит? В настройках Nautilus все по умолчанию как на этой картинке https://www.suse.com/documentation//sled10/userguide_gnome_sp3/graphics/fm_behavior.png
Коллеги, я чего-то туплю - что в PROXMOX 2.Х подразумевается под High Availability? Предположим, что имеется кластер PROXMOX из 2-3 одинаковых серверов. На одном из них запущены виртуальные машины QEMU/KVM, которые в качестве хранилища используют SAN (iSCSI). Про живую миграцию в такой конфигурации я в курсе - если надо поковырять железку, смигрировал машинки на другую и можно выключать. Но что случится, если сервер, на котором работают все виртуальные машины вдруг выйдет из строя? Перезапустятся ли все виртуалки автоматически на другом узле?
Что скажете про интеловские материнские платы на атоме? Как у них с надежностью и совместимостью? Планирую на паре таких поднять DHCP/DNS/маршрутизатор и доменный контроллер с файлопомойкой. Производительность не столь важна, т.к. нагрузка относительно маленькая.
ЗЫ Как альтернатива - самый дешевый селерон на гигабайте. Но будет ли надежнее?
Сисадмины со стажем, посоветуйте, пожалуйста. Выделили деньги на цацки, ломаю голову как распределить. Например, есть ли смысл ставить серверные диски на бюджетные сервера? Программный RAID1, 90% времени система без нагрузки. ИМХО при таких условиях вряд ли раскроются прелести серверных дисков. До этого стояли десктопные диски разных производителей с разным стажем (чтобы одновременно не накрылись) - проблем не было. Может не парится и купить несколько WD Green или Blue?
Имеется сервер на Debian. Все сидит на двух дисках, которые целиком в зеркале (RAID1, md0). На этом зеркале физический том LVM, на нем логические тома для /, /var и остальной лабуды. GRUB загружает ядро из логического тома. Бэкап провожу так: делаю LVM-снапшоты, потом их монтирую и tar -cpzf. Еще на всякий случай с помощью dd снял копии MBR дисков. Тут представил сценарий, когда вдруг умрут оба диска. Как восстановить систему на новых дисках? Есть ли какой способ экспортировать/импортировать структуру LVM томов?
Появилась необходимость тонких клиентов для использования на занятиях в компьютерном классе. Бубунта выше упомянутой версии т.к. там уже давно установлена и настроена куча определенного софта. Установил LTSP standalone, собрал образ для тонкого клиента:
sudo ltsp-build-client --arch i386
TFTP крутится на dnsmasq, а DHCP на isc-dhcp-server - все на нашем шлюзе (это отдельный сервер). Все настроил для загрузки через PXE - скопировал папку /var/lib/tftpboot на тот сервер, добавил в меню pxelinux nbdroot=10.0.0.188:2000 - это адрес бубунты. Клиенты грузились, заходили на сервер, можно было работать. Потом решил сделать отдельную опцию в меню pxelinux для загрузки тонкого клиента для использования RDP для работы на нашем PDC. Тупо слинковал содержание загрузочной папки /var/lib/tftpboot в папку /var/lib/tftpboot/rdp (кроме pxelinux.cfg). В меню добавил еще одну запись:
Выбрал в меню rdp, пошла загрузка, но вместо экрана RDP квадрат Малевича с курсором мыши. Но это еще не все - подумал ну фиг с ним, хорошо, что к бубунте можно подключится. Выбрал в меню ltsp - загрузка и тот самый квадрат Малевича. Плюнул, стер содержание папки /var/lib/tftpboot, заново скопировал ее содержание с бубунты, добавил nbdroot=10.0.0.188:2000 в меню - то самое. Где копать? Образ клиента не трогал. Апгрейдить систему, чтобы добраться до более свежего LTSP, и проверять работу и настройки установленных программ лень - это остается на крайний случай.
Надо собрать программный маршрутизатор на Debian 6.0, который будет соединять 4 гигабитовые сети. Будут несколько статических маршрутов. Сколько ресурсов будет кушать такая маршрутизация на полной нагрузке? Хватит ли на это Celeron G460? Тут важно минимальное энергопотребление. Еще завалялась пара гигабитовых сетевых адаптеров на PCI-слоте. Докупить 3й такой самый и материнку с 3 PCI-слотами или лучше материнку с 3 PCI-E и 3 новых адаптера на этот-же слот?
Доброе время суток!
До этого не занимался виртуализацией, но на работе предстоит задание поднять сервер для виртуализаци нескольких систем (виндас, линукс и.т.д.). Для каждого гостя предвидится пара дисков в программном RAID1. Как я понял, qemu может работать с блочными устройствами, минуя использование образов жестких дисков в виде отдельных файлов. Сначала думал все организовать в виде /dev/sdx -> md -> qemu , но потом задумался - если, например, гость виндас и дать ему /dev/sda и /dev/sdb под его собственный RAID1, будет ли ФС на этих дисках читабельная, если я через пару лет воткну эти диски в физический комп с виндасом и решу скопировать файлы? Или qemu будет писать в блочные устройства в том-же формате, как и в файлы дисковых образов?
Есть шлюз на дебиане 6.0, имеет сетевой интрефейс eth2 для WAN'a и eth0, 1, 3 для локальных подсетей 10.0.ххх.0. Сделан простейший NAT т.к. через WAN в подсети идет и-нет
iptables -t nat -A POSTROUTING -o eth2 -j MASQUERADE
Захотел сделать форвард HTTP-трафика с WAN на веб-сервер, который находиться в одной из локальных подсетей под адресом 10.0.0.200. На шлюзе тоже стоит Apache, но он слушает 8080 порт.
Сделал так, но не помогает. Что тут не правильно?
К моему счастью на новой работе сдох 2008 R2 на маршрутизаторе. Установил Debian и теперь необходимо восстановить маршрутизацию с 5 сетевыми картами.
eth0 - статический адрес, интернет
eth1 - локальная сеть 10.0.0.0/24
eth2 - локальная сеть 10.0.1.0/24
eth3 - локальная сеть 10.0.2.0/24
eth4 - статический адрес, WAN
Но, так как у меня нет знаний по iptables, я сделал только следующий copy paste из гугла.
iptables -A FORWARD -o eth0 -i eth1 -s 10.0.0.0/24 -m conntrack --ctstate NEW -j ACCEPT
iptables -A FORWARD -m conntrack --ctstate ESTABLISHED,RELATED -j ACCEPT
iptables -A POSTROUTING -t nat -j MASQUERADE
Настроил DNS и DHCP. В итоге интернет пока есть только у сети 10.0.0.0/24 на eth1. Хочу дать доступ к интернету сетям 10.0.1.0/24 на eth2 и 10.0.2.0/24 на eth3. И что для этого сделать? Повторить первую команду, но только с соответствующими адаптерами и сетями? Или не прокатит? Еще надо разрешить локальным сетям общаться между собою, но сетям 10.0.1.0/24 на eth2 и 10.0.2.0/24 на eth3 запретить доступ на 10.0.0.0/24, кроме адреса 10.0.0.10.
И на последок с WANа (eth4) должна идти SIP телефония на адрес 10.0.0.хх (телефон).
Сегодня снял видеокарту (HD2400Pro) от пыли почистить. Вставил все назад, запускаю комп, виден ПОСТ-экран БИОСа, далее загрузка Бубунты, а Иксы не поднимаются... WTF?
Захожу под рутом, набираю startx, FGLRX ругается, что не находит железо от AMD. Lspci говорит
01:00.0 VGA compatible controller: ATI Technologies Inc Device 9cc3
01:00.1 Audio device: ATI Technologies Inc RV610 audio device [Radeon HD 2400 PRO]
Т.Б. вместо HD2400Pro какой-то ATI Technologies Inc Device 9cc3. Что за хрень? Иксы с драйвером fbdev и vesa поднимаются, даже glxgears, как могут, крутят, с разрешением монитора тоже все в поряде. А драйвер radeon так-же как и fglrx не работает. И ваще, железа под АйДи 9cc3 в списке /usr/share/misc/pci.id не существует. Такого девайса даже в гугле не нашел. Так по-ходу у карточки прошивка полетела и поэтому показывает не тот АйДи.
Можно ли как-то правильный АйДи в настройках ядра прописать? Сколько я читал, драйвера radeon и fglrx железо как раз по PCI ID определяют. Что делать?
Привет люди! Может у кого-нибудь есть готовые настройки скуида для кэшироавния обновлений Касперского? Так как совсем нет времени изучать и делать эксперименты с регулярными выражениями и правилами кэша в скуиде. Заранее спасибо.
Всем привет!
В офисе имеется локальная сеть, подключенная к и-нету через убогий Linksys рутер. Решили поставить на одной машине Дебиан и SQUID, чтобы контролировать доступ к и-нету. С одной стороны решение просто клевое, а с другой SQUID не умеет работать с POP3/SMTP. Так как нам услуги ел. почты поставляет другая фирма и почтовый сервак находится далеко за рутером, то все равно приходится открывать доступ к тому же рутеру всем, кто пользуется почтовым клиентом.
Может кто-то порекомендует какой-нибудь прокси сервер(-а) именно для POP3/SMTP?
Привет народ! У меня 3 Linksys WAP54G точки доступа и прокс со осьминогом на бубунте 8.04 server. Проблема такая, что необходимо организовать сервер аутентификации (FreeRadius) для точек доступа на том-же серваке, сохраняя существующих юзеров и их пароли. Юзера хранятса в /etc/passwd. Ничего в SQL БД перегонять не собираюсь, так как юзеров примерно сотни две и многие из них хотят с тем же логином выходить в сеть из стационарных ПК и юзать вайфайку на ноутах. Притом всем им пришлось бы заново менять пароли, а на такие вещи у них память слабенькая и хорошо, что логины реже забывают.
Была идея использовать EAP/PEAP аутентификацию на радиусе (http://www.backports.ubuntuforums.org/showthread.php?t=478804), но эта хрень использует mschap, и это с /etc/passwd не прокатит (http://arstechnica.com/civis/viewtopic.php?f=16&t=70047). Гуглил, и нашел некий PAP метод аутентификации, который совместим с /etc/passwd юзерами, но как зто настроить именно под 802.1x/EAP нигде не нашел. Что посоветуете?
Не могу разобратья в GPL - можно ли как-то легально ограничить распрастранение именно бинарников моего софта, который пишу под GPL? Исходники пусть бирут, разпростроняют и компилируют, мне не жалко. Но можно ли распростронять именно бинарники моего GPL софта под другой лицэнзией или под особым соглашением? (Исходники будут в любом случье всем доступны)