LINUX.ORG.RU

Избранные сообщения petav

составить топологию (карту) сети

Форум — Admin

Есть около 150 свитчей d-link, есть к ним доступ по cli, web и snmp

Задача - составить топологию (карту) этих свитчей.

Как я вижу это. На свитче на каждом порту можно смотреть (как минимум через web и cli) маки подключенных железок, которые висят дальше на этом порту.

Т.е. проходим все свитчи (ip их известны), собираем их маки, дальше по всем портам каждого свитча собираем маки, ищем совпадения с таблицей маков свитчей.

И самое сложное - сопоставление маков и составление карты на основе полученных данных.

Есть ли уже такое решение? Если нет, то буду писать свой лисапед.

p.s. нагуглил d-view 6.0, который вроде это дело умеет, но он больно огорожен, а нужно opensource\freeware.

p.p.s Никто не подскажет MIB для просмотра мака самого свитча и того, что висит на порту?

Turbid
()

Стартавать Bind после OpenVPN

Форум — Admin

Здравствуйте.
Имеется сервер Debian 7 x64
На нем работают
Bind 9.8.4
OpenVPN 2.3.2

Проблема:
При перезагрузке сервера оба указанных демона запускаются и работают, но Bind не слушает на интерфейсе OpenVPN, походу потому, что OpenVPN стартуют немного позже чем Bind и соответственно в момент старта Bind интерфейс OpenVPN еще не существует.
Если после запуска OpenVPN, перезапустить Bind, то все работает.

Как бы мне по-элегантнее решить данную проблему?

 ,

rumgot
()

Админка под LDAP

Форум — Development

Есть задача: написать админку для редактирования пользователей, созданных в LDAP так, чтобы под обязательные и возможные для заполнения поля, автоматически генерировались поля ввода на форме.

К примеру:

есть такой класс

objectClass ( 1.1.1.1.1.1.1.1.1 NAME 'xxxxxxxxxx'
        DESC 
        SUP inetOrgPerson
        MUST ( uid $ x1 )
        MAY  ( x1 $ x2 $
               x3 $
               x4 $ x5 $
               x6 $ x7 
               )
        )
Как с точки зрения админки «откопать» все имеющиеся в классе MUST и MAY поля, чтобы админка динамически подстраивалась под схему?

 ,

Shokerkill
()

Не работает alt.fedoraproject.org?

Форум — Admin

Latest VirtIO drivers for Windows from Fedora сломан? Я уже неделю с разных браузеров не могу скачать virtio*.iso

 ,

petav
()

Оркестрация серверов: на что можно «срулить» с Puppet

Форум — Admin

Добрый день, LOR!

Пришел к вам за советом. :)

Имею в своем распоряжении около сотни виртуалок. Их «оркестрацией», т.е. распространением конфигураций, обновлением и контролем состояния, занимаемся при помощи Puppet (версии 3.7.4). В последнее время немного достала медлительность Puppet (терпимо) и ужасный синтаксис встроенного языка (вот это уже жуткая жуть).

Джентльмены, есть ли у кого-то здесь опыт удачной миграции с Puppet на Chef/SaltStack/Ansible/<что-то еще?>.

Можете прокомментировать?

И стоит ли игра (переезд с Puppet) свеч?

Нашли ли вы счастье в новой системе «оркестрации» серверов?

Заранее спасибо!

 

CyberLynx
()

Блокируется панель при русской раскладке в Awesome

Форум — Desktop

Раньше, в ubuntu 13.04 и в Debian 6 решалось комментированием строк в xkb, сейчас данные манипуляции ни к чему не приводят, в какую сторону копать?

Ubuntu 14.04, осом 3.5.2, xkbcomp 1.2.4

 

gorgoot
()

аналоги VNC, RDP

Форум — Admin

Есть ли у VNC возможность инициализации по сертифекату, или есть ли аналоги данного ПО, с возможность инициализации по сертифекату.

 

ilovemoney
()

Оцените конфиг iptables

Форум — Admin

C iptables только начал разбираться (прочитал http://www.k-max.name/linux/netfilter-iptables-v-linux/, настроил по http://www.k-max.name/linux/iptables-v-primerax/). На рабочем шлюзе применять боюсь, не уверен в правильности, думаю некоторых правил точно не хватает. На шлюзе запущен postfix, dhcp, dns, apache, mysql, ftp, VPN к Cisco. Почтовые клиенты в локальной сети Outlook и The Bat, помимо этого в локальной сети есть несколько программ, которые должны передавать пакеты во внешнюю сеть и, соответственно, получать ответы (отправлять, как я понял точно будут, т.к. маскардинг я прописал на все протоколы), также нужен доступ по SSH из локалки.

iptables -F
iptables -t nat -F

iptables -P INPUT DROP
iptables -P OUTPUT DROP
iptables -P FORWARD DROP

iptables -A INPUT -i lo -j ACCEPT
iptables -A OUTPUT -o lo -j ACCEPT

iptables -A INPUT -p icmp --icmp-type 0 -j ACCEPT
iptables -A INPUT -p icmp --icmp-type 8 -j ACCEPT
iptables -A OUTPUT -p icmp -j ACCEPT

iptables -A OUTPUT -j ACCEPT

iptables -A INPUT -p TCP -m state --state ESTABLISHED,RELATED -j ACCEPT
iptables -A INPUT -p UDP -m state --state ESTABLISHED,RELATED -j ACCEPT

#######################################################################

## block ip
#iptables -A FORWARD -s 192.168.0.90 -j DROP
#iptables -A FORWARD -s 192.168.0.41 -j DROP
iptables -A FORWARD -s 192.168.1.1 -j DROP

## NAT
iptables -A FORWARD -m conntrack --ctstate ESTABLISHED,RELATED -j ACCEPT
iptables -A FORWARD -m conntrack --ctstate NEW -i eth1 -s 192.168.0.1/24 -j ACCEPT
iptables -A FORWARD -m conntrack --ctstate NEW -i eth1:2 -s 192.168.1.1/24 -j ACCEPT
iptables -P FORWARD DROP
#ptables -t nat -A POSTROUTING -o eth0 -j MASQUERADE
iptables -t nat -A POSTROUTING -s 192.168.0.0/24 -o ppp0 -j SNAT --to-source x.x.x.x
iptables -t nat -A POSTROUTING -s 192.168.1.0/24 -o ppp0 -j SNAT --to-source x.x.x.x

## Post
iptables -A INPUT -p TCP -m  multiport --dports 25,110,143 -j ACCEPT

## Web
iptables -A INPUT -p TCP --dport 80 -j ACCEPT

## SSH
iptables -A INPUT -p TCP -i eth1 --dport 22 -j ACCEPT

## DNS
iptables -A INPUT -p TCP -i eth1 --dport 53 -j ACCEPT

## DHCP
iptables -A INPUT -p UDP -i eth1 --dport 67 -j ACCEPT

## RDP i t.d.
iptables -t nat -A PREROUTING -p tcp --dport 3399 -i ppp0 -j DNAT --to 192.168.0.99:3389
iptables -t nat -A PREROUTING -p tcp --dport 3355 -i ppp0 -j DNAT --to 192.168.0.2:3389
iptables -t nat -A PREROUTING -p tcp --dport 3356 -i ppp0 -j DNAT --to 192.168.0.12:3389
#iptables -t nat -A PREROUTING -p tcp --dport 3357 -i ppp0 -j DNAT --to 192.168.0.14:3389
iptables -t nat -A PREROUTING -p tcp --dport 3358 -i ppp0 -j DNAT --to 192.168.0.22:3389
iptables -t nat -A PREROUTING -p tcp --dport 3359 -i ppp0 -j DNAT --to 192.168.0.24:3389
#iptables -t nat -A PREROUTING -p tcp --dport 3333 -i ppp0 -j DNAT --to 192.168.0.121:35300

## NAS
iptables -t nat -A PREROUTING -p tcp --dport 2000 -i ppp0 -j DNAT --to 192.168.0.4:2015
iptables -t nat -A PREROUTING -p tcp --dport 2001 -i ppp0 -j DNAT --to 192.168.0.4:2014

## Video server
iptables -t nat -A PREROUTING -p tcp --dport 3000 -i ppp0 -j DNAT --to 192.168.0.153:3080
iptables -t nat -A PREROUTING -p tcp --dport 3001 -i ppp0 -j DNAT --to 192.168.0.153:3081

 , ,

deptk
()

Установка линукса по tftp

Форум — Admin

Есть tftp сервер который успешно загружает:

  • debian-7.7.0-amd64-kde-CD-1.iso
  • ubuntu-12.04.4-alternate-amd64.iso
  • ubuntu-12.04.5-server-amd64.iso

но не загружает

  • ubuntu-12.04.4-desktop-amd64.iso
  • ubuntu-14.04.1-desktop-amd64.iso

Начинается загрузка iso диска, появляется лого Убунты, и через одну-две минуту получаю :

 (initramfs) unable to find a medium containing a live file system

Кусочки конфигов:

cat /etc/dnsmasq.conf 
enable-tftp
port=0
tftp-root=/var/lib/tftp
dhcp-boot=pxelinux.0

root@localhost:/var/lib/tftp# tree

├── debian-7.7.0-amd64-kde-CD-1.iso
├── memdisk
├── menu.c32
├── pxelinux.0
├── pxelinux.cfg
│   └── default
├── ubuntu-12.04.4-alternate-amd64.iso
├── ubuntu-12.04.5-desktop-amd64.iso
├── ubuntu-12.04.5-server-amd64.iso
# cat /var/lib/tftp/pxelinux.cfg/default
DEFAULT menu.c32
PROMPT 0

MENU TITLE PXE Boot System

LABEL Debian-7.7
MENU LABEL Debian-7.7
KERNEL memdisk
APPEND iso initrd=debian-7.7.0-amd64-kde-CD-1.iso raw

Остальной кусок конфига обрезал т.к. там одни повторы.

Вопрос: Как загружать дэсктопные версии убунты через syslinux?

Update:

Смонтировал образ убунты через

mount -o loop disk1.iso tst

Прописал в /var/lib/tftp/pxelinux.cfg/default

LABEL TST
MENU TST
KERNEL /tst/casper/vmlinuz.efi
append noprompt boot=casper integrity-check initrd=/tst/casper/initrd.lz quiet splash --

Результат тот же....

 ,

snaf
()

skype 4.3 выпилили alsa

Форум — Desktop

Прилетело обновление и скайп теперь 4.3. И собственно говоря не работает оно. Желания ставить пульсу нет. Что делать ? Скайп - это нужная штука. Менять не на что её. Может оно заводится с jack ? Давайте обсудим эту «фичу» в новой версии скайп ?

 

bryak
()

Почти аккуратное XFCE

Галерея — Скриншоты
  • Xfce 4.10
  • Оформление GTK2/3: Greybird
  • Оформление рамок окон: Axe
  • Оформление xfce4-notifyd: Numix
  • Пиктограммы: Faenza-Dark
  • Шрифт в терминале: Monaco
  • Шрифт в приложениях: Droid Sans
  • Шрифт в заголовках окон: Droid Sans
  • Обоина

Скриншот в исходном разрешении
Две панели - это привычка и, для меня, удобство.
Скайп приправлен skype1ico.
Победить унылую иконку XTerm так и не удалось.

 ,

ck114
()

2 шлюза в инет + pptp

Форум — Admin

Есть два провайдера. От каждого из них один белый ip. Задача в том, чтобы через одного пустить только трафик из сети, а через другой организовть vpn для удаленных сотрудников. Пробовал разнести по разным таблицам маршрутизации, но не доходит как написать правила маршрутизации для vpn(второго прова) подключения. На данный момент основной шлюза работает и виден в сети. Второй - нет

 , ,

Santa42
()

Релиз Webacula 7.0.0

Новости — Linux General
Группа Linux General

Доступна новая версия Webacula — веб-интерфейса для системы резервного копирования уровня предприятия Bacula.

Основные изменения:

  • Поддержка Bacula 7.x
  • Хэширование паролей пользователей Webacula с помощью Portable PHP password hashing framework. Несовместимо с прежним методом (MD5).

>>> Подробности

 ,

tim4dev
()

web-интерфейс для Bareos/Bacula

Форум — Admin

Добрый день, столкнулся с проблемой такого рода - развернул систему бэкапа Bareos, и захотел к ней приделать web-интерфейс webacula. Делал все по инструкции как тут в конце http://blog.giuseppeurso.net/installing-bareos-bacula-fork-web-front-end-debi.... И потом еще пробовал делать как тут - http://www.tux.in.ua/articles/1935.

Естественно там где в путях встречалась bacula я переписывал на bareos как нужно. Но после всех манипуляций при обращении к сайту http://localhost/webacula выдается такое сообщение Fatal error: Uncaught exception 'Zend_Exception' with message 'Fatal error: Can't connect to SQL server' in /var/www/webacula/html/index.php:186 Stack trace: #0 {main} thrown in /var/www/webacula/html/index.php on line 186

Может кто сталкивался? или есть ссылка на более дельную инструкцию по установки и настройки webacula под bareos ?

 , ,

stasov1
()

Локалка с запретом..

Форум — Admin

Дано: ноут-сервер и стац в локалке..

Нужно: стац не должен(никак) заходить на сайты, за исключением двух-трех сайтов(ну допустим лор+вики)

ЗЫ: ОС на стаце значения не имеет(оффтопы тоже будут).. ип для перенаправления прописываю на ноуте.

на чем реализовать? файервол?

____________

то что сайты обращаются к другим(те же обращения в соц сети) отправятся в игнор, писал в hosts, но пробивало ее

TODD
()

Вышел Zabbix 2.4

Новости — Open Source
Группа Open Source

Zabbix - это открытое решение распределенного мониторинга корпоративного класса, программное обеспечение мониторинга многочисленных параметров сети, а также состояния и работоспособности серверов, приложений и сервисов. Zabbix использует гибкий механизм уведомлений, что позволяет пользователям настраивать оповещения по почте практически для любого события. Zabbix позволяет хранить и отображать собранные данные с помощью графиков, карт или комплексных экранов.

( Ключевые новшества )

С полным списком изменений и улучшений можно ознакомиться тут

>>> Подробности

 ,

alexvl
()

pacemaker + mysql + asterisk + httpd

Форум — Admin

Добрый день Подскажите как настроить чтобы при переключении между нодами выключались службы mysqld и httpd? Сейчас при переключении гасится только asterisk.

Конфиг pacemaker.cfg.

node astnode01
node astnode02
primitive Asterisk ocf:Digium:asterisk \
        op monitor interval="5"
primitive Asterisk_drbd ocf:linbit:drbd \
        params drbd_resource="asterisk" \
        op monitor start-delay="10" interval="5"
primitive Asterisk_fs ocf:heartbeat:Filesystem \
        params device="/dev/drbd/by-res/asterisk" directory="/mnt/asterisk/" fstype="ext3"
primitive ClusterIP ocf:heartbeat:IPaddr2 \
        params ip="10.4.2.151" cidr_netmask="32" \
        op monitor interval="5"
primitive GatewayStatus ocf:pacemaker:ping \
        params host_list="10.4.2.1" multiplier="100" \
        op monitor interval="5" timeout="10"
primitive rseries0 ocf:Digium:rseries \
        params tty="/dev/rseries0" \
        op monitor interval="10" role="Master" \
        op monitor interval="60" role="Slave"
ms Asterisk_ms Asterisk_drbd \
        meta master-max="1" master-node-max="1" clone-max="2" clone-node-max="1" notify="true"
ms rseries0_ms rseries0 \
        meta master-max="1" master-node-max="1" clone-max="2" clone-node-max="1" target-role="Master"
clone GatewayStatusClone GatewayStatus
location Asterisk-with-ping Asterisk \
        rule $id="Asterisk-with-ping-rule" -inf: not_defined pingd or pingd lte 0
colocation Everything-with-Asterisk inf: ( rseries0_ms:Master Asterisk_ms:Master ) ( ClusterIP Asterisk_fs ) Asterisk
order Asterisk-after-Everything inf: ( rseries0_ms:promote Asterisk_ms:promote ) ( ClusterIP Asterisk_fs ) Asterisk:start
property $id="cib-bootstrap-options" \
        dc-version="1.0.12-unknown" \
        cluster-infrastructure="openais" \
        expected-quorum-votes="2" \
        stonith-enabled="false" \
        no-quorum-policy="ignore"
rsc_defaults $id="rsc-options" \
        resource-stickiness="99"

Пробовал добавлять

primitive Asterisk_httpd ocf:heartbeat:apache \
        params configfile="/etc/httpd/conf/httpd.conf" \
        op start interval="0s" timeout="60s" \
        op monitor interval="5s" timeout="20s" \
        op stop interval="0s" timeout="60s"
Выводит ошибку
[root@astnode01 ~]# crm status
============
Last updated: Wed Sep  3 12:26:25 2014
Stack: openais
Current DC: astnode02 - partition with quorum
Version: 1.0.12-unknown
2 Nodes configured, 2 expected votes
7 Resources configured.
============
 
Online: [ astnode01 astnode02 ]
 
 Asterisk       (ocf::Digium:asterisk): Started astnode02
 Asterisk_fs    (ocf::heartbeat:Filesystem):    Started astnode02
 ClusterIP      (ocf::heartbeat:IPaddr2):       Started astnode02
 Master/Slave Set: Asterisk_ms
     Masters: [ astnode02 ]
     Slaves: [ astnode01 ]
 Master/Slave Set: rseries0_ms
     Masters: [ astnode02 ]
     Slaves: [ astnode01 ]
 Clone Set: GatewayStatusClone
     Started: [ astnode01 astnode02 ]
 
Failed actions:
    Asterisk_httpd_start_0 (node=astnode02, call=18, rc=-2, status=Timed Out): unknown exec error
    Asterisk_httpd_start_0 (node=astnode01, call=9, rc=1, status=complete): unknown error

 , , ,

mkondratev
()

kpartx + loop + lvm = не удаляются разделы loopXpY после отключения образа

Форум — Admin

Привет всем!!

У меня проблема с которой я никак не могу справится, точнее не могу понять что и где правильно выключить.

Монтирую образ блочного устройства через kpartx -a <ИМЯ>.img, далее забиваю нулями этот образ через dd предварительно. Создаю два раздела, и в итоге имею в /dev вот такие устройства: /dev/loop0 /dev/loop0p1 /dev/loop0p2. На втором разделе (loop0p2) создаю LVM-том и 2 LVM-раздела на нем, форматирую их и сразу же демонтирую. После, чтобы отключить LVM-том даю команду vgchange -an <VG> и сразу же отключаю образ kpartx -d <ИМЯ>.img. При этом команда losetup дает мне понять что мое loop0-устройство успешно отключена, не выводя его в своем списке.

А самое интересное, что после отключения образа файлы /dev/loop0[pX] остаются в каталоге, а вместе с ними и LVM-том на них. Команда dmsetup ls никаких устройств связанных этим lVM не видит. Команда blkid продолжает упорно писать, что в /dev/loop0p2 располежен все тот же LVM-том VG.

Как я представляю, вместе с отключением образа должны пропасть и loop-устройства, но что-то происходит не так.

Помогите пожалуйста кто знает в чем дело, бьюсь уже который день. Спасибо заранее!!!

 ,

dmnord
()

Вышел набор патчей для свободной информационной системы для здравоохранения и больниц GNU Health 2.6.2

Новости — GNU's Not Unix
Группа GNU's Not Unix

GNU Health — это свободная информационная система для здравоохранения и больниц, предоставляющая возможности электронных медицинских записей, информационных систем больниц и здравоохранения. Она разработана с упором на мультиплатформенность и работает на различных операционных системах (GNU/Linux, FreeBSD, MS Windows) и с различными СУБД. Она написана на Python и использует фреймворк Tryton.

Про наборы патчей GNU Health

«Наборы патчей» предоставляются для стабильных релизов. Они позволяют быстро устанавливать исправления багов и обновления на производственные системы. Патчи и наборы патчей максимизируют аптайм производственных систем и содержат систему обновлённой без потребности в полной установке. Некоторые из них, благодаря магии Tryton, могут быть применены к работающей системе.

ЗАМЕТКА: наборы патчей применяются только к предварительно установленным системам. Для новых установок скачайте и установите полный тарбол (например, gnuhealth-2.6.2.tar.gz).

Сводка по набору патчей

Это небольшой набор патчей, касающийся по большей части отчётов и мастеров.

  • Затрагиваются модули (помимо локализации/опечаток): health, health_tab, health_imaging
  • health: исправлен отчёт-рецепт
  • health_lab: проверка медработника по тестовому запросу
  • health_imaging: проверка медработника по запросу изображений Dx

Замечания об установке

  • Перед установкой этого набора патчей нужно установить набор 2.6.1. Если 2.6.1 уже установлен, просто следуйте общим инструкциям. В противном случае, скачайте и примените набор патчей 2.6.1 (ftp://ftp.gnu.org/gnu/health/gnuhealth_patchset-2.6.1.tar.gz)
  • Следуйте общим инструкциям на https://en.wikibooks.org/wiki/GNU_Health/Patches_and_Patchsets
  • Для обновления вашей среды возьмите профиль GNU Health ($HOME/.gnuhealthrc)
  • Этот набор патчей не требует обновления БД

Перечень ошибок, относящихся к этому набору патчей

>>> Источник

 , , ,

MiniRoboDancer
()

отдать один проц виртуалке

Форум — Admin

Есть новый двухпроцессорный сервак (E5-2640) и памяти 32 гига. На нем поднял virtual-host на centos6.

virsh # nodeinfo
Модель процессора: x86_64
CPU:                 24
Частота процессора: 1200 MHz
Сокеты:        1
Ядер на сокет: 6
Потоков на ядро: 2
Ячейки NUMA:   2
Объём памяти: 32844300 KiB

Контора пишет, что сокетов должно быть 2. Какого черта у меня один сокет - не понимаю. В биосе процессоров (Сокетов) 2. Процы на 12 потоков. Ну Бог с ним. Может баг.
Надо его раскромсать на кусочки. Первый кусочек будет большой, поэтому решил пощупать в деле NUMA. Надо ли в хостовой системе запускать демон numad или все в xml-конфиге гостя? Демон numad у меня остановлен.

Смотрим процы подробнее

[root@kvm2 qemu]# virsh capabilities
<capabilities>
  <host>
    <uuid>578a5b57-14f7-11e2-a1da-f80f41f3e27e</uuid>
    <cpu>
      <arch>x86_64</arch>
      <model>SandyBridge</model>
      <vendor>Intel</vendor>
      <topology sockets='1' cores='6' threads='2'/>
      <feature name='pdpe1gb'/>
      <feature name='osxsave'/>
      <feature name='dca'/>
      <feature name='pcid'/>
      <feature name='pdcm'/>
      <feature name='xtpr'/>
      <feature name='tm2'/>
      <feature name='est'/>
      <feature name='smx'/>
      <feature name='vmx'/>
      <feature name='ds_cpl'/>
      <feature name='monitor'/>
      <feature name='dtes64'/>
      <feature name='pbe'/>
      <feature name='tm'/>
      <feature name='ht'/>
      <feature name='ss'/>
      <feature name='acpi'/>
      <feature name='ds'/>
      <feature name='vme'/>
    </cpu>
    <topology>
      <cells num='2'>
        <cell id='0'>
          <cpus num='12'>
            <cpu id='0' socket_id='0' core_id='0' siblings='0,12'/>
            <cpu id='1' socket_id='0' core_id='1' siblings='1,13'/>
            <cpu id='2' socket_id='0' core_id='2' siblings='2,14'/>
            <cpu id='3' socket_id='0' core_id='3' siblings='3,15'/>
            <cpu id='4' socket_id='0' core_id='4' siblings='4,16'/>
            <cpu id='5' socket_id='0' core_id='5' siblings='5,17'/>
            <cpu id='12' socket_id='0' core_id='0' siblings='0,12'/>
            <cpu id='13' socket_id='0' core_id='1' siblings='1,13'/>
            <cpu id='14' socket_id='0' core_id='2' siblings='2,14'/>
            <cpu id='15' socket_id='0' core_id='3' siblings='3,15'/>
            <cpu id='16' socket_id='0' core_id='4' siblings='4,16'/>
            <cpu id='17' socket_id='0' core_id='5' siblings='5,17'/>
          </cpus>
        </cell>
        <cell id='1'>
          <cpus num='12'>
            <cpu id='6' socket_id='1' core_id='0' siblings='6,18'/>
            <cpu id='7' socket_id='1' core_id='1' siblings='7,19'/>
            <cpu id='8' socket_id='1' core_id='2' siblings='8,20'/>
            <cpu id='9' socket_id='1' core_id='3' siblings='9,21'/>
            <cpu id='10' socket_id='1' core_id='4' siblings='10,22'/>
            <cpu id='11' socket_id='1' core_id='5' siblings='11,23'/>
            <cpu id='18' socket_id='1' core_id='0' siblings='6,18'/>
            <cpu id='19' socket_id='1' core_id='1' siblings='7,19'/>
            <cpu id='20' socket_id='1' core_id='2' siblings='8,20'/>
            <cpu id='21' socket_id='1' core_id='3' siblings='9,21'/>
            <cpu id='22' socket_id='1' core_id='4' siblings='10,22'/>
            <cpu id='23' socket_id='1' core_id='5' siblings='11,23'/>
          </cpus>
        </cell>
      </cells>
    </topology>
    <secmodel>
      <model>selinux</model>
      <doi>0</doi>
    </secmodel>
    <secmodel>
      <model>dac</model>
      <doi>0</doi>
    </secmodel>
  </host>

Просматриваю ячейки NUMA (объемы памяти со временем меняются.)

[root@kvm2 qemu]# virsh freecell --all
    0:   15979784 KiB
    1:   16060128 KiB
--------------------
Всего:   32039912 KiB
Решено одному virtual-guest отдать полностью один проц и 16 гиг памяти. Для этого выбрал ячейку NUMA с индексом 1. По вышеприведенной ссылке в RedHat приводят пример и пишут, что надо изменить в xml-ке
<vcpus>4</vcpus>
на
<vcpus cpuset='4-7'>4</vcpus>

У меня в конфиге vcpus НЕТУ! Зато есть

<vcpu placement='static'>1</vcpu>
Меняю эту строку на
<vcpus cpuset='6-11,18-23'>12</vcpus>
Гружусь - и нифига. Ядро одно, а конфиг - снова стал как с завода(((. Уж не знаю ошиблись в красношапке или нет, но когда пишешь
<vcpu cpuset='6-11,18-23'>12</vcpu>
После запуска сервера присутствуют все 12 ядер/потоков (смотрю в top). Конфиг меняется на
 <vcpu placement='static' cpuset='6-11,18-23'>12</vcpu> 
Ну вроде как работает (думаю в мануале небольшие опечатки), но решил я посмотреть как же потоки виртуальным процессорам назначаются.

virsh # vcpuinfo nemo
VCPU:           0
CPU:            23
Статус:   работает
Время CPU: 8,8s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           1
CPU:            7
Статус:   работает
Время CPU: 2,1s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           2
CPU:            9
Статус:   работает
Время CPU: 1,0s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           3
CPU:            8
Статус:   работает
Время CPU: 1,8s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           4
CPU:            6
Статус:   работает
Время CPU: 0,8s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           5
CPU:            20
Статус:   работает
Время CPU: 0,5s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           6
CPU:            22
Статус:   работает
Время CPU: 1,0s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           7
CPU:            6
Статус:   работает
Время CPU: 0,4s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           8
CPU:            18
Статус:   работает
Время CPU: 0,5s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           9
CPU:            11
Статус:   работает
Время CPU: 0,3s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           10
CPU:            7
Статус:   работает
Время CPU: 0,5s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           11
CPU:            6
Статус:   работает
Время CPU: 0,3s
Соответствие CPU: ------yyyyyy------yyyyyy

Как же это так получается, что 6-й CPU у меня соответсвует трем! VCPU? Попробую действовать по

Virtualization_Tuning_and_Optimization_Guide

<vcpu cpuset='0-7'>8</vcpu>
	<cputune>
		<vcpupin vcpu='0' cpuset='0'/>
		<vcpupin vcpu='1' cpuset='1'/>
		<vcpupin vcpu='2' cpuset='2'/>
		<vcpupin vcpu='3' cpuset='3'/>
		<vcpupin vcpu='4' cpuset='4'/>
		<vcpupin vcpu='5' cpuset='5'/>
		<vcpupin vcpu='6' cpuset='6'/>
		<vcpupin vcpu='7' cpuset='7'/>
	</cputune>

Что интересно в этом примере уже vcpu, а не vcpus. А placement='static' надо если привязываешь потоки ручками. Иначе надо юзать placement='auto' и ковырять numad.

 , ,

andrew667
()