LINUX.ORG.RU

Kvm


118

1

Всего сообщений: 25

QEMU 8.2

Группа Open Source

Вышла новая версия открытого кросс-платформенного эмулятора различных процессорных архитектур QEMU.

Наиболее интересные изменения:

  • Добавлено устройство virtio-sound. Оно позволяет захватывать и проигрывать аудио на соответствующим образом сконфигурированном бекенде хоста.
  • Добавлено устройство virtio-gpu rutabaga с возможностью различных абстракций GPU и виртуализации экранов.
  • Теперь можно мигрировать ВМ с virtio-gpu blob=true, а новый параметр «avail-switchover-bandwidth» поможет пользователям, у которых миграция затягивается и становится мало контролируемой.
  • Убрана утечка памяти в guest-exec.

( читать дальше... )

>>> Подробности

 ,

LeprOID
()

Релиз Danube Cloud 4.5

Группа Open Source

Danube Cloud это менеджер приватного облака узлов виртуализации на базе Joyent SmartOS (ядро IllumOS/SunOS). Это решение можно сравнить отчасти с OpenNebula, Proxmox и vSphere.

Из нового:

  • поддержка BHYVE;
  • онлайн изменение размера диска BHYVE;
  • конвертация KVM в BHYVE.

Основные функциональные возможности:

  • основан на базе SmartOS с ZFS, KVM и Solaris zones;
  • быстрый и простой деплой;
  • веб-интерфейс администрирования, совместимый с мобильными устройствами;
  • уникальный уровень безопасности, RBAC;
  • поддержка VLAN/VXLAN;
  • снэпшоты виртуальных машин;
  • интегрированные инкрементальные бэкапы виртуальных машин;
  • репликация дисков виртуальных машин с удобным восстановлением одним нажатием;
  • интегрирован Zabbix с автоконфигурацией;
  • управление DNS и IP адресами;
  • multi-tenant дата центр.

>>> Подробная документация

>>> Очень высокая надежность и безопасность гипервизора

>>> Сайт

>>> Подробности

 , , , ,

sanyo1234
()

Вышел Cloud Hypervisor 0.11.0

Группа Open Source

Cloud Hypervisor (облачный гипервизор) — это монитор виртуальных машин, который работает поверх KVM и оптимизирован для решения задач, свойственных для облачных систем. Cloud Hypervisor написан на Rust и базируется на rust-vmm crates.

Новое в этой версии:

  • добавлена поддержка гостевой ОС Windows
  • добавлена поддержка по умолчанию io_uring для virtio-block
  • прекращена поддержка vhost-user
  • удалена поддержка использования транспорта virtio-mmio вместо PCI
  • добавлена поддержка снапшотов для ARM64
  • улучшено время загрузки Linux
  • изменён уровень ведения журнала по умолчанию
  • добавлен новый параметр –balloon для настройки virtio-balloon

>>> Подробности

 , ,

MaxPower
()

Proxmox VE 5.3

Группа Кластеры

4 декабря 2018 года вышла новая версия системы виртуализации Proxmox, которая позволяет создавать кластеры серверов виртуализации и контейнеров. В качестве бэкэндов используются KVM и LXC. Управление производится через веб-интерфейс или интерфейс командной строки. Система представляет собой дистрибутив Linux на основе Debian, либо может быть установлена на уже имеющуюся инсталляцию Debian GNU/Linux.

( читать дальше... )

>>> Подробности

 , , , ,

te111011010
()

Proxmox VE 5.2

Группа Кластеры

Proxmox Virtual Environment (Proxmox VE) — система виртуализации с открытым исходным кодом, основанная на Debian GNU/Linux. Разрабатывается австрийской фирмой Proxmox Server Solutions GmbH, спонсируемой Internet Foundation Austria.
В качестве гипервизоров использует KVM и LXC. Proxmox VE способна выполнять любые поддерживаемые KVM ОС (Linux, *BSD, Windows и другие) с минимальными потерями производительности или без потерь (в случае с Linux).
Управление виртуальными машинами и администрирование самого сервера производятся через веб-интерфейс либо через стандартный интерфейс командной строки Linux.
Для создаваемых виртуальных машин доступно множество опций: используемый гипервизор, тип хранилища (файл образа или LVM), тип эмулируемой дисковой подсистемы (IDE, SCSI или VirtIO), тип эмулируемой сетевой карты, количество доступных процессоров и другие.

Основные изменения и нововведения:

  • Proxmox VE 5.2 основана на Debian 9.4;
  • Добавлены новые функции, такие как:
    • пакет Cloud-init для автоматизации предоставления виртуальных машин;
    • надстройка управления CIFS/SMB через графический интерфейс пользователя;
    • надстройка управления сертификатами Let's Encrypt через графический интерфейс пользователя;
  • Расширены функциональные возможности создания кластеров Proxmox VE;
  • Ядро обновлено до версии 4.15;
  • Внедрена поддержка Cloud-Init для автоматизации подготовки виртуальных машин. Cloud-Init обрабатывает начальную конфигурацию виртуальной машины при ее первом запуске и позволяет создавать виртуальные машины с аналогичной конфигурацией;
  • Если установлен гостевой агент QEMU, IP-адрес виртуальной машины отображается в графическом интерфейсе;
  • Теперь администраторы могут легко создавать и редактировать новые роли через графический интерфейс;
  • Реализована настройка пределов ввода-вывода для дисковых операций (возможна глобальная или более тонкая настройка для каждой виртуальной машины);
  • Оптимизирована конфигурация ebtables в брандмауэре Proxmox VE.

>>> Подробности

 , , ,

Promusik
()

Amazon Web Services в будущем переедет на KVM

Группа Open Source

AWS вводят новые гипервизоры под контролем KVM для новых инстансов С5, а в будущем и для прочих новых виртуальных машин.

AWS показали свой новый гипервизор, основанный на KVM, a не Xen, на который они полагались многие годы.

Новый гипервизор был упомянут в пояснениях к новому инстансу EC2 под названием «C5»: «Инстансы C5 используют новый гипервизор EC2, основанный на технологии KVM», говорится в FAQ.

Еще более интересной является дополнительная новость от AWS: «в будущем мы будем использовать этот гипервизор для запуска других разновидностей инстансов», что звучит так, как будто AWS собираются бросать использование Xen.

C5 доступны в следующих датацентрах AWS: US East, US West (Oregon), и в Европе, по требованию клиентов. Обещают расширить список регионов в ближайшем будущем.

>>> Подробности

 , ,

dyasny
()

Релиз QEMU 2.3

Группа Linux General

QEMU позволяет в качестве эмулятора запускать исполнимый код, собранный для одной аппаратной платформы, на системе с совершенно иной архитектурой. Например при использовании эмулятора можно выполнить приложение для ARM на системе с архитектурой x86. Кроме эмуляции QEMU может работать и в режиме виртуализации, при этом производительность выполнения кода близка к нативной системе за счёт прямого выполнения при помощи модуля KVM или гипервизора Xen. В версию 2.3 внесено примерно 1900 изменений от 184 разработчиков, среди основных улучшений следующие:

  • Появилась возможность автоматического отключения проброшенных в гостевую систему устройств при отсоединении данных устройств на стороне хост-системы;
  • Повышена производительность пользовательского интерфейса на базе GTK+/VNC/SDL/Spice при помощи прямого использования данных фреймбуфера из памяти гостевой системы;
  • Появилась поддержка multiseat-режима для VNC;
  • Повышена производительность эмуляции virtio-blk, за счёт асинхронной обработки запросов SCSI и слияния идентичных операций чтения с диска;
  • Для QEMU Guest Agent добавлена поддержка операций с файлами в гостевых системах Windows и подключения/отключения блоков памяти в гостевых системах Linux для обеспечения работы функций горячего подключения памяти;
  • Добавлена поддержка запуска 32-разрядных гостевых систем KVM поверх хост-окружения на базе 64-разрядных процессоров ARM;
  • Появилась поддержка запуска KVM под управлением отладчика работы с памятью valgrind;
  • Для гостевых систем на базе архитектуры x86 добавлена поддержка эмуляции CPU IvyBridge;
  • Для гостевых систем на базе архитектуры MIPS добавлена поддержка микропроцессоров 5KEc и 5KEf MIPS64r2, M14K и M14Kc MIPS32r2 (microMIPS);
  • Для гостевых систем на базе архитектуры PowerPC добавлена поддержка расширений транзакционной памяти;
  • Для гостевых систем на базе архитектуры little-endian PPC/pSeries улучшена поддержка VGA;
  • Для гостевых систем на базе архитектуры s390x добавлена поддержка шины PCI;
  • Добавлена поддержка ioreq-server API для Xen;
  • Улучшена эмуляция звуковых карт SoundBlaster 16, что позволило обеспечить работу некоторых игр компании Epic при указании в настройках «SoundBlaster Clone»;
  • Удалён или перелицензирован под GPL-совместимой лицензией весь код, ранее поставлявшийся под лицензией SoftFloat-2b, не совместимой с GPLv2;
  • Вследствие смены лицензии библиотеки libxseg с GPLv2 на GPLv3, реализованное с помощью этой библиотеки блочное устройство Archipelago исключено из сборки по умолчанию, поскольку QEMU допускает код только под лицензией GPLv2.

Новость на opennet - http://www.opennet.ru/opennews/art.shtml?num=42114

>>> Подробности (на английском языке)

 , , ,

mbivanyuk
()

Множественные уязвимости в Linux

Группа Безопасность

В ядре Linux были обнаружены множественные уязвимости, которые могут привести к атаке типа «отказ в обслуживании»:

( читать дальше... )

>>> Подробности

 ,

Deleted
()

Релиз oVirt 3.4

Группа Open Source

oVirt — свободная, кроссплатформенная система управления виртуализацией.
oVirt базируется на технологии KVM (Kernel-based Virtual Machine).
Позволяет управлять виртуальными машинами через веб-интерфейс, используя для администрирования библиотеку libvirt.
Может быть загружена с флэш-носителя ёмкостью 64 Мбайт.

Список изменений:

  • Hosted Engine - главным изменением в релизе oVirt 3.4 стала поддержка функции hosted engine: теперь движок oVirt может работать в виртуальной машине на управляемом хосте.
  • Улучшенная поддержка Gluster.
  • Превью: PPC64
  • Превью: Hot-plug CPUs
  • Другие улучшения.

>>> Подробности

 , ,

Cloud_Strife2020
()

Релиз Proxmox VE 3.2

Группа Open Source

10 марта вышла в свет новая версия системы виртуализации на базе дистрибутива Debian GNU/Linux

Главные новшества этого релиза:

  • В основе теперь Debian 7.4
  • Добавлено тестовое ядро версии 3.10. Взято из RHEL7 beta. Пока без OpenVZ и тестовое, так что для продуктива не рекомендуется
  • Добавлена поддержка Open vSwitch. Пока превью
  • Добавлен новый плагин для поддержки ZFS. И тоже превью
  • Удален плагин для nexenta. Решили, что ZFS быстрее
  • Обновлен GlusterFS до 3.4.2
  • При установке с диска GPT стала таблицей разделов «по умолчанию». Для работы с ней, в образ включена утилита gdisk
  • Как всегда, как и у всех множественные багфиксы и обновления пакетов

Изменения в сопутствующих технологиях:

  • SPICE [что это?]
    • В spiceterm добавлена поддержка OpenVZ
    • В конфигурационном файле datacenter.cfg добавлена возможность выбора реализации console между java-апплетом(VNC) и spice
    • Добавлена поддержка мультимониторных конфигураций
    • Кнопочка в GUI теперь поделена напополам: SPICE/VNC
  • qemu обновлен до 1.7.0:
    • Добавлена команда pvscsi. Выводит список scsi-контроллеров.
    • Добавлена реализация si53c810 scsi-контроллера. Добавлена для поддержки старых версий Windows NT
    • В список эмулируемых сетевых адаптеров добавлен vmxnet3. В свою очередь, является эмуляцией паравитуализации сети в VmWare
    • Для блочных устройств добавлена опция 'discard'
    • Добавлена поддержка новых qemu параметров throttling.bps-{read,write}, throttling.iops-{total,read,write}-max, throttling.bps-{total,read,write}-max. Теперь для ВМ можно определить верхний порог срабатывания троттлинга IO
    • Улучшены «живые» бекапы
  • Обновление ядра до версии pve-kernel-2.6.32-27-pve:
    • Обновлено до vzkernel-2.6.32-042stab084.20
    • Обновлены модули e1000, igb, ixgbe, netxtreme2, megaraid_sas
    • Добавлены распоследние драйвера для ARECA RAID
    • Драйвера для сетевых адаптеров Broadcom bnx2/bnx2x обновлены до версии 7.6.62
    • aacraid теперь 1.2.1-30300 версии
  • Ceph Server [что это?]
    • Новый графический клиент для управления Ceph-сервером на PVE. Пока что тоже превью.

>>> Подробности

 , , ,

ii343hbka
()

Релиз Red Hat Enterprise Virtualization 3.3

Группа Red Hat

Вышла новая версия RHEV.

RHEV — это платформа виртуализации для ЦОД, полноценная замена vSphere и прочим похожим системам.

Использует KVM в качестве гипервизора, и полноценный RHEL или специально приготовленную версию RHEL, заточенную для использования только как гипервизор — RHEV-H.

Одна из особенностей RHEV в интеграции с облачной системой Openstack, что позволяет легко переводить виртуальные машины в облачную среду или использовать уже установленный RHEV для перехода в «облако».

RHEV подключается к Glance и Neutron, используя их как альтернативные методы управления репозиторием образов и сетью.

В новой версии поддерживается self-hosted engine, позволяя управляющей ноде (engine) работать в виртуальной машине на управляемом хосте, сокращая требования к аппаратуре (больше не нужен отдельный хост или кластер из хостов для engine).

Добавлен API для интеграции с системами Back-up/restore, помимо традиционных методов бекапа.

Расширена поддержка API для интеграции, и уже заявлено несколько официальных плагинов от сторонних вендоров:

  • HP: HP Insight Control Plug-in позволяет мониторить и автоматизировать реакции на события в среде RHEV развернутой на оборудовании HP.
  • NetApp: NetApp Virtual Storage Console позволяет быстрое клонирование виртуальных машин на СХД от NetApp, и позволяет обнаружение, настройку и изменение массивов доступных по NFS из интерфейса RHEV.
  • Symantec: Symantec Veritas Cluster Server позволяет настроить встроенный функционал DR для поддержки апликаций. VCS позволяет настраивать failover для конкретный апликаций, таким образом избавляясь от надобности рестартовать целые ВМ или сервисы для восстановления функционала.

>>> Подробности

 , , ,

dyasny
()

Open Virtualization Alliance присоединяется к Linux Foundation

Группа Open Source

21 октября некоммерческсая организация Linux Foundation объявила о принятии в свои ряды Open Virtualization Alliance, занимающегося разработкой и продвижением системы виртуализации KVM.

Членами OVA являются более 250 IT-компаний, среди которых HP, IBM, Intel, AMD, Broadcom, Dell и Red Hat. «Open Virtualization Alliance является естественным дополнением к нашим совместным проектам и мы рады поддерживать технологии виртуализации, способствующие продвижению Linux» - Jim Zemlin, исполнительный директор Linux Foundation.

Как совместный проект Linux Foundation, OVA продолжит продвижение KVM за счёт увеличения, в том числе, рекламных возможностей. Linux Foundation будет помогать в обучении пользователей и IT-специалистов, а также будет поддерживать проект KVM и компании, участвующие в его разработке.

«Linux Foundation имеет уникальные возможности по организации совместных усилий нескольких компаний для развития бизнеса. Совместная работа, использование опыта и достижений различных организаций - это естественный шаг для нас» - Chuck Dubuque, председатель совета директоров Open Virtualization Alliance.

Linux Foundation предоставит OVA полную свободу и независимость в принятии решений, даст возможность использования своей инфраструктуры, организует совместную работу и будет координировать деятельность независимого управляющего комитета. Примечательно, что в апреле конкурирующий с KVM проект Xen тоже присоединился к Linux Foundation. По мнению Linux Foundation, одновременная поддержка KVM и Xen позволит этим проектам совместить конкуренцию и совместную работу для ускорения развития новых технологий виртуализации и более плодотворного решения общих проблем, а также поможет развитию виртуализации в Linux в целом.

>>> Подробности (на английском языке)

 , ,

Valkeru
()

Релиз Proxmox 3.1

Группа Open Source

21-го августа вышел очередной релиз Proxmox 3.1, системы виртуализации с открытым исходным кодом, основанной на Debian GNU/Linux.

Главные особенности в данном релизе:

  • Основан на Debian Wheezy 7.1.
  • Поддержка SPICE.
  • Плагин для GlusterFS.
  • Возможность обновления системы через GUI.
  • Добавлен доступный по подписке репозиторий Proxmox VE Enterprise Repository с дополнительными платными сервисами и со всеми обновлениями (бесплатный репозиторий теперь не рекомендуется использовать для промышленного применения).

( читать дальше... )

>>> Подробности

 , , ,

Mr_Alone
()

Релиз QEMU 1.6.0

Группа Open Source

Вышла новая версия одного из популярных средств эмуляции и виртуализации — QEMU 1.6.0. В этом выпуске пользователей встретят следующие изменения:

  • Новое эмулируемое блочное устройство «nvme», реализующее PCI-плату с поддержкой стандарта NVMe.
  • Исправлены возможные потери данных при крашах IDE-дисков (из-за неправильных запросов FLUSH).
  • Устаревшие PCI-устройства теперь поддерживают прерывания MSI.
  • Живая миграция устройств USB 3.0 (использующих контроллер XHCI).
  • Поддержка интерфейсом ACPI средств для горячего подключения PCI-bridge-устройств.
  • Поддержка 32-разрядных инструкций load-acquire и store-release для ARMv8.
  • Экспериментальная поддержка virtio-устройств для vexpress-a9 и vexpress-a15.
  • Опция -initrd теперь поддерживает рамдиски с заголовком U-Boot.
  • Поддержка систем Calxeda ECX-2000 / Midway.
  • Поддержка Mac OS X (10.2-10.4 для PPC, 10.4 для PPC64) в качестве гостей.
  • Гости pSeries теперь умеют живую миграцию и savevm.
  • На системах s390x появилась команда dump-guest-memory.
  • Убрана поддержка архитектур Sun4c и Sun4d.
  • Для SPARC поддерживается 24-битный режим дисплея.
  • На х86 прошивки теперь можно пробрасывать в гостевые системы в виде flash-устройств (даже во время работы гостя).
  • Полное представление таблиц ACPI для гостей.
  • Исправлены CPUID для процессоров Conroe, Penryn и Nehalem.
  • Новый фоновый процесс для блочных устройств: drive-backup, предназначенный для создания резервной копии накопителя. В отличие от drive-mirror, файл бэкапа будет содержать те данные, что были на накопителе в момент старта процесса.
  • Исправления ошибок для бэкендов VMDK и curl.
  • Поддержка динамического выделения места в хранилище (thin provisioning) для образов qcow2.
  • Начальная поддержка живой миграции посредством RDMA.
  • Системы BSD теперь поддерживают новый интерфейс GTK+.
  • Интерфейс GTK+ поддерживает опции -full-screen и -no-quit.

Исходные коды

>>> Подробности

 , ,

it-nativa
()

Выложены записи докладов Дня виртуализации Fedora

Группа Конференции и встречи

Общая ссылка: видео-файлы и торренты

>>> Подробности

 , , ,

alpha
()

Proxmox VE 3.0

Группа Open Source

Вчера, 24-го мая, вышел очередной релиз Proxmox VE 3.0

Proxmox Virtual Environment — это система виртуализации с открытым исходным кодом, основанная на Debian GNU/Linux.

( читать дальше... )

>>> Подробности

 , , ,

Mr_Alone
()

Релиз системы виртуализации QEMU 1.4.0

Группа Linux General

Команда QEMU рада представить очередную версию мощной системы виртуализации: QEMU 1.4.0, включившую в себя более 1400 коммитов от 116 авторов.

Главные новшества:

  • virtio-blk-pci: экспериментальный многопоточный бэкенд для устройств PCI, позволяющий добиться прироста производительности ввода-вывода до 900%.
  • Увеличение скорости миграции и снижение задержек.
  • Возможность подключения USB-планшетов в качестве устройств USB 2.0.
  • Улучшение проброса USB-устройств.
  • В virtio-net добавлены мультиочереди пакетов.
  • Улучшение поддержки платформы s390.
  • Экспериментальная поддержка миграции AHCI-устройств на чипсетах Q35.
  • В подсистеме ARM сделаны многочисленные улучшения.
  • А в MIPS — улучшения поддержки DSP.
  • Поддержка TRIM на блочных устройствах теперь доступна не только в XFS.
  • xen_disk поддерживает BLKIF_OP_FLUSH_DISKCACHE ради пущей безопасности при внезапной пропаже питания.
  • И многое, многое другое.

>>> Подробности

 , , ,

Kindly_Cat
()

Вышел Proxmox VE 2.0

Группа Кластеры

После долгих лет томительного ожидания...
Наконец-то свершилось!
30-го марта вышла первая стабильная версия самого «продвинутого» OpenSource окружения виртуализации — Proxmox VE, знаменующая начало ветки 2.x. Колоссальное значение последней заключается в том, что по сравнению с 1.х в Proxmox VE было переписано с нуля и заменено почти всё. Столь радикальное решение позволило добавить множество революционных для данного проекта вещей, о которых пользователи Proxmox грезили ещё с 2010-го года.

Чего же мы все ждали и наконец получили?

В первую очередь это возможность построения отказоустойчивых кластеров. Для этого Proxmox VE 2.0 использует не только corosync как транспорт синхронизации (на основе multicast), но даже собственную «внутреннюю» кластерную файловую систему на основе СУБД! В отличие от прежнего Proxmox'а, нынешний умеет автоматически перезапускать виртуальные машины, работавшие на «умершей» ноде, на любой из оставшихся живых.

Вторым безусловным шагом вперёд является «мультимастерность», что означает то, что кластер доступен на запись изменений с любой из мастер-нод, а не только с одной единственной (возможно, уже «упавшей»), как это было раньше.

Стоит отметить новый веб-интерфейс Proxmox: он стал сложнее, запутаннее, интерактивнее (повсеместно используется Ext 4 JavaScript) и просто кишит функционалом. Впрочем, по мнению автора новости (которое никому не интересно :)), прежний интерфейс хоть и был беднее функционально, но зато отличался куда лучшей интуитивностью.

Прислушавшись к чаяниям широких масс enterprise-общественности, разработчики добавили RESTful Web API, позволяющий обращаться к функциям Proxmox простым унифицированным способом (и даже отлаживать API, вводя в адресной строке браузера умопомрачительные последовательности символов, прикидывающиеся обычным URL).

Благодаря накопленному разработчиками и активными пользователями опыту, в Proxmox VE 2.0 были учтены многочисленные багрепорты и обсуждения на форуме, касающиеся запуска различных типов операционных систем в KVM. Теперь содержание перечня параметров в строке запуска виртуальных машин существенно зависит от типа гостевой операционной системы и от целевой архитектуры процессора, причём различия в работе разных операционных систем под KVM отражены и во фронтэндовом веб-интерфейсе.

И конечно уже давно назревшее обновление базовой платформы до Debian Squeeze — это просто настоящий праздник для поклонников Proxmox!

По мелочи ещё стоит отметить куда более развитые возможности backup и restore, возможность размещать OpenVZ-контейнеры не только на /var/lib/vz, но и в других каталогах, интеграцию с сервисом TurnKey (готовые настроенные шаблоны OpenVZ для трудного в установке софта) и целое изобилие собственных OpenVZ-шаблонов.

В заключение стоит отметить, что Proxmox VE 2.0 сделал гигантский шаг вперёд навстречу enterprise'у. Косвенно это подтверждается и тем, что у PVE появилась подписка на коммерческую поддержку, причём взаимодействие с этой подпиской доступно непосредственно из нового веб-интерфейса.

Также команда разработчиков Proxmox доказала, что способна вести очень сложный OpenSource-проект, чётко следуя заранее намеченному Roadmap'у, пусть и (на ранних этапах разработки ветки PVE 2.0) с некоторым смещением относительно графика.

>>> Подробности

 , , , ,

DRVTiny
()

OpenNebula 3.2

Группа Кластеры

Выпущена новая версия открытой платформы для организации управления облачной инфраструктурой и виртуальными окружениями KVM, Xen и VMware — OpenNebula 3.2.

Из новинок следует отметить:

  • Полная поддержка VMware.
  • Новый веб-инструмент для простого управления инфраструктурой Self-Service Portal.
  • Улучшенный интерфейс управления пользователями и группами.
  • Новая подсистема управления сетью.
  • Политики управления центром данных.

Доступны пакеты для RHEL/CentOS, Debian, openSUSE и Ubuntu

>>> Подробности

 , , ,

Marvin
()

Proxmox VE 1.9 Released!

Группа Debian

Сегодня вышла новая версия Proxmox Virtual Environment 1.9.

Стоит напомнить, что этот дистрибутив предназначен для быстрого развёртывания сервера для хостинга виртуальных машин и включает в себя передовые решения для виртуализации OpenVZ/KVM, а также панель управления собственной разработки.

Версия 1.9 основана на Debian 5 Lenny, но уже следующая версия будет основываться на Debian 6 Squeeze.

Главные особенности релиза:

  • pve-kernel-2.6.32 (2.6.32-43);
  • vzctl (3.0.28-1pve5);
    • основной тэмплэйт выбран как debian-6.0-standard;
    • флаг CONFIGFILE=«pve.auto» в /etc/vz/vz.conf;
  • pve-manager (1.9-24);
  • pve-qemu-kvm (0.15.0-1);
  • qemu-server (1.1-32);
  • libpve-storage-perl (1.0-19);
  • vzdump (1.2-15);

>>> Подробности

 , , ,

Mr_Alone
()