LINUX.ORG.RU

Bumblebee 3 «Tumbleweed»

 ,


0

4

Bumblebee — драйвер для работы технологии Nvidia Optimus на Linux c энергосбережением.

Основные изменения:

  • Проект полностью переписан на C (с shell).
  • Исправлена ошибка, при которой видеокарта могла не выключаться после завершения работы с ней.
  • Добавлено автоматическое энергосбережение, по умолчанию добавленное в проект.
  • Добавлено автоматическое обнаружение оборудования и конфигурация под него.
  • В рамках проекта написан новый модуль ядра bbswitch для включения/отключения видеокарты.

Bumblebee поддерживает как проприетарный драйвер Nvidia, так и Nouveau.

>>> Проект на github

★★★

Проверено: DoctorSinus ()
Последнее исправление: DoctorSinus (всего исправлений: 10)
Ответ на: комментарий от Xenon

Потому что непонятно написано. ТСу не мешало бы исправить, у нескольких человек уже непонятки возникли.

curufinwe ★★★★★
()

Проект полностью переписан на C (с shell).

О, теперь вместо сноса /usr будет сразу rm -fr / на сях.
Тред не читал.

anonymous
()

Надо же. А я как раз только позавчера предыдущую версию bumblebee и включение-отключение gt555m через acpi_call на свой asus n55sf прикрутил. Придётся обновлять.

NightOperator ★★★
()
Ответ на: комментарий от KennyMinigun

ironhide есть опакеченный под Debian? Если нет - то нафиг, ибо не трожь, если работает.

Deleted
()
Ответ на: комментарий от FuriousBean

Багрепорт им написать, что ли.

Начни с этого. Я про свою писал, но проблему так и не решили.

А с bbswitch все отлично.

Deleted
()
Ответ на: комментарий от daemonpnz

в AMD/ATI + Linux всё прекрасно работает из коробки.

Program1 я хочу на интеграшке, Program2 - на дискретной. Причем чтобы Program1 и Program2 работали одновременно в одной сессии иксов. AMD/ATI это уже научился?

Deleted
()
Ответ на: комментарий от reserved

А жители Виллабаджо-то не знают...

поэтому и жрут optimus ?

Sith ★★★★★
()

Хоть карта и отключается, все равно энергию жрет ложкой. И непонятно почему.

Еще смущает, что в lsmod видно nouveau, хотя судя по тестам с optirun работает nvidia (и в glxinfo видны соответствующие строчки).

jackill ★★★★★
()
Ответ на: комментарий от Deleted

Program1 я хочу на интеграшке, Program2 - на дискретной. Причем чтобы Program1 и Program2 работали одновременно в одной сессии иксов. AMD/ATI это уже научился?

А этому хоть кто-нибудь уже научился? А то мне это кажется технически невозможным.

tailgunner ★★★★★
()
Ответ на: комментарий от tailgunner

NVIDIA Optimus научился (для этого и создавался bumblebee).

Muxless ATI PowerXpress 4.0+ под виндой AFAIK тоже умеет (а под никсами - нет).

Deleted
()
Ответ на: комментарий от jackill

Хоть карта и отключается, все равно энергию жрет ложкой. И непонятно почему.

Покажи вывод lspci -v после отключения.

Deleted
()
Ответ на: комментарий от Quasar

А где главная возможность - снос /usr ?

Только в платной версии.

MrHouse
()
Ответ на: комментарий от Deleted

NVIDIA Optimus научился (для этого и создавался bumblebee).

В одном сеансе иксов изображение на монитор выдают 2 видеокарты? Это у тебя лично работает, или у тебя есть хотя бы приличный пруфлинк?

tailgunner ★★★★★
()
Ответ на: комментарий от tailgunner

да у всех работает, у кого нвидия оптимус. на монитор выдаёт только интел, а на нвидии считается 3д графика, полученная картинка передаётся в интел. само собой, нвидию можно в любой момент просто выключить

rain87
()
Ответ на: комментарий от rain87

на монитор выдаёт только интел, а на нвидии считается 3д графика

Ну слава ТНБ, чудес таки не бывает.

tailgunner ★★★★★
()
Ответ на: комментарий от tailgunner

В одном сеансе иксов изображение на монитор выдают 2 видеокарты?

Нет. Во всех Muxless решениях на экран выводит только интегрированная, а дискретная выводит вникуда (обычно в некий виртуальных выход, не подключенный к монитору). Из никуда дискретной на встроенную изображение перекидывается софтом. Под винду такой софт написан (реализации Optimus и ATI-шных технологий (у ATI это несколько технологий, а не одна)), под Linux - написан давно (virtualgl), но человеческая обертка (bumblebee) написана только под nVidia (там для ATI не так уж много поправить надо, но пока это никто не сделал).

Да, такой подход работает. У меня лично.

Deleted
()
Ответ на: комментарий от Deleted

Из-за virtualgl теряется сильно производительность.

thelonelyisland ★★★
() автор топика
Ответ на: комментарий от fang90

Нет, с ddr3 и 128-bit. Она в mxm исполнении - если что, вытащу и перепаяю чип на более быстрый или вообще заменю всю mxm плату.

Во всяком случае она сейчас корректно отключается у меня при старте системы, не нагревая воздух внутри корпуса и не съедая батарею и запускается только в тот момент, когда я собираюсь её использовать. acpi вызовы совместимы с таковыми от gt540m. В общем не стал я bumblebee апгрейдить :)

NightOperator ★★★
()
Ответ на: комментарий от NightOperator

gddr3 норм, оно всегда работало... а вот c gddr5 печаль какая-то:(

fang90 ★★★★★
()

про мышей и кактус уже говорили? :D

ktk ★★★★
()
Ответ на: комментарий от jackill

Не правильно значит у вас она выключается. У меня с ходу -300 мА/ч

KennyMinigun ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.