LINUX.ORG.RU

Две видеокарты в ноутбуках: действительно ли это экономит энергию, или очередной впаринг?


0

0

Кто-нибудь делал на таких ноутбуках тест по поводу энергосбережения: на «слабой» видеокарте энергопотребление действительно ниже, чем на «мощной» при включенном режиме энергосбережения (если доступен) и неиспользовании прожорливых в плане 3D-ускорения приложений?

☆☆☆☆☆
Ответ на: комментарий от inoremap

Optimus не показатель, т.к. там в «мощном» режиме, как я понял, два чипа работают, поэтому потребление в любом случае больше (хотя, возможно, не на много). А в первой статье было что-то про не-оптимус (что в результате на слабой карте работает на чуть более, чем час побольше), то там не сказано, использовались ли при тестировании «мощного» чипа энергосберегающие функции.

Ttt ☆☆☆☆☆
() автор топика
Ответ на: комментарий от Theli

Хотелось бы помочь ТС, но вот как-то сами никак не разберемся с подключением. ;)

Insomnium ★★★★
()
Ответ на: комментарий от darkshvein

> Типа на ЦПУ смогли осилить смену частоты, а на ГПУ это сверхсложно? :)

на гпу это кому как ;) энвидия осилила и в проприетарных дровах реализовала, а вот остальные... хотя, я болььше всего склоняюсь к версии, что это происки intel... энвидии пришлось в суде разбираться с интелем, чтобы отделить атомы от интеловских чипсетов :(

Theli
()
Ответ на: комментарий от Theli

>хотя, я болььше всего склоняюсь к версии, что это происки intel...

А та венда-онли мега-нано-технология разве называется Intel Optimus?

Ttt ☆☆☆☆☆
() автор топика
Ответ на: комментарий от Ttt

если мне не изменяет память, то оптимус - энвидиевский продукт... о нем я похоже забыл )) но кому не выгодно впарить 2 железки вместо одной? за переключение частот много денег не возьмешь :(

я имел в виду нет/ноутбуки с intel+amd... на иончике есть повермизер, частоты в зависимости от нагрузки переключаются в 4 позициях... разница в частоте чуть больше, чем в 2 раза... в сочетании с остальными энергосберегающими фичами время работы меняется от 2 до 7 часов, правда я ставил мощный аккум отдельно...

Theli
()
Ответ на: комментарий от Theli

Ну по поводу оптимуса возможен сговор между Intel и Nvidia. Типа, зачем нам конкурировать, если можно впарить и то, и то.

Ttt ☆☆☆☆☆
() автор топика

позволю вставить свои 5 копеек по этому вопросу:

сами чипы уже давным давно научились переключать частоты, по крайней мере в 3х режимах: 2д, 3д, перфоманс 3д. Кажется так. В худшем случае, 2 режима: 2д и 3д соответственно.

ЕМНИП, переключение осуществляется на уровне драйверов. Сами же частоты для каждого режима зашиваются в биос карты.

Что касается самого вопроса, то, имхо, все будет упираться в «мощный чип»: будь он уровня Г80/Г92 и иже с ними, то переключение на интелевскую интеграшку должно дать преимущество в энергосбережении(Г80/Г92 и иже с ними сами по себе любят кушать по 90-150-200вт, если скинуть частоты, то, естественно, энергопотребление упадет, но вот до каких пределов, увы, не вспомню).

Deleted
()
Ответ на: комментарий от Ttt

Во всех мобильных intel'евских процах встроено графическое ядро, без него проц продать невозможно. А на новых процах и на всех десктопных будет графическое ядро. Поэтому скоро во многих компах будет по две видюхи.

Reset ★★★★★
()
Ответ на: комментарий от Deleted

На fermi частота падает до 30Mhz кажется. Карта вообще нисколько не ест в 2D режиме. И мне тоже кажется странным, что стали городить эту фигню с двумя видюхами, когда могли на ноутах тоже просто очень сильно снижать частоту.

Reset ★★★★★
()

Вот тут умелец к thinkpad'у с optimus подключает 4 монитора.

Reset ★★★★★
()
Ответ на: комментарий от Reset

> И мне тоже кажется странным, что стали городить эту фигню с двумя видюхами

1. Атом дешевле чем «классическая» конструкция
2. Значит, решения на Атоме будут дешевле
3. Значит, надо делать решения на Атоме чтобы увеличить прибыль и вообще иметь продажи
4. Интел отказывается выпилить графическое ядро из Атома, значит надо пристроиться к уже существующей в Атоме видюхе, для чего надо изобрести какую-нибудь «технологию» и «идею»
5. Изобретается «оптимус»

Все просто :-)

no-dashi ★★★★★
()
Ответ на: комментарий от Reset

Ай, ну замени атом на i3/i5, что изменится-то? :-)

no-dashi ★★★★★
()
Ответ на: комментарий от Reset

>Во всех мобильных intel'евских процах встроено графическое ядро, без него проц продать невозможно. А на новых процах и на всех десктопных будет графическое ядро.

А не является ли это не совсем честным с точки зрения антимонопольного законодательства? Если кому не нужен интеловский GPU, а нужен только CPU?

Ttt ☆☆☆☆☆
() автор топика
Ответ на: комментарий от Reset

> Во всех мобильных intel'евских процах встроено графическое ядро, без него проц продать невозможно.

GPU вообще-то встраивается в чипсет, а не в проц!!! Проц - это всегда микросхема отдельная от микросхемы чипсета!!! Просто интел продавала атомы только в комплекте с чипсетами, а производителям типа nVidia с этими чипсетами потом что делать? выкидывать? вот nVidia и судилась с Intel, чтобы отделить мух от котлет ))

http://news.techlabs.by/15_60785.html

Theli
()
Ответ на: комментарий от Reset

читать умеешь? вот зайди по ссылке и прочитай! а если вообще такой умный, то не воздух сотрясай, а подкрепляйся ссылками и документацией!!

Theli
()
Ответ на: комментарий от Theli

Совсем дурной чтоль? Какое отношение твоя баянистая ссылка имеет к тому, что intel GPU теперь встраивает в процы?

Reset ★★★★★
()

-=:=-

не совсем по сабжу,Но..
теперича ИНтель всегда будет гадить видюхой на кристалл проца? или всетаки будет отдельная ветка (или с отключенным видео) для нормальных десктопов?

KosmiK ★★
()
Ответ на: -=:=- от KosmiK

Видео будет отключаться либо само, если материнка не поддерживает, либо через биос.

Reset ★★★★★
()
Ответ на: комментарий от Reset

сказанное тобой относится только к ядру Clarkdale... что, в принципе, подтверждает криворукость Intel - вместо того чтобы наконец создать конкуренцию nVidia качественным и производительным продуктом, они склеили мух с котлетами (порознь то долго продавать не получилось)... так-что интел - брат-близнец мелкософта, ведущий аналогичную политику и стратегию;)

Reset, научись вести диалог, а то как гопнег в парадной :(

Theli
()
Ответ на: -=:=- от KosmiK

> теперича ИНтель всегда будет гадить видюхой на кристалл проца? или всетаки будет отдельная ветка (или с отключенным видео) для нормальных десктопов?

скорее всего речь только о мобильных процах, хотя коварству и жадности некоторых нет предела... nVidia смотрит теперь в сторону процессоров VIA, хотя я больше всего надеюсь, что nVidia просто создаст новую архитектуру наподобие ARM и Intel всосет ))

Theli
()
Ответ на: комментарий от Theli

В sandy bridge ВСЕ процы идут с графическим ядром. Ссылку на обзор архитектуры сам нагуглишь или тебя научить гуглить? Про новые процы AMD которые тоже с графикой интегрированной будут тоже ссылка нужна или нагуглишь?

Всё, времена графики в чипсетах прошли.

Reset ★★★★★
()
Ответ на: комментарий от Reset

-=:=-

хм...тогда уточню:
Тоесть Теперь после СандиМоста НЕ будет ниодного ядра для desktop [low->high] сегмента БЕЗ впаренного видео на кристале? (чистый CPU-кристалл уйдет в прошлое)

НО я так полагаю, что в сегменте Xeon'в это тоже произойдет (почему бы не вынести видео с северного моста на кристалл проца) ?

И я так понял АМД тоже копает в эту сторону с такими же целями?

KosmiK ★★
()
Ответ на: комментарий от Theli

Что за чушь ты говоришь? Встроенная графика никогда не конкурировала с дискретной. Ничего не изменится, люди будут покупать процы intel со встроенной графикой и ставить карты от nvidia.

Reset ★★★★★
()
Ответ на: -=:=- от KosmiK

Тоесть Теперь после СандиМоста НЕ будет ниодного ядра для desktop [low->high] сегмента БЕЗ впаренного видео на кристале? (чистый CPU-кристалл уйдет в прошлое)

похоже на то

И я так понял АМД тоже копает в эту сторону с такими же целями?

ага

Reset ★★★★★
()
Ответ на: комментарий от Theli

-=:=-

>nVidia смотрит теперь в сторону процессоров VIA,

хохо...вианано_x_2 с внедрённым блобом на кристал? как они договорятся (ведь их манагеров epic ЖАБИЩА просто обязана раздавить)

а вот arm+nvidia...хм, разве что для lcd-панели в туалете, что бы новости и лор парсить в realtime...

KosmiK ★★
()
Ответ на: комментарий от Reset

> Ничего не изменится, люди будут покупать процы intel со встроенной графикой и ставить карты от nvidia.

это не сможет продолжаться долго, ибо кто-нибудь в америке выиграет суд, в котором запретят так делать, ибо не фиг платить за то, что человеку не нужно! это у нас дома могло бы продолжаться до бесконечности...

Theli
()
Ответ на: комментарий от Theli

-=:=-

мм....а тогда, уважаемый, вспомни одну ньюсу.
Тама интель предложила (дада епт!!) АПГРЕЙД проца за денюшку, путем ввода некоего кода...эдакая скретч-карта..
Я так думаю, что скорее всего после срачей на таму «А НАХ мне это говно-видео», интель так и зробыть...

KosmiK ★★
()
Ответ на: -=:=- от KosmiK

возможно интел так и сделает... а кто знает? а возможно просто появятся другие игроки на рынке, которые и будут зарабатывать на жадности других компаний ;) ну, по крайней мере, я на это надеюсь ))

Theli
()
Ответ на: комментарий от Theli

-=:=-

хех.. а ведь таки скорее ДА, чем нет.
Сфигали Оффтопег вдруг 8ую на Арме собрал? ну ведь не только ради всего сегмента low power потребляния...
Вполне возможно, что готовят нишу для обделённых жителей планеты..
И вполне возможно, что винда с Nvidia на арме смогут дать фапабельный fps для того же крЫзиса-2. Если при этом стоимость такого решения будет ниже, и энергопотребление не 400 ватт...то....
Воопщем, смертные предполагают, а манагеры слушают, да и ...свое делают...

KosmiK ★★
()
Ответ на: -=:=- от KosmiK

>а манагеры слушают, да и курят свою траву и выдают на гора дикобезумные решения

//фикс во имя луны

зы: кто знает, как в Линуксе, без настроек в БИОС ноута, отключить нафиг видео, встроенное в проц и активировать нвидия видяху?

Kompilainenn ★★★★★
()
Ответ на: комментарий от Kompilainenn

написать скрипт с применением vgaswitcheroo и добавить в автозагрузку ;)

Theli
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.