LINUX.ORG.RU

Экран жрёт батарею даже в выключенном состоянии

 , , , win max 2


1

3

всем привет! Вынесу вопрос из некропоста в галерее, чтобы там не сорить и более комплексно обсудить. Пытаюсь обуздать прожорливость wm2 и, собственно, сабж.

https://imgur.com/a/kmxiuRh

–calibration запускал, но показания на этот счёт никак не изменились. Как такое вообще возможно?

Скрин делался при подключении к внешнему монитору

Ответ на: комментарий от harbinger

не похоже, прямо в темноте утыкаюсь носом в экран и границы между экраном и рамкой не отсекаю.

тут в дискорде предложили перекалиброваться с уже отключенным встроенным экраном - попробовал, но бестолку, всё равно рисует 9Вт

mega_venik ★★★
() автор топика
Ответ на: комментарий от mega_venik

прямо в темноте утыкаюсь носом в экран и границы между экраном и рамкой не отсекаю

На хорошем IPS засветов как правило не видно.

У меня например IPS хреновый (новый монитор стоил около 4000-5000р в 2017-2020 годах), поэтому на нем видно.

А вообще, если так важно энергопотребление - надо было эйр на м1 брать, там с этим все в порядке, >10ч от батареи.

harbinger
()
Последнее исправление: harbinger (всего исправлений: 1)
Ответ на: комментарий от harbinger

Да мак у меня есть для работы и хорошей батарейки, с этим никаких проблем) но тут для собственной квалификации хотелось бы разобраться, что не так

mega_venik ★★★
() автор топика

А может у тебя на самом деле не экран жрёт, а что-то другое? Я сталкивался с такой ситуацией: согласно powertop жрёт ethernet контроллер, а на самом деле дело жрал хаб из-за того, что в биосе по умолчанию включён какой-то режим sata контроллера, который в линуксе не поддерживается. При этом в ноуте небыло установлено ни одного sata устройства.

Khnazile ★★★★★
()
Ответ на: комментарий от mega_venik

Я самостоятельно не смог это диагностировать. Закончилось тупо тем, что примерно через пол года кто-то нашел решение, и написал об этом в интернете, а я нагуглил.

Khnazile ★★★★★
()

Эти данные данные снимаются откуда, из астрала? Питание подсветки матрицы идёт в 95% случаев напрямую с B+, никаких токовых датчиков там нет, а даже если бы и были, софту такую инфу никто не отдаёт

Брось бяку и не заморачивайся

shalom_ ★★
()
Последнее исправление: shalom_ (всего исправлений: 2)

lm-sensors у тебя не показывает Volts и Current снимаемые с батареи через ACPI ?

У меня в ноуте он показывает Вольты и Current, при работе на батареи получается 15V*0.5A = 7.5 Ватт (Уменьшая подсветку можно наблюдать как падает сила тока).

Я вот не знаю почему люди доверяют каким-то утилитам которые фиг знает из какого астрала достают информацию про потреблению отдельных элементов.
Смотри на цифры из ACPI, потому как если вендор не идиот то он хотя бы написал соответствующие функции на AML.

Aber ★★★★★
()
Ответ на: комментарий от einhander

По частотам в указанном режиме скачет между базовыми 400МГц и 1400МГц. Но вот по павертопу то камень как раз норм, свои там 3-4Вата кушает и это прекрасно.

А вот эта якобы «подсветка экрана» волнует больше всего. Возможно, это и не подсветка вовсе, а какой-то усб девайс так псит

mega_venik ★★★
() автор топика
Ответ на: комментарий от shalom_

Встречал в некоторых видеокартах nvidia (не ноутбуки), что разбивка мощностей делается по «общий токовый датчик суммарного потребления», «отдельные токовые датчики на некоторые узлы», «таблицы потреблений по уровню активности для некоторых других узлов», а всё остальное потребление, сколько бы его ни было списывается на «самый жручий из оставшихся узлов».

Учитывая что даже табличные оценки потребления по уровню активности хромают очень сильно - этот остаток приписываемый последнему узлу может быть в 10 раз больше реальности, а может быть 0 при реальных >10W.

Очень похоже что здесь на каком-то уровне применён код

мы примерно оценили что сколько жрёт из того что можем прикинуть, давайте вычтем эту сумму из общего и скажем что это подсветка, почему нет
GPFault ★★
()
Ответ на: комментарий от GPFault

Типа того, да

Если со схемотехникой видеокарт сравнить, то это типа как у тебя на 12v стоит токовый датчик, от тех же 12 питается кулер (за токоизмерительным резистором), и софт меряет потребление кулера

Дурдом, да и только

shalom_ ★★
()
Ответ на: комментарий от shalom_

у тебя на 12v стоит токовый датчик, от тех же 12 питается кулер (за токоизмерительным резистором), и софт меряет потребление кулера

А примерно так и есть)

На задачах, на которых частота видеочипа nvidia лимитируется прописанным в VBIOS лимитом потребляемой мощности - выставление принудительных 100% оборотов вентилтора - приводит к снижению частоты видеочипа, по сравнению скажем с 60% оборотов. Так лимитируется суммарное «потребление винтиляторов + видеочипа»

GPFault ★★
()

Ну я уже писал где-то. Экран там индустриальный с интерфейсом MIPI-DSI. То есть про всякие там PSR не говоря уже про Freesync replay он не слышал. И предназначен для того чтобы стоять в каком-нибудь ЧПУ станке или автомобильной встроенной мультисистеме, то есть при создании этого экрана никто о сохранении батареи даже не помышлял. Но с точки зрения WM2 это eDP экран, что говорит о том что там впаян чип перекодирущий eDP на MIPI. Который тоже не факт что батарею экономить обучен.

И создается впечатление что включен экран, выключен экран - видюха продолжает отрисовывать в него кадры и жрать. А то что все расходы на отрисовку видео powertop срисывает на подсветку экрана - это уже проблемы повертопа и его разрабов. И кстати если я правильно помню - затраты энергии на отрисовку на внешнем мониторе тоже будут помещены в Display backlight.

Но вот сделать с этим имхо ничего не получится - это уже проблема железа.

Qui-Gon ★★★★★
()
Последнее исправление: Qui-Gon (всего исправлений: 1)
Ответ на: комментарий от Qui-Gon

MIPI-DSI это не индустриальный, это мобильный интерфейс. Почти в каждой мобилке сейчас экран на нем сидит.

Мост eDP->MIPI да, жрёт, но немного (100mW?)

тут что-то другое садит, а вот что…

PCIe 4.0 NVME? Стоит попробовать принудительно дегрейднуть линк до 3.0/2.0

timdorohin ★★★★
()
Ответ на: комментарий от timdorohin

MIPI-DSI это не индустриальный, это мобильный интерфейс

Возможно - но сам экран индустриальный. Конкретная модель установленная в WM2 гуглится как industrial screen. Точных спек на нее нет - все упоминания только на мандарине, скорее всего ребята из GPD нашли где-то запасы этих скринов и на них все и спроектировали. Хотя есть с тем же разрешением и размером нативные eDP 1.4 скрины от панасоник. Но тут уж что есть то есть.

Проблема не в том сколько ест мост. Проблема в том сколько жрет радеон отрисовывая каждый кадр. В PSR интерфейсе статическая картинка запоминается экраном - контроллером матрицы - и пока ничего не поменяется матрица рисует из памяти контроллера, а видеоадаптер прожорливый отключается. А если PSR не поддерживается - то каждый гребанный кадр 60 раз в секунду генерируется жручим радеоном. Вот этот ужор и рисуется в powertop под названием «подсветка экрана». И не исключено что закрытие крышки в GPD просто отключает подсветку но не отключает отрисовку - и тогда беда.

Поэтому GPD жруч. Он еще много почему жруч - но тут какбы без претензий. Это игровая приставка созданная для того чтобы играть - а когда ты играешь тебя меньше всего беспокоит экономия батарейки в простое. Наигрался - усыпил, благо в отличии от многих современных ноутов GPD умеет спать в suspend s3. Там и биос абсолютно не настроен на энергосбережение но благо он открывается - правда я вот не знаю что и как с этим делать. Ну процентов 10 параметров понятны а остальное - поможет не поможет или вообще окирпичит. Еще кстати ради интереса налругался над своим экземпляром и скрутил с него все джойстики и игровые манипуляторы. -0.5 ватта в простое, правда начинает ехать курсор как будто джойстик нажат вправо ( лечится отключением контроллера джойстика через sysfs). Еще там есть тачскрин с поддержкой активного стилуса - тоже кушает. Еще распаянный USB HUB с картридерами и кучей портов - ну это какбудто вы взялти и воткнули в свой ноут USB-C докстанцию. Тоже жрет.

NVME не поможет - я поставил самсунг 960Pro 2тб на MLC чипах который PCIe 3 изначально. Разницы не особо много - в простое что 3 что 4 PCIe ссд ест копейки. Хотя иногда они начинают подъедать когда занимаются реорганизацией записей на флэше и распределением SLC кэша по основным ячейкам - тоже процесс непонятный потому как эту активность со стороны OC не видно, так что все вот эти наблюдения и замеры надо делать в течении некоторого времени желательно не трогая комп. Если просто нажать кнопку в неподходящий момент - то powertop покажет неадекватно большое значение. Я предпочитаю запускать powerstat с шагом в 10 сек и смотреть по среднему.

Qui-Gon ★★★★★
()
Ответ на: комментарий от Qui-Gon

А если PSR не поддерживается - то каждый гребанный кадр 60 раз в секунду генерируется жручим радеоном

А с частотами именно гпу пробовал играться? В виндовом motion assistant про это есть. Под линоксы тоже какой-то скрипт вчера нашёл - https://github.com/sibradzic/amdgpu-clocks, попробую его сегодня в течение дня

mega_venik ★★★
() автор топика
Последнее исправление: mega_venik (всего исправлений: 1)
Ответ на: комментарий от mega_venik

echo «low» > /sys/class/drm/card0/device/power_dpm_force_performance_level

Процессор можно зарубить например так -

/usr/local/bin/ryzenadj –slow-limit=8000 –stapm-limit=10000 –fast-limit=12000 –tctl-temp=60 –power-saving

Больше там собственно ничего не нужно. Это реально помогает ибо радеон почему-то в режиме авто предпочитает находиться в достаточно производительном состоянии. Для воспроизведения видео и отрисовки интерфейса (даже в compiz и wayfire) вполне хватает low. Но играть в таком состоянии нельзя от слова совсем. Играть я не играю но запуск бенчмарков от Unigine показывает производительность на уровне 620-го древнего интела, так что представить что будет в играх вполне себе можно.

С частотами напряжениями и прочим скорее всего ничегоне получится. Все эти скрипты и утилиты работают с дестопными процами и десктопными видеокартами. А с ноутбучными APU все как правило заблочено.

Qui-Gon ★★★★★
()