LINUX.ORG.RU

Гибридная архитектура Intel уже готова для Linux?

 


3

4

Сабж. Несколько лет уже прошло, остались ли какие-нибудь косяки планировщика/чего угодно ещё с этими P/E ядрами на Linux? Особенно, если речь не о самых распоследних версиях ядра Linux, а, скажем, 6.8.

Надо выбрать между мобильными i9-11950H и i9-13900H. Понятно, что выбор несложный и в пользу последнего, но может есть какие-то невероятно раздражающие факторы направляющие в пользу первого, т.к. использоваться будет только онтопик с убунтовским LTS-ядром.



Последнее исправление: OSBuster (всего исправлений: 1)
Ответ на: комментарий от Qui-Gon

Кстати да, на встройке есть такой момент. В линуксе это легкие задержки анимации, но этого не происходит, если есть достаточно чипов памяти полагаю. У меня это прошло после установки 4-х модулей по 16 гигабайт DDR5. Так что дискомфорта не наблюдается, а видеокарта вступает в работу только когда запускается игра на ней, это на АМД. А Нвидию под виндой вроде как плющит, хотя ей надо быть выключенной. Не знаю поборол ли человек это дело в попытке освоить парную работу видеокарт, но там RTX 4090 на 23% напрягается когда ничего не происходит и хрень полная на выходе получается.

anonymous
()
Ответ на: комментарий от anonymous

На АМД встройке лезут артефакты на вяленом если проигрывается видео с хардверным ускорением - баг не закрыт, по мне не сильно критичные артефакты.

На интел Arc встройке идут фризы в лисе. Причем фризы поганые - когда фокс на секунд 5 перестает реагировать на что либо.

Это из того на что я наступаю на своем железе.

Так что багов там вагон и тележка - но в случае с онтопиком навидия со своим блобом по багам чемпион, особенно когда дело касается вяленого.

Парная работа видеокарт - ну тут не ясно зачем это надо. Если стоит 4090 - то толку от того чтобы подключить параллельно встройку ну ничтожно мало - если только не использовать медиа-движок для кодирования-декодирования что собственно проблем не вызывает. Наоборот логичнее встройку при работе дискретки разгрузить чтобы отдать ватты теплопакета ядрам процессора.

Qui-Gon ★★★★★
()
Ответ на: комментарий от Qui-Gon

Встройка почти не потребляет ничего. Она в режиме игр даже скидывает частоты с 650-1000 до 300 мегагерц. А надо это все по той же причине - даже если висит хоть легкий рабочий стол у меня на RX 6500 XT количество кадров гуляет от 13 до 90. При этом потребление ЦП и видеокарты по полной шпарит. При подключении через встройку ЦП в разы снижает нагрузку и показывает в районе 20-25 ватт при 300 кадрах в Quake Champions, а видеокарта потребляет при этом не полный теплопакет. При этом при ограничении в те же 86-90 кадров ЦП жрет менее 10 ватт, а видеокарта около 16 ватт, при этом работая в пассивном режиме. Разница получается по энергопотреблению в разы. Примерно та же картина в CS2 и многих других играх. Я все не проверял. То есть потенциал может быть и не маленький раскрыт, особенно при высокой частоте кадров, которую продвигают. Встройка просто выводит изображение. И опять же не у всех есть 4090. Большинство обходится чем попроще. да и владелец 4090 жаловался что ему жарковато становится. Скинуть хотя бы сотню ватт не так уж и плохо становится. И багов никаких не наблюдается у меня. Все игры что идут на видеокарте (старые на встройке) идут очень плавно без фризов. А вот если 4090 будет упираться во фризы пи лютых настройках графики ей это вполне вероятно поможет. Мало что ли игр с поганой оптимизацией?

anonymous
()
Ответ на: комментарий от anonymous

если встройку нагрузить она очень себе даже потребляет. Просто нвидия потребляет огого даже если ее не нагружать…..

Ну а если нагрузить - то какой смысл мучить встройку.

Qui-Gon ★★★★★
()
Ответ на: комментарий от Qui-Gon

Вот пример того как это выглядит. Энергопотребление ниже чем при подключении в видеокарту, а кадров в разы больше. ЦП при этом жрет не какие-нибудь 85 ватт, а в районе 25. Это еще gamamode чего-то чудит. Я не тестировал 4090 чтобы сказать что конкретно это дает, но большинству уж точно такой вариант подойдет.

https://media2.cackle.me/b/f9/23c87ca96d9b944b5fc35402209e5f9b.jpg

anonymous
()
Ответ на: комментарий от Qui-Gon

Что то я не помню никаких попыток оффтопика запустить невидию без моего приказа. Может если только аудио и hdmi в какой то странный узел завязали... Но в этом тоже нет смысла.

А криволапость конкретных реализаций не отменяет принципе: задачу можно решить как то вот так и это будет более-менее хорошее решение, лучше пока никто не придумал. Ну разве что обязать каждого разработчика писть для своего приложения профили и манифесты, но это не будет работать.

kirill_rrr ★★★★★
()
Ответ на: комментарий от kirill_rrr

Ну это и не будет работать на компе. Это придумано для телефонов. На телефонах есть куча фоновых задач вроде отслеживания вышек 4-5G и точек доступа WiFi, скачивания фоновой информации в виде уведомлений или СМС -почты-сообщений мессенджеров которые происходят постоянно пока телефон для его владельца находится в практически выключенном состоянии. И понятно что все эти демоны ОС вполне известны и подконтрольны разработчику ОС. И они пойдут на малые ядра - а все что пользователь запустит руками при включенном экране полетит на большие.

На компе таких вот функций фонового режима зело меньше, то есть по сути там особого смысла в этой little-big архитектуре нет. Кроме маркетинга гребанного, через который интел решила подвинуть АМД с трона короля энергоэффективности. В итоге если сравнивать в оффтопике - где есть поддержка little-big - Ultra 7 Meteorlake c little-big и Ryzen 7 Phoenix c c одинаковыми ядрами - энергоэффективность ну где-то в паритете даже немного в пользу амд. Но маркетинг такой маркетинг - так что теперь little-big есть и у синих и у красных, сделан он для утех меркетологов а инженерам теперь предстоит как-то выкрутиться и как-то использовать фичу которую они не просили.

Qui-Gon ★★★★★
()
Ответ на: комментарий от Qui-Gon

Это сделано чтобы отделить архитектуру для холопов от производительной с AVX-512 за которую можно на ровном месте деньги драть. А у винды мелких задач просто вагоны и потому она в просто жрет 7,5 ватт в простое, когда линукс жрет 3 ватта на процессоре.

anonymous
()
Ответ на: комментарий от anonymous

если бы венда умела пользоваться little-big то на венде интел выигрывал бы в автономности у амд. но мы наблюдаем противоположную картину. На данном этапе - до лунарлейка уж точно - все обзорщики в голос твердили - за автономностью берите амд. Интел - печка.

Лунарлейк похоже первый проц от интел который в сочетании с дровами венды позволил держать батарею не сферическом простое в вакууме а на реальных офисных задачах.

А AVX-512 не сильно и нужен в основной массе задач. Вернее там где он нужен - это уже не сфера применения ноутбука и соответственно автономность и батарея не волнуют никого. И соответственно зачем там в принципе какие-то E-ядра.

Qui-Gon ★★★★★
()
Ответ на: комментарий от Qui-Gon

AVХ512 как раз наоборот подходит для большего числа задач, чем предыдущие. Не потому что 512бит, а потому что там добавили много полезных инструкций, маски и тд.

anonymous
()
Ответ на: комментарий от Qui-Gon

Просто чтобы хоть как-то интелу на 10нм техпроцессе выкрутиться для стационарных ПК. Ну а дальше маркетинг сделает свое дело и люди будут думать что и на ноутбуках так же. Вот смотри у меня 12900к потребляет 160-165 ватт в синебенче. И каждые 100 мгц частоты позволяют сбросить вольтаж, что дает примерно 15 ватт снижения за шаг. Но и эти показатели куда лучше обычно озвучиваемых и зависит это от материнской платы. Раньше было 185 ватт на процессоре с подъемом под 190. В сравнении с базовыми 241 ваттом это большой разрыв. Так что можно и до 130 ватт ужать в обычном использовании в сравнении с 7950х с его 127 ваттами, которые я видел на той же частоте с андервольтом. Это могло бы сработать, если бы материнские платы точно позволяли работать на более низком вольтаже, но даже Gigabyte Z690 Aorus Ultra с этим не справлялась. Да она выдерживает запросто 280 ватт. Да и сама по себе кольцевая шина не позволяет просто нарастить ядра. Этот провал был на 10900к ясно виден как они пытались что-то предпринять. И потому пришлось по сути второй процессор цеплять.

anonymous
()
Ответ на: комментарий от Qui-Gon

Надеюсь понятно объяснил - это не ноутбучный процессор с его жестким ограничением по энергопотреблению и отсутствием настроек. Без андервольта цифры в простое были бы куда выше. Это жесткий процессор с кучей ядер, которого за глаза хватает. Главное температуры выше 80 градусов не растут на воздухе. И это я давно термопасту не менял. Вот и получается что гибридная графика плюс андервольт и все вполне сносно работает. Дальше дело мелкософта допилить планировщик. Ну и на линуксе тоже поработать над фоновыми задачами. MSI Z790-A плата если что нормально работает с андервольтом. На ноутбуках остается лишь вариант вырубания ядер вручную пока все не доделают. Были бы одни большие ядра они и жрали бы как не в себя. Лично я не стану покупать ноутбук без возможности андервольта. Это безумие брать топовый процессор с ограничением в 65 ватт без него. Лучше уж брать на тест несколько понравившихся моделей и смотреть где лучше реализована материнская плата для стабильной работы в андервольте. А пока этого нет, то для ноутбука я наверное предпочту ARM. Там хоть модем сразу имеется, если это не яблобук. Мне не энергоэффективный подход вообще не нравится. А что если бы я мог получить выхлоп не вполовину, а в 90% на тех же 65 ваттах? Сами мелкие ядра ничем жить не мешают. Это проблемы производителей ноутбуков. Если они не добавят функцию андервольта и разгона в ноутбук, то пусть оставят его себе.

anonymous
()
Ответ на: комментарий от Qui-Gon

Как раз на ПК с более полноценными операционками это будет работать не хуже. Тот же системный софт определяется по путям или подписи разработчика (на винде) - отправляем на малые ядра. На больших ОС есть система приоритетов процесса - значит надо (и давным-давно пора) запилить ещё 2 фишки - пусть WM рулит приоритетами связанных с окнами процессов на основании их видимости (что то мне подсказывает что логика там на полсотни строк и всё простое как кувалда), а браузер всё то же самое, но для своих вкладок. И вот уже окно переднего плана висит на Р-ядре даже если нет профиля приложения, а все свёрнутые и фоновые делят между собой незанятые потоки Е-ядер.

Сама по себе асиметричная архитектура не плоха. Она сложна в управлении, но это мощный инструмент управления питанием. Невозмможно сделать одновременно быстрое и энергоэфективное ядро, специализированные всегда выиграют.

Если уж с управлением полный швах, то можно реализовать жёсткое переключение всей системы между 2-я кластерами: вот тебе побыстрее, а вот похолоднее.

kirill_rrr ★★★★★
()
Ответ на: комментарий от kirill_rrr

Рулить то хорошо, но даже без руления тот же 12900к в Cinebench R23 показывает потребление в 140 ватт при 4.8 ГГц по большим ядрам при -0.135 милливольт, на 4.9 ГГц 160 ватт. Хотя в изначальных обзорах видна цифра в 300 ватт без андервольта. По сути разница в два раза могла бы быть, если бы ноутбуководам дали возможность снизить вольтаж. А в энергосберегающих режимах разница была бы и больше так как малые ядра должны были бы идти в дело. Это говорит о нераскрытом потенциале чипов, но пока это реализуют еще куча времени пройдет. Более того гибридная графика на ноутбуках не факт что работает так как должна, что еще раз в разы повышает энергопотребление процессора и видеокарты. Причем это по всей видимости касается и АМД. Даже если грубо считать 100 МГц на 20 ватт, то это все же довольно высокие частоты могли бы быть стабильны для рабочих задач на ноутбуке. А в играх эти 65 ватт по сути недостижимы должны были быть. Дальше остаются вопросы к андервольту видеокарт. И все это не реализовано толком, кроме АМД, где более-менее работает все. Если бы энергоэффективные ядра шли в дело адекватно интел должен был бы намного дольше работать - приблизительно как те же снапдрагоны, что могут сутками работать. Но этого нет и надо реально смотреть на ситуацию. Гибридная архитектура все еще сырая. А без реализации ничем особым не выделяется. Можно лишь на десктопе нарулить андервольт, если материнская плата позволяет выдерживать адекватное энергопотребление. И это не залуга самой интел, хотя потенциал у процессоров есть. В новом поколении так вообще дикий разброд и шатания и надо еще проверять поможет ли реальный андервольт с отрубанием дикого буста одного ядра с выравниванием частот для всех ядер.

https://3dnews.ru/1052960/obzor-protsessora-core-i912900k-perevorot-v-soznanii/page-2.html#%D0%AD%D0%BD%D0%B5%D1%80%D0%B3%D0%BE%D0%BF%D0%BE%D1%82%D1%80%D0%B5%D0%B1%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5

anonymous
()
Ответ на: комментарий от anonymous

тот же 12900к в Cinebench R23 показывает потребление в 140 ватт при 4.8 ГГц по большим ядрам при -0.135 милливольт, на 4.9 ГГц 160 ватт.

Это всё меряние писюнами. Интересно как всё это работает при 15-30-60Вт. Иличто может сделать в пассиве не греясь выше 80 градусов. Или хотя бы сколько там ватт при игре, а там традиционно меньше чем в Чинбенче, но не намного. А у амд намного!

Напомню что нормальный десктопный процессор это 45-65Вт, всё что выше 80-90 это уже извращённые систеы охлаждения.

А ещё с точки зрения управления питанием ваш сценарий самый тупой и примитивный - всё кидаем на Р-ядра, а там пусть водянка разберётся. Намного более интересный вопрос: что из этого можно без потерь выкинуть на Е-ядра.

если бы ноутбуководам дали возможность снизить вольтаж.

Мне кажется тут скорее как с разгоном: всё уже сделано до нас. На старшие К/КS модели идут лучшие чипы, которые одновременно и максимально хорошо держат высокие частоты, и способны работать в андервольте. Для ноутбуков видимо отгружаются чипы второго сорта - их же надо куда то девать! А лучшее уже продано. Если я прав, то дело не в диком желании производителей писать разные версии эфи для ноутов и ПК, а в том что на ноутбучных версиях играться уже не с чем, а если позволить - выставят нерабочие параметры и потащат в сервис, если вообще не спалят.

kirill_rrr ★★★★★
()
Ответ на: комментарий от kirill_rrr

Это с кулером Gamerstorm Assassin III. В играх я уже писал - гибридная графика вывозит и потреблением максимум 30 ватт. Может быть и больше, если движок тупой. Но тогда выключив быстрые ядра кроме двух можно скинуть потребление с 45 до 9 ватт. Конечно андервольт тут решает массу проблем. Но главное - встроенная графика. На винде процы с малыми ядрами имеют например 120 ватт потребления против 180 у 9950х. Это вроде бы и плюс, но ничем не выдающийся результат. Все равно топовые видеокарты остаются в недогруженном состоянии как правило из-за паразитной нагрузки на ЦП в режиме с одной видеокартой.

anonymous
()
Ответ на: комментарий от kirill_rrr

Ну если человек умеющий только в критику такое говорит, то это очень полезно полагаю. Я и не надеялся никого впечатлить своими навыками сборки. Просто кое кто дал маху. И я не упоминал водянку. Что, тяжело признать что кто-то сам дошел до того что не надо бояться собрать систему на воздухе и не только решил все возникающие проблемы, но и добился прироста производительности при этом? Вот это круто. Только от критиканов я и не ожидаю никакого признания или уважения. Можешь и дальше пытаться превзойти мой результат, но думаю у тебя ничего не выйдет. А учиться у такого как я, кто тебе не нравиться ты наверняка неспособен, ведь цель не в том чтобы понять как работает архитектура и линукс. Вот так ты и набил себе 5 звезд ничего не понимая ни в железе ни в линуксе, да еще и смеешь хамить. Даже не хочу думать кто ты после этого.

anonymous
()
Ответ на: комментарий от anonymous

Можешь и дальше пытаться превзойти мой результат,

При чём тут твой результат? Мы кремний сравниваем. Так давай его савнивать в равных условиях, т.е. приведённых к стоковым аллюминиевым радиаторам без меди, тепловых трубок, особо широких турбин, водянки, азота и прочего. Т.е. рассчитанных на теплоотвод 50-90Вт.

В противном случае я тоже могу поиграться с 150-ваттным циркуляционным насосом, радиатором на 100Квт, тепловыми насосами до -20 или вакумной испарительной камерой для спирта/пропана/углекислоты. Это всё то, что я могу собрать в своём гараже из имеющихся в наличии штук, БЕЗ доступа к жидкому азоту.

kirill_rrr ★★★★★
()
Последнее исправление: kirill_rrr (всего исправлений: 1)
Ответ на: комментарий от kirill_rrr

Ты для начала научись уважать других чтобы не было опечаток в тексте, клоунов из смайликов. Твое говнозакидательство не располагает к разговору о чем-то по сути, раз ты переходишь на личные оскорбления. Доказывать каждому упырю что-то я не собираюсь. Ты уже обосрался с водянкой. Поздно уже поднимать спор когда ты был не прав, а пытаешься раскочегарить чего-то про кулеры. Спор о водянках и воздушных кулерах противопоставляет надежность эффективности. Мне пофиг вообще, если ты собрался охлаждать такой процессор куском алюминия. У него нет в комплекте боксового кулера именно потому что люди, которые себя любят сами выберут что они хотят от охлаждения. Мир не тюрьма и у людей есть выбор как бы ты старательно не изображал обратное. Охлаждай чем хочешь. Смысловая нагрузка не изменится. Обычный двухмашенный кулер, который можно купить за 3 с небольшим тысячи рублей справится с правильно подобранной материнской платой в деле охлаждения центрального процессора. Это не какие-то заоблачные деньги. У тебя нет того о чем ты собрался спорить чтобы у тебя был повод бухтеть тут хоть что-либо. Надумывать что-либо беспредметно мне ненужно. Я тебя не останавливаю. можешь выяснить пределы кремния под куском алюминия. Будет интересно почитать, если тебе удастся снизить напряжение еще больше, сохранив стабильность системы. Но как я уже писал - я сомневаюсь что у тебя получится результат лучше.

anonymous
()
Ответ на: комментарий от anonymous

Ты для начала научись уважать других чтобы не было опечаток в тексте, клоунов из смайликов. Твое говнозакидательство

Слушай, серьёзно, выпей таблеток и начни размечать свой текст, даже не собираюсь читать дальше. Я тебе ещё даже не начинал хамить, но видимо самое время.

kirill_rrr ★★★★★
()
Ответ на: комментарий от kirill_rrr

Ну конечно, а клоуны это у нас нынче навешивание положительных ярлыков и вообще эталон вежливости. Ты бы задумался в каком окружении водишься, а то может тебя окружают идиоты у которых хамство это только мат.

anonymous
()
Ответ на: комментарий от kirill_rrr

Когда или если до тебя дойдет, что я не обязан тебя веселить и пытаться кого-то поднять на смех когда кто-то в адеквате и имеет внезапно свой собственный опыт, тогда включай мозги и начинай ими думать что за хрень ты творишь.

anonymous
()

Я себе скрипт написал чтобы определённые процессы всегда на ЭЭ ядра переключались, само оно вроде бы не особо хорошо переключается, или я просто так вижу.

fucpsy
()

Некоторые игры на минималках 45фпс с мыльцом, но большая часть игр все-же неиграбельна, 15фпс анриловский движ например. Лочу на 30кадров, но сливаю в пвп, потому что между кадрами слишком большая дистанция и не понятно где враг нарисуется.
Многие игры небыли расчитаны на встройку и играть в них не получится.

fucpsy
()
Последнее исправление: fucpsy (всего исправлений: 1)
Ответ на: комментарий от fucpsy

Это скорее всего накладки из-за аппаратного прерывания IRQ. Видеокарты по шине общаются без этого. В итоге процессору может требоваться пересчет результатов. Отсюда и дикая нагрузка на процессор в играх. Встройка берет на себя общение с мышкой и вывод картинки. Пропадают жесткие фризы. А так, да, можно и на малых ядрах гонять.

anonymous
()
Ответ на: комментарий от fucpsy

Но тащить на малых ядрах совсем необязательно. Гибридная архитектура позволяет брать от процессора совсем немного и уровень занятости ядер на 100% это не их полная загрузка. Можно даже андервольтнуть видеокарту и получить в парной работе встройки с видеокартой снижение потребления в разы так как большинство игр - тот еще код средней паршивости неспособный на 100% нагрузить видеокарту. По итогу даже разгон практически теряет смысл в таких условиях и проще архитектурой брать новые вершины производительности, заодно можно хоть Gentoo собирать в фоне. Игры правда на деле требуют совсем немного. Просто производители оптимальный режим выбирают в лице режима разгона, но код на процессоре хотя бы унять можно по потреблению, если движок не чокнутый и не жрет как не в себя, хотя мог бы довольствоваться малым.

https://media2.cackle.me/2/e8/6ccf7fb94b350a0587afce64f1fabe82.jpg

anonymous
()