LINUX.ORG.RU

Гибридная архитектура Intel уже готова для Linux?

 


2

3

Сабж. Несколько лет уже прошло, остались ли какие-нибудь косяки планировщика/чего угодно ещё с этими P/E ядрами на Linux? Особенно, если речь не о самых распоследних версиях ядра Linux, а, скажем, 6.8.

Надо выбрать между мобильными i9-11950H и i9-13900H. Понятно, что выбор несложный и в пользу последнего, но может есть какие-то невероятно раздражающие факторы направляющие в пользу первого, т.к. использоваться будет только онтопик с убунтовским LTS-ядром.



Последнее исправление: OSBuster (всего исправлений: 1)
Ответ на: комментарий от madcore

именно он. Но на новой аппаратной платформе с drm glx и композитингом иксы в него эффективно не умеют. А вяленд никогда не умел. И получается ни туда ни сюда - котопёс какой-то. На фуллскрин иксы могут проигрывать через xv, вяленый через dmabuf - но если это изображение надо встроить в прямоугольничек внутри окошка броузера то добро пожаловать в микрософт виндоуз или мак-ос. А в линуксе - вот вам шейдер, кушайте и жыром не обляпайтесь.

Для практического применения - ставим расширение в фокс и смотрим ютуб в полнокране через mpv - батарея будет как в оффтопике.

Qui-Gon ★★★★★
()
Ответ на: комментарий от madcore

Ну если оно делается на процессоре - то грош ему цена по нынешним временам. Он должен использовать хардверный юнит который давно есть в интеле а в амд начиная с RDNA3.5

А вот тут беда. Иксы использовать эти железки не умеют и не будут - ибо некому их учить. А у вяленого так много реализаций что …. Ну собственно об этом был патчсет от Роберта Мадера для гнома. Но оно даже в гномовский муттер не приземлилось оставшись в области экспериментов.

Qui-Gon ★★★★★
()
Ответ на: комментарий от Shadow

Второй и оффтопик + полный wsl IMHO. Тебе портативность или понты?

Понты. Я уже лет 15 не пользовался виндой, менять свой доведённый до автоматизма рабочий процесс и создавать новые нейронные связи на пустом месте это ещё более раздражающий фактор, чем сабжевая дилемма. Проще выбрать первый вариант, чем страдать от гибридной архитектуры или офтопика.

Я после 11 лет на маке свалил оттуда три года назад и возвращаться тоже нет желания.

Но вроде как меня почти убедили, что от гибридной архитектуры на онтопике страдать особо не придётся.

OSBuster
() автор топика
Последнее исправление: OSBuster (всего исправлений: 1)
Ответ на: комментарий от Qui-Gon

задача кидается не туда где капасити больше а туда где выполнение задачи сожрет меньше ватт

Это очень странное поведение, если я правильно понял. К примеру я открываю страницу в браузере, ему надо на 200 мс зависнуть, чтобы откомпилировать двести метров жаваскрипта. На 200 мс это на нормальном ядре, а на кукурузном будет 500 мс. Хоть это и сожрёт меньше ватт. Но я-то хочу отзывчивый браузер, а не энергоэффективный.

vbr ★★★★
()
Ответ на: комментарий от Qui-Gon

Но потом амд выкатила мобильную вегу

Ну эт поделие для танков максимум. Я как на десктопе захотел раз в 10 лет поиграть (а там встройка в 2 раза мощнее, чем мобильная, не важно что называется так же), на следующий день пошел искать какую бы мне нвидию взять, поскольку там даже доисторический Skyrim фурычит разве что на минималках в 30 fps

shalom_ ★★
()
Ответ на: комментарий от OSBuster

в то время как «истинно мобильные» процессоры с суффиксом просто H это не задело.

Это говно со встроенным хабом, даже если не задело, то у него своих причин сдохнуть на ровном месте хватает, если не больше чем у HX.

Я, как бывший фанбой интела, взял бы амд, ну невозможно уже на это позорище смотреть. Если тебе его нахаляву дают, то новее - лучше, 120 герц лучше 60, а HP лучше леновы, тут выбирать даже не нужно

shalom_ ★★
()
Ответ на: комментарий от Qui-Gon

А раз Линус заинтересован, интел заинтересован , амд тоже - то значит поддержка будет.

Времени с релиза Alder lake уже вроде достаточно прошло что бы запилить поддержку, а воз и ныне там, при том что многие эти ноуты уже в утиль отправились

А когда поддержка будет, может уже на арм все переедем. Или там на 18-ое какое-нибудь поколение

shalom_ ★★
()
Ответ на: комментарий от vbr

вот по идее надо имеь возможность это регулировать. Наши желания тут абсолютно противоположны - я хочу full day на одном заряде, а не 200мс ускорения. Но вот 200 мс ускорения - это попугаи во всех гребанных тестах и это как раз дают. А с батареей предлагают соснуть ратана. Ну 4 часа от батареи это ж офигеть - зато попугаев в тестах ах 38. Согласен махнуть 19 попугаев на +4 часа автономности но никто не предлагает - главное же игровые fps. В итоге 200мс ускорения предлагает каждый первый - а +4 часа - только эппл.

Ближе к факту - для страницы в броузере достаточно даже ядра LP - это которое больше Е чем Е. Вот когда сижу в броузере - Р - даже не шевелятся. Р ядра актуальны для какого-то тяжелого процессинга или игрух. Для броузера они не нужны ни даром ни с доплатой. Но если мы хотим явить миру попугаев в каком-нибудь тесте - то все надо кидать на P-ядра, что как правило и делается в онтопике. И в оффтопике изначально делалось - потому как попугаи в тестах наша главная цель. А потом это говно перестали покупать(все искали амд а интел брали только за космическую скидку) потому что попугаи попугаями а 4 часа от батареи это не ноутбук а мусор хоть там этих попугаев будет не 38 а хоть все 76 - и в венде поправили. В линуксе увы нет - попугев добавить и дебил может, а вот +4 часа к батарее - тут надобно инженерное искусство уровня «бог».

Qui-Gon ★★★★★
()
Ответ на: комментарий от shalom_

ну не получилось у них - учитывая что интел круто обосрался выпустив бесполезные попугаистые печки вместо процессоров сливавшие всем кому только можно от амд до арм , еще и обгадившись в техпроцессе - им стало существенно не до линукса.

Qui-Gon ★★★★★
()
Ответ на: комментарий от Qui-Gon

Я сомневаюсь, что нюансы планировщика дадут +4 часа. Хз, какая там разбивка по энергопотреблению у каждого компонента, но интуитивно кажется, что 80% это экран, поэтому зарезать процессор в два раза только ради небольшого увеличения времени жизни мне не интересно.

Я, кстати, покупал ноутбук с супер-медленными ядрами. Какой-то celeron. Поколение не сильно старое. Причём как офисная машинка - оно неплохо работает. Но всё же очень грустно на таком сидеть на постоянку. Я когда сажусь, все эти подвисания долисекундные ощущаются. Это кажется, что эти 200 мс не нужны, а когда реально ты тыкаешь по ссылке и у тебя сайт открывается не моментально, а через полсекунды, это начинает раздражать в какой-то момент. Поэтому за себя могу сказать, что мне нужен супер-быстрый однопоток. В идеале 5-6 ГГц в бусте. Чтобы оно максимально быстро отработало мою задачу и уснуло, не успев нагреться.

А большая батарея мне не нужна. Почти нет у меня в жизни кейсов, когда нужно работать от батареи. 99.99% времени все мои ноутбуки подключены к розетке. Единственное, что мне нужно от энергоэффективности - чтобы не включался вентилятор.

vbr ★★★★
()
Последнее исправление: vbr (всего исправлений: 1)
Ответ на: комментарий от Qui-Gon

Не знаю, чтобы какие-то игры или другой софт, объединяли мощности дискретки и встройки. На amd или чем ещё. Теоретически это наверное возможно, но на практике так никто не делает. Да и смысл объединять, если дискретка обычно кратно быстрее встройки.

anonymous
()
Ответ на: комментарий от vbr

когда реально ты тыкаешь по ссылке и у тебя сайт открывается не моментально, а через полсекунды

Тут от процессора мало что зависит - это вопрос к интернет провайдеру и роскомпозору замедляющему неугодные сайты.

Qui-Gon ★★★★★
()
Ответ на: комментарий от Qui-Gon

Ну если оно делается на процессоре - то грош ему цена по нынешним временам.

почему на процессоре? это всё умела s3 virge, не говоря уже про не такие дешмашевские видяхи

madcore ★★★★★
()
Ответ на: комментарий от madcore

она умела аппаратно декодировать av1? Вся штука в том чтобы в аппаратный оверлей закладывать аппаратный декодер. И все это еще совмещать со всей этой openGL-vulkan вакханалией происходящей на остальных частях экрана. Еще и мультимониторную конфигурацию поддерживать.

Так что там сложностей овердохрена. Все сильно упрощается если видео гнать не в окошко вернее даже не в маленькую область окошка а на фуллскрин - но это случай настолько частный что на его поддержку каким-то особым способом разрабы броузеров забили. Хотя в хром были вброшены экспериментальные патчи для более эффективного воспроизведения фуллскрина но опять же не знаю приземлились они или нет.

Qui-Gon ★★★★★
()
Ответ на: комментарий от anonymous

Не знаю, чтобы какие-то игры или другой софт, объединяли мощности дискретки и встройки.

Игры точно никогда нормально не работали ни на SLI, ни на CrossFire, поэтому технологии де-факто мертвы. Какой-то счётный софт вполне мог бы, здесь всё довольно просто. Собственно, он и может :)

anonymous
()
Ответ на: комментарий от vbr

Я сомневаюсь, что нюансы планировщика дадут +4 часа. Хз, какая там разбивка по энергопотреблению у каждого компонента, но интуитивно кажется, что 80% это экран, поэтому зарезать процессор в два раза только ради небольшого увеличения времени жизни мне не интересно.

Это если мы говорим о нюансах хорошо написанного планировщика. А мы имеем планировщик которому откровенно насрать на батарею и он просто все делает для того чтобы сожрать больше энергии - то запросто.

Из тех же исследований жручести АМД - скажем у вас есть тачпад. Тачпад включен к i2c шине. Понятно что если мы дернули тачпад то автоматом дернулся i2c контроллер и пошли два irq - от i2c контроллера и от тачпада. Заточенный под попугаистость планировщик естествнно закидывает эти два прерывания на разные ядра - более того в случае с интелом на P-ядра. Смысла в этом - ноль, потому как обработать прерывание от тачпада вместе с i2c достаточно ардуинки, но тут мы выводим из С-state 2 тяжелых ядра. Экспериментальный патч кидающий оба эти прерывания на одно ядро экономил где-то ватт или даже больше. И таких плюшек - масса.

Изначально многие годы компьютер был включен в розетку - и основной заботой разрабов была производительность и только производительность. Много ядер - размой равномерно задачи чтобы не было бутылочного горлышка в виде перегруженного ядра результаты работы которого все ждут. А потом появились батарейки. Но опять же линукс это не сильно затронуло - ну какой линукс на ноутбуках в древности когда ноутбук был дорогой игрушкой элитных манагеров. А сейчас приехали.

Но тут законно возникает вопрос а как же андроид. Ну да - но андроид это arm архитектура, и там все это есть. Есть поддержка кластеров, есть альтернативные планировщики, альтернативные говернеры частот и idle - которых я в menuconfig даже и не видел. А в x86 этого не было и нет пока. И как результат - ноут под оффтопиком живет 10 часов , а под онтопиком - 6. И вот они 4 часа. При том же экране.

Ну а по экрану - да - если смотреть статичный текст даже иногда пролистывая - основной ужор от экрана. Но только в этом случае. Стоит открыть страничку с жабаскриптом то все сразу поменяется.

Qui-Gon ★★★★★
()
Ответ на: комментарий от anonymous

Ну даже если может смысла то особого нет,встройка врядли сильно прибавит к вычислительной мощности какой-нибудь 4090 - зато за счет совместного TDP может затроттлить проц что в итоге срабоатет не в плюс а в минус.

Повторюсь но единственный известный мне юзкейс - это использование аппартного енкодера-декодера интеловской встройки программами видеомонтажа. Но тут важна именно интеловская встройка - потому как медиа-блок во встроенном радеоне не отличается от медиа блока в дискретном радеоне и богатством возможностей не блещет. А интел именно вот этот медиа енкодер-декодер сделал лучше всех. При этом сам рендеринг идет на дискретке.

Qui-Gon ★★★★★
()

Я ярый сторонник интела и нвидии и никогда не брал АМД домой, но сейчас у интела проблемы - в плане их железо стало говном. Начиная с рязани я бы брал амд на десктоп, а сейчас и на ноут бы тоже уже брал амд. У интела дела всё хуже и хуже идут. Как умер Гордон Мур, так интел вообще поехал, хотя поехал он ещё раньше, как Гордон от дел отошел, но уже и энерция у него закончилась.

peregrine ★★★★★
()
Последнее исправление: peregrine (всего исправлений: 1)
Ответ на: комментарий от tiinn

Там проблема что нынче быстрые интеловские процы превращаются в тыкву при нагрузке. Весь забугорный инет ныл на эту тему целый год, а я склонен доверять когда буржуи ноют что железка говно и при нагрузке дохнет за пол года. Тем более интел сама признавала что процессоры на слишком большом напряжении из коробки работали и дохли. Вроде в сентябре или августе патч обещали на свежие процы, но мне такой трешак не нужен, чтоб я новый проц купил, запустил числодробилку и выкинул проц в помойку. У амд такой фигни не было, а у интела что-то сплошь и к ряду, что говорит о том что железяки стали хуже тестировать и что-то в процессе разработки новых железяк нарушено. Т.е. если в лотерею играть не хочется, то амд как по мне лучше.

peregrine ★★★★★
()
Последнее исправление: peregrine (всего исправлений: 1)
Ответ на: комментарий от ExpertAlles

Я всегда беру с нвидиа отдельной карточкой, мне CUDA надо. А так вообще амдшные карточки в линуксах вроде нормально работали на компах. Правда то компы были и офисные, не самой первой свежести и играть мне на них точно не нужно, а только работу работать да на сервер с NVIDIA карточками код заливать.

peregrine ★★★★★
()
Ответ на: комментарий от Qui-Gon

Ноутбуки тоже имеют эту проблему.

Посмотрел, спасибо. По ссылке ремонт ноутбука с HX и он и говорит в начале, что «самые популярные клиенты на замену» это два каких-то процессора с HX суффиксом. Какую-то статистику или примеры деградации не HX серии в этом ролике он не приводит.

OSBuster
() автор топика
Последнее исправление: OSBuster (всего исправлений: 1)
Ответ на: комментарий от Qui-Gon

Дело не в том сколько она прибавит мощностями, а сколько она освободит. А то что не у каждого встречного 4090 я думаю и так всем понятно. Но так или иначе процессор с его кешем таким образом занимаются целой кучей бесполезных действий демонстрируюя огромную загруженность ядер. Вот тут в соседней ветке писал об этом. И это не SLI или Crossfire, которые как не работали на линуксе, так наверное и не заработали, а другой подход. В случае с ноутбуком это должно работать по умолчанию, за счет чего ноутбуки хоть как-то должны уметь в игры. На ПК же разница может быть просто гигантской и вот тут неловкий момент настает, что движкам может быть нужно 4 потока исполнения команд, то есть процессор с двумя ядрами справляется в такой конфигурации на ура, что собственно влияет на стоимость остальных компонентов, хотя сверх тяжелые игры может и не потянуть пара ядер. Это то как в реальности достижим вариант с играми на линуксе, хотя на винде это тоже работает судя по сообщению от одного человека в комментариях, который тоже таким подходом пользуется, но уже на винде с парой видеокарт. Причем они и не должны быть от одного производителя. Интеловская встройка прекрасно уживается с видеокартой от AMD. И вот тут интеловская встройка использовалась для записи видео чтобы показать реальный низкий уровень нагрузки на процессор и в большинстве игр это все работает нормально до 24 мегабит качества. нагрузка растет лишь с большим количеством кадров ну то есть в районе 30 ватт при 300 кадрах в секунду. Таким образом архитектура практически не влияет на результаты в играх, потому что все резко меняется и кеш процессора задействуется. Правда при большом числе активных ядер это не сильно прибавляет количество кадров, но все же некоторый толк в этом все еще есть. Вот только разница куда больше чем просто втыкание процессора с 3д кешем, который судя по всему расходуется на холостую нагрузку. Причем нагрузка на видеопамять может быть все еще нижу в обоих случаях - например используя LXDE для запуска игр, а скорости это не прибавит пока не будет снята паразитная нагрузка от самого рабочего стола.

AMD GPU end? (комментарий)

anonymous
()
Ответ на: комментарий от peregrine

У Intel проблема только с маркетингом, железо превосходное, Ryzen X3D кое как в среднем на 5% (а где то Intel лучше) обгоняет Intel в играх на 2к, но если посмотреть проценты худшего FPS у AMD, то становится все не так хорошо, любому игроку известно что лучше стабильный FPS чем прыгающий.

А вот если посмотреть производительность X3D в обычных приложениях, например компиляции или сжатие, то он медленнее почти в 2 раза. А цена больше.

Ну и если начал о железе, то Intel Nxxx аналогов нет! Intel Arc - успех у начинающей компании в области dGPU, тот же RTX работает уже лучше чем в AMD, и не надо говорить «ненужно», Indiana требует обязательную поддержку RTX. Чипы на 18A уже будут в следующем году.

Так что с железом у Intel проблем нету, надо больше рекламы, AMD неплохо вложилась, и теперь люди готовы покупать ее более медленное и дорогое железо.

MOPKOBKA ★★★★★
()
Последнее исправление: MOPKOBKA (всего исправлений: 4)
Ответ на: комментарий от LongLiveUbuntu

Процент возвратов у «проблемных» процессоров Intel примерно равен проценту у «рабочих» процессоров AMD, но об этом редко говорят. Проблеме были подвержены только часть старой партии, и уже пол год назад вышли исправления для BIOS.

У меня например i9-14900K работает круглосуточно, и работает стабильно, у тебя другой опыт?

MOPKOBKA ★★★★★
()
Ответ на: комментарий от Qui-Gon

так амд тоже готовит little-big чипы.

У AMD уже давно агрессивная парковка ядер, и куча проблем с тем что игра занимает не то ядро, и видовс пользователи буквально используют связку утилит по цепочке что бы правильно назначать кеш на ядра, потом игры на ядра.

Я считаю что плеваться от Intel из за P/E и предпочитать AMD в такой ситуации не самое разумное решение.

MOPKOBKA ★★★★★
()
Последнее исправление: MOPKOBKA (всего исправлений: 1)
Ответ на: комментарий от MOPKOBKA

Много незнакомых слов, которые я вижу впервые.

Intel Nxxx

ХЗ что это и кому нужно, гугл какой-то спам выдаёт по этому nxxx и порнуху. Наверное кому-то нужно, вон даже элт мониторы кому-то нужны. В музей там например.

Intel Arc

Простите, мне затычки не нужны. Я понимаю там nvidia a-100 которая на 80G для работы со всяким ML-ем, да ещё и чтоб они кучей стояли, а не 1 штука. Ну или хотя бы на 24 гига для всяких игрунов. А так я просто ссылки оставлю https://ru.wikipedia.org/wiki/Intel_Arc https://ru.wikipedia.org/wiki/GeForce_40 чтоб вместе поржать над штеудом. Оно в один год выходило если что.

Indiana

Что это такое и почему нельзя взять 40+ серию нвидиа? Даже википедия английская никакого софта и железа с таким названием не знает.

peregrine ★★★★★
()
Последнее исправление: peregrine (всего исправлений: 2)
Ответ на: комментарий от peregrine

ХЗ что это и кому нужно, гугл какой-то спам выдаёт по этому nxxx и порнуху. Наверное кому-то нужно, вон даже элт мониторы кому-то нужны. В музей там например.

Это новейшие процессоры, на E ядрах, которые мало потребляют и используются в мини-пк, очень полезно например для домашнего сервера который будет мало есть и будет полноценным x86.

Судя по тому что ты написал выше, тут я тоже могу ожидать ответ «мне ненужно», ок, главное успокоиться! Эти процессоры нужны тем кому нужно малое потребление в их мини-пк. И опять Intel достиг успеха в этом.

Простите, мне затычки не нужны.

Так они не для тебя персонально делались. У тебя в комментарии сравнение шло с AMD, и ты утверждал что у Intel проблема с железом, мой ответ про это. Понятно что NVidia будет лучше, я с этим не спорил.

Что это такое и почему нельзя взять 40+ серию нвидиа?

См выше.

Еще напомню что ты написал десктоп а не воркстейшен или рабочая станция, какой NVIDIA A100? Может ты еще и Xeon с Epic сравниваешь? Тогда мой комментарий неревалентен а тебе стоило по другому написать изначальный комментарий.

Я сравниваю базовое потребительское железо, которое доступно всем и которое имеет смысл брать в дом для домашних задач.

MOPKOBKA ★★★★★
()
Последнее исправление: MOPKOBKA (всего исправлений: 3)
Ответ на: комментарий от MOPKOBKA

Это новейшие процессоры, на E ядрах, которые мало потребляют и используются в мини-пк

А мне это не нужно, совсем. Даже дома потребление сервера у меня ограничено только мощностью проводки. Да больше 20 ампер наверное не выйдет, мне надо чтоб ещё холодильник и освещение работали. А так мне arm хватит для дома. А если уж надо x86 то нужно что-то серьёзное.

и ты утверждал что у Intel проблема с железом

Я не говорил про то что надо брать видеокарты от амд если нужна видяшка кроме как для рисования офиса и браузера. Для меня видеокарта на которой можно играть==nvidia.

peregrine ★★★★★
()
Последнее исправление: peregrine (всего исправлений: 1)
Ответ на: комментарий от MOPKOBKA

Я сравниваю базовое потребительское железо, которое доступно всем и которое имеет смысл брать в дом для домашних задач.
мини-пк, очень полезно например для домашнего сервера

Эм, что простите? Сервера домашние - удел гиков и странных личностей с бородой по грудь (посмотрел на свою бороду без зеркала). У простых смертных такого добра не водится.

peregrine ★★★★★
()
Ответ на: комментарий от peregrine

А ты комментарии мои читаешь? Я написал А) что тебе Intel Nxxx не нужен, Б) написал мини-пк, потом запятая, и только потом домашний сервер.

Домашний сервер не только для гиков, заниматься его настройкой не обязательно должен тот кто его хранит. Хотя пока это редко встречается.

MOPKOBKA ★★★★★
()
Последнее исправление: MOPKOBKA (всего исправлений: 2)
Ответ на: комментарий от MOPKOBKA

А я подумал что мини пк - сервер. Сорри. Но тут вот какое дело - я не понимаю зачем нужен мини-пк. Если мало места (съёмные квартиры, маленькие студии/однушки) нужен ноут, если место есть, то нужен фул тавер пекич, с ним гораздо удобнее.

peregrine ★★★★★
()
Ответ на: комментарий от peregrine

Бывает, я вот не понимаю зачем нужен ноутбук или смартфон. Так вот, потерялось самое важное, есть ли вопросы или комментарии к тексту о сравнении двух самых производительных потребительских моделей amd cpu и intel cpu? В чем заключается проблема Intel?

MOPKOBKA ★★★★★
()
Ответ на: комментарий от MOPKOBKA

По фактическому использованию - у меня сейчас 2 ноута. Yoga Air 14s на 7840S (перепакованный U) и Honor Art 14 - на Ultra 5 15-го поколения 125H. Оба OLED 14" 3К - ну вернее йога 2.9К а хонор 3К но это какбы мелочи.

По ужору - если не накатывать intel-lpmd и свежие патчи по little-big, то интел адово ужасен. Жрет раза в полтора два больше амд при минимальной нагрузке, хотя и раза в два меньше амд при полном простое - то есть idle на интеле всеже по прежнему сделан лучше.

Если накатить intel-lpmd и его поднастроить - то вполне себе паритет. Тут кстати еще появился патчик позволяющий менять настройки профилей видеокарты Arc снижая агрессвность задирания частоты (некий аналог powersave говернера для процессора) - так что полагаю будет еще чуток лучше.

То есть технически - именно как железка - интел в общем-то не так уж и плох если бы не epic fail с производственным браком ну и fail с поддержкой этой их little-big под онтопиком. То есть настроить то можно если репу почесать погуглить поэкспериментировать - но если убунту накатить из каропки - то будет лютый кал.

Qui-Gon ★★★★★
()
Ответ на: комментарий от peregrine

Не соглашусь.

Проблема интел в том что компания управляется дебилами-маркетологами. Современные маркетологи уже давно не изучают спрос - они его активно формируют.

И вот дебильные маркетологи интел долго формировали спрос на то что инженеры сделать не могут. Для достижения попугаев обгоняющих амд в никому не нужным тестах пришлось слить и энергоэффективность и надежность и качество - в итоге ззатребованных маркетологами попугаев выдали, но рыночек показал что попугаи эти нахрен никому не сдались если помимо попугаев там еще и это все - 300 ватт нагрева, 2 часа батареи и необратимо деградирующие от перегрева и перевольтажа структуры кристалла.

Qui-Gon ★★★★★
()
Ответ на: комментарий от MOPKOBKA

У АМД следующее поколение тоже будет с P/E.

Там уже в ядро очень активно патчи летят для поддержки этого всего.

Но плюются то не от того что Р-Е - а от того что система работает через задницу. Маркетологи же верещали что это будет круто - кому нужно на батарее 8 часов без розетки вот у вас Е-ядра, да легко. Кому надо в игори пердолиться - вот у вас Р-ядра, ни в чем себе не отказывайте. По факту же что получили - у нас на P-ядро летит обработка прерываний от вонючего тачпада, а игори отправляются на E-ядро. И получилось что и батареи 4 часа вместо 8 и игори тупят и лагают непредсказуемо.

Qui-Gon ★★★★★
()
Ответ на: комментарий от peregrine

AMD на 20к дороже, имея почти тот же процентов возвратов, с X3D который показывает 5% преимущество (оно стоит 20к?), и медленнее почти в два раза на всех других задачах, я приводил в пример компиляцию и сжатие. Конечно хорошо бы посчитать полную стоимость сборки Intel vs AMD. Думаю можно еще 10к смело накинуть, стоят ли большее на 5% количество самых высоких кадров с ужасными просадками 30к? Я думаю как не считай, нет.

В чем же качество?

MOPKOBKA ★★★★★
()
Последнее исправление: MOPKOBKA (всего исправлений: 2)
Ответ на: комментарий от MOPKOBKA

В чем же качество?

В том что процессоры АМД не деградируют необратимо за пару месяцев использования. А интел 13-14 поколений - деградирует. Хотя конечно и райзены дохнут, но всетаки такого массового брака у них еще не было.

Интелу теперь долго отмываться придется после этого косяка.

Qui-Gon ★★★★★
()
Ответ на: комментарий от Qui-Gon

В некоторых интернет магазинах есть процент возврата, в российских такой есть у DNS например, там видно что за пределы 2% они не вылезают. На разных форумах есть опросы, там иногда вообще нету людей у которых процессор работал нестабильно, у меня с i9-14900K тоже никаких проблем нету, хотя по началу утверждали что чуть ли не каждый испепелится через месяц или два.

Я думаю это была реальная, но слишком раздутая проблема. А после обновлений BIOS и вовсе неактуальная.

MOPKOBKA ★★★★★
()
Последнее исправление: MOPKOBKA (всего исправлений: 2)
Ответ на: комментарий от MOPKOBKA

ну ремонтники на ютубе все голосят.

Понятно что не все купившие играют на этих процах днем и ночью на максималках - так что какие-то поживут.

Заметил тут что у меня интеловский ноут на дает процу греться выше 78 градусов - вот китайцы подстраховались по полной.

Qui-Gon ★★★★★
()