LINUX.ORG.RU

Почему кодеры так любят покупать заряженные процы? Юзлесс?

 , , ,


0

2

Смотрите, я прекрасно понимаю, зачем люди отдают деньги за топовые видеокарты. Банально вот смотришь игровые тесты на ютубчике: какой-нибудь киберпанк запущенный на rtx 40xx super и тот же киберпанк, запущенный на видюхе побюджетнее. Там и fps будет больше, картинка лучше, всякие технологии от nvidia вроде RayTracing, DLSS, gsync и тд и тп

Я понимаю, за что я плачу деньги.

А теперь процы.

  1. Для того, чтобы система плавно работала при дефолтных задачах 80%+ кодеров на этой планете (это я еще грубую оценку снизу взял), вполне хватает бюджетного проца.

Запущенная IDE, отладка, корпоративный чат, какой-нибудь мониторинг или инструмент для управления БД, в альт-табе он музыку слушает, ну и пусть даже виртуалка сверху (отмечу, что крайне редко нужно все это сразу)

Так вот. Для этого вполне хватит какого-нибудь AMD Ryzen 5 5600X Я не говорю, что именно этот идеально подходит, просто как бы оцениваю примерно сегмент и цену. А цена около 130 баксов!

  1. Ну если, представим, вдруг окажется мало (не должно), и мы имеем дело с красноглазом, который не трогает траву и прямо таки обмазался CI/CD, постгресами и докерами, то ну какой-нибудь проц класса AMD Ryzen 7 5800X который около 200 баксов стоит! 200 баксов это прям КРАЙ, вы понимаете.

И то, пункт 2 больше похож на какого-нибудь девопса, большинство разрабов больше похожи на пункт 1.

  1. «на топовом проце собирается быстрее». Ага, то есть вот я написал какой-то код, решил потестить, проект собрался за 60 секунд, а на топ проце собрался бы за 20. Вау, вот это да! Я прямо таки побежал, роняя штаны, заносить пол штуки баксов, чтобы эти секунды сэкономить! Ну и как бы кэширование и инкрементальную сборку никто не отменял. Да и я не знаю, насколько это распространено, но я работаю и собираю все на корпоративном сервере, к которому по ssh подключаюсь. Если бы я был бареном в такой конторе, я бы вообще хромбуки бы выдавал, ну ок не хромбуки, но бюджетных Асусов за 60тыщ за глаза бы всем хватило, зачем тебе что-то серьезнее, если ты по сути только в редакторе печатаешь, а все на сервере делается. Но мне с пафосом выдали Т синкпад, потенциал которого я от силы на 20-30% использую, спасибо им, конечно, но интересно, в чем логика челов

  2. И да, я знаю, что есть челы, которые занимаются какими-нибудь численными методами, машинным обучением, каким-нибудь параллельным программированием для навуки и тд. Но их не так много.

// Тогда объясните мне, почему обычные разработчики (обычные не в смысле тупые, а в смысле не относящиеся к этим областям), коих большинство, так любят покупать процы под 700 баксов? Ну и конторы любят хвалиться тем, что выдают «мощное современное железо»,наверное, потому что видят, что красноглазам нравятся игрушки. Хотя пик их требований едва ли превзойдет 200 баксов, а то и 150.

Тогда ЗАЧЕМ все это?

Ответ на: комментарий от hateyoufeel

но в нагрузке от игр ничего особенного нет.

Как это нет? Она наоборот, самая оригинальная. Чёткая импульсность по циклам цпу-гпу-ждём vsync, крайне сложная задача для планировщика, т.к. внутри процесса игы есть более важные потоки, требующиемаксимального однопотока и неопределённое число второстепенных задач типа ленивой подгрузки локации или ещё чего неинтерактивное. Из за игр буст взлетел, хотя для равномерной рабочей нагрузки он однозначно вреден - пиковые частоты снижают ipt и ipw.

Играм кстати от процессора мало пользы, там графика важнее, и лишние ядра играм часто ни к чему.

Сейчас же общепризнана необходимость иметь минимум 6 физических ядер и минимум 8 потоков. И общепризнаны требования к цпу чтобы гпу смог раскрыть свой потенциал, а это в первую очередь высокая однопоточная производительность тех самых главных потоков, считающих команды для гпу.

Почему максимум?

Потому что экспоненциальное увеличение цены системы для следующего шага наращивания мощности в компиляции долбит по здравому смыслу где то здесь. Следующие +500$ дают уже совершенно смешные ~25% скорости, и то для некоторых сценариев. Думаю это физически связано с тем, что пятёрки уже выходят на разумный ТПД 100-150Вт, которые можно снимать норомальной а не извращённой системой охлаждения. Дальше приходится наращивать мощность за счёт эффективности а не просто разогнавшись на полную.

Кстати, то что современная пятёрка это конфигурации топовых i7(9, экстрим)/FX/A12 5-7 летней давности.

kirill_rrr ★★★★★
()

отладка, ты поправил строчку и жди 10-15минут за это время из головы (быстрой памяти) вылетели названия переменных, объектов методов, и трать время на вспоминания на чём закончил, поэтому и нужно чтобы тебя не отвлекали.

s-warus ★★★
()
Ответ на: комментарий от kirill_rrr

Вы бы почитали тему. Я уже объяснял что играм дофига от ЦП на самом деле может быть и ненужно когда видеокарта и в первую очередь видеопамять не перегружены. То что вы обзываете «общепризнанным» является заблуждением - намеренным вводом в заблуждение людей. Как будто ни разу не сталкивались с тем что в описании заявлены одни минимальные требования, а на деле конфигурация в разы проще запросто справляется? Вот только и представления о том как работает компьютер у людей, которые придерживаются ложных взглядов весьма отрывочные и ничего они не проверяли, а я привел канал с кучей видео где ясно видно все что можно. Ваши бодания против реальности совершенно ненужны, чтобы было больше неадекватов блеющих про раскрытие видеокарты и тому подобные идиотические словосочетания пачками выбрасывались на читателя неспособного сходу осознать идиотизм тех кто ввел эти понятия. Они относились к временам весьма далеким когда однопоток был везде и мощность компа была во множество раз меньше - когда любая кривая дурь могла сойти за правду потому что сравнить не с чем - разве что драйвера видеокарты отчасти распараллеливали выполнение задачи на разные ядра. Слушать каждого дурачка, который прикидывается гуру в железе это конечно можно, но они же эти борцуны за правду глушат тех кто раскрывает людям глаза на реальное положение вещей - по крайней мере иностранцы ублюдочные, которые на этом еще и деньги делают. Вот там с обосраться авторитетным самомнением втирается все чтобы сохранить старые взгляды. Люди даже платят деньги чтобы им объяснили как пользоваться дорогущими костылями в лице многоядерных процессоров когда игра может жрать на ЦП не более 6 ватт например, если конфигурация прямая, вжоривая и показывая клуб «кому за 300» (ватт) втирая всем подряд мол «смотрите - плюс 2% кадров!» и «Я - бой! Я первый бой на деревне! Всем слшать меня!».

anonymous
()
Ответ на: комментарий от anonymous

Я уже объяснял что играм дофига от ЦП на самом деле может быть и ненужно когда видеокарта и в первую очередь видеопамять не перегружены

Это равносильно «игра на 2-3 года старше видеокарты и выдаёт 60 на максималках не напрягаясь» или вообще «оно на DX9/10 или oGL 2/3».

То что вы обзываете «общепризнанным» является заблуждением - намеренным вводом в заблуждение людей

Всего лишь результаты исследования «а на чём же мы можем получить стабильные 60фпс в fullHD в современных играх» и «какой минимальный ЦПУ не будет ронять производительность RTX4060 слишком сильно (кажется ~80%) по сравнению с топом». Результаты исследования подтвержаются минимальными системными требованиями к играм последних ~3 лет. Крайне мало из них согласны работать на четырёхядерниках.

а на деле конфигурация в разы проще запросто справляется?

Конечно сталкивался! 10-15 лет назад! А сейчас это нихрена не модно. зато модно выпускать тормозной глюкодром, который пробивает дно в плане тормозов и год после релиза доводится до того состояния, в котором было бы не стыдноэкономически целесообразно чтобы не разориться на возвратах записывать его на DVD и выставлять на прилавок.

kirill_rrr ★★★★★
()
Последнее исправление: kirill_rrr (всего исправлений: 1)
Ответ на: комментарий от kirill_rrr

Не понимаю что там чему равносильно, но вот тормозной глюкодром в лице Dragons Dogma 2, который идет без лагов на RX 6500 XT, которую все те же техноблоггеры окрестили худшей видеокартой от AMD. Движок соответственно новый и игра по заявлениям орд кривая, но фризов почему-то не наблюдается и производительность близка к RX 6600 внезапно так.

https://www.youtube.com/watch?v=Wah2JKq-6i4

Собственно можете почитать статью и блеяние в комментариях и подумать по поводу того кто в адеквате.

https://overclockers.ru/blog/Gamandril_Stories/show/178324/uskorenie-kompjutera-v-igrah-s-raskrytiem-potenciala-videokarty-i-snizheniem-nagruzki-na-cp

anonymous
()
Ответ на: комментарий от anonymous

Я тоже кое-что знаю о гейминге на жалазе в половину от минималок и кое-какие хаки. Но вся та хрень, которую я творю - абсолютно не применима для средего геймера и прямо запрещена для онлайн-игр.

Ну ладно, интересная теория в этой статейке про разгрузку прерываний на гибридной графике. А что делать если графика не гибридная?

Да ещё и перепроверить всё это надо под микроскопом, а то слишком уж похоже на всю ту чушь про заговоры рептилоидов и магнитики на топливопровод машины. Тем более что они на полном серьёзе рассказывают про использование вулкана на интел-атомах и 2гб видеопамяти для десктопа.

И даже при всём этом, он пишет при ответе на вопрос сколько нужно ядер для игр, вполне возможно правильным ответом будет 4 или 6, для топовых видеокарт в тяжелых играх с упором максимальное количество кадров, так как большее число кадров повышает нагрузку на процессор.

kirill_rrr ★★★★★
()

Запускать виртуальные машины, ide отъедают ресурсов вагон и тележку. Для «жёлтых» программ есть такая среда EDT которая тормозит сама по себе даже без всяких сборок и парсингов «исходников» конфигураций

PlaQ ★★
()
Ответ на: комментарий от kirill_rrr

Очевидно же что графика не должна быть гибридная. Там в комментариях был человек у которого и на винде и с двумя полноценными видеокартами тоже все работает. Так что никаких рептилоидов или зпрещенки не годной для онлайн игр. Quake Champions более чем онлайн ориентирована и там как и в CS2 в районе 300 кадров и за последние месяцы ничего особо не поменялось - ну при средних текстурах в кваке чуть поменьше. Про 4 ядра или даже 6 ясное дело было упомянуто к тому, что для тяжелейших игр вроде Трои с кучей отрядов и прочей перегруженной травой двух ядер наверное не хватит, но это не точно. В любом случае 2 ядра в производительном режиме больше склонны к сбросу кадров даже если их 300 по умолчанию в тяжелых сценах, так что 4 ядра вполне оптимальны, но необязательны.

anonymous
()
Ответ на: комментарий от anonymous

У меня на ноуте как раз амд А6, 2 ядра и гибридная графика и я как раз часто отправляю отрисовку на дискретку потому что редко где кроссфайр даёт хорошие результаты (и вообще, выделение 2гб из оперативки под зеркалирование видеопамяти - жесть). Ну так вот: 100500фпс и радужных пони нету, цпу не вывозит, видеопамяти недостаточно, ядер катастрофически не хватает (что в ведьмак3, что в гта5)(именно ядер! фоновые задачи подвисают!). Да и вычислительные блоки видеокарты частенько (блин, да везде моложе 7 лет!) не способны отработать все шейдеры, тесселяции и даже банально сглаживания линий и текстур.

kirill_rrr ★★★★★
()

Нытьё какое-то. Нет денег - купи дешевле, есть деньги - купи что хочешь.

Разницы для своих личных мини-проектов (о ужас, на питоне, ибо ничего другого не умею) на устройстве 7900X/64Гб более чем вижу на фоне старенького 3600/16гб, особенно учитывая RDP и remoteapp и виртуалки тоже для личных нужд.

Нет, не собирается быстрее, но обработка данных куда быстрее, условно двадцать минут вместо прежнего часа.

Купил бы 9950X, нанял бы негра для оптимизации кода, но нищеброд-с.

One ★★★★★
()
Ответ на: комментарий от kirill_rrr

Кроссфаер же вроде благополучно похоронили, а тут любые карты дружить должны, хотя может два красных пытаются окросфаериться и им нужно это запретить? Ну а ноутопроблемы могут и мешать - почему-то раньше ни один ноутовод не поднимал тему увеличения производительности с использованием разных выводов, если допустим выход на монитор подключен к дискретному чипу, а не через встройку чтобы была ясно видна разница. Скорее наоборот - видел что орут как необходимо чтобы именно к дискретке шел вывод. Возможно в случае топовых видеочипов это имеет смысл с вагоном видеопамяти на борту, но не в случае чего попроще. Встроенное видеоядро есть и в дешевых процах, но их старательно обходят стороной как правило те кому игры интересны и именно это является ошибкой в том числе. Испоганить то могут ноутбукоделы что угодно. В случае с самосборным компом этот фокус не проканает и разница в производительности будет видна. Если играть на внешнем мониторе и не вырубить еще до загрузки компа встроенный монитор возможно и получится корявая конфигурация. Это все ноутбуководы пусть проверяют. Мне проще раз во сколько-то лет поменять видеокарту, а ноутбук брать чисто со встройкой из-за неадекватного ценообразования с бешеной накруткой за те же самые чипы чтобы таскать с собой тажеленный пылесос и слушать вой - надоело. Не хотят делать качественные ноутбуки с многослойными платами и офигенными тихими турбинами способными на 40% оборотов охладить видеокарту на 170 ватт. Все грешат корявой дурью с температурой проца в 100 градусов - на фиг такое счастье. Я тостер если что отдельно куплю.

anonymous
()
Ответ на: комментарий от anonymous

Кроссфаер же вроде благополучно похоронили

И очень плохо! Потому что это было киллерфичей гибридной графики амд+амд. Надо было допиливать, оно реально в некоторых играх давало 130-150% производитеьности дискретки. Сейчас пора использовать не только кластеры цпу но и кластеры гпу.

почему-то раньше ни один ноутовод не поднимал тему увеличения производительности с использованием разных выводов

Потому что на ноутах не было такой темы. А вот гибридная графика - была. А прироста не было! Возможно данная тема принудительно создана неотключаемым композитингом вин10/11 и прочими гномошелами и вайландами.

Кстати я как то для прикола запустил невидия Оптимус на ПК коре2квард + нв жтх260, как раз в том самом режиме: бенчмарк valley на дискретке, вывод через интеграшку интел ГМА. Прирост производительности жёстко отрицательный, дискретка раскрылась на ~10% номинала + жуткий тиринг + фризы.

Скорее наоборот - видел что орут как необходимо чтобы именно к дискретке шел вывод.

Обычно так действительно стабильней, меньше косяков и ещё декодирование видео лучше работает (или вообще работает). Кстати, ноуты обычно используют встроенную в SoC pci шину. Она уже, но отзывчевей и вероятно позволяет zero copy и DMA без накладных расходов. Вот и можно положить болт на петлю данных гпу-цпу-видеокарта.

Не хотят делать качественные ноутбуки с многослойными платами и офигенными тихими турбинами способными на 40% оборотов охладить видеокарту на 170 ватт.

Вы хоть представляете сколько это будет стоить и какова ширина ниши? Не считая того, что ноуты с водянкой имеются уже сейчас и эту самую нишу закрывают.

Все грешат корявой дурью с температурой проца в 100 градусов

Просто отключаешь буст и жертвуешь одним попугаем. 80% ноутов сразу становятся тихими и приятными, остальные 20% просто безнадёжны.

kirill_rrr ★★★★★
()
Последнее исправление: kirill_rrr (всего исправлений: 1)

Разработчики тоже разные бывают. Какие-то крупные проекты собирать может быть мучительно долгим, для этого и покупают.

Хотя я считаю что собирать себе мощную рабочую станцию за дорого ради компиляции - не всегда разумная затея, во многих случаях дешевле и проще будет обойтись сервером для компиляции. Ну и, кто бы что не говорил, компилировать что-то на двух многоядерных Xeon с hyperthreading куда приятнее, чем на условной AMD Ryzen.

Amphetamine
()