LINUX.ORG.RU

Выбор видеокарты в 2025

 , ,


2

3

Здравствуйте, форумчане! Под новый год творится множество чудес: AMD готовятся выкатить серию видеокарт RX8XXX, Германцы получили «боевых магов» от Intel раньше оффициальной даты выхода, ноутбуки на ARM начали массово возвращать. Все эти безумные высказывания сбивают меня с толку. Мне не удаётся найти тихое местечко, где можно отбросить фейки и определить то, что мне реально нужно(даже игнорируя свой финансовый статус)…

Кто-то, недели две назад, выпустил обзор характеристик двух «боевых магов» среднего сегмента - B570 на 10 ГБ и B580 на 12 ГБ. Цены типа очень низкие, но это пока карточки не завезли в страны СНГ. Виндовсовые нытики постоянно пишут про то, какие у Intel ужасные драйвера на видеокарты, и вообще они сейчас развалятся от банкротства. В Linux, кажется, с драйверами тоже не всё чисто. Однако эти ярые высказывания, по большей части, были в сторону «алхимиков», вышедших в начале этого года. Кто-то даже где-то писал, что линейка Battlemage - это те же Alchemist, но с исправленными драйверами и лучшим железом, чтобы быть конкуррентом против Nvidia и AMD.

Вернёмся ко мне. Сейчас у меня есть:

• AMD Ryzen 5 5500

• KingSpec DDR4 16GB(8*2) на 1666 МГц

• GTX 1060

В моих давних мечтах было сменить противный шестиядерник на Ryzen 7 5700X, с учётом того, что на него даже цены когда-то падали. Теперь они возросли и я решил собирать деньги на 32 ГБ оперативки, ссылаясь на то, что нехватка ОЗУ - более актуальная для меня проблема.

Однако самой актуальной для меня проблемой стала видеокарта. Шестигиговая GTX 1060 с трудом и не полностью умещает в себя квантованный Qwen 2.5-Instruct. Часть модели выгружается в оперативку и, в совместной работе ГПУ+ЦП, модель отрыгивает медленно падающие 4,98 токенов в секунду. Если обновиться на видеокарту, где есть, хотя бы, 8 гигов, то модель поместится полностью, но на посиделки в браузере или в дискорде у меня много памяти не останется.

И ТУТ ВРЫВАЮТСЯ INTEL СО СВОИМИ Arc Battlemage!

B570 на 10 гигов, БАМ! 144 тензорных ядра, БАМ! Дополнительные два слота под M.2 SSD, БАМ!

Сколько крутых слов и нововведений, приправленных выражением «демпинг цен».

А стоит ли вообще смотреть в сторону Intel? У Nvidia в Linux всё плохо с драйверами, у AMD всё хорошо, но кто-то сделал острое высказывание, мол AMD с*сут по железу и в то же время с*сут в написании драйверов, и это компенсируют тем, что драйвера пишет им коммьюнити. Более того, у AMD и llama.cpp большие проблемы с поддержкой ROCm на старых видеокартах до архитектуры RDNA2.

Когда-то я вообще думал взять выжившую RX 580, вставить в связку с GTX 1060, чтобы Nvidia полностью была занята ИИ, а AMD выводила картинку. Однако, когда я задал такой вопрос в дискорд-сервере одного майнкрафт-хостинга, пришёл его владелец и сказал, что теперь иксы ужасно дружат с двумя видеокартами.

Что посоветуете делать? Имеет ли смысл ждать, пока Battlemage выйдут в глобальное производство?

Ответ на: комментарий от etwrq

Есть софт который сугубо виндовый. Однако в вайне есть с патчами поддержка CUDA. То есть CUDA работать будет, а вот rocm для такого софта не поддерживается. За примером далеко ходить не буду, xVASynth.

vbcnthfkmnth123 ★★★★★
()
Последнее исправление: vbcnthfkmnth123 (всего исправлений: 1)

Б/у 3060 12гб выглядит пока поинтереснее, да и нет интела в продаже. Можно посмотреть и на Tesla P100 16 GB, тоже около 20к

А на 16 гб смотреть нет смысла, добавит немного для ИИ моделей, критично лучше будет с 24гб

One ★★★★★
()
Последнее исправление: One (всего исправлений: 1)

что теперь иксы ужасно дружат с двумя видеокартами.

иксы нормально работают с двумя и больше видеокартами. На работе для третьего моника воткнута вторая карта:

vitus@xxxx:~$ lspci -k | grep -EA3 'VGA|3D|Display'
01:00.0 VGA compatible controller: Advanced Micro Devices, Inc. [AMD/ATI] Park [Mobility Radeon HD 5430]
	Subsystem: PC Partner Limited / Sapphire Technology Caicos [Radeon HD 5450]
	Kernel driver in use: radeon
	Kernel modules: radeon, amdgpu
--
0a:00.0 VGA compatible controller: Advanced Micro Devices, Inc. [AMD/ATI] Cezanne [Radeon Vega Series / Radeon Vega Mobile Series] (rev c8)
	Subsystem: ASUSTeK Computer Inc. Cezanne [Radeon Vega Series / Radeon Vega Mobile Series]
	Kernel driver in use: amdgpu
	Kernel modules: amdgpu

Чисто justforfan сували древнюю карту третьей и делали 4 монитор. Всё работало штатно. Так что вот.

vtVitus ★★★★★
()
Последнее исправление: vtVitus (всего исправлений: 1)
Ответ на: комментарий от MagicMirror

Давно уже и для вычислений.

Идея там такая, что вычисления в Вулкане делаются для графики, которая потом будет отрисована им. Как первый шейдер.

А то что можно считать и на нём – понятно.

thegoldone ★★
()

Если ты не гоняешь нейросетки 24/7, просто арендуй ec2 с жирной картой. В зависимости от целей и бюджета, выбирай из G и P линеек.

anonymous
()

Когда-то я вообще думал взять выжившую RX 580, вставить в связку с GTX 1060, чтобы Nvidia полностью была занята ИИ, а AMD выводила картинку. Однако, когда я задал такой вопрос в дискорд-сервере одного майнкрафт-хостинга, пришёл его владелец и сказал, что теперь иксы ужасно дружат с двумя видеокартами.

Чтобы использовать CUDA не требуется подключать видюху к иксам

У Nvidia в Linux всё плохо с драйверами

ЛПП

annulen ★★★★★
()
Ответ на: комментарий от MagicMirror

koboldcpp отлично переваривает llama и не только на связке vulkan+amdgpu.

Скажи автору этой херни, что она модели из памяти не выгружает при простое и не позволяет переключать модели без перезапуска

anonymous
()
Ответ на: комментарий от anonymous

Буферы везде используются. Значит всё - это графика по твоей логике?

The point of Vulkan’s compute pipeline is to provide compute facilities for rendering operations. Despite the ridiculous tagline, Vulkan is not trying to compete with OpenCL. Use OpenCL for compute tasks. Use Vulkan’s compute shaders when you need to do computations that feed rendering processes.

thegoldone ★★
()
Ответ на: комментарий от anonymous

Ты видимо не то и не так проверял. Если мониторинг показывает 1% и 0.1% низкими в районе 1-2 кадров при общих к примеру 30-35 кадрах, но лагов не наблюдается, то это проблемы мониторинга, который к этому не готов. А в следующий раз пиши адекватно. Твои выхлопы безосновательны. Я пишу о том что проверялось многократно и чем я реально пользуюсь. А свои замашки оставь гопникам во дворе. Единственный вариант когда может не работать что-то это древнее железо. Но это не мои проблемы, что у тебя нет чего-то поновее.

anonymous
()
Ответ на: комментарий от anonymous

Можешь сам почитать комментарии. Там отписался человек о том что на винде работает тема с двумя видеокартами у него. Я такое проверял на старой системе и там это не работало как надо с открытым драйвером нвидии на старой видеокарте, а проприетарный не устанавливался. Видеокарта тоже должна поддерживать нормально передачу данных по шине и совсем древность не подходит типа GT 240. Надо чего-нибудь поновее, либо может быть она будет работать но только на винде. Эти все претензии производителю видеокарт в таком случае. У меня связка из встройки с видеокартой работает превосходно увеличивая в ряде игр производительность в три и более раз, чего не предлагал даже режим SLI/Crossfire, которые на линуксе и не работали. А это все работает на линуксе, причем с любой игрой. Если есть график времени кадра, то на Direct3D 11 он обычно в играх показывает почти прямую линию в DXVK. С Direct3D 12 и прослойкой VKD3D график выглядит кардиограммой чаще всего. Его колбасит вверх-вниз, но на плавности это никак не отражается потому что колебания недостаточные чтобы это все выглядело равным образом, по крайней мере через Displayport. не проверял HDMI, но тоже должно все работать. А вулкановские игры и так должны переть без заморочек, потому что еще одной прослойки нет. В общем и целом прирост количества кадров огромен и никакая надуманная задержка никаких неудобств не доставляет. Игры работают плавно и разве что какая-нибудь The Alters может представлять сложность из себя потому что она в 2560х1440 работает быстрее чем в 1920х1080, при этом крайне нестабильно при запуске получается сама работа и часто количество кадров ниже 24-х. Но даже так при 22 кадрах сам игровой процесс не выглядит рваным. Он ощущается слегка приторможенным, но там это обычно ни на что не влияет - просто проходные места перегружены. Это проблемы самой игры в данном случае, хотя по-другому при 4 гигабайтах видеопамяти ее не запустить. Остальные кривые особенности не дают использовать FSR из-за перегруза видеопамяти, так что любая игра должна работать в режиме 100% масштаба. Иначе кривые движки не готовые к такому повороту, что видеокарт может быть не одна штука снижают производительность. Это чтобы не ожидать то чего железо не может вывезти. Видеопамять все-таки нужна, но все очень зависит от кривости самой игры и того как она с ней обращается.

anonymous
()
Ответ на: комментарий от anonymous

это не работало как надо с открытым драйвером нвидии

CUDA не работает с открытыми драйверами. Зачем такой вариант рассматривать?

vbcnthfkmnth123 ★★★★★
()
Последнее исправление: vbcnthfkmnth123 (всего исправлений: 1)
Ответ на: комментарий от anonymous

ОБОЖЕМОЙ, чел обнаружил ВНЕЗАПНО что технология prime rendering offload работает не только в ноутбуках с дополнительной видеокартой. Это открытие повредило ему мозг, и он разразился омерзительной с литературной точки зрения статьёй в бложике.

Поскольку статья полна ЧСВ, хамства и провокаций — в комментах к ней творится ад и израель.

Ещё у чела какие то артефакты измерений вылезают, к тому же он непомерно горд тем что осилил Линукс, в результате имеют место быть бредовые утверждения о мозгоразрывающем превосходстве.

А истина как всегда где то рядом. PRIME хорошая технология, с ней действительно можно вынести весь обмолот игровой графики на игровую дискретку, не расходуя её память и ресурсы браузером и прочим запущенным в фоне графическим окружением, это всё на встройке остаётся.

Но вот на практике результаты будут очень разные, потому что в отличии от ноутбукостроения, где такое изначально предусмотрено, на десктопах начинает играть куча ньюансов. Какая у нас встройка, амд или интел, какого поколения, какой свежести у нас дистрибутив и дрова соответственно, «правильные» ли у нас дрова под интел, дискретка у нас какая, амд или нвидиа, какого поколения, какой свежести дрова нвидии, какая у нас ТОПОЛОГИЯ ПЛАТЫ (это важно), куда воткнута дискретка, в какой слот, «честные» ли там x16 (может оказаться что там x8, а остальное дополнительный NVMe пожрал) какой чипсет, сколько доступных каналов PCI-E и как конкретно они разводятся, это к вопросу о топологии, вы же в курсе что есть процессорные PCI-E, есть чипсетные PCI-E, и в зависимости от формфактора, чипсета и «обвеса» мамы даже основной PCI-Ex16 может вести себя сильно по разному, например превратиться в x8...

Короче, PRIME offload на десктопе может как прекрасно работать, так и артефачить по всякому. Поэтому и отзывы полярные. Но даже в случае идеальной работоспособности прорывных чудес ждать не стоит.

Jameson ★★★★★
()
Ответ на: комментарий от vbcnthfkmnth123

Там речь про работу двух видеокарт в играх. Одна на себя берет функции обработки рабочего стола - в моем случае встройка UHD 770. Вторая, то есть основная в основном слоте занимается обработкой данных игры, не имея никакой посторонней нагрузки. PCIE 1-го поколения хватает чтобы выводить более сотни кадров, то есть упора в пропускную способность шины быть не может чтобы дошло хоть до каких-либо лагов. Но в случае со старыми видеокартами производительность и впрямь не блещет, показывая около 30 кадров выдаваемых на старом компе со старой видеокартой вместо 300. То есть да, что-то может не заработать, но если все правильно сделано и подключен монитор через встройку, то количество кадров резко возрастает. Учитывая пропускную способность современных PCIE 4-го поколения там близко не может быть никаких лагов в принципе. Накладки бывают только в случае масштабирования, но примерно то же самое происходит если разрешение рабочего стола отличается от того что в игре. Дело именно в резком скачке производительности в случае двух видеокарт. Для работы это выглядит может и иначе, но игры почти никогда не умеют различать занятость ГПУ и его реальную нагрузку, что тоже может влиять на CUDA. Не проверял - у меня АМД. В статье на оверах все довольно подробно описано. Просто уже более полугода все работает во всех играх у меня хорошо, а мне тут кидают предъяву, что это якобы хрень какая-то, что явно неправда.

https://rutube.ru/channel/37525196/videos/

anonymous
()
Ответ на: комментарий от Jameson

О, ты нашел название чтобы изобразить умника. Да только сам не был в курсе еще несколько дней назад судя по всему. И к чему бы это? Правда занятно что у меня никаких глюков помимо мониторинга, который на результат не влияет? И чего это все остальные молчат о столь судя по громкости выхлопа общеизвестной теме? Какие к чертям топологии у видеокарты с 4-мя линиями PCIE? О чем ты вообще? Ты видимо статью наискосок прочитал. Влияние количества линий при такой разрядности шины влияет лишь в ряде проектов на 20% при снижении поколения, то есть снижении пропускной способности вдвое. Я уже молчу о тоннах негативных отзывов о тестируемой видеокарте. А ведь это не нечто дорогущее. Идите вон к блоггерам, которые вещают о том как правильно тестировать видеокарты и объясняйте им свои домыслы. Топология платы. Вот смешно же. Основной слот видеокарты напрямую подключен к ЦП со встройкой. И эти выхлопы четырнадцатилетних блондинок поправьте с надписями капс локом.

anonymous
()
Ответ на: комментарий от Jameson

Не бей себя по лицу. Не поможет. И про линии разные я писал. И если читать не наискосок, то можно это заметить. Все что тут написано не используется. Точнее никак не настраивалось.

https://wiki.archlinux.org/title/PRIME

По поводу вот этого:

3.1 XRandR specifies only 1 output provider

Бред. одна видеокарта видна, если в биосе криво выставлены настройки. Впрочем уефи умеет это решать, если первым инициализируется не встройка и когда линукс грузится все работает.

3.2 When an application is rendered with the discrete card, it only renders a black screen

Никогда такого не видел. Все просто работает.

3.2.1 Black screen with GL-based compositors

Все работает.

3.3 Kernel crash/oops when using PRIME and switching windows/workspaces

Ни разу не было за более чем пол года постоянного использования.

3.4 Glitches/Ghosting synchronization problem on second monitor when using reverse PRIME

Не было такого с двумя экранами 4К.

3.5 Error «radeon: Failed to allocate virtual address for buffer:» when launching GL application

Ни разу не встречал.

3.6 Constant hangs/freezes with Vulkan applications/games using VSync with closed-source drivers and reverse PRIME

Не было такого, но я использую открытый драйвер AMD.

3.7 Some programs have a delay when opening under Wayland

Все работает превосходно и задержек никаких нет. Некоторые игры идут чуточку быстрее на вейланде.

3.8 Error when running Wine games with DXVK

Не видел на AMD.

Так что можешь засунуть себе обратно свое знание о моем опыте. Ни одного бага я не встречал и все работает намного быстрее. Никакой настройки не требуется, а потому нет очевидных причин не пользоваться этим. Впрочем не факт что это прайм, так как я его не включал и не настраивал. Просто представь что я сам до всего дошел опытным путем и твои выкладки ничего не меняют. Люди продолжают критиковать то с чем не имели дела. А если ты имел, то давай видео в студию как ты такой умный ранее все это уже осилил и доказал забагованность такого подхода.

anonymous
()

все оч просто:

  • интел - для шизов
  • амд - для чувства свободы (тм) в штанах драйверах и немного игорь
  • нвидиа - для нейронок и игр

бюджет - сколько есть, невозможно взять амд дешевле и лучше чем нвидиа.

Obezyan
()

Nvidia:

  • В топовом сегменте нет конкурентов по производительности.

  • CUDA, плюс сообщество нейронок в первую очередь делают всё под нвидию. С другими то повозиться придется, то производительность хуже, то просто что-то не работает.

  • Придется подстраиваться под их драйвера под линуксом. Они часто либо не поддерживают свежее окружение, либо имеют с ними много нюансов в работе. Порой приходится бороться с проблемами в роллинг дистрибутивах или подстраивать под текущие возможности драйвера свою конфигурацию.

  • Нормальные карточки по соотношению цена качество начинаются с 600$. Про новую линейку пока только слухи, но по всем признакам ситуация не изменится.

AMD:

  • Лучше остальных работает из коробки и тестируется под линуксом.
  • Даже под виндой ограниченные возможности использования рейтрейсинга в играх на практике, под линуксом ситуация еще тяжелее. Сейчас он не особо нужен, особенно на текущих карточках, но с выходом свежих поколений gpu это ощутимый минус для верхнего ценового сегмента.

  • В случае возникновения проблем с драйвером откатить версию не просто в большинстве дистрибутивов. С амд они бывают значительно реже нвидии, но откат драйвера не всегда по силам даже опытному пользователю.

Intel:

  • Единственная вменяемая карточка в бюджетном сегменте.
  • В бюджетном сегменте она только виртуально, достать её по адекватной цене не просто даже в штатах.

  • Даже под виндой драйвера пока не уверенно стоят на двух ногах. Пока не юзабильны под линуксом и в ближайшие пару лет я бы от них ничего не ждал.

Ну и из не очевидных нюансов. Например, смотришь тест и видишь, что 7800 xt (480$+) по производительности почти как 4070 super (620$+). Но что это? Нативное разрешение? Ультра настройки? При одинаковой производительности в нативном разрешении на практике результат чаще всего будет в пользу нвидии, так как играть будешь с dlss/frs, а у dlss картинка лучше при том же разрешении. И с одинаковым пресетом настроек часто лучше будет качество картинки. В то же время на карточке с 8 gb vram игра может не давать просадок в фпс, а просто прогружать текстуры с задержкой.

Имеет ли смысл ждать, пока Battlemage выйдут в глобальное производство?

Под виндой до 35к руб я бы рискнул взять b580, но я бы даже не надеялся на это. Что же будет с релизом свежих поколений от амд и нвидии не ясно.

Когда-то я вообще думал взять выжившую RX 580, вставить в связку с GTX 1060, чтобы Nvidia полностью была занята ИИ, а AMD выводила картинку.

Можно, но практическая ценность этого пердолинга под вопросом (не связанная с линуксом). Я бы лучше поискал деньги на 3060 12gb, если нужен простенький гейминг и нейросетки. Если прям рабочая rx 580 валяется рядом, не надо думать о замене бп и продуве корпуса, то можно попробовать. Но, скорее всего, получишь ревущую в играх rx 580 с перекрытым притоком воздуха и подогревом от 1060, плюс с трудом заметное увеличение фпса в играх.

altwazar ★★★★★
()
Ответ на: комментарий от altwazar

Вообще после выхода FSR 3.1 уже можно не париться о разнице. Просто обычно недотепы считают что нужно выставить нативное разрешение, хотя на деле надо повышать разрешение выше 100% чтобы нативное разрешение использовалось, но была включена технология, плюс включена генерация кадров по возможности. Какой смысл от технологии убивающей картинку? Это все понято через задницу и подается под видом того что так можно. Но на ультра производительности в 4К очевидно реальное разрешение будет ниже в таком случае очень сильно. А при минимальном реальном разрешении падать будет некуда. Вариант просто включить лишь бы работало это для младших моделей, а люди думают что такой же ход нормален для топовых карточек. Когда система криво настроена они еще и сравнивают качество картинки. Ну мыло и мыло, какая разница сколько там артефактов изображения? И помимо прочего тормозят и не используют встройки чтобы повысить производительность. Можно ведь тупо выключить мозг и тупо включить длсс. А трассировка лучей дающая хоть какой-то эффект в трех играх ненужный довесок. В первую очередь идет возможность играть в 4К и при использовании двух видеокарт такое легко доступно. Брать даже среднего ценового сегмента видеокарту не под 4К это смех, да и только. Можете сами сравнить Tekken 8 в 4К с FSR на ультра производительности с реальными 4К. Тут даже на видео с убитым качеством картинки очевидно, что просто включение DLSS или FSR того не стоит, хотя и позволяет RX 6500 XT запускать игры в 4К.

Tekken 8 4K FSR Кльтра производительность

https://rutube.ru/video/56eaa416b23dfec67a86e2bbc7740b8e/

Dark and Darker 4K

https://rutube.ru/video/b7900614cc17036b92f09cd1a769beba/

Apex Legends 4K

https://rutube.ru/video/928d0197dedf7b196a6cffb667607691/?t=242&r=plwd

anonymous
()
Ответ на: комментарий от anonymous

Какой смысл от технологии убивающей картинку?

Картинку уже убили ТАА, а без DLSS и FSR в современные игры редко играют даже на дорогих карточках. Порой даже включение DLSS с понижением разрешения рендеринга улучшает картинку относительно «натива» из-за убогой встроенной реализации ТАА, которая заменяется DLSS-ом.

Смысл же технологии в минимизации артефактов при масштабировании разрешения рендеринга до нативного у монитора и упрощением подгона графических настроек под желаемый фпс. Я бы сказал, что это лучшее событие в области графики, если бы frs/dlss не являлся разновидностью ТАА, из-за которого картинка в современных играх в 4к по четкости порой уступает старым в 1080p.

altwazar ★★★★★
()
Ответ на: комментарий от altwazar

Именно для этого и следует повышать разрешение рендера. Грубо говоря выставляя разрешение на шаг выше и выставляя высокое качество получается то же разрешение что и у монитора. Но без включения FSR/DLSS нельзя включить так просто генерацию кадров, которая нужна ввиду использования ультра настроек и тем более трассировки лучей. на низких настройках можно и не пользоваться всем этим. Но опять же вторая видеокарта дает резкий прирост производительности ввиду освобождения ресурсов, иногда в разы. Еще раз в разы производительность поднимает FSR/DLSS, но не всегда - зависит от реализации. И еще раз вдвое можно поднять уже имеющееся количество кадров генерацией оных силами видеокарты. В общем и целом поведение при этом у людей сводится к тому чтобы снизить разрешение рендера, хотя чаще всего его стоит как раз поднять. А сглаживание 16-кратное было еще в незапамятные времена 3DFX и там с низким количеством пикселей была гладкая картинка. По сути эти возросшие возможности и пустили в дело в данных технологиях вместо организации качественного многократного сглаживания на более низком разрешении, плюс подключили ИИ к этому делу, если отдельные блоки имеются как в случае с DLSS. Мне очень странно видеть что до сих пор котируется не 4К и выше на карточках помимо младших моделей. Повышая разрешение можно кратно поднять нагрузку и средние карточки вывезут 4К. Но зачем натягивать сову на глобус с заведомо низким разрешением мне решительно непонятно. Ненужно этого делать без крайней нужды. Лучше выделить чутка бюджета на встройку чем платить дофига с весьма посредственным результатом на выходе. Когда разрешение рендера совпадает или выше там неоткуда взяться мылу. Оно виртуально больше, но на деле не меньше должно быть, чем разрешение монитора. Это как пропуск пикселей при высокой чувствительности мыши в системе - ненужно этого делать. Лучше выставить высокое значение DPI на самой мыши - вплоть до 42000 и не слушать обезьян, которые вещают как классно забить на все и тупо мышку за 300 рублей использовать в паре с 4К монитором. Это со стороны ввода если посмотреть на то же самое. Результат будет хреновым. Но если разрешение сенсора превосходит значение разрешения монитора со значением скорости менее единицы, принятой за 100%, то убавить можно это значение и не будет пропуска пикселей. В случае с FSR/DLSS не будет мыла. Это как если монитор отображает 144 кадра. Если поставить вертикальную синхронизацию, то значение 1% и 0,1% будут ниже этого параметра. Если выше 144, например 160 кадров, то система не будет намеренно тормозить и низкие значения 1% и 0,1% можно исключить из статистики. И даже если они попадутся они могут быть выведены по готовности благодаря Adaptive Sync, но они будут заведомо выше чем при ограничении в 144 кадра вертикальной синхронизацией. То есть разрешение выше никак не должно портить картинку. Нечему портить при избытке данных. Как фотографию в 100 мегапикселей на 4К монитор вывести - она будет в лучшем качестве что монитор способен отобразить. Данных для субпикселей больше будет. А дальше матрицы накладываются и нет мыла без данных.

anonymous
()
Ответ на: комментарий от anonymous

Грубо говоря выставляя разрешение на шаг выше и выставляя высокое качество получается то же разрешение что и у монитора.

Понятия не имею, что ты имеешь ввиду.

Но без включения FSR/DLSS нельзя включить так просто генерацию кадров, которая нужна ввиду использования ультра настроек и тем более трассировки лучей.

Генерация кадров нахрен не нужна, она только увеличивает задержку.

Дальше просто шизофренический бред, даже читать не стал.

altwazar ★★★★★
()
Последнее исправление: altwazar (всего исправлений: 1)
Ответ на: комментарий от anonymous

выставляя разрешение на шаг выше и выставляя высокое качество получается то же разрешение что и у монитора.

У меня глаза от такого вытекают. Слишком высокая резкость.

vbcnthfkmnth123 ★★★★★
()
Ответ на: комментарий от anonymous

В фильмах? Там действительно фпс выше 24 не очень смотрится, слишком быстро на мой вкус.

vbcnthfkmnth123 ★★★★★
()
Последнее исправление: vbcnthfkmnth123 (всего исправлений: 1)
Ответ на: комментарий от vbcnthfkmnth123

Это всего лишь выполнение условий для того чтобы генерация кадров заработала. Реальный рендеринг может продолжать идти в выставленном разрешении. А вот генерацию кадров без этого не включить.

anonymous
()
Ответ на: комментарий от altwazar

Для тебя не ты, а вы. Вот потому я и написал отдельную статью. Скоро наверное выйдет. А вот нужна ли генерация кадров это уж каждый сам решит. Уже выходят игры, которые без этих технологий не то чтобы достаточно быстро работают в низком разрешении, не говоря уж о 4К. А дальше ты спутал гениальное решение с шизофренией. Бывает, когда мозгов не хватает.

anonymous
()
Ответ на: комментарий от vbcnthfkmnth123

Кстати, как я вижу, сейчас игры делают, с максимально выкрученным моушн блюром, маленьким фовом и управлением под аналоговые джойстики с маленькой чувствительностью - все чтобы скрыть лаги на 30 фпс.

По-моему, в погоне за фотореалистичностью и кинематографичностью в играх мы свернули куда-то не туда.

masa
()