LINUX.ORG.RU

Пара вопросов о 4K-мониторах

 , ,


0

3

Приветствую. Так как в недалёком будущем планирую собирать новую рабочую станцию, встал вопрос о выборе монитора. В данный момент у меня два 23-х дюймовых DELL S2318HN, отличные мониторы, всем доволен. Однако 4K-мониторы сейчас довольно ощутимо подешевели, во многий софт и DE добавляют поддержку UHD, да и сайты потихоньку адаптируют. Потому думаю целесообразнее к новой рабочей станции будет взять 4K монитор....два 4K монитора. Но как я понял, даже одному такому монитору нужна видеокарта с минимум 6 гигами, и то если не будешь играть во что-то графонистое. Что же тогда потребуется для двух таких мониторов? Нужно ли будет ставить 2 видеокарты и каждый монитор подключать к своей? В общем, прошу совета у владельцев 4K мониторов.

6 гиг... Хм... На ноуте 4к в моник по проводу HDMI подтормаживало. А с одноплатника orange pi plus 2e показывало идеально. Так что гиги памяти это всё фигня. Главное аппаратная приспособленность.

burato ★★★★★
()

щито?
разве современне карты не могут в 12К?

3 моника по 4К

последние невидии уже вроде научили по 8к на видовыход

Deleted
()

Чтобы картинку показать с тройной буферизацией и 128МБ хватит. Если на мониторе с низких разрешений криво масштабирует, то можно масштабировать и на другом уровне.

Поддержку HiDPI только добавляют, и сама она не подхватывается ещё. Как понял, по умолчанию DPI на 96 захардкодили, поэтому результат автопределения DPI игнорируется везде, кроме nvidia. И для каждого тулкита надо настроить. Некоторые приложения по своему делают, их надо отдельно донастроить, если это вообще возможно. Не мало где увеличивается только текст, но не остальное. Или вообще всё масштабируется, из-за чего теряется смысл в HiDPI, ведь хочется посмотреть пиксель в пиксель, а приложение отмасштабировало и сказало, что это масштаб 100%. И все разъедется если добавишь монитор с другим DPI

anonymous
()
Ответ на: комментарий от petrosyan

Но, через HDMI будет максимум 30 Гц. 60 Гц можно получить только через DisplayPort, который есть не везде, где заявлена поддержка 4K. И отдельные видеокарты с поддержкой 4K, но без DisplayPort'а, дешевле.

А про 30 Гц люди пишут, что это слайдшоу. У некоторых даже проблемы с попаданием курсором мыши в элементы интерфейса. Поскольку всё становится слишком дёрганным. Только что курсор мыши был там, а уже - в другом там. А надо было где-то посередине.

saahriktu ★★★★★
()
Ответ на: комментарий от saahriktu

Если я правильно понимаю, это было характерно для старых поколений Intel HD, 7-8 поколение работает и через hdmi. Хотя врать не буду, у меня нет 4к и в ближайшее время не планируется за ненужностью.

petrosyan ★★★★★
()
Ответ на: комментарий от saahriktu

Да вот кстати ещё один момент. Очень многие владельцы 4K-мониторов жалуются, что они не поддерживают больше 60 Гц. И я не совсем понимаю этот недостаток. Разве 60 Гц мало?

Sunderland93 ★★★★★
() автор топика
Ответ на: комментарий от Sunderland93

у тебя обычные панели fhd тоже не поддерживают более 60Гц.
откуда вообще вопрос всплыл?

были моники на заре 2007 года, с лампами, там была заявлена поддержка 70 или 75Гц, но потом как-то всё стухло..

Deleted
()
Ответ на: комментарий от Sunderland93

а мало или много 60Гц, это надо смотреть у slow motion brothers, они недавно запилили быструю съемку ЭЛТ телевизора.

Там камера не успевала (вернее с большим трудом успела) за ходом луча в кинескопе.

Deleted
()
Ответ на: комментарий от Deleted

Просто на многих форумах и в отзывах к 4K-мониторам люди жалуются, что не поддерживает больше 60 Гц, мол есть FullHD мониторы на 120, 144 Гц. И я вот не понимаю для чего оно нужно. Это же было актуально для ЭЛТ мониторов - чем больше частота, тем меньше мерцание.

Sunderland93 ★★★★★
() автор топика
Ответ на: комментарий от Sunderland93

И я вот не понимаю для чего оно нужно

Для трушной плавности в динамичных сценах. Если ты не дрочун на графоний, это не важно.

anonymous
()
Ответ на: комментарий от saahriktu

Надо брать монитор, а не телевизор.

Сейчас все видеокарты внутри имеют только DisplayPort, без таких разъёмов остаются только затычки, там цены немного по другому строятся. А вот на материнках, да, пока ещё могут DisplayPort придержать для дорогих моделей с 4 каналами для подсветки и wi-fi.

Как постоянный пользователь удаленного управления с 2FPS скажу - они не попадают из-за возросшего DPI, с текущими UI сплошной pixel hunting, особенно когда надо поймать границу окна или неотмасштабировавшийся check box.

anonymous
()

Но как я понял, даже одному такому монитору нужна видеокарта с минимум 6 гигами

Братец, ты упорот. Там для рисования окошек 256 Мб за глаза, т.к. на один кадр при 24-битном цвете уходит 24 Мб ровным счётом.

anonymous
()
Ответ на: комментарий от anonymous

Ну не скажи. Если открыто много окон, например, браузер с кучей вкладок, стим, ФМ тоже с несколькими вкладками - то всё это жрёт 645 метров (Nvidia GTX 760)

Sunderland93 ★★★★★
() автор топика
Ответ на: комментарий от anonymous

стесняюсь спросить, куда hdmi2.0 выкинули?

Deleted
()
Ответ на: комментарий от Sunderland93

Ну, умножь на 4, где там 6 Гб получается?

anonymous
()
Ответ на: комментарий от anonymous

Во-первых, выше речь шла о встроенном Intel'овском видео. А не на каждой материнской плате есть DisplayPort. При том, что железо бывает разным. У меня есть, например, неттоп на i5, видео в котором поддерживает 4K, но видеовыход только HDMI. Во-вторых, не всем нужны дорогие видеокарты. При том, что и между бюджетными есть разница в железе и цене. Видеокарта с поддержкой 4K, но без DisplayPort'а может стоить, например, 2450 р. А вот видеокарта с поддержкой 4K и DisplayPort'ом будет стоить уже где-то 5699 р.

saahriktu ★★★★★
()
Ответ на: комментарий от Sunderland93

А это кому как. 60 Гц маловато для идеально плавной картинки, как она нужна человеческому глазу. Но, многим и 60 Гц нормально. А вот 30 Гц - это уже совсем мало.

saahriktu ★★★★★
()
Ответ на: комментарий от saahriktu

О, так даже самая дешевая 460 с поддержкой HDMI 2.0, так что норм.

ozz_is_here
()
Ответ на: комментарий от saahriktu

Но, через HDMI будет максимум 30 Гц.

HDMI 2.0 умеет и 4K/60Hz. А 2.1 вообще раздули с запасом на 10K/120Hz.

StReLoK ☆☆
()
Ответ на: комментарий от anonymous

Гм. Ну, значит, далеко не все 4K мониторы поддерживают HDMI 2.x. Когда я некоторое время назад изучал конкретные 4K мониторы там прямо указывалось в характеристиках, что 60 Гц только через DisplayPort, а через HDMI только 30 Гц.

saahriktu ★★★★★
()
Ответ на: комментарий от saahriktu

Это или старые мониторы (реально старые, ибо HDMI 2.0 аж в 2013 выкатили) или в магазинах херню написали в характеристиках.

StReLoK ☆☆
()
Последнее исправление: StReLoK (всего исправлений: 1)
Ответ на: комментарий от StReLoK

Ну, не обязательно же внедрять в железяку самую последнюю версию стандарта. Вон, и флэшками для USB 2.0 все магазины завалены. Хотя уже давным-давно есть USB 3.x.

saahriktu ★★★★★
()
Ответ на: комментарий от saahriktu

Ну, внедрять в 4K монитор древний 1.4b это попахивает идиотизмом, таким только самые лютые китайцы могут заниматься.

StReLoK ☆☆
()
Ответ на: комментарий от anonymous
% nvidia-smi 
Sun Jan 28 15:51:26 2018       
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 390.12                 Driver Version: 390.12                    |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  GeForce GTX 960     Off  | 00000000:02:00.0  On |                  N/A |
| 25%   48C    P5    16W / 130W |    933MiB /  4040MiB |     36%      Default |
+-------------------------------+----------------------+----------------------+
                                                                               
+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID   Type   Process name                             Usage      |
|=============================================================================|
|    0      5434      G   /usr/bin/X                                   532MiB |
|    0      5539      G   kwin_x11                                      65MiB |
|    0      5548      G   /usr/bin/krunner                              12MiB |
|    0      5549      G   /usr/bin/plasmashell                          50MiB |
|    0     10147      G   ...oads/idea-IC-173.4301.25/jre64/bin/java    79MiB |
|    0     28578      G   ...-token=4F3F273C85C7EF2A8E12AD7D3D68CCBA   119MiB |
+-----------------------------------------------------------------------------+

640KiB хватит всем?

RazrFalcon ★★★★★
()

Про игры в 4К можно вообще забыть, если только у вас не 1080ti. При этом половина игр вообще не умеет в масштабирование. То есть или мелко, или криво. Из примеров: в Deus Ex HR интерфейс не масштабируется, а в том же сталкере меню плывёт. И тд.

RazrFalcon ★★★★★
()

Короче, не морочьте пацану голову.
Бери одну из последних моделей ЛыЖы, бери какую 1050ти и живи спокойно.

Deleted
()
Ответ на: комментарий от anonymous

«4k» «не дрочун на графоний»

anonymous
()
Ответ на: комментарий от RazrFalcon

640KiB хватит всем?

хренасе кеды видеопамять жрут...

на xfce иксы - от 50 до 200 (если овердохрена рабочих столов и стопицот окон), и всё

anonymous
()

даже одному такому монитору нужна видеокарта с минимум 6 гигами

Что еще нужно?

BceM_IIpuBeT ★★☆☆☆
()
Ответ на: комментарий от Deleted

Для текстового разрешения 120x36, где каждый символ 16x30 пикселей.

saahriktu ★★★★★
()
Ответ на: комментарий от anonymous

Тут ещё дело в блобе. Там какой-то баг из-за чего он лишнюю видеопамять подъедает

Sunderland93 ★★★★★
() автор топика
Ответ на: комментарий от Sunderland93

мол есть FullHD мониторы на 120, 144 Гц. И я вот не понимаю для чего оно нужно.

Очевидно, для игр. Разница между 16 и 7мс/кадр — огромна.

x3al ★★★★★
()
Ответ на: комментарий от Sunderland93

Если мониторы с одинаковым DPI будут, то ещё нормально.

3960*2160 удобнее чем 2560*1440, что оно кратно и 1920*1080 и 1280*720, т.е. можно легко можно сменить разрешение на эти до этих или наоборот - отмасштабировать источник из них.

anonymous
()
Ответ на: комментарий от pawnhearts

Ultrawide это по сути два монитора в режиме панорамы, а мне нужно чтобы было два раздельных, независимых монитора. Мне так удобнее. А 42 дюйма слишком огромный

Sunderland93 ★★★★★
() автор топика
Последнее исправление: Sunderland93 (всего исправлений: 1)
Ответ на: комментарий от pawnhearts

Нет, мне надо чтобы я, например, на одном мониторе запустил видео, а на другом - что-нибудь строчил в LibreOffice. Или пока на одном мониторе запущена игра - я мог на другом открыть страницу в браузере. Как-то так.

Sunderland93 ★★★★★
() автор топика
Ответ на: комментарий от Sunderland93

эээээ я никогда не запускал игры на 2 мониторах, а у меня их давно и нет рядом стоящих.

даже не знаю, возможно ли такое.
лучше уточни на профильных ресурсах.

Deleted
()
Ответ на: комментарий от saahriktu

А про 30 Гц люди пишут, что это слайдшоу. У некоторых даже проблемы с попаданием курсором мыши в элементы интерфейса. Поскольку всё становится слишком дёрганным. Только что курсор мыши был там, а уже - в другом там. А надо было где-то посередине.

Это не про 30 гц, а про пост обработку. Таким болеют некоторые телеки, но не мониторы.

redixin ★★★★
()
Ответ на: комментарий от Deleted

Возможно, если два монитора работают в режиме панорамы. Такое можно сделать в параметрах KDE, ну или по старинке, через xrandr. И тогда оба монитора сливаются в один

Sunderland93 ★★★★★
() автор топика

Нужно ли будет ставить 2 видеокарты и каждый монитор подключать к своей?

Нет. Выходов на одной - 3 или 4.

даже одному такому монитору нужна видеокарта с минимум 6 гигами

Это не монитору нужно, а приложению. на 1 монитор встроенной хватает ;)

P.S. Инет запретили? Googe в бане?

Deleted
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.