LINUX.ORG.RU
ФорумTalks

Разница на глаз между DVI-D и D-SUB?


0

2

Я конечно всё понимаю, цифровые данные и аналоговые - десять больших разниц, но что могут сказать очевидцы?

Монитор dell U2412M отдан людям, люди его скорее всего подключили по D-SUB и восхищаются монитором. А они будут больше восхищаться, если DVI-порт заюзают?

конечно. а если еще провода с золотыми жилами на подставках из благородных сортов дерева, то они вообще кончат. главное скажи им о проводах до эксперимента

registrant ★★★★★
()

Разница заметна, очень заметна.
д-суб и яркость ниже и цвета не такие насыщенные.

на моих девайсах заметна.
про всякие паразитные изменения самого изображения я не вспоминаю.

На встроенной нвидии 6100 (МСР61) деградировал какой-то канал и стал такие тени отбрасывать, что ой...

Deleted
()
Ответ на: комментарий от registrant

тут этот сарказм излишний, уже года так 4ре не маюсь ерундой в виде перетыкивания д-суба по причине закисания контактов.

Deleted
()

1680х1050 предел.

По моим практическим наблюдениям максимальное разрешение для D-SUB'а 1680x1050. При подключении монитора 1920x1080 через D-SUB видно мыло, которого не видно при подключении через DVI.

Camel ★★★★★
()

По дсабу мыло, ШГ и картинка мимо пикселей.

PolarFox ★★★★★
()

На высоких разрешениях чёткость картинки теряется и могут появится мыло и разводы странные.

Alve ★★★★★
()

что могут сказать очевидцы

Разницы плюс-минус ничего. D-Sub способен нормально показывать довольно большие разрешения. 27-дюймовые моники в магазине видел запитанные по аналогу. Вполне нормально, и пикчи, и текст.

Сменил аналог на цифру - ожидаемой бОльшей чёткости тех же шрифтов не увидел. Разница если и есть, то на уровне воображаемых глюков, «драматической» разницы нет однозначно.

yu-boot ★★★★★
()
Ответ на: комментарий от Alve

На высоких разрешениях чёткость картинки теряется и могут появится мыло и разводы странные.

Если подключать через старый механический KVM, разве что.

yu-boot ★★★★★
()

А они будут больше восхищаться, если DVI-порт заюзают?

Будут. Разницу между d-sub и dvi не увидит только слепой.

King_Carlo ★★★★★
()
Ответ на: комментарий от yu-boot

Давным давно, на заре lcd мониторов, у меня был 17" sony x72, даже на нём, при 1280 на 1024 разница DVI vs D-SUB была колоссальной. Сейчас на full-hd мониторы с большими диагоналями, подключёнными через аналог без слёз не взглянешь.

King_Carlo ★★★★★
()

А как насчёт помехоустойчивости, например, к помехам мобильного телефона? Что-то вроде замечал такое, что на старом мониторе с d-sub дёргалась картинка. Но может это монитор был виноват.

Ttt ☆☆☆☆☆
()

dell U2412M
Разница на глаз между DVI-D и D-SUB?

Я как раз в него то в цифровой, то в аналоговый интерфейс втыкаюсь.
Разница есть, но её степень зависит от качества аналогового сигнала.
Мне пришлось комплектный кабель заюзать: старый самсунговский оказался хуже. Сейчас, если очень внимательно приглядываться, на однородных заливках можно различить очень слабый шум. С «рабочей» дистанцией до дисплея, определить через что он сейчас подключён невозможно.

Если ноут не мылит изображение и кабель в порядке, то VGA цифре практически не уступает.

aidaho ★★★★★
()
Ответ на: 1680х1050 предел. от Camel

Это ещё от видеоадаптера зависит. Я помню, как в до-DVI'айные времена ещё на ЭЛТ мониторе nvidia карточка мылила изображение на высоком разрешении сильнее чем ati.

aidaho ★★★★★
()
Ответ на: комментарий от yu-boot

Вот не надо ерунду писать, родное разрешение монитора я указал.

King_Carlo ★★★★★
()
Ответ на: комментарий от Ttt

У меня от мобильника DVI-D тоже картинку глючит. GSM-сигнал сам по себе мощный. Если мобилу прямо на провода класть, то он всё на свете проламывает. Там же импульсы до 2 ватт могут в прыжке доходить... Это, типа, немало.

kiverattes ★☆
() автор топика

Нет, не заметят. разницу

Quasar ★★★★★
()

Вообще я понимаю, откуда разница. Чем выше разрешение, тем шире спектр видеосигнала. Чем шире спектр, тем ближе к пределам аналоговой электроники VGA в видеокартах. Наверное тут играют роль несколько моментов:

1) на full-HD мониторах ширина спектра видеосигнала для хорошей картинки настолько широкая, что от производителя требуется ставить хорошие компоненты, чуть дороже «обычного набора». Если края спектра видеосигнала будут гаситься, т.е. фигово пролезать в канал, то это будет выглядеть как мыло. Мыло - это удалённые высокочастотные составляющие. Большинство бухгалтеров и банкиров плевать хотело на это мыло. Они даже переживут, если full-HD монитор будет работать в режиме 1024x768.

2) D-SUB по спецификации поддерживает full-HD и даже больше. То есть, ему пофиг: стандарт физического уровня не сосредоточен на понятии разрешения в точках, он теоретически бесконечен, как я понимаю, всё упирается только в физические свойства аппаратуры. В лаборатории вам выжмут разрешение 4K на 200Гц не нарушая стандарта, просто видеокарта будет как ламповый аудиофильский усилитель стоить.

3) В современной вселенной уже все понимают, что чисто идеологически и маркетологически эпоха D-SUB заканчивается и теперь рулит цифра - всякий там HDMI и отец его DVI-D. Поэтому на технические характеристики канала D-SUB менеджеры просто забили болт - нехай всё будет так, как было при дедушкиных мониторах - всё равно в D-SUB будут втыкаться только дедушки, у которых сохранились их LCD-мониторы 1280x1024, все нормальные чуваки будут использовать D-SUB, поэтому давайте экономить на аналоговой схемотехнике для D-SUB. Кто шарит, тот туда втыкаться не станет.

kiverattes ★☆
() автор топика
Ответ на: комментарий от kiverattes

+1

Причина заметной разницы просто в убогости аналогового выхода современных видях. Сейчас часто можно увидеть, что монитор через DVI-D->VGA работает лучше, чем подключенный к D-SUB-выходу непосредственно. Однако силиконовская видеокарточка, подключенная по коаксиалу к переходнику на VGA отлично потянула 1920x1440 на моем мониторе без заметных эффектов. Это как с дискетами - они сдохли во многом потому, что качество производства упало настолько, что ими стало очень сложно пользоваться. Это потом уже появились технологии, их заменяющие. Просто аналоговый выход уходит, и его активно уходят. Цифровой выход стоит значительно дешевле.

slapin ★★★★★
()
Ответ на: 1680х1050 предел. от Camel

При подключении монитора 1920x1080 через D-SUB видно мыло, которого не видно при подключении через DVI

Не поленился, подключил монитор через DVI (обычно dvi использую для планшета)... не заметил разницы (1920x1080).

Old_Hamster ★★★
()
Ответ на: комментарий от Old_Hamster

Выше вроде обсудили уже: если аналоговая часть хорошая, разницы не будет, если «обычная» - будет (-;

kiverattes ★☆
() автор топика

Я конечно всё понимаю, цифровые данные и аналоговые - десять больших разниц, но что могут сказать очевидцы?

ты-бы лучше попробовал на своём железе и со своими глазами.

По моей практике — раз на раз не приходится.

drBatty ★★
()
Ответ на: комментарий от aidaho

Я помню, как в до-DVI'айные времена ещё на ЭЛТ мониторе nvidia карточка мылила изображение на высоком разрешении сильнее чем ati.

А у меня voodoo banshee сильнее чем riva tnt 2 на 1024x768.

gag ★★★★★
()

А они будут больше восхищаться, если DVI-порт заюзают?

Будут. 1600х900 и больше на аналоге мылит, и самое главное, плохо защищены от помех.

pekmop1024 ★★★★★
()

Если фильмы с расстояния пары метров смотреть, то разница наверняка будет незаметна, но если использовать монитор для работы, то мне лично видно. Как писали выше при подключении к ноуту и 1680x1050 нормально, а вот 1920x1200 - мыльно.

gag ★★★★★
()

люди его скорее всего подключили по D-SUB

Объясни им что да как, если есть возможность то DVI, если моник не умеет пусть заюзают переходник на видеокарту.

bhfq ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.