LINUX.ORG.RU
ФорумTalks

1060 vs 480

 , ,


1

3

День добрый! Понимаю что тема флеймогонная и сейчас не пятница, а очень даже понедельник, но в пятницу у меня уже будет ДР на который я планирую себе подарить новую видяшечку.

Всегда был приверженцем(не фанатиком) AMD(800GTO, 1800XT, 6870) и вот в очередной раз встал этот нелёгкий выбор.

Выбор стоит между: GIGABYTE GeForce GTX 1060 1582Mhz PCI-E 3.0 6144Mb и GIGABYTE Radeon RX 480 1290Mhz PCI-E 3.0 8192Mb.

С одной стороны к радеонам я уже привык и вроде бы с вулканом\дх12 карта от амд работает лучше\быстрее и технологически более продвинутая. А с другой стороны с нвидией я получу безгеморную работу в онтопике(недореализованность месы поднадоела все таки за последние 10 лет), и более быструю работу с дх11\опенгл играми, а так же 120Вт против 150Вт.

Интересно было бы услышать как обстоят дела с драйверами у тех и у других на этих последних архитектурах. Слышал про какие-то amdgpu, но чот это и с чем едят не совсем разобрался. У невидии тоже вроде что-то новенькое и с последними дровами даже kms завезли.

Что брать то? Ну и владельцев послушать хотелось бы.

★★★★★
Ответ на: комментарий от hateyoufeel

я хочу чтобы моя видеокарта, за которую я отдал не одну сотню баксов, просто мать её работала.

Ты офигел такое требовать, за такие требования надо сразу лопатой по морде давать и землицей сверху присыпать!

Khnazile ★★★★★
()
Ответ на: комментарий от Loki13

Loki13> Мне нужен лучший показатель цена\производительность.

Независимо от поддержки со стороны ОС? Тогда что угодно можешь взять. С AMD ты получишь гарантированную и не ограниченную искусственно работоспособность под линуксом. С нвидией - ну блоб будет. 3D работать будет с оговорками выше (неправильная реализация OpenGL). А через год видеокарта превратится в тыкву. Те же legacy-драйверы у нвидии работают совсем не так, как новенькие. И пробросить в виртуальную машину не сможешь.

По цене/производительности конкретно тебе имеет смысл взять Radeon RX470. Но и RX480 тоже можно взять - отличаются они количеством вычислительных блоков. С другой стороны можно взять топовую видеокарту за не очень маленькие деньги, но иметь при этом надёжно такую видеокарту, которая года 4 будет актуальна для игр в высоком качестве, если не все 5 лет.

Реально же 2016 год - это переломный момент в железе, так как FullHD-гейминг вроде всем уже приелся, а железа для 2k и 4k ещё нет. Да и виртуальная реальность шагает по планете. Так что нвидия в текущем виде дальше FullHD с DirectX уйти не может физически, а предыдущего поколения итак достаточно. У AMD же перспективная технология, которая в игровых консолях применяется вдобавок, что даёт плюс к оптимизации (на ряде игр это сильно заметно). Да и Vulkan поуспешнее уже, чем DirectX 12.

Quasar ★★★★★
()
Ответ на: комментарий от Loki13

Loki13> Ведьмак вон даже на этих 1060\480 еле-еле 60 кадров вытягивает

Отключи Hairworks - будет тянуть отлично. Графика от этого только улучшится.

Quasar ★★★★★
()
Ответ на: комментарий от targitaj

targitaj> не, это у тебя фанатизм

Во-первых у AMD есть технология получше, которая предназначена для той же задачи. Во-вторых - эта simultaneous multi projection к проекциям вообще никакого отношения не имеет, а основана на апскейле отрендеренных на низких разрешениях участках кадров.

Итого: лохотрон.

Quasar ★★★★★
()
Ответ на: комментарий от hateyoufeel

hateyoufeel> Покажи мне открытый РАБОТАЮЩИЙ драйвер от AMD.

Как минимум radeonsi (сейчас работает на компьютере, с которого пишу) и amdgpu.

hateyoufeel> Нет, правда, если очень хочешь, я тебе могу дать даже ssh на свою машину с двумя 7950 (GCN 1.0), на которой открытые драйвера постоянно вешаются в член, и ты мне всё замечательно настроишь.

Я не парился с настройкой. Просто поставил - и работает.

Quasar ★★★★★
()
Ответ на: комментарий от devl547

devl547> AMD в эту фичу не умеет

Ты дебил. У AMD есть технологии для решений той же задачи. И та невидиевская «мультипроекция» не даёт существенного прироста производительности по данным от авторов Myst, которые сейчас под виртуальную реальность игру пилят. Хуанг нагло наврал во время презентации. А лохи повелись. Более того - у Valve есть софтовая реализация аналогичной технологии, которая в Robot Repair применялась. И она была реализована без фанфар и задолго до того, как невидия свою SMP представила.

Так что та невидиевская фиготень - это ЛОХОТРОН.

Quasar ★★★★★
()
Последнее исправление: Quasar (всего исправлений: 2)
Ответ на: комментарий от Quasar

Как минимум radeonsi (сейчас работает на компьютере, с которого пишу) и amdgpu.

А у меня на компьютере они вешаются в GPU lockup. Стабильно работает только ужасный проприетарный fglrx.

Я не парился с настройкой. Просто поставил - и работает.

Ну охренеть, у Quasar всё работает! Все бегом покупать карточки от AMD!

Тот факт, что у тебя всё работает, не означает вообще нихрена, потому что у кучи пользователей есть проблемы с драйверами карт AMD. Процент таких пользователей значительно выше, чем тех, у кого проблемы с дровами nvidia. И это означает, что при прочих равных лучше купить карту nvidia, потому что вероятность геморроя в этом случае меньше.

hateyoufeel ★★★★★
()
Последнее исправление: hateyoufeel (всего исправлений: 1)
Ответ на: комментарий от hateyoufeel

а у тебя, кстати, скорее всего проблемы с железом. Если у амд гпу болезнь - недостаточное напряжение на гпу на топовых режимах. Точнее, оно там вешается на переходных процессах. Лечится или понижением частоты на режиме или повышением напряжения на режиме.

targitaj ★★★★★
()
Ответ на: комментарий от targitaj

а у тебя, кстати, скорее всего проблемы с железом. Если у амд гпу болезнь - недостаточное напряжение на гпу на топовых режимах. Точнее, оно там вешается на переходных процессах. Лечится или понижением частоты на режиме или повышением напряжения на режиме.

Если я правильно это распарсил, то нифига подобного. Потому что в венде и под fglrx всё работает. Алсо под radeon карта лочится даже без особой нагрузки, достаточно просто запустить emacs и подождать час-два.

hateyoufeel ★★★★★
()
Ответ на: комментарий от Quasar

И та невидиевская «мультипроекция» не даёт существенного прироста производительности по данным от авторов Myst, которые сейчас под виртуальную реальность игру пилят.

Ну и дебилы, что я могу сказать. А с десяток студий уже сказали, что всё офигенчик и имеют неплохой профит.

Так что та невидиевская фиготень - это ЛОХОТРОН.

Если ЭТО - лохотрон, то AMD можно уже закопаться на месте. Потому что их говно вообще никому не нужно.

Хуанг нагло наврал во время презентации

Тебе список наглого п*здежа Лизоньки привести?)

devl547 ★★★★★
()
Последнее исправление: devl547 (всего исправлений: 1)
Ответ на: комментарий от targitaj

имя, сестра, ИМЯ!!

ПОТАНЦЕВАЛ ТЕХНОЛОДЖИ (r)(tm)

devl547 ★★★★★
()
Ответ на: комментарий от Ford_Focus

В slackware 13 и выше у меня не было проблем ни с fglrx, ни с опенсорсом. amd 2900xt, 4570, 4670, 6970x2.

Была одно время регрессия, воспроизводилась только на моём ноутбуке с 4570 - vsync приводил к провалам в fps где-то в 2010-2011 году (я активно темы создавал по этому вопросу на ЛОРе), потом стало ок. А с 2013 6970 активно используют только опенсорс драйвер (а сейчас их вроде вообще выкинули из fglrx, но могу ошибаться).

ekzotech ★★★★
()

Мне доводилось дважды иметь дело с nvidia на компах - в далёком уже 2004 году (с nvidia 5200fx, кажется) и какой-то затычкой в рабочем ПК в 2009-2011 годах. Первую я с радостью продал и купил вместо неё 9600pro в 2005 году. А вторую я спихнул вместе с ПК главному инженеру, получив вместо этого какую-то 6ххх amd.

Меня бесил в линуксе тиринг (это в 2011-то году!), микрофризы картинки, хреновое 2д, различного рода артефакты, которые появлялись в процессе работы (типа «залипших» кусков окон и прочие прелести). У меня ничего этого нет на amd, и меня вполне устраивает. У меня до сих пор ПК работает на связке 2х6970 и мне норм. В новые игори не играю, gta5 и bf3/bf4 вполне меня устраивают на этих картах. Да и не играю я в последнее время.

Зато в браузере офигительное 2д и никаких лагов. Прокрутка нынче в браузере под ubuntu/arch ничуть не хуже макоси на стоящем рядом аймаке.

ekzotech ★★★★
()
Ответ на: комментарий от targitaj

targitaj> имя, сестра, ИМЯ!!

Ну ок. Перепутал с multi res shading, который у невидии реализован из рук вон плохо, а у AMD даже трекинг глаз в собственной технике foveated rendering поддерживается. Но SMP практически не даёт прироста производительности - проверено. В нём эмулируется многомониторная конфигурация (то есть, даже не железом поддерживается, а просто драйвером программно). В итоге всё равно получаем лохотрон.

P.S.

https://www.youtube.com/watch?v=WY6kgISv4fM

Quasar ★★★★★
()
Ответ на: комментарий от devl547

devl547> А с десяток студий уже сказали, что всё офигенчик и имеют неплохой профит.

Дай угадаю: профит в чемоданах с деньгами от Хуанга? Реально же SMP не даёт прироста. В самом лучшем случае (что редкость) не больше 20%.

devl547> Тебе список наглого п*здежа Лизоньки привести?)

Приводи.

Quasar ★★★★★
()
Ответ на: комментарий от Quasar

у тебя что-то в мозге сломано. У меня 3 монитора и мне надоело видеть ИЗЛОМЫ. Знаешь, откуда ИЗЛОМЫ? Оттуда, что ПЛОСКОСТЬ РЕНДЕРА не соответствует ПЛОСКОСТИ ЭКРАНОВ. Геометрия плоскости экранов ТУПО НЕ УЧИТЫВАЕТСЯлась. А теперь учитывается. У нвиды. Иди фанатствуй в другом месте.

targitaj ★★★★★
()
Ответ на: комментарий от targitaj

Если внимательно прочитать описание технологии, то становится ясно, что там нет честных нескольких проекций, изображение проецируется на одну плоскость, но большего размера, а потом к нему применяются двухмерные преобразования, чтобы хоть как-то скрыть искажения. Т.е. картинка все равно не такая, какая должна бы быть.

Khnazile ★★★★★
()
Ответ на: комментарий от hateyoufeel

не лучше, а проще нарваться на карту где производитель не испоганил vbios карточки, потому что хунг строг по вносимым модификациям в десктопных картах(в мобильных карточках нет и там таже лотерея, особенно с оптимусом)

Thero ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.