LINUX.ORG.RU

Выбор бюджетной видеокарты.

 , ,


0

1

Решил приобрести себе какую никакую карту, взамен встроенной intel hd 2500. За новостями железа пару лет как не слежу, потому плохо ориентируюсь в новых моделях и обозначениях. У самого мать с pci-e 2.0 и бп на 350W (честные) и i3-3220.

Смотрю дешевую карту GeForce GTS450, вроде и всем хороша, но как понял она старой модели, и по сравнению с новыми жрет электричества много.

GeForce GTX650 из новых вроде как. Экономнее чем GTS450. Но посмотрев тесты этих двух карт, увидел что производительность не сильно отличается, в отличии от цены (2800р против 3600р).

Ати я уже зарекся не брать, но таже 7750 идет практически вровень с GTX650, а цена как у GeForce GTS450. Radeon hd 7770 по цене аналогичен GTX650, но куда быстрее (источник).

Муки выбора не дают покоя. С одной стороны нормальные драйверы, с другой более высокая производительность. А может посмотреть на другую линейку?

★★★★★

Последнее исправление: roman77 (всего исправлений: 1)
Ответ на: комментарий от Harald

Драйверы под новые ivy не очень то и хорошие. На Core i3-2350M (HD3000) фпс больше, чем на i3-3220 (HD2500). Плюс на HD2500 сильно проседает фпс, если в кадре есть туман, струи воды, и прочие такие красивости. Mesa 8.0.5.

roman77 ★★★★★
() автор топика

бери радеон, нормальные доайвера

MaZy ★★★★★
()
Ответ на: комментарий от ZenitharChampion

Давно пора делать материнки с двумя PCI-E слотами. один под ати, другой под nvidia. и в биосе, например, выбирать, с чего грузиться.

чтобы одни игрушки запускать под ати, а другие под нвидиа.

точнее нет, не так - бенчмарки запускать под ати, а игрушки под нвидиа. ха-ха.

BattleCoder ★★★★★
()
Ответ на: комментарий от BattleCoder

По бенчмаркам на любом сайте. ATi Radeon HD 5850 быстрее NVIDIA GeForce 9800GT. Но под Wine всё наоборот. Например StarCraft II на моей ATi неиграбелен.

ZenitharChampion ★★★★★
()
Последнее исправление: ZenitharChampion (всего исправлений: 1)
Ответ на: комментарий от BattleCoder

Я так давно пытаюсь сделать. Одновременно играть на тех иксах, которые на NVIDIA, и считать биткойны на тех иксах, где ATi. Пока что получается так делать когда обе видеокарты от NVIDIA или ATi. В данный момент это ATi Radeon HD 3200 integrated и ATi Radeon HD 5850. А без второй видеокарты Bitcoin + Quake III лагают.

ZenitharChampion ★★★★★
()
Ответ на: комментарий от BattleCoder

Поищи новость о Bitcoin 0.7 на сайте. Это тот же BOINC, вычисления на видеокарте, но с двумя отличиями 1). Не приносят пользу ни науке, ни чему-либо ещё 2). Вычисления оплачиваются. Bitcoin - этот как Яндекс.Деньги, но есть кнопочка «Начать генерировать BTC». Генерирование осуществляется на GPU. И если NVIDIA быстрее, чем CPU, раз в 5-10, то ATi/AMD раз в 50-100. Так уж получилось. Перебор хешей SHA-256 на Ati реактивен, а на NVIDIA CUDA быстро происходит решение уравнений, необходимое для науки.

Чтобы начать генерировать нужно зарегистрироваться на любом пуле совместной генерации и установить программу биткойн-майнер. Скачивать сам кошелёк Bitcoin не обязательно. Обмен BTC на USD осуществляется на сайте https://mtgox.com/, курс определяется соотношением спрос/предложение. На данный момент - около $11 за 1 BTC. Многие люди предпочитают не генерировать BTC сами, а играть на бирже, выигрывая и проигрывая деньги на колебаниях курса. Я тоже среди них: всё равно количество магазинов, принимающих к BTC к оплате, растёт слишком медленно. Для вывода BTC по текущему курсу mtgox я пользуюсь сайтом metabank.ru, но существует также множество других способов сделать это. Я не разбираюсь в этом и не знаю оптимального способа вывести деньги на карточку с минимальной комиссией.

Зачем нужен пул, когда кошелёк может генерировать BTC сам? Да просто прошлым летом курс на mtgox сильно поднялся (был экономический «пузырь») и количество пользователей Bitcoin сильно возросло. А эмиссия BTC в сутки не возросла. Сначала чтобы заработать свои 50 BTC нужно было оставить компьютер считать на ночь, потом на неделю. Сейчас одному не заработать свои 50 BTC и за год непрерывной генерации. Поэтому существуют сайты, предоставляющие доступ к пулу совместной генерации биткойнов. Самый популярный http://deepbit.net/, создан русскими. Там берут небольшую комиссию, 1%. Я выбрал себе менее популярный пул, но без комиссии.

Из-за роста количества пользователей количество генерируемых BTC в сутки каждый месяц становится всё меньше, а курс постепенно растёт. Умнее всех поступают те, кто не меняют свои BTC на USD сразу: спустя долгое время генерироваться будет совсем мало, а в кошельке будет лежать много. При текущем курсе я получаю около 40 рублей за сутки генерирования.

После регистрации в пуле совместной генерации нужно создать Worker'а. Затем установить Bitcoin-майнер (например cgminer), для компилирования в Debian потребуются libncurses5-dev и libcurl4-openssl-dev.

Кроме того необходимы заголовочные файлы OpenCL, которые не устанавливаются с драйвером Ati по умолчанию - начиная с версии 11.10 устанавливаются только сами библиотеки OpenCL. Эти заголовочные файлы занимают меньше мегабайта, но взять их иначе как скачать 50-мегабайтный AMD APP SDK я не знаю. Кроме того, нужно будет сделать символьную ссылку libOpenCL.so.1 => libOpenCL.so в /usr/lib. После этого cgminer скомпилируется и заработает.

Когда генерация начнётся нужно будет сразу о ней забыть на долгое время. Смотреть на текущие процентики бессмыслено: чтобы получить такое количество денег, за которые можно что-нибудь купить, потребуется несколько суток непрерывной генерации. Вот например меня давно не устраивает 40 рублей за сутки. Я хотел покупать вторую видеокарту и увеличить доход вдвое, но так как он постепенно уменьшается передумал.

ZenitharChampion ★★★★★
()
Ответ на: комментарий от BattleCoder

наглое 4.2. геморроя с дровами там хватает ;) /me пользователь nvidia со стажем.

С тех пор как поменял недоразумение под названием Radeon на видеокарту от nvidia живу и бед не знаю. :)

bsdfun ★★★★★
()
Ответ на: комментарий от roman77

ну считай как знаешь, просто 400 вт ба - это то же что 300 только с усиленным каналом +12.

как раз он видеокартой и юзается.

Slackware_user ★★★★★
()

>GeForce GTS450

Вполне годная по производительности. Про энергосбережение не скажу, не парюсь, но блок питания всё одно лучше поменять. Была проблема. Бюджетная материнка от ASRocK G31M GS + GeForce GTS450 у меня ребутилась из-за блока (350W).

nihil ★★★★★
()

Забыл предупредить, у меня GeForce GTS450 шумит сильнее чем старенькая GeForce 9600GT. Обе ASUS и охлаждение визуально очень схожее.

nihil ★★★★★
()
Ответ на: комментарий от nihil

450 на более старом ядре, 40нм техпроцесс, против 22 у 650. Соотв. больше греется и поболее жрет.

Беру GTX650 чтобы уж взять максимально производительное в рамках выделенной суммы. Завтра уже получу карточку, буду тестить, и посмотрю что такое cuda.

roman77 ★★★★★
() автор топика
Ответ на: комментарий от roman77

Драйверы под новые ivy не очень то и хорошие.

Подтверждаю, как обладатель Core i5-3570K.

mopsene ★★★
()
Ответ на: комментарий от Slackware_user

Ну так у меня всего ничего напихано. Нет сидюка, хард ноутбучный, 1 ветродуй, мать проц оперативка. Сбственно это все.

roman77 ★★★★★
() автор топика
Ответ на: комментарий от Slackware_user

вообще 20 фпс - нормальный геймплей для большинства игр.

Большинство игр не являются пошаговыми rpg.

anonymous
()

бп на 350W (честные)

Отдай бездомным детям.

anonymous
()
Ответ на: комментарий от anonymous

запускал на полной графике на встроеной видеокарте.

у него ограничение по фпс включено по умолчанию, лень снимать было

Slackware_user ★★★★★
()
9 февраля 2013 г.
Ответ на: комментарий от pekmop1024

Сам буду брать GTX650 под пассивное охлаждение с помощью AXP.

Ну как взял карточку? Решил сменить переходник 6600GT на бюджетную карточку печь650 или радик 7770. Непонятно что лучше для линукса.

andrew667 ★★★★★
()

http://hard.rozetka.com.ua/msi_hd7750_1024mb_128bit_r7750-pmd1gd5_oc_v2/p258533/

http://hard.rozetka.com.ua/msi_n650_1gd5_oc/p239552/

учитывая разницу в цене = 10$, разницу в производительности и количестве гемора [amd/nvidia]+linux... тут 650ка вне конкуренции...

Единственная «большая разница» - 7750 существует в slim-версии, а slim-650ку я не видел /// это должно волновать только любителей ультракомпактных корпусов...

Себе такую 650ку присматриваю на замену geforce210 ddr3 gigabyte :)

nekosargot ★★★
()
Ответ на: комментарий от andrew667

Не взял, немного пока не до карточек, да и гт610 работает, фильмы и интерфейсы кажет, а играть пока не во что в линуксах.

pekmop1024 ★★★★★
()
Ответ на: комментарий от Slackware_user

это от 60-ваттной видяшки? Я к своему 300Вт БПшке подключал дополнительно две галлогенки по 50Вт(итого:100Вт) и он нормально себе работал, а тут ещё рассуждают о том «хватит ли 350Вт?»

seasonic'а 12й серии 320вт хватит с головой для i5+ПЕЧ660

nekosargot ★★★
()
Ответ на: комментарий от anonymous

Но зачем.

Моя слишком старая и шумновата. Видеовыхода на материнке нету. Вот и думаю чего выбрать gtx650 vs radeon 7770.

andrew667 ★★★★★
()
Ответ на: комментарий от nekosargot

без дисков памяти и процессора?

Вы вкурсе что бп лучше брать с полуторным запасом чтоб кпд не страдал?

а что у 350 Вт бп 200Вт может быть не по тому каналу сертифицировано?

Slackware_user ★★★★★
()
Ответ на: комментарий от Slackware_user

без дисков памяти и процессора?

с дисками, памятью, процессором и дискреткой... nexuiz на ультрах - для нагрузки... Если пользоваться coolermaster'овским калькулятором - получается ~280Вт.

Вы вкурсе что бп лучше брать с полуторным запасом чтоб кпд не страдал?

а что у 350 Вт бп 200Вт может быть не по тому каналу сертифицировано?

Я хотел передать мысль, что нет смысла ставить БПшки с кукурузными ваттами, аля "Delux China 600W ultra super power".

И сколько помню - у нормальных БП КПД начинает страдать при нагрузке >90% , такчто...

nekosargot ★★★
()
Ответ на: комментарий от nekosargot

Братюнь, я тут тоже ради зобавы гонял феном x4 на fsp с «честными» 250вт. Ну, что я тебе скажу, мушку спили, тк сгорел он не сразу но таки.

anonymous
()
Ответ на: комментарий от nekosargot

я лично бп предпочитаю ФСП

там ватты не кукурузные

280 - это то что считается калькулятором.

а есть то что измеряется ваттметром.

и там 300 может быть легко.

Slackware_user ★★★★★
()

и по сравнению с новыми жрет электричества много.

GeForce GTX650 из новых вроде как. Экономнее чем GTS450. Но посмотрев тесты этих двух карт, увидел что производительность не сильно отличается, в отличии от цены (2800р против 3600р).

Так тебе цену или прожорливость?

darkenshvein ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.