LINUX.ORG.RU
Ответ на: комментарий от anonymous

А у меня есть пруфы: когда меня забанили на http://minecrafting.ru/, я записал видео Майкрафта на Nouveau. Модераторы меня обвинили в читерском ПО для просмотра того, что за стенами. А я им показал, что текстуры пропадают из-за глючного видеодрайвера. А клиент игры - официальный и не модифицированный. Всё равно не разбанили.

ZenitharChampion ★★★★★
()
Ответ на: комментарий от Deleted

Последнее что я видел, это якобы утекшие слайды с неясными «графиками».

На реддите тихо. Скорее всего инфа не достоверная

Но в меньшее энергопотребление легко верится.

Midael ★★★★★
()
Ответ на: комментарий от Zampolit

валю с амд.

Что, под виндой у них тоже всё плохо?

sudopacman ★★★★★
()
Ответ на: комментарий от Midael

да вроде только сегодня читал и хз где.

Deleted
()
Ответ на: комментарий от Deleted

Ага, оно. День-два назад «утекло», про масштаб графиков уже мемасов успели наклепать.

Midael ★★★★★
()
Ответ на: комментарий от anonymous

В случае с Майкрафтом, пропадающие текстуры - это плюс. Можно смотреть, где пещеры с вкусностями. Можно найти спавнер мобов. Можно найти алмазы под лавой :-)

ZenitharChampion ★★★★★
()

Вряд ли. Надеюсь, что моей видеокарты AMD HD7770 мне хватит ещё на лет 5-10. А если не хватит - то скорее буду брать refurbished или на вторичном рынке у проверенных продавцов.

MyLittleGentoo
()
Ответ на: комментарий от MyLittleGentoo

Хочешь попасть на отвал кристалла от подложки (что невосстановимо и похоже на отвала пайки и прогрев временно помогает)?

anonymous
()
Ответ на: комментарий от MyLittleGentoo

Я примерно так и делал. В уценке после гаранийного ремонта брал. С остатками гарантиями. Сэкономил около 40% цены новой.

dk-
()
Ответ на: комментарий от anonymous

Не хочу, но и не боюсь. Всё равно совокупная экономия от всех подобных покупок будет выше, чем единичные браки.

MyLittleGentoo
()
Ответ на: комментарий от Midael

Про проблему с питанием

На GamingOnLinux пишут, что поддвержены карты не всех «производителей» и то при разгоне, если я правильно понял. Также упоминают, что схожая проблема есть у Asus GTX 960 Strix.

grem ★★★★★
()
Ответ на: комментарий от reprimand

Джон Кармак:

Minecraft — это игра, в которой вы можете потеряться в прямом и переносном смысле. На самом деле, мои самые яркие воспоминания о пребывании в виртуальной реальности связаны со временем, которое я провёл за исследованием Minecraft в Gear VR. Прохождение в VR превращает её из абстрактной активности в висцеральную — она переходит от ощущения прохождения игры в пребывание в вашем собственном мире, и вращение в поисках подкрадывающихся криперов оставляет сильное впечатление. Бесконечные миры были изучены, оформлены и разделены миллионами людей, и теперь всё это в виртуальной реальности; звучит немного похоже на легендарную Метавселенную.

http://holographica.space/news/minecraft-gear-vr-4988

menangen ★★★★★
() автор топика
Ответ на: комментарий от menangen

Это всего-лишь цитата. Всего-лишь человека. Вау! Что теперь?

Илон Маск тоже умеет красиво говорить, но на деле он ничем не лучше отечественного rezedent-а

reprimand ★★★★★
()
Ответ на: комментарий от anonymous

ура, ты снова со мной! ^^

я волновался, где же ты пропадал всё это время?

reprimand ★★★★★
()

Не имею притензий к железу АМД, но их карты покупать не буду только по одной причине - драйвера. С ними всегда были какие-то косяки. Впрочем справедливости ради у интел с драйверами еще хуже,на встройке (конкретно у меня hd4600) во многие игры, даже старые просто не поиграть из-за артифактов. А вот с нвидия вообще никаких проблем ни с новыми играми, ни с старыми. Считаю что лучше переплатить дяде Хуангу, ибо нервы не тот ресурс на котором стоит этоконить :)

Rost ★★★★★
()
Ответ на: комментарий от menangen

Однако это без учёта разгона, а амд традиционно разогнаны уже из коробки.

anonymous
()

Будем. Ибо анальный блоб с джифорсом вместо видеокарты - не вариант.

paran0id ★★★★★
()

Невидия уже определилась. :)

250$ и производительность на уровне 980.
внешнего питания не нужно, так же.

Deleted
()

Да, я буду, если нерефы 8gb будут продавать до $250.

l-_-l
()
Ответ на: комментарий от templarrr

ОЙ пардон, не досморел по питанию

Nvidia has unveiled the GTX 1060, the most affordable member of its Pascal-based graphics card lineup yet. Starting at $250 (UK price TBC, but likely £220), Nvidia claims the GTX 1060 is faster than a GTX 980—a card that costs upwards of $400 (£380)—and features a power-sipping TDP of just 120W. It'll be released worldwide on July 19.


http://arstechnica.com/gadgets/2016/07/nvidia-gtx-1060-specs-price-release-date/

Deleted
()

У GTX 980 теоретическая производительность 5 TFLOPS, у GTX 970 - 4 TFLOPS, но RX 480 при 5.5 TFLOPS соперничает с GTX 970. Дрова как всегда говно, или есть еще причины для такого неэффективного использования чипа? Или просто цифры с потолка взяли?

templarrr ★★★★★
()
Последнее исправление: templarrr (всего исправлений: 1)
Ответ на: комментарий от templarrr

Боттлнек в железе ещё может быть: чего-то нехватает, чтобы нагрузить модули, или эти модули могут выдавать столько флопсов в сферических условиях.

anonymous
()
Ответ на: комментарий от dk-

1060 подожди, 19-20 числа тесты будут. 6 гб памяти, 1.7 ГГц ядро, попугаи по на уровне 980 (по заявлению самой невидии). И стоить будет три сотни зелёных президентов (а не рефы могут быть и дешевле).

StReLoK ☆☆
()
Ответ на: комментарий от StReLoK

Примерно так и планирую %)
Мудакам из амд вообще не хочется больше денег давать. Ибо драйверы.

dk-
()
Ответ на: комментарий от anonymous

Не думаю, что они такие идиоты, чтобы железо с таким явным ботлнеком выпускать. Скорее как всегда дрова не осилили.

templarrr ★★★★★
()
Ответ на: комментарий от StReLoK

Плюс еще нерефы RX 480 точно будут заметно дороже рефа. Хотя нереф 1060 дешевле рефа ИМХО совсем не стоит покупать.

templarrr ★★★★★
()
Последнее исправление: templarrr (всего исправлений: 1)
Ответ на: комментарий от templarrr

Чего ты подорвался, я тебе просто реальный пример привёл. Боттлнеки fx-ов расписаны не раз.

anonymous
()
Ответ на: комментарий от templarrr

А в real-world — нет. Просто в самих исходных задачах недостаточно параллельности, иначе для них бы использовали gpu.

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.