LINUX.ORG.RU
ФорумTalks

Анонс Intel Arc B

 ,


0

1

3 декабря Intel анонсировали выпуск второго поколения видеокарт серии Arc. Ожидается скорое (в течении 1-2 месяцев) поступление в продажу видеокарт Intel Arc b570 и b580, с частотами 2500 и 2670 MHz, памятью на 10 и 12 ГБ соответственно. Обещают поддержку Linux. Пока что данных о b770, к сожалению, нет.

Почему это важно? В свое время первые видеокарты от Intel были, как и впрочем остаются, дешевой альтернативой видеокартам от Nvidia и AMD. Intel проводил политику демпинга цен и нам, как конечным потребителям, это выгодно.

★★★★★

Последнее исправление: Leupold_cat (всего исправлений: 1)

У видеокарт Intel вроде были огромные проблемы с совместимостью в играх и совсем слабая поддержка нейросеток. Понятно, что они решаются, но все же.

praseodim ★★★★★
()
Ответ на: комментарий от Camel

Ты хотел спросить, будет ли Линус показывать средний палец? Нет, не будет. Не тот он уже, да и шутка, повторенная дважды…

seiken ★★★★★
()

Дрова для нынешнего продающегося arc были и остаются нестабильным куском кода. Для игр малопригодно. Купил arc чтобы, ну, просто потому что мог, чего бы и нет, год с лишним ждал приличных дров, в итоге играю на Nvidia. Поговаривают что у продаваемого поколения arc ошибка в ДНК, в смысле косяки в дизайне чипа, криво латаемые дровами с потерей производительности. И из за этих косяков вообще готовилась отмена продаж. Но их в итоге удалось криво замазать драйверами. Писали что нужно новое поколение ждать, исправленное и дополненное. Ну и вот оно, через полгода-год станет понятно как оно там... Я в этот раз деньги тратить не буду...

Jameson ★★★★★
()

Если бы у меня была старая видеокарта, и я бы хотел перейти на что то новое и дешевое, то взял бы Intel Arc точно. У него еще виртуализация есть.

MOPKOBKA ★★★★★
()
Ответ на: комментарий от MOPKOBKA

Там понимаешь в чём беда... Видимо из за софтового латания каких то хардварных косяков в играх FPS может внезапно и непредсказуемо рухнуть ниже 20. И буквально тут же восстановиться, как только «неудобная» сцена изменится. Это раздражает и, я так понял, не лечится.

Jameson ★★★★★
()
Ответ на: комментарий от Jameson

Смотря где рухнуть, если в новинках то оно и понятно, видеокарта не самая мощная.

Если в старых играх, то амуде у меня на старых играх тоже фризила постоянно, например RTCW, The Stalin Subway: Red Veil, TimeShift, где то вылетало, где то не было видно текстур, где то визуальные артефакты как в FNV.

Так что уровень амуде я считаю достигнут.

MOPKOBKA ★★★★★
()
Ответ на: комментарий от MOPKOBKA

А, ну может быть. Я не фанат амуде и не практикую амуде в быту.

Jameson ★★★★★
()
Ответ на: комментарий от Jameson

В каких играх были проблемы?

У меня есть некоторый опыт использования Intel Arc 770 под Windows 10. Были некоторые проблемы со старыми играми (вылеты из Dragon's age origins) и неработающая фильтрация текстур в Deus Ex Mankind Divided. Но это, в целом, мелочи.

Не пробовал запускать на ней совсем новые игры, но из относительно нестарого - в Resident Evil Village показала себя более чем достойно.

Leupold_cat ★★★★★
() автор топика
Последнее исправление: Leupold_cat (всего исправлений: 2)
Ответ на: комментарий от avgust23

Всё также жрёт 100 Вт в простое?

А это имеет какое то значение для стационарного десктопа? 4 месяца назад, когда я текущее состояние дров проверял, не жрала вроде... Хотя я не знаю как проверить, 100 Вт должны же теплом выделяться? Так на ощупь в просто не грелась, вертилятор останавливался.

Jameson ★★★★★
()
Ответ на: комментарий от Leupold_cat

Киберпанк например, «ноги» в Элит Денжерос (но в ней сам по себе движок невероятно кривой и омерзительный, «ноги» его окончательно сломали). В винде я её не пробовал, у меня как то её вообще нет. Я счастливый человек у которого вообще весь workflow в рамках Линукс происходит.

Jameson ★★★★★
()
Последнее исправление: Jameson (всего исправлений: 2)
Ответ на: комментарий от Jameson

А это имеет какое то значение для стационарного десктопа?

+ можно под кассой забытой мелочи наскрести больше чем компьютер потратит в месяц.

MOPKOBKA ★★★★★
()
Последнее исправление: MOPKOBKA (всего исправлений: 1)
Ответ на: комментарий от avgust23

С «криво спроектированным говном» согласен. Но первое поколение всегда такое. Посмотрим способна ли Intel исправить косяки не наделав новых...

Jameson ★★★★★
()

Пусть делают 24 ГБ (чипы gddr по дешману плюс минус несколько баксов) и демпенгуют, чтобы нейросетки пускать. У них с руками будут отрывать. Невидия обидется, амд следом побежит цены снижать и памяти добавлять. А так зачем оно нужно?

foror ★★★★★
()
Ответ на: комментарий от foror

24 Гб уже маловато, пусть 32 Гб делают. У Nvidia в 5090 уже вроде 32 Гб будет.

Только для нейросеток еще и поддержка софта должа быть, а с этим у Intel совсем плохо. Даже у AMD не все хорошо, по сравнению с Nvidia. Хотя они стараются основные фреймворки чтобы работали.

praseodim ★★★★★
()
Последнее исправление: praseodim (всего исправлений: 1)
Ответ на: комментарий от praseodim

32 ГБ вроде дороже будет стоить (как я понимаю можно максимум 12x2ГБ чипов на gddr6 сделать), хотя пусть делают если не сильно дороже будет. Очевидно, что это растущий рынок, потому что платить гопоте 200 баксов в месяц это уже перебор. Организации или частнику проще локально ферму запустить.

Так что, интел может здесь урвать, если тупить не будет. А с амд понятно, что они и сами не прочь 1000% процентов поднимать в своей олигополии с невидией. Поэтому от них уж точно нет смысла ждать.

foror ★★★★★
()

Обещают поддержку Linux.

Будут спеки, будет и поддержка.

sparkie ★★★★★
()
Ответ на: комментарий от cobold

Ну тогда чудес вообще можно не ждать.

Jameson ★★★★★
()
Ответ на: комментарий от MagicMirror

Ну если она запущенна на 24/7, то вместо копеек можно собирать биткоины или что там на ней майнится? Потому что 400 рублей может выйти только при работе 24/7. Ну или в Москве цены такие, но там и кассы жирнее, наверное сразу тысячи роняют.

MOPKOBKA ★★★★★
()
Последнее исправление: MOPKOBKA (всего исправлений: 1)

RDNA4 надо подождать в январе, вдруг этим 12гб красная цена 150 баксов, а не 250

One ★★★★★
()
Ответ на: комментарий от praseodim

Да хрен с ними, с нейросетками, главное чтоб в игорях играло. Нейронками ценники на нвидию задрали до небес уже. Сначала майнеры, потом эти.

leave ★★★★★
()
Ответ на: комментарий от MOPKOBKA

Так что уровень амуде я считаю достигнут.

Кажется, не очень.
https://gitlab.freedesktop.org/mesa/mesa/-/issues/8210

When configured to the same settings, the in-game RDR2 benchmark performs vastly differently between Linux and Windows on the same dual-booting machine. This is using the game’s Vulkan backend so it should be possible to rule out any problems in Direct3D to Vulkan translation. The issue is consistently reproducible and multiple back-to-back replays do not appear to affect the overall performance.

I would like to point out that anv massively underperforms on linux compared to windows drivers. I tested some games and performance difference was from 30% to 50%. It’s not just rdr2 thing, a lot of games work worse.

Год назад, правда, перерыл реддит и новее по производительности ничего не нашёл.

whbex ★★
()
Ответ на: комментарий от Jameson

Поговаривают что у продаваемого поколения arc ошибка в ДНК, в смысле косяки в дизайне чипа, криво латаемые дровами

И в процах ошибка. Вот такой вот Штеуд. Думаю, надо и сетевухи их проверить.

Suigintou ★★★★★
()

Оно рекламируется как замена 3080 за 250 енотов. Потуги есть, результат не во всех играх

DumLemming ★★★
()
Ответ на: комментарий от One

Опечатался. A580 конечно же. Виртуализация у них только на серверных GPU и на интеграшках. А на ARC ее нет и не будет скорее всего, иначе серверные версии брать не будут.

Storm_
()

Как-то с энергопотреблением в режиме простоя даже под виндоус полная задница

https://www.techpowerup.com/review/intel-arc-b580/41.html

и под онтопик

https://www.phoronix.com/review/intel-arc-b580-graphics-linux/7

Плюс что в LLM-ках действительно оказалась неплохой.

https://hothardware.com/reviews/intel-arc-b580-battlemage-gpu-review?page=2

Подождем-с RDNA4, да на более тонком техпроцессе.

One ★★★★★
()
Ответ на: комментарий от One

Плюс что в LLM-ках действительно оказалась неплохой.

Вот я и говорю добить до 24 ГБ и её с руками отрывать будут, если ещё текущие цены оставят.

foror ★★★★★
()
Ответ на: комментарий от foror

добить до 24 ГБ

А нельзя разве в одну связку поставить, на Nvidia ставят даже без nvlink-а, и раскладывают на два GPU

One ★★★★★
()
Ответ на: комментарий от One

Можно, но если нужно 70b llama пускать, то слотов на мат. плате не хватит. Или хватит, но это вместо 6 подключать 12 карт.

foror ★★★★★
()
Ответ на: комментарий от Leupold_cat

Апну тему. А для LLM пробовали a770?

https://www.tweaktown.com/news/97705/metas-next-gen-llama3-llm-is-here-and-the-intel-arc-a770-outperforms-geforce-rtx-4060/index.html

Вон, какие красивые графики и очень приличная скорость, да ещё и 16гб за 22-25 тыс руб сейчас, слегка б/у. А реальность какая?

One ★★★★★
()
Ответ на: комментарий от One

Нет, я не использовал эту видеокарту для нейросетей.

Leupold_cat ★★★★★
() автор топика
Закрыто добавление комментариев для недавно зарегистрированных пользователей (со score < 50)