LINUX.ORG.RU

БомжИИ

 


2

3

Продолжение темы, на тесте в которой стало ясно, насколько неприлично слаб ноут для нейронки, покупать дорогой комп не хочется, что скажете о такой бомж-сборке (онли линукс) для llama-мозгов 15b (или выше, в зависимости, насколько оживленно будет думать):

Cpu: Xeon E3-1245 V3
Gpu: GeForce P106-100
Mother: MACHINIST H81M-PRO S1
Ram: ddr3 8gb x 2
Ssd: m2 256gb
Все барахло кроме матери и ссдюка планируется купить на авито. Что посоветуете иное (кроме как купить ламборгини для поездок на огород)?



Последнее исправление: skidphysic (всего исправлений: 1)
Ответ на: комментарий от Skullnet

Да ты чо, RTX 3060 Ti не хватит с его 8ю гигами, нужна видюха за $2000 где будет 24 Гб.

Я имел ввиду бюджетную RTX 3060 12GB VRAM, как минимальный входной билет для вката, вполне нормально за свой прайс. Можно даже две ;-)

XOXO
()
Ответ на: комментарий от Shadow

Я про бомж-стайл :) ну или м40…

Для меня RTX 5000 и 6000 это база. В идеале конечно иметь A100/H100, но пока только первые две из базы отбил по деньгам. Все что ниже подходит чтобы гонять инференсы с переменным успехом, а не создавать их.

Obezyan
()
Ответ на: комментарий от vbcnthfkmnth123

Так прокатит? Две 3060

Такое из 30XX серии прокатит только с 3090 и NVLink, с двумя 3060 только разносить на разные машины с llama.cpp & RPC

ollama пишут что пофиксили это и теперь оно будет при двух GPU половинить модель на несколько адаптеров при запуске.

Вот саццес-стори такого сетапа от забугорного скуфа

XOXO
()
Последнее исправление: XOXO (всего исправлений: 2)

GeForce P106-100

ее научили под вин 11 норм работать? Из-за этого барахла точно не стоит переплачивать за некрозевон со встроенным видео.

Бери современных мутантов i7, i9, на видяху потом подкопишь.

bomjevik
()
Ответ на: комментарий от Skullnet

Тоже самое с другими нейронками: Stable Diffusion

Stable Diffusion на RTX 3060 12GB вполне бодро шевелится. И даже на карточках с 6 Гб памяти работает быстрее чем на хорошем (12 - 16 ядерном) cpu.

anonymous
()
Ответ на: комментарий от XOXO

Кстати, есть какой-то справочник по всем этим 16b, 7b, q2 и тд, поясняющий что значат эти буквы и сколько vram нужно модели в зависимости от буковок. Хотя бы примерно сколько.

anonymous
()
Ответ на: комментарий от One

Какой бы у Интел аи не получился, он будет поддержан фреймворками и конкретными моделями, например, llama. Или все самому писать для интела?

anonymous
()
Ответ на: комментарий от anonymous

Stable Diffusion на RTX 3060 12GB вполне бодро шевелится. И даже на карточках с 6 Гб памяти работает быстрее чем на хорошем (12 - 16 ядерном) cpu.

Без --lowvram и --medvram памяти не хватит для генерации картинок 1024x1024 и выше. Для тренировки этих параметров нет, поэтому попросту невозможно.

Skullnet ★★★★★
()
Ответ на: комментарий от anonymous

справочник по всем этим 16b, 7b, q2

Для CPU нормой являются 7b и Q6. Чем больше цифры тем тяжелее модель и тем медленнее будет генерироваться ответ. При всяких 16b на CPU ответ будет генерироваться слишком медленно даже при Q2. В то время как при 7b можно урезать жирность модели, например, до Q4 и увеличить скорость создания ответа. А уж при Q2 нейросеть вообще начнёт летать (но качество ответов, разумеется, снизится).

Более тяжёлые модели данных, видимо, надо гонять на GPU.

saahriktu ★★★★★
()
Ответ на: комментарий от anonymous

поясняющий что значат эти буквы и сколько vram нужно модели в зависимости от буковок. Хотя бы примерно сколько.

Смотри на сам размер моделей в GB и на что они обучались, квантованные типа Q2 не бери, Q4-Q8 норм, но зависит от модели, но квантованные это всегда компромисс в сторону скорости в ущерб точности. Некоторые публично доступные поставляются только в квантованном варианте.

Условно модель по весу должна тебе загружаться в VRAM полностью, т.е условно если модель 12 Gb, то у тебя должно быть не меньше точно, запас 1-2Gb.

Лучше и точнее работают модели вообще без квантизации и целиком загружаемые в VRAM.

XOXO
()
Ответ на: комментарий от HE_KOT

и по итогу ты потратил 80к на амд вместо проца и невидию вместо гпу.

Предложи свои бомж-варианты до 100к суммарно. Интересно посмотреть. Красные карты с 16GB VRAM дороже GTX 3060 12Gb примерно на 15к.

XOXO
()
Ответ на: комментарий от Skullnet

Без –lowvram и –medvram памяти не хватит для генерации картинок 1024x1024 и выше

Конечно, но сам факт что работает и вполне приемлемо, как выше объяснили для текстовых нейросетей к сожалению такого нет. Ну и часто результат выходит лучше если генерировать картинки с низким разрешением и потом апскейлить той же нейросетью.

Для тренировки этих параметров нет, поэтому попросту невозможно.

Тут да без больших объемов vram никак, но вопрос же был про простое использование.

anonymous
()
Ответ на: комментарий от XOXO

Предложи свои бомж-варианты до 100к суммарно.

Похоже реальный бомж вариант это без gpu, как можно более многоядерный процессор (старые intel xeon или amd) и минимум 64 гига памяти, будет тормозить зато можно и большие модели потыкать.

anonymous
()
Ответ на: комментарий от XOXO

RX590

Мало VRAM

8GB VRAM не так уж и мало: ROCm - работает, всякие там Stable Diffusion - работают (причём и на RX580); в самом крайнем случае можно и вторую такую карточку поставить. Прелесть RX590 в том, что это - самая мощная видюха с качественными опенсорсными драйверами и при этом без бэкдора AMD PSP, который появился в новых AMD'шных карточках. а про знатных проприетарщиков NVidia даже вспоминать не хочу)

16GB RAM это не серьёзно

У меня даже прожорливая Qubes OS с кучей виртуалок, запускающихся по каждому чиху, не смогла оприходовать больше 12-13 гигов в самый разгар работы; + никогда ни ухожу в swap, даже с сотней открытых вкладок и кучей добра в фоновом режиме! Думаю, 16 гигов может не хватить только если используем ну очень жирную проприетарщину, либо ужасно раздутый опенсорс который и опенсорсом-то назвать сложно.

SakuraKun ★★★★★
()
Последнее исправление: SakuraKun (всего исправлений: 2)