ты реально готов дать кому-то денег, на основе одного мутного предложения, не содержащего конкретной информации, по вопросу который ты сам сформулировал предельно расплывчато?
сначала надо самому определиться, что ты хочешь. потом посмотреть инфу в инете - какое модели и железо для этого надо. потом гадать, то умеет карта, что ты купить собрался. и подходит ли она вообще.
Спеки посмотри. Я вот помню для моего процессора ограничение по температуре 84 градусов, после этого он начинает тротлить. А процессоры деградируют при более высокой температуре.
8 гб озу это не мало? там вроде чуть ли не вся модель должны быть в озу. видел советы под 32гб озу, ну 16 от силы. короче все зависит от задач и моделей
Я определился. Комп 8Гб ДДР4, видеокарта 8Гб ОЗУ. Советуют 1070.
Картинки генерировать будет. 8 Гб видеокарты для не самых новых моделей для этого хватит. Но впритык. Вообще, для ИИ-целей чем больше памяти, тем лучше и 8Гб сейчас - это прям совсем жесткий минимум. Графические модели еще заработают, для текстовых уже не хватит, кроме может совсем заквантизированных.
И это, для компа лучше хотя бы 16 Гб, 8 Гб основной RAM - это что-то сейчас совсем жестко, не уверен, что ее хватит.
За 4 т.р., если исправная, можно и попробовать. Но риск, что за эти деньги будет что-то перегретое с прожаренным чипом велик. Хотя карты для майнинга тут как ни странно наверное предпочтительнее, чем игровые.
Примерно то же самое, как свой подкроватный сервер vs облако в гугле/микрософте. Есть некоторые ограничения, которые свой сервер снимает. Плюс, гарантия, что там не поменяют генеративную модель, не включат цензуру и т.д.
Удивительно, но у меня текстовые даже на встройке амд работают, но мееедленно.
С ускорением? Вообще для встройки (не всех и не на всех системах) можно довольно много оперативной памяти назначить. Работать действительно будет медленно.
Это будет настолько медленней, что даже рассматривать нет смысла
Но между прочим, по какой-то причине популярные фреймворки для нейросеток, вроде PyTorch и сопутствующие библиотеки, не используют многоядерность, то есть, работают на одном ядре CPU. Во всяком случае, я не знаю как распараллелить на CPU, а не GPU, если и можно, то как-то сильно нетривиально. Притом некоторые вещи, например, первичная обработка данных, в общем-то параллелятся, даже параметры для этого есть.
Оверпрайс же.
По теме: нейронки будут работать, но медленно загружаться, так как PCI-E шина урезана.
А, ещё NVENC нету на этом чипе.
И бонусом может быть треск от вентилятора при простое.
вроде PyTorch и сопутствующие библиотеки, не используют многоядерность, то есть, работают на одном ядре CPU
Как-то не то ты говоришь, CPU как раз параллелится как с частичной, так и с полной загрузкой ядер, так что мгновенно сжирает и 8/16 потоков и 64гб памяти у меня на минике.
Такое можно брать только если точно знаешь, что тебе подойдёт. У специализированных карт может быть напряг с драйверами. Есть шанс, что обычные драйвера на них не встанут, а комплектные драйвера будут слишком старыми для версии CUDA, которую хочет софт для ИИ. Возможно, с бубном и плясками это удастся завести, и даже будет работать хорошо. А возможно, что всё заработает сходу.