LINUX.ORG.RU

История изменений

Исправление CrX, (текущая версия) :

Это ИИ сам написал или вы+ИИ?

Сам. Говорю же без причёсывания. А так ему можно помимо очевидных ручных правок сказать, где и что не нравится, Чтоб переделал.

хотя я и не любитель ужастиков

А я вот как-то с детства неравнодушен к ним. Во всех, так сказать, «медиа» :)

Оно что,еще и осмысленные команды в текст вставило? Или это уже вы?

Я просто сказал, что гг должен быть юзером арча.

Интересно - сколько и каких видеокарт надо чтобы машина смогла генерировать тексты такого уровня?

Смотря с какой скоростью. И смотря что имеется в виду. Чтобы запустить у себя локально готовую модель — это одно. Чтобы «обучить» модель самому с нуля под свои нужды — совсем другое.

Конкретно ChatGPT не доступна в открытом виде. Но есть открытые модели, которые ей уступают, но не сильно (и со временем, конечно, появятся лучше, можно просто считать, что открытые всегда отстают на N-ное время от передовой коммерческой). Их можно запустить локально, например при помощи PrivateGPT.

Для запуска в принципе достаточно среднего десктопа. Сильно зависит от модели и от того, торопимся ли мы. Но если нас устраивает, что отвечать оно будет не через несколько секунд, а скажем, через 2 минуты, и ещё столько же выкатывать текст по паре слов в секунду, то можно даже на CPU запустить (8-ядерном уровня Ryzen 7 каком-нибудь). На видеокарте, в принципе любой, с CUDA, будет намного быстрее.

Если же мы хотим писать свою собственную нейросетку и обучать её, то опять же от мощностей будет зависеть в первую очередь время, необходимое на это самое обучение. И да, тут уже понадобится GPU топового уровня, и желательнго не одна. Но сложнее, конечно, ту самую big data для обучения собрать.

Кстати, на английском оно несколько лучше работает, потому что как ни крути, но в материалах для обучения англоязычные преобладают с огромным отрывом.

Исходная версия CrX, :

Это ИИ сам написал или вы+ИИ?

Сам. Говорю же без причёсывания. А так ему можно помимо очевидных ручных правок сказать, где и что не нравится, Чтоб переделал.

хотя я и не любитель ужастиков

А я вот как-то с детства неравнодушен к ним. Во всех, так сказать, «медиа» :)

Оно что,еще и осмысленные команды в текст вставило? Или это уже вы?

Я просто сказал, что гг должен быть юзером арча.

Интересно - сколько и каких видеокарт надо чтобы машина смогла генерировать тексты такого уровня?

Смотря с какой скоростью. И смотря что имеется в виду. Чтобы запустить у себя локально готовую модель — это одно. Чтобы «обучить» модель самому с нуля под свои нужды — совсем другое.

Конкретно ChatGPT не доступна в открытом виде. Но есть открытые модели, которые ей уступают, но не сильно (и со временем, конечно, появятся лучше, можно просто считать, что открытые всегда отстают на N-ное время от передовой коммерческой). Их можно запустить локально, например при помощи PrivateGPT.

Для запуска в принципе достаточно среднего десктопа. Сильно зависит от модели и от того, торопимся ли бы. Но если нас устраивает, что отвечать оно будет не через несколько секунд, а скажем, через 2 минуты, и ещё столько же выкатывать текст по паре слов в секунду, то можно даже на CPU запустить (8-ядерном уровня Ryzen 7 каком-нибудь). На видеокарте, в принципе любой, с CUDA, будет намного быстрее.

Если же мы хотим писать свою собственную нейросетку и обучать её, то опять же от мощностей будет зависеть в первую очередь время, необходимое на это самое обучение. И да, тут уже понадобится GPU топового уровня, и желательнго не одна. Но сложнее, конечно, ту самую big data для обучения собрать.

Кстати, на английском оно несколько лучше работает, потому что как ни крути, но в материалах для обучения англоязычные преобладают с огромным отрывом.