История изменений
Исправление CrX, (текущая версия) :
Это ИИ сам написал или вы+ИИ?
Сам. Говорю же без причёсывания. А так ему можно помимо очевидных ручных правок сказать, где и что не нравится, Чтоб переделал.
хотя я и не любитель ужастиков
А я вот как-то с детства неравнодушен к ним. Во всех, так сказать, «медиа» :)
Оно что,еще и осмысленные команды в текст вставило? Или это уже вы?
Я просто сказал, что гг должен быть юзером арча.
Интересно - сколько и каких видеокарт надо чтобы машина смогла генерировать тексты такого уровня?
Смотря с какой скоростью. И смотря что имеется в виду. Чтобы запустить у себя локально готовую модель — это одно. Чтобы «обучить» модель самому с нуля под свои нужды — совсем другое.
Конкретно ChatGPT не доступна в открытом виде. Но есть открытые модели, которые ей уступают, но не сильно (и со временем, конечно, появятся лучше, можно просто считать, что открытые всегда отстают на N-ное время от передовой коммерческой). Их можно запустить локально, например при помощи PrivateGPT.
Для запуска в принципе достаточно среднего десктопа. Сильно зависит от модели и от того, торопимся ли мы. Но если нас устраивает, что отвечать оно будет не через несколько секунд, а скажем, через 2 минуты, и ещё столько же выкатывать текст по паре слов в секунду, то можно даже на CPU запустить (8-ядерном уровня Ryzen 7 каком-нибудь). На видеокарте, в принципе любой, с CUDA, будет намного быстрее.
Если же мы хотим писать свою собственную нейросетку и обучать её, то опять же от мощностей будет зависеть в первую очередь время, необходимое на это самое обучение. И да, тут уже понадобится GPU топового уровня, и желательнго не одна. Но сложнее, конечно, ту самую big data для обучения собрать.
Кстати, на английском оно несколько лучше работает, потому что как ни крути, но в материалах для обучения англоязычные преобладают с огромным отрывом.
Исходная версия CrX, :
Это ИИ сам написал или вы+ИИ?
Сам. Говорю же без причёсывания. А так ему можно помимо очевидных ручных правок сказать, где и что не нравится, Чтоб переделал.
хотя я и не любитель ужастиков
А я вот как-то с детства неравнодушен к ним. Во всех, так сказать, «медиа» :)
Оно что,еще и осмысленные команды в текст вставило? Или это уже вы?
Я просто сказал, что гг должен быть юзером арча.
Интересно - сколько и каких видеокарт надо чтобы машина смогла генерировать тексты такого уровня?
Смотря с какой скоростью. И смотря что имеется в виду. Чтобы запустить у себя локально готовую модель — это одно. Чтобы «обучить» модель самому с нуля под свои нужды — совсем другое.
Конкретно ChatGPT не доступна в открытом виде. Но есть открытые модели, которые ей уступают, но не сильно (и со временем, конечно, появятся лучше, можно просто считать, что открытые всегда отстают на N-ное время от передовой коммерческой). Их можно запустить локально, например при помощи PrivateGPT.
Для запуска в принципе достаточно среднего десктопа. Сильно зависит от модели и от того, торопимся ли бы. Но если нас устраивает, что отвечать оно будет не через несколько секунд, а скажем, через 2 минуты, и ещё столько же выкатывать текст по паре слов в секунду, то можно даже на CPU запустить (8-ядерном уровня Ryzen 7 каком-нибудь). На видеокарте, в принципе любой, с CUDA, будет намного быстрее.
Если же мы хотим писать свою собственную нейросетку и обучать её, то опять же от мощностей будет зависеть в первую очередь время, необходимое на это самое обучение. И да, тут уже понадобится GPU топового уровня, и желательнго не одна. Но сложнее, конечно, ту самую big data для обучения собрать.
Кстати, на английском оно несколько лучше работает, потому что как ни крути, но в материалах для обучения англоязычные преобладают с огромным отрывом.