LINUX.ORG.RU

Яндекс выложил в открытый доступ языковую модель YandexGPT-5-Lite

 , ,

Яндекс выложил в открытый доступ языковую модель YandexGPT-5-Lite

0

3

Архитектура новой языковой модели похожа на Llama или Qwen, но она обучалась полностью с нуля. Похожесть позволяет использовать тот же инструментарий. Pretrain-версия большой языковой модели YandexGPT 5 Lite на 8B параметров с длиной контекста 32k токенов. При обучении модели особое внимание уделялось русскому языку, материалы на русском составили более 70% датасета.

Старшая модель YandexGPT 5 доступна в Алисе и на сайте Яндекса, но она в открытый доступ выложена не будет.

В своей категории модель достигает паритета с мировыми SOTA по ряду ключевых бенчмарков для pretrain-моделей, а по многим другим — превосходит их. Например, по результатам внутреннего слепого попарного сравнения (side-by-side) для широкого потока запросов YandexGPT 5 Pro превосходит YandexGPT 4 Pro в 67% случаев и не уступает GPT-4o.

>>> Подробности на Хабре

>>> Скачать

★★★★★

Проверено: dataman ()
Последнее исправление: Dimez (всего исправлений: 5)
Ответ на: комментарий от Smacker

А сколько надо-то? Что-то я не вижу требований.

Для выложенной 8B — ≥12G VRAM.

То что осталось закрыто — наверняка не меньше 400B.

LLaMA 3.1 на 405B требует ≈512(!) GB(!!) VRAM(!!!). Можно с выгрузкой в RAM, но в этом случае понадобится 512GB RAM, и разумеется это будет сильно медленнее.

При подсчётах не забудь учесть счета за электричество. (=

mord0d ★★★★★
()
Ответ на: комментарий от One

прошку сравнивают с Qwen 2.5 32b

А, ну тогда они просто не хотят позориться. xD

mord0d ★★★★★
()
Ответ на: комментарий от Goat

Это такая штука, которая заменяет человеку отсутствующий естественный интеллект. Не очень хорошо, но лучше чем ничего. (% Подробности у гугла.

Тогда мне придется доказать гуглу что я робот, но есть проблема: я - не робот.

Это тоже придётся доказать.

mord0d ★★★★★
()

Кто нибудь в курсе как это соотносится с чатиком, который яндекс встроил в свой поисковик? Где то есть другой VIP GPT, который работает, или они все такие тупые и с узким кругозором?

kirill_rrr ★★★★★
()

А неплохо так DeepSeek индустрию взбодрил :)

zabbal ★★★★★
()

достигает паритета с мировыми ... а по многим другим — превосходит их

Например,... YandexGPT 5 Pro превосходит YandexGPT 4 Pro

Это никаким боком не пример к предыдущему заявлению. Просто эта версия яндексгпт оказалась лучше прошлой версии яндексгпт.

firkax ★★★★★
()
Ответ на: комментарий от mord0d

LLaMA 3.1 на 405B требует ≈512(!) GB(!!) VRAM(!!!).

Я не очень в теме всех этих гпт, но вот чего не понимаю: почему гпт, опубликованные только в виде апи к их серверу, вообще сравниваются с гпт для личного пользования в плане системных требований? Очевидно же, что у огромной фирмы есть средства хоть многие терабайты (десятки, сотни?) VRAM организовать, и что в частном порядке никто, кроме олигархов, себе такую систему не соберёт (а они этим заниматься всё равно лично не станут).

firkax ★★★★★
()
Последнее исправление: firkax (всего исправлений: 1)
Ответ на: комментарий от firkax

почему гпт, опубликованные только в виде апи к их серверу, вообще сравниваются с гпт для личного пользования в плане системных требований?

Сравнение сабжа это лишь спекуляции на косвенных данных.

Но есть БОЛЬШИЕ модели в открытом доступе: LLaMA 405B, DeepSeek v3/R1 671B. Да, простые смертные не смогут ими пользоваться (по крайней мере комфортно), многие даже запустить не смогут, но никто не обещал что будет легко.

в частном порядке никто […] себе такую систему не соберёт

Мало её собрать, её ещё нужно питать. Подобный сетап будет жрать (навскидку) сотни киловатт в час.

mord0d ★★★★★
()
Ответ на: комментарий от kirill_rrr

Кто нибудь в курсе как это соотносится с чатиком, который яндекс встроил в свой поисковик? Где то есть другой VIP GPT, который работает, или они все такие тупые и с узким кругозором?

У меня есть подписка на Алису Про и она говорит, что теперь базируется на модели YandexGPT 5 Pro.

mshewzov ★★★
()

Ачё Алиса такая тупая?

lenin386 ★★★★
()

Что-то я не ощутил поумнения. Как теряла контекст, так и теряет. И галлюцинации на каждом шагу просто.

Clayman ★★
()

Мелкая модель - полная фигня. Кроме того, что её учили на русском языке - отчаянный трындеж, нормально оно пытается отвечать только на английском языке, постоянно в него скатываясь, если пытаться говорить по-русски.

pekmop1024 ★★★★★
()
Ответ на: комментарий от Goat

но есть проблема: я - не робот.

Действительно, не очень хорошо получается. Но главное не унывать и работать над собой! СР/УВЧ!

Smacker ★★★★★
()
Ответ на: комментарий от mord0d

Ну сейчас нет, но какой-нибудь условный m4 ultra запустит это без проблем на 300 ваттах.

Те же GPT они у себя стараются гонять на таких же специфичных железках с универсальной памятью.

alexmaru
()

А как это связано с тематикой форума?

Kolins ★★★★★
()
Ответ на: комментарий от Smacker

VRAM это же Video RAM?

Да.

Есть агрегаты с 512 Гб оной???

Я о таких не слышал.
Но во-первых можно собрать кластер (не очень надёжно), а во-вторых инференция поддерживает распределённые вычисления.

mord0d ★★★★★
()
Ответ на: комментарий от yvv1

Один ускоритель с достаточной скоростью ядер и количеством видеопамяти жрёт чуть меньше киловатта. Таких ускорителей нужно не меньше десятка. 1×10=100! (%

mord0d ★★★★★
()
Ответ на: комментарий от alexmaru

Ну сейчас нет, но какой-нибудь условный m4 ultra запустит это без проблем на 300 ваттах.

Для одного юзера — вполне. Причём даже M2 справляется с этим с неплохой скоростью. А если тебе нужно поделиться мощностями с семьёй/друзьями, то ой.

mord0d ★★★★★
()
Ответ на: комментарий от Smacker

Шесть штук NVIDIA H100 80GB и уже на Q4 вертишь DeepSeek V3 671B. Скромно вертят даже и Q3.

А так бомж сборки с двумя RTX 3090 и моделями в 67-70b вполне используются. 120 тыс рэ и ты LLM-барин с 48GB vram

One ★★★★★
()

интересно, алиса поумнеет от этого новшества? а то сейчас она тупенькая.

ergo ★★★
()
Ответ на: комментарий от Smacker

VRAM это же Video RAM? Есть агрегаты с 512 Гб оной???

просто собираешь машину с 4ю видеокартами по 128ГБ

ДипСику надо 700ГБ, соответственно там 6-7 видеокарт, народ описывал требуемое железо, там вроде за 30Кбаксов

sena ★★
()
Последнее исправление: sena (всего исправлений: 3)

Раз пошла такая пьянка, то зачем-то оформил Алиса Про. Ещё не знаю зачем, но пусть будет.

Irben ★★★
()
Ответ на: комментарий от mord0d

Таких ускорителей нужно не меньше десятка.

В час?

yvv1
()
Ответ на: комментарий от One

ITT: как прикуривать от ассигнаций в домашних условиях с помощью видеокарт и нейронок.

Smacker ★★★★★
()

Бинарные блобы в свободном доступе какое отношение к опенсорсу имеют? iso-образы винды тоже в полном свободном доступе с msdn скачиваются. Давайте их сюда как новости постить?

anonymoos ★★★★★
()
Ответ на: комментарий от kirill_rrr

Но насколько она лучше ищет инфу чем бесплатный чат?

Хз, я почти сразу оформил подписку, когда ещё Yandex GOT 4 было. Там полгода бесплатно давалось, потом 100 рублей в месяц. Я на самом деле не для поиска использую, а для работы - пишу рекламные тексты, дорабатываю статьи, иногда ищу интересные идеи для своих документов.

Сам по себе нейро поиск от Яндекса интересен тем, что он неплохо суммаризирует ответ. Но стало ли лучше именно в поиске - я не знаю. По мне и было неплохо.

mshewzov ★★★
()
Ответ на: комментарий от alexmaru

М4у не поддерживает столлько памяти даже если она общая. И старший АПУ амд не поддерживает. Пока что только те самые старые зионы над которыми все смеялись.

kirill_rrr ★★★★★
()
Ответ на: комментарий от mshewzov

Сам по себе нейро поиск от Яндекса интересен тем, что он неплохо суммаризирует ответ.

На самом деле плохо. 30% ответов которые можно считать за ответ, даже если он бесполезен или там **здёж. Но по крайней мере есть какое то виденье как это можно использовать и вообще зачем он нужен. Даже в таком виде это экономит некоторое количество времени.

kirill_rrr ★★★★★
()

8B - ну это не серьезно

voltmod ★★★
()
Ответ на: комментарий от anonymoos

Вот если бы Яндекс выложил исходники, другое дело!

Aceler ★★★★★
() автор топика
Ответ на: комментарий от kirill_rrr

На самом деле плохо. 30% ответов которые можно считать за ответ, даже если он бесполезен или там **здёж. Но по крайней мере есть какое то виденье как это можно использовать и вообще зачем он нужен. Даже в таком виде это экономит некоторое количество времени.

Может и плохо. Но я всё равно перепроверяю все ответы, поэтому некоторый процент недостоверности ответов для меня не новость. На самом деле и ChatGPT тоже любитель фантазировать. У меня подключён Doczilla AI, который как раз на базе ChatGPT, так вот он частенько просто придумывает статьи и законы.

mshewzov ★★★
()

Сколько раз мы подобные заявления слышали. Почти такой же хороший как западный аналог, а по некоторым параметрам даже превосходит =))) Не ну на само деле хорошо, больше разных нейросетей, больших и разных

Dieter ★★★
()
Ответ на: комментарий от mshewzov

У меня подключён Doczilla AI, который как раз на базе ChatGPT, так вот он частенько просто придумывает статьи и законы

Не иначе как метит в правительство или в депутаты.

no-dashi-v2 ★★★
()
Ответ на: комментарий от One

А так бомж сборки с двумя RTX 3090 и моделями в 67-70b вполне используются. 120 тыс рэ и ты LLM-барин с 48GB vram

С одной RTX 3090 24GB VRAM + 48GB DDR5 RAM крутятся модели 70B/Q4.

Есть франкенштейны RTX 4090 на 48GB, но они типа серверные, шумные и есс-но по цене двух 4090.

sarumeister
()
Для того чтобы оставить комментарий войдите или зарегистрируйтесь.