LINUX.ORG.RU

История изменений

Исправление LINUX-ORG-RU, (текущая версия) :

Это так не работает, генеративные сети речевых моделей имеют грубо говоря две архитектуры первая, как сказал Ринат это бесконтрольная генерация текста следующая исключительно правилам построения слов и предложений языка это же относится к сетям генерирующим код нет никакой разницы генерировать код или вести интерактивный диалог с интерфейсом на естественном языке. Ну так вот, нейросети по природе своей делают хорошо ровно две вещи на которых всё основывается, первое это определение ассоциаций, когда одни данные ассоциированы с другими по некому признаку/кам из этого рождается втрое благодаря механизму выявления «схожести» между данными (любыми) возникает «умение» сортировать эти данные, группировать, обобщать. Из букв следуя всем этим составляются слова, в словах ведётся поиск связи между ними, появляются словосочетания, далее уже между ними ведётся поиск связей так появляются предложения, для каждого нового слова всё это по кругу гонится для выявления наиболее подходящего слова. И всё. Вторая штука это уже понимание контекста или «смысла» там уже нейросети как таковые это просто один из алгоритмов (да и вообще в целом в нейросетях нейросетей меньше всего) там используются уже 3D вектора, когда есть сущность (не важно что) для неё описан (вычислен) контекст в рамках которого оно имеет смысл представь облачко в небе висящее, есть другая сущность (допустим это слово) смысл которого при его применении с ещё одним «облачком» создаёт такой контекст векторное представление которого совпадает с направлением в первое облачко из которого уже делает выборка наиболее подходящего, оно то и включается в продолжение генерации в рамках текста соответствующего контексту и смыслу. Эдакая перекрёстная хештабля в виде 3D пространства с висящими в нём группами сущностей в каждой из которых есть вектор и к каждой из которых есть вектор такой что при комбинации этих сущностный дают новый такой что он либо указывает в никуда (всё херня давай по новой) или строго следует правилам. Ну и всё, а текущие речевые модели это синтез первого и второго. Основная беда в том, что сети не могут остановится, они дадут тебе ответ на всё что угодно, тупо следуя чисто нейросетевым правилам дополнялки текста ну и плюс приправят видом смысла, даже если на выдаче будет мусор, буквально мусорные данные, но по всем правилам естественного языка и неизбежно верным подбором подходящих друг к другу слов.

Нейросетки и доп алгоритмы работающие с ними в тандеме (включая просто базы данных и всякие токенизаторы банальные) это не ракетные технологии, это не формулы математики которыми за кой то хер все стараются описывать даже тривиальные вещи которые рассказываются на пальцах, я прям люто советую почитать как оно всё работает, порыть исходники и чёниь посмотреть что-бы развеять магию. Сами по себе нейросетки это простой как палка алгоритм даже великое разнообразие автоматов нейросетевых, циклических сетей, открытых и закрытых это блин всё на пальцах описать можно.

Я не скажу что я там спец какой фифа и ваще, не я нуб ещё тот, но меня прям пучит когда одно выдают за другое. И речевые модели натягивают как сову на глобус на всё что надо и нет. Искусственные нейросети это клёво, им лет столько же сколько ЭВМ если не больше. А универсальные речевые модели это скорее игрушка, да в отдельных случаях даже полезная эммм для кого-то хз знает кого, но да ладно.

Вся их суть в том что это интерактивный интерфейс к программе на естественном языке, это универсально, несомненно интересно, но пока, пока вокруг них просто нездоровая истерия, куча мистификации, очень много лжи и прочего ну и сова+глобус, это прям бесит порой. Да я перегибаю палку с хейтом, но блин.

Короче, сетки на GPT алгоритмах просто подохнут, речевые универсальные модели ненужны, они просто не справляются с теми объёмами данных что в них пихают. Линейное масштабирование таких сетей на что и делают упор больше википедий понапихать, больше серверов просто всё это погубит. Такие штуки надо натаскивать отдельно например для музея загнать в него рукописи конкретные и произвести поиск пересекающихся данных, их частотную неистребимость, попытаться понять смысл символа и искать его корреляцию с чем то и натаскивать на этот конкретный случай применения так что бы помимо работы сортировки и выявления в шумных данных схожестей, признаков, шаблонов ещё и иметь удобыный интерфейс на естественном языке. Или учить сеть говорить за немого человека заменяя ему его голос, вот это да, тут всё преуспеет, а ЧатЖопаТ это кое что умеющая игрушка распирающая от вагона данных и генерирующая порой такой красивый бред что хоть каждое слово перепроверяй через классический поисковик. Забавляет то что через речевые модельки часто пытаются решить задачи которые быстрее и эффективнее сделать через классически или вообще руками, а именно что имбовую особенность сетей находить то что незаметно человеку в виду возможности соотнести друг с другом ОГГРОММННЫЕЕ объёмы данных такие что человек просто физически не может их освоить хоть и знает и понимает как это делать используют редко.

Воть. Хотел написать коротко, просто ответ. Но походу пора в дурку.

Исходная версия LINUX-ORG-RU, :

Это так не работает, генеративные сети речевых моделей имеют грубо говоря две архитектуры первая, как сказал Ринат это бесконтрольная генерация текста следующая исключительно правилам построения слов и предложений языка это же относится к сетям генерирующим код нет никакой разницы генерировать код или вести интерактивный диалог с интерфейсом на естественном языке. Ну так вот, нейросети по природе своей делают хорошо ровно две вещи на котроых всё остновывается, первое это определение ассоциаций, когда одни данные ассоциированы с другими по некому признаку/кам из этого рождается втрое благодаря механизму выявления «схожести» между данными (любыми) возникает «умение» сортировать эти данные, группировать, обобщать. Из букв следуя всем этим составляются слова, в словах ведётся поиск связи между ними, появляются словосочетания, далее уже между ними ведётся поиск связей так появляются предложения, для каждого нового слова всё это по кругу гонится для выявления наиболее подходящего слова. И всё. Вторая штука это уже понимание котекста или «смысла» там уже нейросети как таковые это просто один из алгоритмов (да и вообще в целом в нейросетях нейросетей меньше всего) там используются уже 3D вектора, когда есть сущность (не важно что) для неё описан (вычислен) контекст в рамках которого оно имеет смысл представь облачко в небе висящее, есть другая сущность (допустим это слово) смысл которого при его применении с ещё одним «облачком» создаёт такой контекст векторное представление которого совпадает с направлением в первое облачко из корого уже делает выборка наиболее подходящего, оно то и включается в продолжение генерации в рамках текста соотвецтвующего контексту и смыслу. Эдакая перекрётная хештабля в виде 3D пространства с висящими в нём группами сущностей в каждой из которых есть вектор и к каждой из которых есть вектор такой что при комбинации этих сущностей дают новый такой что он либо указывает вникуда (всё херня давай по новой) или строго следует правилам. Ну и всё, а текущие речевые модели это синтез первого и второго. Основная беда в том, что сети не могут остановится, они дадут тебе ответ на всё что угодно, тупо следуя чисто нейросетевым правилам дополнялки текста ну и плюс приправят видом смысла, даже если на выдаче будет мусор, буквально мусорные данные, но по всем правилам естественного языка и неизбежно верным подбором подходящих друг к другу слов.

Нейросетки и доп алгоритмы работающие с ними в тандеме (включая просто базы данных и всякие токенизаторы банальные) это не ракетные технологии, это не формулы математики которыми за кой то хер все стараются описывать даже тривиальные вещи которые рассказываются на пальцах, я прям люто советую почитать как оно всё работает, порыть исходники и чёниь посмотреть что-бы развеять магию. Сами по себе нейросетки это простой как палка алгоритм даже великое разнообразие автоматов нейросетевых, циклических сетей, открытых и закрытых это блин всё на пальцах описать можно.

Я не скажу что я там спец какой фифа и ваще, не я нуб ещё тот, но меня прям пучит когда одно выдают за другое. И речевые модели натягивают как сову на глобус на всё что надо и нет. Искусственные нейросети это клёво, им лет столько же сколько ЭВМ если не больше. А универсальные речевые модели это скорее игрушка, да в отдельных случаях даже полезная эммм для кого-то хз знает кого, но да ладно.

Вся их суть в том что это интерактивный интерфейс к программе на естественном языке, это универсально, несомненно интересно, но пока, пока вокруг них просто нездоровая истерия, куча мистификации, очень много лжи и прочего ну и сова+глобус, это прям бесит порой. Да я перегибаю палку с хейтом, но блин.

Короче, сетки на GPT алгоритмах просто подохнут, речевые универсальные модели ненужны, они просто не справляются с теми объёмами данных что в них пихают. Линейное масштабирование таких сетей на что и делают упор больше википедий понапихать, больше серверов просто всё это погубит. Такие штуки надо натаскивать отдельно например для музея загнать в него рукописи конкретные и произвести поиск пересекающихся данных, их частотную неистребимость, попытаться понять смысл символа и искать его корреляцию с чем то и натаскивать на этот конкретный случай примерения так что бы помимо работы сортировки и выявления в шумных данных схожестей, признаков, шаблонов ещё и иметь удобыный интерфейс на естественном языке. Или учить сеть говорить за немого человека заменяя ему его голос, вот это да, тут всё преуспеет, а ЧатЖопаТ это кое что умеющая игрушка распирающая от вагона данных и генерирующая порой такой красивый бред что хоть каждое слово перепроверяй через классический поисковик. Забавляет то что через речевые модельки часто пытаются решить задачи которые быстрее и эффективнее сделать через классически или вообще руками, а именно что имбовую особенность сетей нахоть то что незаметно человеку в виду возможности соотнести друг с другом ОГГРОММННЫЕЕ обхёмы данных такие что человек просто физически не может их освоить хоть и знает и понимает как это делать используют редко.

Воть. Хотел написать коротко, просто ответ. Но походу пора в дурку.