LINUX.ORG.RU

Дайте ссыль на максимально понятное объяснение back propagation с объяснением физических смыслов и приведением кучи аналогий на каждом шагу?

 


1

0

Дайте ссыль на максимально понятное объяснение back propagation с объяснением физических смыслов и приведением кучи аналогий на каждом шагу?

Вот чел претендует на очень понятное объяснение, но он тупо достаёт формулы из рукава и рвётся с ними сразу в бой. Это не называется понятным объяснением. https://www.youtube.com/watch?v=HA-F6cZPvrg

Есть понятнее?

P.S. Вот у этого чувака: https://www.youtube.com/watch?v=W2LshGngCNw я встретил крутую аналогию про «доверие советчикам». Последние нейроны решают насколько они недовольны каждым из своих советчиков, понижая их веса «и так далее до начала сети». Что-то в этом роде нужно, но хорошо разжёвывающее все попутные абстракции с частными производными (хотя я и понимаю что это) и т.п.



Последнее исправление: hlamotron (всего исправлений: 1)

Понятно объяснили Марвин Мински и Сеймур Папперт полвека тому назад: нейросети сосут не могут быль основой ИИ. В дальнейшем он рекомендовал смотреть в сторону ООП(«society of mind»)

somequest1
()
Ответ на: комментарий от somequest1

Понятно объяснили Марвин Мински и Сеймур Папперт полвека тому назад: нейросети сосут не могут быль основой

Чё-то ты внезапно ответил на вопрос, который тут не задавался: «могут ли нейросети быть основной ИИ».

hlamotron
() автор топика

физических смыслов

Физический смысл может быть только в биологической модели нейросети, математический формализм этого не предусматривает.

somequest1
()
Ответ на: комментарий от Nefalius

Потому что этот хайп вокруг нейросетей реально всех запарил

На этих всех совершенно нетрудно насрать. Меня ведь не запарил хайп по поводу певца Тимати. Надо как-то развивать в себе незапариваемость хайпами вокруг в век хайпов.

hlamotron
() автор топика
Ответ на: комментарий от somequest1

Физический смысл может быть только в биологической модели нейросети, математический формализм этого не предусматривает.

Твой вес в этом топике уже снижен ввиду твоего высералова не по сабжу. Тут скорее всего ты закладывал что-то своё личное в отношении к сабжу. Короче ты уже не нужен, пака.

hlamotron
() автор топика
Ответ на: комментарий от somequest1

А они используются только в контексте ИИ, другой интерпретации и применения нет.

Чувак, ты вроде свободен уже.

hlamotron
() автор топика
Ответ на: комментарий от somequest1

ИЧСХ, Мински писал это только о перцептроне.
Ни backpropagation, ни эффективная тренировка многослойных сетей во время выпуска книги (1969) известны не были.
Так что старовата твоя матчасть.

Solace ★★
()

Физический смысл - как настройка струн рояля, в цикле.

Shadow ★★★★★
()
Ответ на: комментарий от somequest1

нейросети сосут не могут быль основой ИИ

Дай угадаю - сферически-идеальный ИИ не нужен (да и, собственно, почему бы и не ИНС, если возможно - вкратце?), а с некоторыми практическими задачами они как раз-таки справляются.

alex4321
()
Ответ на: комментарий от hlamotron

Твой вес в этом топике уже снижен ввиду твоего высералова не по сабжу.

Да ты просто тупой мудаг.

anonymous
()
Ответ на: комментарий от alex4321

Потому, хотя бы, что сама идея построения мозга с помощью нейросетей — это очевидная идея фикс. Они могут выступать как примитивы для построения более высокоуровневых блоков, но не могут представлять интеллект сами по себе. Так, несмотря на то что здание состоит, по сути, из атомов, строится оно из строительных блоков, здание нельзя описать в терминах элементарных частиц

somequest1
()
Ответ на: комментарий от anonymous

Да ты просто тупой мудаг.

Страдай, че.

hlamotron
() автор топика
Ответ на: комментарий от Nefalius

хайп вокруг нейросетей реально всех запарил

зато можно рубить бабло, что в общем-то хорошо.

Rastafarra ★★★★
()
Ответ на: комментарий от somequest1

Чувак, он объяснял невозможность на примере невозможности реализации функции xor. Xor очень легко реализуется нейросетью из 2х слоев и 3х нейронов. Так что обобщение тупо не работает. Надо понимать, что это было про перцептроны, примитивные нейроны с примитивным же алгоритмом обучения, который позволял обучать только один слой. К современным многослойный нейросетям это не относится

khrundel ★★★★
()

Дайте ссыль на максимально понятное объяснение back propagation с объяснением физических смыслов и приведением кучи аналогий на каждом шагу?

введение в Ритмодинамику. Ритмодинамическая теория гравитации

вконтактег

статьи о ритмодинамике

tl;dr теория, альтернативная СТО и эфирным.

суть такова: существует частотное пространство, и материя по сути — волновой пакет связанных осциляторов, среди системы которых распространяются волновые колебания в среде, гармонизируя это общее состояние, конфигурацию системы.

вместо (x,y,z,t) вводим частотное пространство (x,y,z,v) (v=1/t частота), где частоты отдельных элементов системы (атомов) синхронизируются вследствие связанности осцилятяров с одну систему (материю, тело) посредством распространения волн.

далее описывается движение по Аристотелю, относительно потенциальных ям. изменяя частоту осциляторов, изменяется положение системы — движение возникает вследствие перемещения системы в сторону новых потенциальных ям.

то есть: не управляем движением, прикладывая силы к материальной системе. а вместо того управляем частотами, амплитудами и фазами осциляторов (атомов) системы. задаём сдвиг по фазе — возникает скорость (градиент скорости=градиент фаз). задаём сдвиг по частоте — возникает ускорение (градиент ускорений=градиент частот).

при этом материальное тело, материальная система представляет собой законы прямых и обратных связей, уравновешивающих друг друга.

если равновесие убрать или подкорректировать — можно создать антигравитацию, левитацию, телекинез, дематериализацию (переходом в другое частотное пространство, другой диапазон видимого и материального)

теперь причём тут нейросети. очевидно, что нейросеть и есть структура таких прямых и обратных связей. вперёд, напрямую распространяется сигнал. назад распространяется вектор ошибки.

тогда минимизацией градиента ошибки можно задать оптимизацию нейросети в результате обучения. обучение может быть с учителем (данные, отобранные и проверенные экспертом) или без учителя.

многослойные нейросети, например карты кохонена выглядят сложнее.

там уже возникает deep learning, задействуя несколько слоёв.

то есть состояние нейросети можно описать, задействуя многомерности.

anonymous
()
Ответ на: комментарий от anonymous

в ритмодинамике сам физический объект как система осциляторов, атомов оптимизирует приложенными к элементам системы силами, воздействующими на частоту, фазу, амплитуду элементов --- общую конфигурацию системы, посредством прямых и обратных связей.

материальный физический объект имеет разную конфигурацию — агрегатное состояние вещества, разную топологию и степень связности элементов, разные состояния движения, наконец (уровни потенциальных ям и т.п.)

если бы это была программируемая материя, компьютрониум, способная изменять конфигурацию произвольным способом — запрограммированными матлогикой законами (а не законами физическими) — мы получили бы физический аналог нейросети.

при этом в такой системе могут возникать стоячие волны, бегучие волны, пучности, дифракции с интерференциями, резонансы.

резонанс может усиливать исходный сигнал. то есть, нейросеть может работать как универсальный усилитель мощности, некоторых логических законов.

в том числе и неформализованных, логика которых непотятна (fittest function).

посредством оптимизации градиента ошибки.

вообще, оптика (линзы) и ритмодинамика хорошо объясняют часть эффектов в нейросети. также квантовая механика объясняет — но там они вводят тензоры, у которых могут быть собственные значения, собственные векторы, резонансы посредством вычисления на тензорах.

а ритмодинамика задаёт частоту просто как свёртку тензора.

аналог: оптика с линзами, операционные усилители и т.п. — теория распространения сигналов, теория информации.

квантовая механика с комплексными матрицами, редукцией волновой функции, и т.п. — тензорное исчисление.

если на тензорах считать фиксед пойнты и округлять до 1, то получаем нечёткую логику, 0..1.

ритмодинамика — исчисление частот элементов системы, в частотном (4D евклидовом: (x,y,z,v), а не Минковского 4d(x,y,z,ct) ).

воздействуя на частоты элементов, посредством обратных связей меняем конфигурацию всей системы. система стремится к равновесию естественным образом, задействуя прямые и обратные связи.

избирательно воздействуя на какие-то отдельные законы — вызываем самодвижение системы в поле, так чтобы стремилась к новому равновесию, в новой конфигурации.

и управляем движением системы.

anonymous
()

встретил крутую аналогию про «доверие советчикам». Последние нейроны решают насколько они недовольны каждым из своих советчиков, понижая их веса «и так далее до начала сети». Что-то в этом роде нужно, но хорошо разжёвывающее все попутные абстракции с частными производными (хотя я и понимаю что это) и т.п.

вначале было поле.

«носитель построений» в геометризации, как в ритмодинамике.

поле задаётся вместе с системой отсчёта, как «носитель построений». если ты не будешь его учитывать — получишь модель не той системы, а какой-то другой.

поле векторное, на нём можно определить производные: градиент, ротор, дивергенцию.

ну а дальше по формуле Остроградского, про связь между градиентом, ротором, дивергенцией.

потенциальное поле не вихревое, ротора не имеет. то есть, минимизацией градиента можно минимизировать ошибку (векторную).

градиент потенциала это сила, сила похожа на мощность и работу. в том смысле, что мощность — возможное количество энергии, а работа — фактическое количество энергии в результате движения посредством силы (близкодействие),

либо посредством изменения конфигурации поля (самодвижение).

сила это градиент поля (градиент потенциала) это мощность потока.

«доверие советчикам» — это минимизация функционала, например к 0.

заданного на какой-то эквипотенциальной поверхности. когда требуется определить конфигурацию этой поверхности, системы.

типа заряда на сфере в

anonymous
()
Ответ на: комментарий от somequest1

после Минского с Розенблаттом нейросети изменились: многослойные, карты кохонена, deep learning, реккурентные сети, HTM, автоматы Мараховского с памятью, наконец.

основной проблемой является то, что если что-то чему-то научилось, вывести из этого формально-логический, понятный закон — практически невозможно.

он просто работает — ХЗ почему.

«вывести логику» посредством нейросети — сложно же, оно просто чему-то научилось, что где-то как-то при каких-то неявных параметрах работает.

но вдруг работать перестаёт, и требуется переобучение. непонятно почему, и понято быть не может, потому что описано в многомерных «тензорах метапарадигм» (даже хуже, параметров) неявным образом.

вытащили кирпичик — всё здание развалилось.

как в том эксперименте с FPGA: вырастили конфигурацию, где неподключённый ни к чему кусок проводника работает как антенна, почему-то. удалили этот кусок со схемы --- антенна не работает, вся схема целиком не работает.

и никто не знает, почему.

чем-то можно помочь если скрести генетическое программирование, или те же клеточные автоматы, для «объяснения понятности».

ну например: структурное программирование проще императивного или ООП с замыканиями, non-local exits, множественными точками входа.

оно проще и понятнее. поэтому размотка всяких там «octopus stack», «trampoline»/«thumbs» для реализации замыканий в конструкции типа Дейкстровских — упрощает схему алгоритма, но и делает её более понятной.

если пытаться выводить таким образом логику, то следует учесть, что логика бывает не только формальной (которую выводить просто) но и качественной — интуитивной, трудно выводимой, основанной на инсайтах (типа «кризис-катарсис-просветление»), не следующей напрямую.

anonymous
()
Ответ на: комментарий от somequest1

про резонансы, например

сдаётся мне, что на языке ритмодинамики можно описать сиё через частоты, в частотном пространстве.

а на языке тензоров — описать «резонанс» как собственные значения, частоты — напрямую.

тезис: качественный скачок, в качественной логике (а не просто формальной) — задаётся каким-то адаптивным резонансом между смыслом и формой, пониманием и действием.

anonymous
()
Ответ на: комментарий от khrundel

Xor очень легко реализуется нейросетью из 2х слоев и 3х нейронов.

вообще бинарная логика легко реализуется нейросетями.

тезис в том, что не только бинарная. и не только формальная, но и качественная.

но качества эти (сложносоставные) осознать и формализовать — это ещё одна заморочка. рекурсия.

anonymous
()
Ответ на: комментарий от somequest1

обучающее видео

теперь узри и прозрей: яко же, как сдвиг по фазе и частоте в осцилляторах «носителя построений» пространства физического, мёртваго направляет челн в воду,

тако же и в пространстве духовном, «носителя построений» члена челна тела(кольца, поля) животворящего возможны движения духа посредством модуляции осциляторов, напряжением сил психических — мира горнего, мира дальнего.

и нисхождение благодати сонастройкой духовных частот в резонанс.

инсайтом и прозрением.

ибо сказано было: Бог есть Любовь

(то есть, оптимальная конфигурация точек на гиперсфере распределения заряда божественных сил на эквипотенциальной гиперповерхности поля духовнаго).

anonymous
()
Ответ на: комментарий от somequest1

ну и чтобы два раза не вставать

похоже, язык WolframLanguage в новой Mathematica, точнее его представление в виде NoteBook --- Это новый кандидат на роль векторного таки тензорного гипертекстового фидонета, самый настоящий

обучалка по Wolfram Language — здесь пожамкай в каждой главе ссыль «Download Notebook Version», да посмотри скачанное внимательнейшим образом, в vim-е или Emacs-е

эти файлы с расширением *.nb по сути содержат гипертекст, построенный поверх ячеек (Cells) типа Эксель-подобных.

на них же задаются индексы, гиперструктуры, исчисление: функции, датасеты и правила.

GUI например строится декларативно, типа FRP. то есть, языком вполне можно задавать правила, причинно-следственные связи.

картинки, даты, гиперссылки, и прочая — first class objects в языке.

не говоря уж о скалярах и матрицах.

кстати, язык гомоиконный. гомоиконен он даже более, чем LISP:

Foo[Bar]

и

Bar[Foo]
означает одно и то же (например:
Options["MyOption"]
=
"MyOption"[Options]
, плюс здесь этот синтаксис может задавать как матрицу с индексом (хеш-таблицу с ключом), так и функцию с параметром, совершенно одинаково!!!

параметры функции ключ словами и ключи хеш-таблицы тоже выглядят одинаково.

тезис: в общем и целом, Wolfram Language в виде гипертекстовых NoteBooks — хороший кандидат на роль тензорного гипертекстового фидонета Xanadu Теда Нельсона, с гиперструктурами и zzConsCells.

причём оно существует уже здесь и сейчас, готовое.

тезис2: кабы все эти искатели странного свободных энергий, БТГ и прочих теорий формулировали свои открытия и теории в виде моделей, подобных киберфизических гипертекстовых систем (ближайший аналог — Modellica, только гипертекстовое) — понять о чём они там говорят, было бы гораздо легче.

не было бы особых проблем с верификацией, если на киберфизической гипертекстовой модельке все расчёты по новой теории были бы само очевидны.

anonymous
()

поищи нечто типа такого вот

Дайте ссыль на максимально понятное объяснение back propagation с объяснением физических смыслов и приведением кучи аналогий на каждом шагу?

погугли тех же интерактивных примеров под ту же Mathematica NoteBook, например

например, книжка: — здесь скачай Backpropagation.m и посмотри его глазами внимательно

или вот, лекции — здесь тоже см. в основном «Mathematica Notebook» на тему backpropagation error, и уже потом — PDF лекций с презентациями

anonymous
()
Ответ на: комментарий от anonymous

Machine Learning for Middle Schoolers — школота рекомендует. ну чем ты хуже???

эта же глава в книжке по языку, с примерами

естественный язык оно пытается понимать. классификаторы в интернете, без него не работает.

интерфейс говорилки — программируемый, можно написать свой интертрепатор и парсер со своею грамматикою в полпинка

anonymous
()
Ответ на: комментарий от x4DA

Меня название немного обескураживает, как он увязал вычислительную геометрию с перцептронами?

Ну, классический перцептрон — линейный классификатор. Там много чего можно нагородить, связанного с вычислительной геометрией, например выпуклые оболочки и все такое прочее.

ЗЫ книгу не читал

Waterlaz ★★★★★
()
Ответ на: комментарий от x4DA

А почему нет? Многие вещи, связанные с ML, очень хорошо понимаются в геометрическом представлении.
Тот же перцептрон и его тренировка хорошо усваиваются, когда подаются в наглядном пространстве весов.

Solace ★★
()
Ответ на: комментарий от somequest1

Насколько я помню

Как ты можешь помнить, если не читал? Одна бабка рассказывала?

no-such-file ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.