LINUX.ORG.RU

«Hello World» на нейросетях?

 ,


7

3

Вобщем хотелось бы увидеть и пощупать. После всего того что я видел и читал о нейросетях у меня сложилось впечатление что нейросети это что-то виртуальное и абстрактное. А сильно хотелось бы хоть маленькой практики.

★★★★★

Последнее исправление: cvv (всего исправлений: 1)

Ответ на: комментарий от anto215

Насколько я помню этот курс, нейросетей там нет. Хз, проходил его ещё когда курсеры не было, что-то могло измениться

Gvidon ★★★★
()
Последнее исправление: Gvidon (всего исправлений: 1)

нейросети это что виртуальное и абстрактное

Нейросети — это модели, реализующие эвристические алгоритмы оптимизации.

Для начала советую узнать что-нибудь о курсе методов оптимизации (взять при этом книжку не бородатых годов), если, конечно, еще не знаешь.

buddhist ★★★★★
()
Ответ на: комментарий от maggotroot

А теперь расскажи мне, для чего применяются нейросети.

Как расскажешь, подумай еще над тем, как ставится задача обучения.

buddhist ★★★★★
()
Последнее исправление: buddhist (всего исправлений: 1)
Ответ на: комментарий от maggotroot

Caffe - это довольно близко к тому что мне хочется

cvv ★★★★★
() автор топика
Ответ на: комментарий от buddhist

Давай говорить не на снисходительных тонах типа «ты подумаешь», а по сути. Модели реализующие эвристические алгоритмы оптимизации, вообще размытое понятие, которое ничего не объясняет. Нейросети это алгоритмы оптимизации, или нейросети настраиваются эвристически? Ни первое, ни второе не верно: нейросети настраиваются почти всегда вполне себе аналитически обоснованными методами оптимизации. То что нейросети решают какую-то очень конкретную задачу оптимизации тоже мало чего говорит: любую задачу можно поставить как задачу оптимизации, вообще любую. А в машинном обучении функционал, который нужно минимизировать, на самом деле даже посчитать нельзя.

Что можно сказать про нейросети, так что это просто модель классификатора, которую надо настраивать так, как получается.

Ну а теперь ты можешь все же рассказать что такое «модель реализующая эвристическую оптимизацию»

maggotroot
()
Ответ на: комментарий от maggotroot

Вот как раз с аналитическими решениями в нейросетях плохова-то, методы обучения НС часто как и говорит буддист действует таки эврестически, очень многое зависит от их стартовых данных и подбора коэффицментов, который так же далеко не всегда налитичен. Так что по сути буддист-то сказал верно.

pylin ★★★★★
()
Ответ на: комментарий от Gvidon

Проходил на курсере. Нейросети есть. Тоже рекомендую этот курс ТС.

prischeyadro ★★★☆☆
()
Ответ на: комментарий от pylin

Использование градиентного спуска для невыпуклого функционала - не эвристика. А про аналитическое решение я не говорил.

Меня заинтересовало понятие «модели, реализующие эвристические алгоритмы оптимизации»

maggotroot
()
Ответ на: комментарий от pylin

Есть какие-то успехи в некоем подобии «матанализа» для нейронных сетей? Например, любой школьник знает, что у пораболы ветви симметричные и только 1 экстремум. Также любой студент младших курсов знает, что не нужно делать аппроксимацию прямой (вернее почти прямой, допустим немного «зашумленной» прямой) полиномом высокого порядка.

В нейронных сетях до сих пор познают дзен, перебирая структуру/сложность сети, добавляют наугад новые правила или все таки можно сделать какой-то анализ - какие результаты получиться в итоге?

anonymous
()
Ответ на: комментарий от anonymous

Кое-что есть. Легко доказывается, например, что нейросеть с одним скрытым слоем и достаточно большим количеством нейронов может аппроксимировать произвольную непрерывную функцию с любой желаемой точностью. Отсюда следует, что простые (полносвязные) сети с большим количества слоёв особого смысла не имеют. Также, одно время игрались с алгоритмами обучения, при которых архитекрута сети выбирается сама динамически. Почему их все не используют? Потому что надроченный аспирант с выбором архитектуры справляется лучше. И вообще, машинное обучение другой ногой стоит где-то в психологии и нейрофизиологии. Например, сейчас в моде свёрточные сети, они хорошо работают в машинном зрении, потому что их архитектура напоминает настоящие зрительные сети нейронов у животых. По этому принципу их и строят. Алсо, не нравится такой гуманитарный подход - используй другие классификаторы, где шаманства меньше. SVM тот же.

anonymous
()
Ответ на: комментарий от anonymous

Отсюда следует, что простые (полносвязные) сети с большим количества слоёв особого смысла не имеют.

Теоретически так оно и есть. На практике в этот один слой получается большой, что не очень хорошо с точки зрения производительности. Хотя это может быть верно только ежели с моей колокольни смотреть, когда сеть надо считать около миллиона раз в секунду на обычном железе.

Также, одно время игрались с алгоритмами обучения, при которых архитекрута сети выбирается сама динамически.

Знаю про optimal brain destruction (довольно военное название, да), какие еще бывают?

Алсо, не нравится такой гуманитарный подход - используй другие классификаторы, где шаманства меньше. SVM тот же.

Плюс много.

ebantrop
()
Ответ на: комментарий от maggotroot

Использование градиентного спуска для невыпуклого функционала - не эвристика

Эвристика начинается там, где надо решить с конфигурацией сети - числом нейронов, слоёв, биасами. :)

yoghurt ★★★★★
()
Ответ на: комментарий от buddhist

Для начала советую узнать что-нибудь о курсе методов оптимизации (взять при этом книжку не бородатых годов)

Как раз на днях решил вспомнить университетский курс, посоветуй что почитать.

anonymous
()
Ответ на: комментарий от anonymous

Я бы посоветовал Акулича (djvu в интернетах легко находится), т.к. сам в нее периодически заглядываю, но она, скорее всего, уже бородатых годов.

yoghurt ★★★★★
()
Ответ на: комментарий от ebantrop

Знаю про optimal brain destruction (довольно военное название, да), какие еще бывают?

В FANN, например, есть cascade-correlation: http://leenissen.dk/fann/html/files/fann_cascade-h.html

Ещё пробовали всякие генетические алгоритмы для выбора структуры сети, но там шаманства ещё больше.

anonymous
()
Ответ на: комментарий от anonymous

Канон: Вентцель, Исследование операций. Также насоветую своего научрука: А.М. Цирлин, Условная оптимизация.

По последним достижениям: Reiner-Hoang, Global Optimization: Deterministic Approaches; Ю.Е. Нестеров, Методы выпуклой оптимизации; S. Luke, Essentials of Metaheuristics; Хансен-Уолстер, Глобальная оптимизация с помощью методов интервального анализа.

buddhist ★★★★★
()
Ответ на: комментарий от yoghurt

Фамилия знакомая, наверное, по нему и учились. Найду, почитаю. Спасибо.

anonymous
()
Ответ на: комментарий от yoghurt

Именно, и это уже нихера не мифическая «модель реализующая эвристические модели оптимизации», это подбор структурных параметров, где обычно оптимизация не при чем.

maggotroot
()
Ответ на: комментарий от Gvidon

Есть, я его проходил на курсере, все хорошо :)

unfo ★★★★★
()
Ответ на: комментарий от anonymous

В FANN, например, есть cascade-correlation: http://leenissen.dk/fann/html/files/fann_cascade-h.html

Спасибо, гляну.

Ещё пробовали всякие генетические алгоритмы для выбора структуры сети, но там шаманства ещё больше.

Ну да, шаманство кругом. Я нашел как то для себя конфигурацию которая более-менее работает для аппроксимации моей задачи. Почему она такая и как работает я объяснить не могу.

ebantrop
()
Ответ на: комментарий от ebantrop

какие еще бывают?

Мне в своё время очень понравился NEAT и HyperNEAT. Это алгоритм который совмещает в себе генетику и нейросети. Если почитать оригинальные статьи, там есть ссылки на ещё ряд алгоритмов того же типа.

Daeloce
()
Ответ на: комментарий от vertexua

Не получится. ЕМНИП, для XOR - минимально допустимая структура сети 2-2-1: 2 входа, 2 в скрытых нейронов, 1 выход. Формально, это уже многослойный перцептрон.

DarkAmateur ★★★★
()

Вообще, в идеале для теоретического «Hello world» достаточно книги Хайкина по нейронным сетям. Для практического - проприетарной платной Statistica с нейросетевым модулем.

DarkAmateur ★★★★
()
Последнее исправление: DarkAmateur (всего исправлений: 1)
Ответ на: комментарий от DarkAmateur

Неплохо, есть грамотные люди. Ну и нелинейная функция активации

vertexua ★★★★★
()
Ответ на: комментарий от DarkAmateur

Для практического - проприетарной платной Statistica с нейросетевым модулем.

А примеры есть? Ато теории я уже наелся

cvv ★★★★★
() автор топика
Последнее исправление: cvv (всего исправлений: 1)
Ответ на: комментарий от cvv

Примеры чего? Примеры использования Statictica в документации или на сайте. Для задач аппроксимации функции достаточно приготовить подходящую таблицу обучающих примеров. Для кластеризации там есть специально подготовленные базы.

DarkAmateur ★★★★
()
Последнее исправление: DarkAmateur (всего исправлений: 2)
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.