LINUX.ORG.RU

История изменений

Исправление praseodim, (текущая версия) :

Они говорят о том, что подобное «обучение» существует чуть ли не с появления программирования, и только сейчас все это начали называть «глубоким обучением», «нейросетями», «ИИ» и тому подобными вызвающими непроизвольное уважение словами.

Вы посоветовали мне разобраться, что такое нейросети, но похоже это вам надо сделать самим. Вы сейчас этими словами сказали, что просто даже терминологии не понимаете.

Адаптивный алгоритм - это что угодно, меняющееся в зависимости от входных данных. Метод Ньютона поиска минимума функции с изменением шага - адаптивный алгоритм. И алгоритм потокового сжатия Хаффмана - тоже адаптивный по своей конструкции. Поэтому я и сказал, что слова «адаптивный алгоритм» не говорят ни о чем сами по себе.

Нейросети - это совершенно определенный класс алгоритмов. Между прочим, как это ни покажется удивительным, возник еще в 1943-м году. С тех пор, конечно сильно изменился и оброс подробностями и улучшениями.

Математически обучение нейросети - это фактически поиск глобального минимума функции потерь, обычно называемой на сленге лоссом.

L(w) = Y - Ys, где Y - истинные значения, а Ys - результат многопараметрической функции Ф(X), X,Y - данные на которых «обучают» нейросеть. w - параметры ф-ции Ф.

Многопараметрической - это примерно от сотен тысяч параметров для демонстрации чего-то полезного до миллионов и миллиардов. Слышал, что сеть ChatGPT 4 содержит более 700 миллиардов параметров. Обучение ChatGPT - это поиск минимума функции с 700 миллиардами параметров. Сама возможность таких поисков основана на теореме Новикова о разделении пространства гиперплоскостью.

Теперь по поводу глубокого обучения. Практические нейросети, если совсем на пальцах, то обычно можно представить как последовательность вложеных функций Ф = Ф1(Ф2(Ф3(Ф4....)))) где каждая из Фi - это и есть слой нейросети, состоящий из линейного элемента W и т.н. функции активации - нелинейной. Нейросеть из одних линейных функций смысла бы не имела, вернее она сводилась бы к одной матрице.

Т.е. Фi(X) = активация ([Wi x X] ). W - это матрица. Активация может быть в принципе что угодно нелинейное, например сигмоида 1/(1+e^-x) или max (0,x) , которая обрубает до нуля все отрицательные значения.

(на самом деле чуть сложнее, слой нейросети - это объединение отдельных «нейронов», которые и состоят из [W x X] и еще некоторые тонкости, сверточные слои - это немного другое и тп)

Так вот поиск элементов внутренних слоев - это и есть глубокое обучение. Просто ML обучение - это поиск одной такой функции. Термин такой.

И где здесь хайп и причем тут просто «адаптивный алгоритм»?

В принципе, любой алгоритм можно считать этакой глобальной функцией, а программирование поиском ее выражения. Нейросети позволяют можно сказать, что автоматизировать такой процесс.

Да какая разница кого или что опознавать. Автоматическое распознавание целей в радиолокации началось еще с транзисторных эвм. Естественно, что по мере расширения памяти и скорости на много порядков стало возможным писать другой софт и распознавать все гораздо точнее

Вы смешиваете задачи и алгоритмы их решения. Задачи распознавания целей ставились давно. Алгоритмы были разными. Сейчас нейросети предлагают качественно иной подход. Весь смысл в том, что качественно иной, позволяющий достигать ранее недостижимых показателей качества.

Информация гайки не крутит

Информация управляет исполнительными механизмами, которые крутят.

ее на управление манипуляторами роботов

Для этого достаточно килобайтной программки и исполнительного механизма

Успехов с килобайтной программкой написать робота-сантехника, например. Вы просто не поняли о чем я. Не о роботах на сборочных конвеерах, а о роботах, способных крутить гайки в индивидуально-сложных условиях. Например, у вас под раковиной на кухне. Без нейросетей за такую задачу нечего и браться.

Исправление praseodim, :

Они говорят о том, что подобное «обучение» существует чуть ли не с появления программирования, и только сейчас все это начали называть «глубоким обучением», «нейросетями», «ИИ» и тому подобными вызвающими непроизвольное уважение словами.

Вы посоветовали мне разобраться, что такое нейросети, но похоже это вам надо сделать самим. Вы сейчас этими словами сказали, что просто даже терминологии не понимаете.

Адаптивный алгоритм - это что угодно, меняющееся в зависимости от входных данных. Метод Ньютона поиска минимума функции с изменением шага - адаптивный алгоритм. И алгоритм потокового сжатия Хаффмана - тоже адаптивный по своей конструкции. Поэтому я и сказал, что слова «адаптивный алгоритм» не говорят ни о чем сами по себе.

Нейросети - это совершенно определенный класс алгоритмов. Между прочим, как это ни покажется удивительным, возник еще в 1943-м году. С тех пор, конечно сильно изменился и оброс подробностями и улучшениями.

Математически обучение нейросети - это фактически поиск глобального минимума функции потерь, обычно называемой на сленге лоссом.

L(w) = Y - Ys, где Y - истинные значения, а Ys - результат многопараметрической функции Ф(X), X,Y - данные на которых «обучают» нейросеть. w - параметры ф-ции Ф.

Многопараметрической - это примерно от сотен тысяч параметров для демонстрации чего-то полезного до миллионов и миллиардов. Слышал, что сеть ChatGPT 4 содержит более 700 миллиардов параметров. Обучение ChatGPT - это поиск минимума функции с 700 миллиардами параметров. Сама возможность таких поисков основана на теореме Новикова о разделении пространства гиперплоскостью.

Теперь по поводу глубокого обучения. Практические нейросети, если совсем на пальцах, то обычно можно представить как последовательность вложеных функций Ф = Ф1(Ф2(Ф3(Ф4....)))) где каждая из Фi - это и есть слой нейросети, состоящий из линейного элемента W и т.н. функции активации - нелинейной. Нейросеть из одних линейных функций смысла бы не имела, вернее она сводилась бы к одной матрице. (на самом деле чуть сложнее, слой нейросети - это объединение отдельных «нейронов», которые и состоят из [W x X] и еще некоторые тонкости, сверточные слои - это немного другое и тп)

Т.е. Фi(X) = активация ([Wi x X] ). W - это матрица. Активация может быть в принципе что угодно нелинейное, например сигмоида 1/(1+e^-x) или max (0,x) , которая обрубает до нуля все отрицательные значения.

Так вот поиск элементов внутренних слоев - это и есть глубокое обучение. Просто ML обучение - это поиск одной такой функции. Термин такой.

И где здесь хайп и причем тут просто «адаптивный алгоритм»?

В принципе, любой алгоритм можно считать этакой глобальной функцией, а программирование поиском ее выражения. Нейросети позволяют можно сказать, что автоматизировать такой процесс.

Да какая разница кого или что опознавать. Автоматическое распознавание целей в радиолокации началось еще с транзисторных эвм. Естественно, что по мере расширения памяти и скорости на много порядков стало возможным писать другой софт и распознавать все гораздо точнее

Вы смешиваете задачи и алгоритмы их решения. Задачи распознавания целей ставились давно. Алгоритмы были разными. Сейчас нейросети предлагают качественно иной подход. Весь смысл в том, что качественно иной, позволяющий достигать ранее недостижимых показателей качества.

Информация гайки не крутит

Информация управляет исполнительными механизмами, которые крутят.

ее на управление манипуляторами роботов

Для этого достаточно килобайтной программки и исполнительного механизма

Успехов с килобайтной программкой написать робота-сантехника, например. Вы просто не поняли о чем я. Не о роботах на сборочных конвеерах, а о роботах, способных крутить гайки в индивидуально-сложных условиях. Например, у вас под раковиной на кухне. Без нейросетей за такую задачу нечего и браться.

Исходная версия praseodim, :

Они говорят о том, что подобное «обучение» существует чуть ли не с появления программирования, и только сейчас все это начали называть «глубоким обучением», «нейросетями», «ИИ» и тому подобными вызвающими непроизвольное уважение словами.

Вы посоветовали мне разобраться, что такое нейросети, но похоже это вам надо сделать самим. Вы сейчас этими словами сказали, что просто даже терминологии не понимаете.

Адаптивный алгоритм - это что угодно, меняющееся в зависимости от входных данных. Метод Ньютона поиска минимума функции с изменением шага - адаптивный алгоритм. И алгоритм потокового сжатия Хаффмана - тоже адаптивный по своей конструкции. Поэтому я и сказал, что слова «адаптивный алгоритм» не говорят ни о чем сами по себе.

Нейросети - это совершенно определенный класс алгоритмов. Между прочим, как это ни покажется удивительным, возник еще в 1943-м году. С тех пор, конечно сильно изменился и оброс подробностями и улучшениями.

Математически обучение нейросети - это фактически поиск глобального минимума функции потерь, обычно называемой на сленге лоссом.

L(w) = Y - Ys, где Y - истинные значения, а Ys - результат многопараметрической функции Ф(X), X,Y - данные на которых «обучают» нейросеть. w - параметры ф-ции Ф.

Многопараметрической - это примерно от сотен тысяч параметров для демонстрации чего-то полезного до миллионов и миллиардов. Слышал, что сеть ChatGPT 4 содержит более 700 миллиардов параметров. Обучение ChatGPT - это поиск минимума функции с 700 миллиардами параметров. Сама возможность таких поисков основана на теореме Новикова о разделении пространства гиперплоскостью.

Теперь по поводу глубокого обучения. Практические нейросети, если совсем на пальцах, то обычно можно представить как последовательность вложеных функций Ф = Ф1(Ф2(Ф3(Ф4....)))) где каждая из Фi - это и есть слой нейросети, состоящий из линейного элемента W и т.н. функции активации - нелинейной. Нейросеть из одних линейных функций смысла бы не имела, вернее она сводилась бы к одной матрице.

Т.е. Фi(X) = активация ([Wi x X] ). W - это матрица. Активация может быть в принципе что угодно нелинейное, например сигмоида 1/(1+e^-x) или max (0,x) , которая обрубает до нуля все отрицательные значения.

Так вот поиск элементов внутренних слоев - это и есть глубокое обучение. Просто ML обучение - это поиск одной такой функции. Термин такой.

И где здесь хайп и причем тут просто «адаптивный алгоритм»?

В принципе, любой алгоритм можно считать этакой глобальной функцией, а программирование поиском ее выражения. Нейросети позволяют можно сказать, что автоматизировать такой процесс.

Да какая разница кого или что опознавать. Автоматическое распознавание целей в радиолокации началось еще с транзисторных эвм. Естественно, что по мере расширения памяти и скорости на много порядков стало возможным писать другой софт и распознавать все гораздо точнее

Вы смешиваете задачи и алгоритмы их решения. Задачи распознавания целей ставились давно. Алгоритмы были разными. Сейчас нейросети предлагают качественно иной подход. Весь смысл в том, что качественно иной, позволяющий достигать ранее недостижимых показателей качества.

Информация гайки не крутит

Информация управляет исполнительными механизмами, которые крутят.

ее на управление манипуляторами роботов

Для этого достаточно килобайтной программки и исполнительного механизма

Успехов с килобайтной программкой написать робота-сантехника, например. Вы просто не поняли о чем я. Не о роботах на сборочных конвеерах, а о роботах, способных крутить гайки в индивидуально-сложных условиях. Например, у вас под раковиной на кухне. Без нейросетей за такую задачу нечего и браться.