LINUX.ORG.RU

Как научить нейронную сеть экстраполировать

 , , ,


0

3

Доброго времени суток. Есть набор векторов со значениями, например

[1,2,3,4,2,1,2]
[3,9,5,2,1,1,1]
[3,2,2,0,2,1,1]
...
[6,7,3,5,2,0,0]
Можно ли научить нейронную сеть тренду изменения компонент, чтобы на выходе получить что-то похожее?

Я пробовал учить парами, последовательно. X - текущий вектор, Y - следующий. Но если прогнозировать десяток таких векторов, то точность получается около 10 процентов. Вообще, точность прогноза одного следующего вектора либо 1, либо 0. Что я делаю не так? Может, оценивать точность таким образом некорректно для такого решения?

ЗЫ: У меня сеть прямого распространения, с одним скрытым слоем с 10 нейронами. Рекуррентную сеть таким методом обучить не получается вообще: на выходе вектор из nan...



Последнее исправление: Rot1 (всего исправлений: 4)

Единственный адекватный коммент в этой теме - от анонимуса.

ei-grad ★★★★★
()
Ответ на: комментарий от glibych

Это очевидно. Я получил неплохие результаты на линейной модели, основанной на методе лассо с методом наименьших углов. Коэффициент регуляризации оказался полезен. Нужно было получить результат еще и с использованием нейронной сети. Он оказался на сотые точнее.

Rot1
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.