LINUX.ORG.RU
решено ФорумTalks

Ещё один не умеет в математику

 ,


1

1

Ну, то есть я не умею. Решил тут проверить степень подплинтусности моих познаний в основах ML. Поглядываю курс на Courserа. Пока самое начало - линейная регрессия. Тут лекция - https://www.coursera.org/learn/machine-learning/lecture/Z9DKX/gradient-descen... .

И чего-то я туплю. Вот ссылка на кусок скрина «теста» - http://i.imgur.com/hvQGJhv.png . Чего-то я не понимаю в первом варианте. В x-векторы, в theta - вектор. В y - числа. Но как получается theta x_i = sum_{j=0}^N {theta_j x_j} ?

Там транспонированный вектор. ^T. Вектор-строка умноженная на вектор = скаляр. Все нормально. Во второй формуле просто расписали это умножение (скалярное умножение векторов).

soomrack ★★★★★
()
Ответ на: комментарий от aedeph_

И то верно. Я, разумеется - говорил о отдельных компонентах. Впрочем, здесь мы оперируем именно отдельным вектором. И в итоге я таки не понимаю, как мы получаем это равенство.

alex4321
() автор топика
Ответ на: комментарий от soomrack

Вот, об этом забыл. Всем спасибо, я таки невнимательный дурак.

alex4321
() автор топика
Ответ на: комментарий от Solace

Да не, уже указали, в каком месте я дебил :-)

alex4321
() автор топика

И какой смысл в этой формуле? Гораздо интереснее каким образом её выводили, как к ней пришли, а таких курсов я не видел. Только зазубри формулы и на галеры... В универе примерно также было, так что я - сабж, хоть и интересно.

foror ★★★★★
()
Ответ на: комментарий от Deleted

Подойдём с другой стороны - а почему нет? :-)

alex4321
() автор топика
Ответ на: комментарий от foror

Ну mean squared error обычное же. Получаем разность между правильными ответами и подсчитанными. Так как интересует нас «усредненное» для всей выборки значение - собственно, усредняем. Ну и оквадрачиваем, чтобы избавиться от знака.

Вот почему не другая функция потерь - это уже вопрос получше :-)

alex4321
() автор топика
Ответ на: комментарий от alex4321

Хм, а не совсем обычный ведь. Коофициент в 1/2 нарисовался. Пересмотрю-ка я опять - может пойму откуда и зачем.

Хотя суть формулы тут вроде мало изменится. Если не прав - бейте тапками :-)

alex4321
() автор топика
Ответ на: комментарий от alex4321

Коэффициент 1/2 в таких формулах обычно для отсутствия коэффициентов в производной. Этакое подобие энергии/действия.

nezamudich ★★
()
Ответ на: комментарий от foror

Потому что для таких целей существуют книги.

Solace ★★
()
Ответ на: комментарий от foror

И какой смысл в этой формуле? Гораздо интереснее каким образом её выводили, как к ней пришли, а таких курсов я не видел. Только зазубри формулы и на галеры... В универе примерно также было, так что я - сабж, хоть и интересно.

ну, никак ее не выводили. Это целевая функция, которую надо оптимизировать впоследствии. Среднеквадратичное отклонение это, вот.

dikiy ★★☆☆☆
()
Ответ на: комментарий от alex4321

И то верно. Я, разумеется - говорил о отдельных компонентах.
Впрочем, здесь мы оперируем именно отдельным вектором. И в итоге я таки не понимаю, как мы получаем это равенство.

что ты не понимаешь? Там же просто скалярное произведение в виде покомпонентной суммы расписано.

dikiy ★★☆☆☆
()
Ответ на: комментарий от dikiy

Тут уже ткнули носом в то, что слона я не приметил :-)

alex4321
() автор топика
Ответ на: комментарий от alex4321

Коофициент в 1/2 нарисовался. Пересмотрю-ка я опять - может пойму откуда и зачем.

Там вместо него можно подставить любую константу, точность результирующей гипотезы от этого никак не изменится. А 1/2 выбрали для того, чтобы избавиться от коэффицеиента 2 в производной.

theNamelessOne ★★★★★
()
Ответ на: комментарий от nezamudich

если ты про результирующую формулу, то да.

dikiy ★★☆☆☆
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.