LINUX.ORG.RU
Ответ на: комментарий от unanimous

Ох блин. Ты так убедительно называешь меня идиотом, что я почти поверил. МНК - это просто название. Он позволяет решить именно то, что требуется - аппроксимировать линейно набор точек, а расстояние считать как угодно. На, двоечник, читай.

SOmni ★★
()
Ответ на: комментарий от SOmni

Лучше говорить «метод наименьших отклонений», тогда можно сюда и МНК приплести, и метод наименьшего модуля, и т.д., и т.п.

Eddy_Em ☆☆☆☆☆
()
Ответ на: комментарий от SOmni

Сделай милость, выпиши на листочке задачу, которую нужно оптимизировать и убедись, что никакими квадратами там не пахнет.

unanimous ★★★★★
()
Ответ на: комментарий от unanimous

> убедись, что никакими квадратами там не пахнет
Серьёзно? Может лучше ты напишешь формулу вычисления расстояния между двумя точками - то, что нужно оптимизировать, - а потом подумаешь, нужно ли делать лишний раз sqrt?

Сделай милость

Сделай вдоль.

SOmni ★★
()
Ответ на: комментарий от unanimous

А лучше спроси у своего преподавателя математики, потом расскажешь. А то я аж что-то засомневался.

SOmni ★★
()
Ответ на: комментарий от SOmni

Хорошо, для дебилов выписываю решение:

Расстояниие от точки (x_i,y_i) до прямой Ax+BY+C

di = |A*x_i + B*x_i +C|/sqrt(A^2+B^2)

минимизуем сумму L = \sum_{i=1}^N d_i = 1/sqrt(A^2 + B^2) \sum |A*x_i + B*x_i +C|-> extr

ГДЕ ЗДЕСЬ МНК?

Понарегалось школьников, блин.

unanimous ★★★★★
()
Ответ на: комментарий от unanimous

Расстояние от точки до прямой, конечно же, а не между двумя точками, моя ошибка.
Но это неважно. МНК ищет минималное отклонение. Из того, что у тебя получилось убираем модуль - это будет «отклонение» (так?). Переходим к МНК при возведении этого дела в квадрат. Теперь ждём ТС, чтобы понять, что ему было надо.

SOmni ★★
()
Ответ на: комментарий от SOmni

> Из того, что у тебя получилось убираем модуль - это будет «отклонение» (так?)

Нет, не так. Модель убирать нельзя, потому что расстояние — неотрицательная величина.

МНК ищет минималное отклонение.

МНК минимизует квадрат отклонения, как ясно из его названия. Для множества экспериментальных точек (x_i, y_i) процедура МНК ищет такую функцию f(x) из заданного класса (например, линейную f(x) = a*x+b), которая минимизует следующую форму

\sim_{i=1}^n (y_i - f(x_i))^2 -> extr

Как видно, это НЕ та же самая задача, что найти

\sim_{i=1}^n |(y_i - f(x_i)| -> extr

потому что корень из суммы квадратов не равен сумме модулей за исключением случая одной точки.

unanimous ★★★★★
()
Ответ на: комментарий от SOmni

Черт его знает, как это по-русски. Я привык к англоязычным статьям. Там это называется LAD. Кстати, аппроксимацию лучше строить, минимизируя медиану отклонения, а не ее абсолютную или среднюю величину. Но это уже не аналитическая задача.

Eddy_Em ☆☆☆☆☆
()
Ответ на: комментарий от Eddy_Em

Это не совсем то.

LAD ищет минимум суммы отклонений от точки до прямой (в графической интерпритации параллельно оси Y).

По сути МНК упрощение LAD. LAD ищет минимум суммы ошибок, а МНК - минимум суммы квадратов ошибок

В задаче ТС требуется минимизировать сумму расстояний от точек (нормалей к искомой прямой).

kombrig ★★★
()
Ответ на: комментарий от SOmni

>Расстояние от точки до прямой, конечно же, а не между двумя точками, моя ошибка. Но это неважно. МНК ищет минималное отклонение. Из того, что у тебя получилось убираем модуль - это будет «отклонение» (так?). Переходим к МНК при возведении этого дела в квадрат. Теперь ждём ТС, чтобы понять, что ему было надо.

Спасибо, SOmni, за драму! Такого упертого тупого двоечника я давно на ЛОРе не встречал.

Жаль, что ты после 5 постов сдулся :)

dikiy ★★☆☆☆
()
Ответ на: комментарий от dikiy

Ну ошибся чуток. Не люблю, когда на меня сходу нападают, могу становиться неадекватен. Вежливости тут нехватает.

SOmni ★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.