Ну, то есть я не умею. Решил тут проверить степень подплинтусности моих познаний в основах ML. Поглядываю курс на Courserа. Пока самое начало - линейная регрессия. Тут лекция - https://www.coursera.org/learn/machine-learning/lecture/Z9DKX/gradient-descen... .
И чего-то я туплю. Вот ссылка на кусок скрина «теста» - http://i.imgur.com/hvQGJhv.png . Чего-то я не понимаю в первом варианте. В x-векторы, в theta - вектор. В y - числа. Но как получается theta x_i = sum_{j=0}^N {theta_j x_j} ?