Есть желание распаралелить обучения сети. Сейчас код приблизительно такого вида:
итерация(Набор_тренировочных_данных) {
подготовка
для каждого вектора x из Набор_тренировочных_данных {
установить x как вход;
посчитать ошибку сети, обновить веса
}
}
Возможно есть другие варианты?
cast observer
//UPD:
или лучше параллельно обновлять веса для каждого нейрона слоя: