Вырвано из контекста:
Если ключевые образы набора имеют вид xj = x0 + v, где v - некоторый стохастический вектор, то, вероятнее всего, память распознает вектор x0 и ассоциирует его с вектором y0, а не с вектором из фактического множества образов, использованных в процессе обучения. Здесь x0 и y0 - никогда ранее не виденная пара сигналов.
из текста следует, что x0 - константа, содержащаяся в каждом входном векторе при обучении. Тогда, если после обучения подать на вход x0+v', мы получим ответ фактически на x0, то есть составляющая v в ключе учитывается намного слабее чем x0. Так? Почему?
Я думал, что если x0 - константа, содержащаяся во всех входных наборах при обучении, то (если считать, что после обучения на вход подают сигналы x0+v') это будет равносильно следующему - обучать входными наборами xj = (x0 + v) - x0 = v, после обучения подать на вход v'. То есть x0 ни на что не влияет при выборке по ключу, так как по сути является просто точкой отсчета для обучения, как несущая частота, на которую накладывают сигнал.