!Ъ: https://deepmind.com/blog/enabling-continual-learning-in-neural-networks/
Ъ: В Deepmind научились обучать нейронные сети на нескольких задачах, использовав в качестве основы феномен synaptic consolidation. Тем самым знания, накопленные в ходе предыдущих тренировок, могут использоваться для обучения на новых задачах. Проблема долговременной памяти еще не решена, но первые успехи во многом перекликаются с работой тех же Deepmind (https://deepmind.com/blog/differentiable-neural-computers/), демонстрирующей использование внешней памяти для хранения информации.