Временная составляющая - это реккурентные сети. Новизна и важность сама может появится в ходе обучения если она понадобится. Ограничение основного сигнала, это про что? Есть l1, l2 norm, batch normalization.
я про то и говорю, что на простом нейроне и простом сигнале строят интересные вещи. Но их можно и внутрь узла встроить. Нейрон будет уже не такой простой, но более умный, их нужно будет меньше, можно больше контролировать процессы в сети, создавать динамические по размеру слои. Чтобы не лепить N нейронов, "авось хватит", а чтоб сеть сама добавляла нужные нейроны в тех местах, где не справляется. По тем же сигналам новизны, например.