Article (Périodiques scientifiques)
Warming up recurrent neural networks to maximise reachable multistability greatly improves learning
Lambrechts, Gaspard; De Geeter, Florent; Vecoven, Nicolas et al.
2023In Neural Networks, 166, p. 645-669
Peer reviewed vérifié par ORBi
 

Documents


Texte intégral
1-s2.0-S0893608023003817-main.pdf
Postprint Éditeur (3.19 MB)
Télécharger

Tous les documents dans ORBi sont protégés par une licence d'utilisation.

Envoyer vers



Détails



Mots-clés :
Recurrent neural network; Multistability; Initialisation procedure; Long-term memory; Warmup; Long time dependencies
Résumé :
[en] Training recurrent neural networks is known to be difficult when time dependencies become long. In this work, we show that most standard cells only have one stable equilibrium at initialisation, and that learning on tasks with long time dependencies generally occurs once the number of network stable equilibria increases; a property known as multistability. Multistability is often not easily attained by initially monostable networks, making learning of long time dependencies between inputs and outputs difficult. This insight leads to the design of a novel way to initialise any recurrent cell connectivity through a procedure called “warmup” to improve its capability to learn arbitrarily long time dependencies. This initialisation procedure is designed to maximise network reachable multistability, i.e., the number of equilibria within the network that can be reached through relevant input trajectories, in few gradient steps. We show on several information restitution, sequence classification, and reinforcement learning benchmarks that warming up greatly improves learning speed and performance, for multiple recurrent cells, but sometimes impedes precision. We therefore introduce a double-layer architecture initialised with a partial warmup that is shown to greatly improve learning of long time dependencies while maintaining high levels of precision. This approach provides a general framework for improving learning abilities of any recurrent cell when long time dependencies are present. We also show empirically that other initialisation and pretraining procedures from the literature implicitly foster reachable multistability of recurrent cells.
Disciplines :
Sciences informatiques
Auteur, co-auteur :
Lambrechts, Gaspard  ;  Université de Liège - ULiège > Montefiore Institute of Electrical Engineering and Computer Science
De Geeter, Florent   ;  Université de Liège - ULiège > Département d'électricité, électronique et informatique (Institut Montefiore) > Systèmes et modélisation
Vecoven, Nicolas 
Ernst, Damien  ;  Université de Liège - ULiège > Montefiore Institute of Electrical Engineering and Computer Science
Drion, Guillaume ;  Université de Liège - ULiège > Montefiore Institute of Electrical Engineering and Computer Science
 Ces auteurs ont contribué de façon équivalente à la publication.
Langue du document :
Anglais
Titre :
Warming up recurrent neural networks to maximise reachable multistability greatly improves learning
Date de publication/diffusion :
août 2023
Titre du périodique :
Neural Networks
ISSN :
0893-6080
eISSN :
1879-2782
Maison d'édition :
Elsevier, Royaume-Uni
Volume/Tome :
166
Pagination :
645-669
Peer reviewed :
Peer reviewed vérifié par ORBi
Tags :
CÉCI : Consortium des Équipements de Calcul Intensif
Tier-1 supercalculateur
Organisme subsidiant :
F.R.S.-FNRS - Fund for Scientific Research
Disponible sur ORBi :
depuis le 03 juin 2021

Statistiques


Nombre de vues
783 (dont 134 ULiège)
Nombre de téléchargements
334 (dont 41 ULiège)

citations Scopus®
 
3
citations Scopus®
sans auto-citations
3
OpenCitations
 
0
citations OpenAlex
 
2

Bibliographie


Publications similaires



Contacter ORBi