principe de la résolution numérique des équations différentielles par discrétisation, les limites
actuelles du Deep Learning et enfin l’apport des PINNs et leurs applications potentielles.
L’article de référence sur les PINNs «Physics-informed neural networks: A deep learning framework
for solving forward and inverse problems involving nonlinear partial differential equations » de
Maziar Raissi, Paris Perdikaris, et George Em Karniadakis (travaux financés par la DARPA / USA) est
paru dans la revue Journal of Computational Physics en février 2019. Cet article détaille le principe
et les applications potentielles de cette nouvelle architecture de réseaux de neurones.
Les réseaux de neurones traditionnels donnent de très bons résultats. Cependant, ils présentent
plusieurs limitations : solutions multiples possibles, non prise en compte de la réalité des
phénomènes physiques et data set d’apprentissage de taille importante. En effet, les réseaux de
neurones étant stochastiques, d’un apprentissage à un autre, les résultats peuvent être différents,
ce qui peut être gênant. De plus, les réseaux traditionnels ne tiennent pas compte des phénomènes
physiques. Si cela n’est pas problématique en marketing ou en analyse de comportement (réseaux
sociaux, …) ou aucune loi physique n’est réellement pertinente, cela l’est davantage dans les
sciences de l’ingénieur où la prédiction peut s’éloigner sensiblement de la réalité physique. Enfin, le
réseau de neurones, pour être entrainé et donner des réponses sensées doit bénéficier d’un grand
nombre de données en phase d’apprentissage.
Une équation différentielle
traduit un phénomène physique
selon une équation
mathématique. Les équations
différentielles ont été théorisées
à la fin du 17 et résolues
progressivement au début du
18 siècle et au 19 siècle
pour les plus complexes. Elles
mettent en œuvre
généralement des variables
(position, vitesse, pression,
température, …) évoluant dans
ième
ième ième