
4.1.4 Couchedepooling .................................... 33
4.1.5 Perceptron ........................................ 35
4.1.6 Quelques réseaux convolutifs célèbres . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2 Réseaudeneuronesrécurrents.................................. 36
4.2.1 C’est quoi un Recurrent Neural Network (RNN) ? . . . . . . . . . . . . . . . . . . . 36
4.2.2 Apprentissage....................................... 37
4.2.3 Application........................................ 39
4.3 deepgenerativemodel ...................................... 39
5 Optimisation pour l’apprentissage en Deep Learning 39
5.1 Les variantes de la descente de gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.1.1 Batchgradientdescent.................................. 40
5.1.2 Descente de gradient stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.1.3 Mini-batch gradient descent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.2 Algorithmes d’optimisation de la descente de gradient . . . . . . . . . . . . . . . . . . . . 41
5.2.1 Momentum ........................................ 41
5.2.2 Nesterov accelerated gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.2.3 Adagrad.......................................... 42
5.2.4 RMSprop ......................................... 43
5.2.5 Adamoptimizer ..................................... 43
5.3 Lesméthodesdusecondordre.................................. 44
5.4 Les limites théoriques de l’optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
6 Les fonctions d’activation 45
6.1 Caractéristiques.......................................... 45
6.2 Quelque fonction d’activation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.2.1 Rectified Linear Units et leur généralisations . . . . . . . . . . . . . . . . . . . . . 45
6.2.2 Sigmoïde et tangente hyperbolique . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
7 Conclusion 47
IV Contribution 47
1 Introduction 49
2 Problématique étudié 49
3 Présentation des outils 49
3.1 Lesoftware ............................................ 49
3.1.1 Theano .......................................... 49
3.1.2 TensorFlow........................................ 50
3.1.3 Keras ........................................... 50
3.1.4 PyTorch.......................................... 50
3.1.5 Autresframeworks.................................... 50
3.2 Lehardware............................................ 51
4 Quelques notions 51
5 Architecture 53
6 initialisation des paramètres 54
6.1 Glorotinitialization ....................................... 54
6.1.1 Comment? ........................................ 54
7 L’apprentissage 55
7.0.1 Discussion......................................... 55
4