Ecole d’été STIC 2008 Sousse, 14 - 18 juillet 2008 ****************************************************** Programme du Thème 2 : ****************************************************** Cours 2.1 : du lundi 14 au Jeudi 17/07/2008 Apprentissage et traitement de données numériques Conférenciers : Frederic Alexandre [email protected] Hervé Frezza Buet [email protected] Laurent Bougrain [email protected] ---------------------------------------Cours : L'inférence inductive sur des données numériques Nous commencerons par situer le cours en présentant les différentes formes d'apprentissage automatique (inférence inductive, déductive, abductive, apprentissage par coeur), les tâches à apprendre (segmentation, visualisation, compression, régression, discrimination, association) et les méthodes de modélisation (apprentissage non supervisé, supervisé, apprentissage par renforcement, classification à une classe). Cours : Le processus d'extraction de connaissance Les méthodes d'apprentissage automatique ne constituent qu'une étape du processus d'extraction de connaissance. La phase en amont de préparation des données (sélection, transformations, recodages) et en aval d'analyse des résultats (matrice de confusion, intervalle de confiance, faux positifs) seront détaillées. Cours : Performances en généralisation Le modèle obtenu à partir d'un échantillon de données est-il valable pour de nouvelles données ? Nous aborderons des notions théoriques de l'apprentissage statistique (risque réel, risque empirique, biais ou décomposition biais-variance, principes de minimisation du risque empirique, bornes) et des techniques pratiques pour évaluer et améliorer les performances en généralisation (validation croisée, Monte-Carlo, régularisation) cours : Modèles linaires Nous commencerons notre présentation des méthodes de modélisation par des méthodes linéaires (classifieur naïf de Bayes, Algorithme de Ho-Kashap, séparation linéaire, descente de gradient) cours : Arbres de décision (pour la discrimination ou la régression) ------------------------------------------------Cours : Les méthodes de quantification vectorielle principe (mesure de distorsion etc.), cellules de Voronoï, diagramme de Delaunay. Algorithme de Llyod, des centres mobiles. Notion de conservation de topologie : Cartes autoorganisatrices de Kohonen, neural gas, growing neural gas. TP : Les réseaux connexionnistes supervisés --------------------------Cours : Les réseaux connexionnistes supervisés Réseaux à couches: Learning Vector Quantization (LVQ), Radial Basis Functions (RBF), Multi-Layer Perceptron (MLP) et rétropropagation du gradient. TP : Les réseaux connexionnistes supervisés --------------------------Cours : Les méthodes à noyaux Séparateurs à vaste marge, approche Lagrangienne, Kernel Trick. Exemples de noyaux pour le texte, présentations d'autres SVM (régression, smallest enclosing sphere). TP : Les méthodes à noyaux --------------------------Cours : Combinaison de modèles (parallèle ou incrémentale, bagging, boosting, arcing, adaboost, neural ensemble) Cours : Sélection de variables (avec ou sans modèle, filtrage, élagage). TP : synthèse (méthodes et outils logiciels) Cours 2.2 : Vendredi 18/07/2008 Systèmes Multi-agents et traitement des données numériques Conférenciers : Lilia RJEB ZAOUALI (TIM – ISSATSo) : [email protected] Cours : Fondements des SMA Apprentissage dans les SMA Les plateformes-SMA Les domaines d'application des SMA Travaux pratiques et démonstrations Création et conception d'un SMA Applications réelles * Segmentation volumique d'images * Classification des états de vigilance * Modélisation comportementale