Université Mohammed V Rabat École Nationale Superieur des Arts et Métiers Master Génie Electrique Rapport du mini projet Data Scientist Python Application : Reconnaissance des crises d’epilepsie par analyse des signaux EEG Elaboré par: Demandé par: Aizi achraf Dahdouh sami Sehnani Abderrahmane Année universitaire :2021 /2022 Mr.ZIDANE Table des matières Table des matières .................................................................................................................... 1 Table des figures ....................................................................................................................... 2 Introduction .............................................................................................................................. 3 I. Epilepsie ......................................................................................................................... 4 1. Introduction ................................................................................................................. 4 2. Crise d’épilepsie .......................................................................................................... 4 3. L’épilepsie et EEG ....................................................................................................... 5 4. Conclusion ................................................................................................................... 6 II. Machine learning ........................................................................................................... 7 1. Introduction ................................................................................................................. 7 2. Définition ..................................................................................................................... 7 3. L’utilité de l’apprentissage automatique ..................................................................... 7 4. Principe de fonctionnement de l’apprentissage automatique ...................................... 8 5. Approches de l'apprentissage automatique .................................................................. 8 6. Algorithmes d’apprentissage supervisé ..................................................................... 10 7. Conclusion ................................................................................................................. 13 III. Programme pas à pas .................................................................................................. 14 1. Introduction ............................................................................................................... 14 2. Importation des bibliothèques ................................................................................... 14 3. Charger et vérifier les données .................................................................................. 15 4. Analyse des données .................................................................................................. 15 5. Entrainement, test et résultat ..................................................................................... 18 6. Comparaison des résultats ......................................................................................... 22 7. Conclusion ................................................................................................................. 23 Conclusion ............................................................................................................................... 24 Webographie ........................................................................................................................... 25 1 Table des figures Figure 1: Cerveau d'un cas épilepsie ...................................................................................... 4 Figure 2: Méthode d'extraction d'un signal EEG ................................................................. 5 Figure 3: Les avantages de l’apprentissage automatique ..................................................... 7 Figure 4: Principe de fonctionnement de l’apprentissage. ................................................... 8 Figure 5: Différence entre apprentissage supervisé et non supervisé ................................. 9 Figure 6:Graphe de la régression linéaire simple ............................................................... 11 Figure 7: Graphe de la régression logistique ....................................................................... 11 Figure 8: Principe de fonctionnement du KNN ................................................................... 12 Figure 9: Graphe du SVM ..................................................................................................... 13 Figure 10: Importation des bibliothèques. ........................................................................... 14 Figure 11: Chargement des données..................................................................................... 15 Figure 12: traçage des signaux EEG. ................................................................................... 16 Figure 13: Exemples des signaux 'epileptic' et 'non epileptic'. .......................................... 16 Figure 14: Programme pour transformer les y>1 en 0. ...................................................... 16 Figure 15: Programme pour calculer les cas sains et les cas épileptique. ......................... 17 Figure 16: Histogramme présentant les cas sain (bleu) et les cas épileptique (orange). .. 17 Figure 17: Programme pour tracer l'intersection des points maximaux et minimaux de chaque signal. .......................................................................................................................... 18 Figure 18: Résultat du programme de la figure 9. .............................................................. 18 Figure 19: Séparation des données en données d'apprentissage et de test. ...................... 18 Figure 20: La sortie vraie des signaux de test. ..................................................................... 19 Figure 21: Taux d'adaptation du modèle LR. ..................................................................... 19 Figure 22: Résultat de prédiction en utilisant le modèle LR. ............................................. 19 Figure 23: La matrice de confusion (LR). ............................................................................ 20 Figure 24: Taux d'adaptation du modèle KNN. .................................................................. 20 Figure 25: Résultat de prédiction en utilisant le modèle KNN. ......................................... 20 Figure 26: La matrice de confusion (KNN).......................................................................... 21 Figure 27: Taux d'adaptation du le modèle SVC. ............................................................... 21 Figure 28: Résultat de prédiction en utilisant le modèle SVC. .......................................... 21 Figure 29: La matrice de confusion (SVC). ......................................................................... 22 Figure 30: Comparaison des taux d'adaptation. ................................................................. 22 2 Introduction La prédiction des crises d'épilepsie a toujours été extrêmement difficile dans le domaine médical. Cependant, au fur et à mesure du développement de la technologie informatique, l'application de l'apprentissage automatique a introduit de nouvelles idées pour la prévision des crises. L'application d'un modèle d'apprentissage automatique à la prédiction d'une crise d'épilepsie pourrait nous aider à obtenir un meilleur résultat et de nombreux scientifiques ont effectué de tels travaux afin qu'il y ait suffisamment de données médicales fournies aux chercheurs pour former des modèles d'apprentissage automatique. Dans nos recherches, nous avons appliqué des algorithmes d'apprentissage automatique traditionnels, tels que SVC, Logistic Regression et KNN (K Nearest Neighbors). L'accent de notre recherche est de comparer la précision de divers modèles. Le résultat de la recherche indique que l'apprentissage automatique peut faire de la prédiction des crises d'épilepsie une réalité réalisable. Cette prédiction peut aider les patients à réprimer la crise d'épilepsie avant que les symptômes ne se manifestent. Par conséquent, il permet un traitement à temps des patients, réduit la pression de travail pour le personnel médical et apporte un contrôle plus efficace pour l'épilepsie. Le but de ce travail est de distinguer le meilleur modèle et savoir si la base de données utilisée est suffisante pour bénéficier du travail en réalité ou bien elle nécessite encore des modifications, si oui, savoir quelle sont ces modifications. Dans ce cadre, notre travail sera composé de trois partie, d’emblé on va commencer par définir la crise d’épilepsie ainsi que le signal EEG qui représente l’activité du cerveau humain, en suite on passera à la définition de l’apprentissage automatique et on citera les modèles qu’on va utiliser. La dernière sera la programmation dans laquelle on va charger la base de données afin de tester les modèles et comparer les résultats. 3 I. Epilepsie 1. Introduction L’épilepsie est une maladie chronique caractérisée par la répétition de manifestations cliniques paroxystiques. Ces crises se traduisent par une modification brutale de la conscience et du comportement du malade. Elles sont la conséquence d’un dysfonctionnement cérébral généralisé ou localisé dû à une décharge électrique anormale. L’épilepsie peut être d’origine génétique ou lésionnelle. Toute les lésions cérébrales, tumeurs, dysplasie, infections, peuvent provoquer des crises d’épilepsie. 2. Crise d’épilepsie Une crise correspond à l'événement et à l'encombrement clinique primaire d'un état épileptique actif. Il pourrait être difficile de donner une spécification élaborée des phénomènes cliniques subjectifs et objectifs au cours d'une crise d'épilepsie, en raison du large éventail d'apparitions possibles. La façon dont la crise se présente dépend, entre autres, de la localisation de son apparition dans le cerveau, du cycle veille sommeil et de la maturité du cerveau. Lors d'une crise d'épilepsie, une décharge anormale d'un groupe de neurones à lieu. Pour les crises partielles, le point de départ de la crise est localisé dans un hémisphère cérébral. Dans le cas des crises généralisées, un plus grand nombre de cellules nerveuses est touché. Ces deux types de crises permettent de poser le diagnostic de la forme de l'épilepsie : épilepsie généralisée ou épilepsie focale (ou partielle). Figure 1: Cerveau d'un cas épilepsie 4 3. L’épilepsie et EEG Le diagnostic d'une épilepsie repose sur la répétition de crises, ainsi que sur leur nature et sur une série d'examens complémentaires pour en comprendre l'origine. Il permet également de définir si l'épilepsie est partielle ou généralisée, idiopathique ou symptomatique. a. EEG L'électroencéphalographie (EEG) est une technologie largement utilisée pour mesurer et surveiller l'activité du cerveau humain. Il s'agit d'une méthode de surveillance électrophysiologique non invasive, qui enregistre l'activité électrique du cerveau humain à l'aide de l'électrode placée le long du cuir chevelu. En raison des fluctuations de tension causées par les courants ioniques dans les neurones cérébraux, l'EEG peut mesurer l'activité du cortex cérébral. Il s'agit d'un affichage graphique de la différence de tension entre les deux côtés du cerveau au fil du temps. Il représente le ratio de mesure de l'activité. En conséquence, les données EEG présentées sous la forme d'une forme d'onde à séquence temporelle continue d'un signal de tension extrêmement petit ont toujours une amplitude microonde. Bien que l'enregistrement de la forme d'onde se fasse au niveau du cortex cérébral, il a été influencé par l'activité du sous-cortex profond. Figure 2: Méthode d'extraction d'un signal EEG 5 b. Détection de l'épilepsie par EEG L’analyse EEG permet de différencier les données épileptiques des données normales, et de distinguer les différentes phases d'une crise. En détectant les changements EEG précédant une crise, il est possible de prédire le début des crises d'épilepsie. Ce type de système de prédiction nécessite un système automatisé capable de distinguer clairement les stades normal, précritique et inter-critique. Le stade normal correspond aux données EEG d'une personne en bonne santé, le stade précritique fait référence aux changements EEG précédant une crise et le stade intercritique fait référence aux changements EEG pendant une crise. Pour ce système de détection, il y a deux considérations principales. La première considération est le type de caractéristiques à extraire du signal EEG, c'est-à-dire les techniques d'extraction de caractéristiques. La deuxième considération est le type de techniques d'analyse à utiliser sur les caractéristiques extraites pour détecter le stade, c'est-à-dire les techniques de classification. 4. Conclusion L’activité du cerveau humain est caractérisée par un signal appelé EEG, en analysant se signal nous pourrons prédire le début d’une crise d’épilepsie et savoir l’état actuel du cerveau, pour effectuer cette analyse d’une manière rapide on va faire recours au Machine Learing. 6 II. Machine learning 1. Introduction Sans aucun doute, l'apprentissage automatique est la technologie la plus demandée sur le marché actuel. Ce chapitre résume les modèles d'apprentissage automatique qui seront utilisés dans cette étude pour classer les données EEG. L'objectif commun des modèles est d'obtenir une grande précision et une faible latence dans la détection des crises. 2. Définition L’apprentissage automatique ou machine learning réside dans le fait de rassembler une large quantité d’exemples afin de déterminer les schémas sous-jacents pour ensuite les utiliser afin d’effectuer des pronostics concernant de nouveaux exemples. Des techniques d’apprentissage automatique sont essentielles pour que les pronostics de la machine soient les plus justes possibles. En effet, il y a de nombreuses approches qui changent selon la catégorie et la quantité de données. 3. L’utilité de l’apprentissage automatique Augmentation de la production de données : en raison d'une production excessive de données, nous avons besoin d'une méthode qui puisse être utilisée pour structurer, analyser et tirer des informations utiles à partir des données. C'est là qu'intervient le Machine Learning. Il utilise les données pour résoudre les problèmes et trouver des solutions aux tâches les plus complexes auxquelles sont confrontées les organisations. Améliorer la prise de décision : en utilisant divers algorithmes, l'apprentissage automatique peut être utilisé pour prendre de meilleures décisions commerciales. Par exemple, le Machine Learning permet de prévoir les ventes, de prévoir les baisses de marché boursier, d'identifier les risques et les anomalies, etc. Figure 3: Les avantages de l’apprentissage automatique 7 4. Principe de fonctionnement de l’apprentissage automatique En générale, l’apprentissage automatique se compose de 2 phases : Le première phase est la conception de système qu’on appelle aussi phase d’apprentissage ou d’entraînement est l’estimation d’un modèle à partir de l’analyse des données. Cela comprend une estimation d’une densité de probabilité ou la résolution d’une tâche pratique comme la traduction d’un discours. La seconde phase est une mise en production. Il est possible que des systèmes continuent leur apprentissage même en étant déjà en production. Après la détermination du modèle, on teste la seconde partie de données utile pour la réalisation de la tâche désirée. Figure 4: Principe de fonctionnement de l’apprentissage. 5. Approches de l'apprentissage automatique Des techniques d'apprentissage automatique sont nécessaires pour améliorer l'exactitude des modèles prédictifs. Selon la nature du problème métier traité, il existe différentes approches qui varient selon le type et le volume des données. Il existe plusieurs types d’apprentissage automatique, dans notre rapport nous avons cité que les types les plus utilisés. a. Apprentissage non supervisé L'apprentissage non supervisé est utilisé lorsque le problème nécessite une quantité massive de données non étiquetées. Par exemple, les applications de réseaux sociaux, telles que Twitter, Instagram et Snapchat, exploitent toutes de très grandes quantités de données non étiquetées. Pour comprendre le sens de ces données, il est nécessaire d'utiliser des algorithmes qui classifient les données en fonction des tendances ou des clusters qu'ils décèlent. L'apprentissage non supervisé mène un processus itératif, analysant les données sans intervention humaine. Il est utilisé avec la technologie de détection de spam envoyé par e-mail. Les e-mails normaux et les spams comportent un nombre de variables beaucoup trop élevé pour qu'un analyste puisse étiqueter les e-mails indésirables envoyés en masse. En revanche, les discriminants d'apprentissage automatique, basés sur la mise en cluster et l'association, sont appliqués pour identifier les courriers électroniques non désirés. 8 ▪ Des tâches de clustering Ici, on demande à la machine de grouper des objets dans des ensembles de données les plus homogènes possible. Cette technique peut sembler proche de celle de la classification dans l’apprentissage supervisé, mais à la différence de cette dernière, les classes ne sont pas préremplies par un humain, c’est la machine qui “invente” ses propres classes, à un niveau de finesse pas toujours évident pour un humain. Une technique très utile dans le marketing pour faire de la segmentation client notamment. ▪ Des tâches de filtrage collaboratif Ici l’objectif est toujours de personnaliser une expérience client. C’est une technique utilisée par de très nombreuses plateformes, telles que Netflix, Spotify, etc. Leurs algorithmes étudient ce que vous avez regardé, aimé, mais aussi ce que des profils similaires au vôtre ont apprécié, pour vous faire des recommandations automatiques. Le modèle s’appuie sur des facteurs implicites inconscients (ce que l’utilisateur a fait), plutôt que des facteurs explicites (des critères remplis par l’utilisateur). Ce genre d’outils est très utilisé dans le e‑commerce, pour proposer des produits qui pourraient intéresser le client. Amazon en est devenu spécialiste. b. Apprentissage supervisé Lorsqu’on apprend à faire du machine learning, on débute souvent par de l’apprentissage supervisé qui est beaucoup plus accessible. L’apprentissage supervisé consiste en l’entraînement d’une machine en utilisant des données labellisées. C’est-à-dire des données qui ont déjà été étiquetées avec le bon label (classe, valeur continue…). Cet apprentissage sur des données ayant déjà la ‘’réponse correcte’’ permet de prédire par la suite le label de données nouvelles non étiquetées. Figure 5: Différence entre apprentissage supervisé et non supervisé 9 Cette méthode permet de réaliser deux types de tâches : ▪ Des tâches de classification Ces tâches consistent à attribuer une classe à des objets. Par exemple, dans le milieu bancaire, on peut identifier si une transaction est frauduleuse ou non frauduleuse de manière automatique. On parle de détection d’anomalie. Dans l’industrie, on peut déterminer si oui ou non une machine est susceptible de tomber en panne. On associe une réponse prédéfinie (oui ou non, jaune, rouge, vert ou bleu) à un objet, avant de demander à l’algorithme de réaliser cette classification. Des tâches de régression ▪ Ici, on n’attribue pas une classe mais une valeur mathématique : un pourcentage ou une valeur absolue. Par exemple, une probabilité pour une machine de tomber en panne (15 %, 20 %, etc.) ou le prix de vente idéal d’un appartement en fonction de critères comme la surface, le quartier, etc. 6. Algorithmes d’apprentissage supervisé Afin de créer un apprentissage supervisé, on applique différents algorithmes, selon la méthode employée. Voilà quelque exemple des algorithmes d’apprentissage supervisé. a. Régression linéaire La régression linéaire est l’un des algorithmes d’apprentissage supervisé les plus populaires. Il est aussi simple et parmi les mieux compris en statistique et en apprentissage automatique. La régression linéaire est un type d’analyse prédictive de base. Le concept général de la régression est d’étudier deux questions : - Un ensemble de variables prédictives permet-il de prédire une variable de résultat ? Quelles sont les variables les plus significatives et ont le plus d’impact sur la variable de résultat ? On utilise ces estimations de régression pour expliquer les relations entre variable dépendante et une ou plusieurs variables indépendantes. La forme la plus simple de l’équation de régression avec une variable dépendante et une variable indépendante est définie par la formule y = c + b * x, avec y = variable dépendante estimé, c = constante, b = coefficient de régression et x = variable indépendante. On parle ici de Régression linéaire simple. Pour la régression linéaire multiple on écrira y = c + b * x1 +…+ n*xn avec x1 jusqu’à xn les variables indépendantes et b jusqu’à n les coefficients de régression respectifs des variables. 10 Figure 6:Graphe de la régression linéaire simple b. Régression logistique Les prédictions de régression linéaire sont des valeurs continues (températures en degrés), les prévisions de régression logistique sont des valeurs discrètes, c’est-à-dire un ensemble fini de valeurs (Vrai ou faux par exemple). La régression logistique convient mieux à la classification binaire. Par exemple, on peut considérer un ensemble de données où y = 0 ou 1, où 1 représente la classe par défaut. Pour illustrer on peut imaginer que l’on veuille prédire s’il pleuvra ou non. On aura 1 pour s’il pleut et 0 le cas contraire. Au contraire de la régression linéaire, la régression logistique, propose le résultat sous forme de probabilités de la classe par défaut. Le résultat appartient donc à l’intervalle [0 :1]. C’est-àdire qu’il est compris entre 0 et 1, vu qu’il s’agit d’une probabilité. La valeur y de sortie est générée par la transformation de la valeur x, à l’aide de la fonction logistique h (x) = 1 / (1 + e ^ -x). Un seuil est ensuite appliqué pour forcer cette probabilité dans une classification binaire. Figure 7: Graphe de la régression logistique 11 c. K-NN L’algorithme K-NN qui signifie k-voisins les plus proches utilise l’intégralité du data set en tant qu’entraînement, au lieu de diviser se dernier en un training et testing set. Quand un résultat est requis pour une nouvelle instance de données, l’algorithme KNN parcourt l’intégralité du data set pour rechercher les k-instances les plus proches de la nouvelle instance ou le nombre k d’instances les plus similaires au nouvel enregistrement, puis renvoie la moyenne des résultats ou le classe à laquelle appartient cette instance si c’est un problème de classification. L’utilisateur spécifie lui-même la valeur de k. Figure 8: Principe de fonctionnement du KNN d. SVM (Support Vector Machine ou Machine à vecteurs de support) : Les SVMs sont une famille d’algorithmes d‘apprentissage automatique qui permettent de résoudre des problèmes tant de classification que de régression ou de détection d’anomalie. Ils sont connus pour leurs solides garanties théoriques, leur grande flexibilité ainsi que leur simplicité d’utilisation même sans grande connaissance de data mining. Comme le montre la figure ci-dessous, leur principe est simple : ils ont pour but de séparer les données en classes à l’aide d’une frontière aussi « simple » que possible, de telle façon que la distance entre les différents groupes de données et la frontière qui les sépare soit maximale. 12 Cette distance est aussi appelée « marge » et les SVMs sont ainsi qualifiés de « séparateurs à vaste marge », les « vecteurs de support » étant les données les plus proches de la frontière. Figure 9: Graphe du SVM 7. Conclusion Afin d’analyser la base de données qui contienne les signaux EEG en utilisant l’apprentissage puis tester sur des nouvelles données, on a choisi de faire tester on se basant sur 3 modèles différents à savoir LR, K-NN et SVM, notre par la suite et de comparer leurs résultats au dessein de savoir le meilleur modèle pou notre base de données. 13 III. Programme pas à pas 1. Introduction Pour effectuer les tâches expliquées précédemment il faut traduire les étapes de l’apprentissage automatique en un programme contenant l’importation des bibliothèques, chargement de la base de données, entrainement et test en utilisant des modèles différents puis comparaison. 2. Importation des bibliothèques Dans cette première étape on a importé les bibliothèques dont on aura besoin par la suite. Figure 10: Importation des bibliothèques. ▪ Numpy NumPy (diminutif de Numerical Python) fournit une interface pour stocker et effectuer des opérations sur les données. D'une certaine manière, les tableaux Numpy sont comme les listes en Python, mais Numpy permet de rendre les opérations beaucoup plus efficaces, surtout sur les tableaux de large taille. ▪ Matplotlib Matplotlib est une bibliothèque Python open source permettant de créer des visualisations de données.La visualisation de données est une étape clé de l’analyse de données. Après avoir collecté, stocké et analysé des données, il est essentiel de transformer les résultats de ces analyses en rapports et en visualisations graphiques. ▪ Pandas Pandas est une bibliothèque open-source permettant la manipulation et l’analyse de données de manière simple et intuitive en Python. 14 ▪ Seaborn Seaborn est un outil de Data Visualization en langage Python. En plus de fournir un ensemble de fonctions permettant de tracer divers graphiques très complets, Seaborn fournit aussi un ensemble de thèmes, qui permettent de rendre les graphiques plus modernes, et ce de manière très simple. Il est possible de faire la même chose avec Matplotlib, mais il faut jouer avec beaucoup d’options liées à l’esthétique pour arriver au résultat que Seaborn fournit en choisissant juste un thème comme option. ▪ Scikit-learn Scikit-learn, encore appelé sklearn, est la bibliothèque la plus puissante pour le machine learning en Python. Elle fournit une sélection d’outils efficaces pour l’apprentissage automatique et la modélisation statistique, notamment la classification, la régression et le clustering via une interface cohérente en Python. 3. Charger et vérifier les données Après l’importation des bibliothèques, il faut charger les données. Figure 11: Chargement des données. 4. Analyse des données Notre base de données contient des X = [X1 X2 … X178] qui représente le signal EEG, et une sortie y correspondante à chaque X, y elle est soit égale à 1,2,3,4 ou bien 5. - Si y=1 : Il existe une activité épileptique - Si y=2 : Signal EEG enregistré à partir de la place ou il existe une tumeur. - Si y=3 : Signal EEG enregistré en évitant la place de la tumeur. - Si y=4 : Le patient avait les yeux fermés. - Si y=5 : Le patient avait les yeux ouverts. 15 Figure 12: traçage des signaux EEG. Figure 13: Exemples des signaux 'epileptic' et 'non epileptic'. Dans notre étude on s’intéresse aux signaux EEG qui représente l’existence d’une activité épileptique, pour cela on transformer notre sortie y en 0 (non epileptic) et 1 (epileptic) en utilisant les lignes suivantes : Figure 14: Programme pour transformer les y>1 en 0. Maintenant nous pourrons arriver à savoir combien de signal présentant un cas épileptique et combien de signal présentant un cas sain dans notre base de données. 16 Figure 15: Programme pour calculer les cas sains et les cas épileptique. Figure 16: Histogramme présentant les cas sain (bleu) et les cas épileptique (orange). Afin de savoir une idée sur la différence entre les cas épileptique et les cas sain on a choisi de présenter des points dans un graphe dans l’axe des abscisses présente le point maximal du signal et l’axe des ordonnées présente le point minimal du signal, ceci est fait en utilisant une fonction qui retourne le max et le min. 17 Figure 17: Programme pour tracer l'intersection des points maximaux et minimaux de chaque signal. Figure 18: Résultat du programme de la figure 9. 5. Entrainement, test et résultat Par la suite, on va diviser les données en deux partie, données d’apprentissage (training) et données de test afin de tester les modèles en utilisant le code suivant : Figure 19: Séparation des données en données d'apprentissage et de test. 18 Où x_tr contient les signaux EEG de ‘training’ et y_tr contient leur sorties, x_te contient 0.2% des signaux EEG ce qui est équivalent à 23 signaux et y_te c’est la sortie de chaque signal de test. En utilisant le code suivant on va arriver à savoir le contenu de y_te, c’est combien de cas sain et combien de cas épileptique existe dans les 23 signaux de test. Figure 20: La sortie vraie des signaux de test. Maintenant en utilisant trois modèles différents on va prédire la sortie en utilisant les entrées de test x_te. ▪ Logistique régression Figure 21: Taux d'adaptation du modèle LR. Figure 22: Résultat de prédiction en utilisant le modèle LR. 19 Figure 23: La matrice de confusion (LR). ▪ KNN Figure 24: Taux d'adaptation du modèle KNN. Figure 25: Résultat de prédiction en utilisant le modèle KNN. 20 Figure 26: La matrice de confusion (KNN). ▪ SVC Figure 27: Taux d'adaptation du le modèle SVC. Figure 28: Résultat de prédiction en utilisant le modèle SVC. 21 Figure 29: La matrice de confusion (SVC). 6. Comparaison des résultats Le code suivant nous permettra d’afficher le taux d’adaptation des trois modèles dans un tableau : Figure 30: Comparaison des taux d'adaptation. Modèle Logistique régression KNN SVC Sortie prédite Épileptique : 13 Non épileptique : 10 Épileptique : 20 Non épileptique : 3 Épileptique : 19 Non épileptique : 4 Tableau 1: Comparaison des résultats. 22 7. Conclusion Sachant que la vraie sortie y_te contient 19 cas sain et 4 cas épileptique on peut constater que le modèle SVC a arrivé à donner une prédiction correcte, le KNN a raté un seul cas par contre le modèle logistique régression et loin de la réalité. 23 Conclusion A partir de se travail on peut conclure que l’apprentissage automatique peut être utile dans la reconnaissance des crises d’épilepsie à partir de l’extraction des signaux EEG, comme il est déjà montré dans les résultats de notre travail qui montrent que le SVC était parfait dans la reconnaissance des crises d’épilepsie. Néanmoins, le contenu de notre base de données reste insuffisant et difficile de faire confiance sur tel base, car elle contient deux informations, présente d’une crise d’épilepsie ou bien absence de cette crise, ça serait meilleur si la base de données contient par exemple trois informations, la première équivalente à présence d’une crise d’épilepsie, la deuxième pour l’absence d’une d’épilepsie et la dernière contient les signaux EEG qui décrit les changement qui précède une crise d’épilepsie, comme ça on peut arriver non seulement à reconnaitre la présence de la crise d’épilepsie, mais aussi à prédire l’arriver d’une crise avant qu’elle se manifeste. 24 Webographie - https://www.futura-sciences.com/sante/definitions/medecine-crise-epilepsie-3202/ - https://datascientest.com/apprentissage-automatique - https://ichi.pro/fr/introduction-a-l-apprentissage-automatique-avec-un-r-pratique166675806938998 - https://www.ibm.com/fr-fr/analytics/machinelearning#:~:text=L'apprentissage%20automatique%2C%20%C3%A9galement%20appel%C3% A9,aide%20d'une%20programmation%20explicite - https://www.actuia.com/vulgarisation/difference-entre-apprentissage-superviseapprentissage-non-supervise/ - https://experiences.microsoft.fr/articles/intelligence-artificielle/apprentissage-supervise-etnon-supervise-quelles-differences/ - https://datascientest.com/apprentissage-supervise - https://analyticsinsights.io/5-apprentissage-supervise/ - https://dataanalyticspost.com/Lexique/svm/ - https://www.kaggle.com/harunshimanto/machine-learning-algorithms-for-epileptic-seizures 25