Telechargé par Nordine Zidane

Rapport mini projet

publicité
Université Mohammed V Rabat
École Nationale Superieur des Arts et Métiers
Master Génie Electrique
Rapport du mini projet Data Scientist
Python
Application : Reconnaissance des
crises d’epilepsie par analyse des
signaux EEG
Elaboré par:
Demandé par:
Aizi achraf
Dahdouh sami
Sehnani Abderrahmane
Année universitaire :2021 /2022
Mr.ZIDANE
Table des matières
Table des matières .................................................................................................................... 1
Table des figures ....................................................................................................................... 2
Introduction .............................................................................................................................. 3
I.
Epilepsie ......................................................................................................................... 4
1.
Introduction ................................................................................................................. 4
2.
Crise d’épilepsie .......................................................................................................... 4
3.
L’épilepsie et EEG ....................................................................................................... 5
4.
Conclusion ................................................................................................................... 6
II. Machine learning ........................................................................................................... 7
1.
Introduction ................................................................................................................. 7
2.
Définition ..................................................................................................................... 7
3.
L’utilité de l’apprentissage automatique ..................................................................... 7
4.
Principe de fonctionnement de l’apprentissage automatique ...................................... 8
5.
Approches de l'apprentissage automatique .................................................................. 8
6.
Algorithmes d’apprentissage supervisé ..................................................................... 10
7.
Conclusion ................................................................................................................. 13
III. Programme pas à pas .................................................................................................. 14
1.
Introduction ............................................................................................................... 14
2.
Importation des bibliothèques ................................................................................... 14
3.
Charger et vérifier les données .................................................................................. 15
4.
Analyse des données .................................................................................................. 15
5.
Entrainement, test et résultat ..................................................................................... 18
6.
Comparaison des résultats ......................................................................................... 22
7.
Conclusion ................................................................................................................. 23
Conclusion ............................................................................................................................... 24
Webographie ........................................................................................................................... 25
1
Table des figures
Figure 1: Cerveau d'un cas épilepsie ...................................................................................... 4
Figure 2: Méthode d'extraction d'un signal EEG ................................................................. 5
Figure 3: Les avantages de l’apprentissage automatique ..................................................... 7
Figure 4: Principe de fonctionnement de l’apprentissage. ................................................... 8
Figure 5: Différence entre apprentissage supervisé et non supervisé ................................. 9
Figure 6:Graphe de la régression linéaire simple ............................................................... 11
Figure 7: Graphe de la régression logistique ....................................................................... 11
Figure 8: Principe de fonctionnement du KNN ................................................................... 12
Figure 9: Graphe du SVM ..................................................................................................... 13
Figure 10: Importation des bibliothèques. ........................................................................... 14
Figure 11: Chargement des données..................................................................................... 15
Figure 12: traçage des signaux EEG. ................................................................................... 16
Figure 13: Exemples des signaux 'epileptic' et 'non epileptic'. .......................................... 16
Figure 14: Programme pour transformer les y>1 en 0. ...................................................... 16
Figure 15: Programme pour calculer les cas sains et les cas épileptique. ......................... 17
Figure 16: Histogramme présentant les cas sain (bleu) et les cas épileptique (orange). .. 17
Figure 17: Programme pour tracer l'intersection des points maximaux et minimaux de
chaque signal. .......................................................................................................................... 18
Figure 18: Résultat du programme de la figure 9. .............................................................. 18
Figure 19: Séparation des données en données d'apprentissage et de test. ...................... 18
Figure 20: La sortie vraie des signaux de test. ..................................................................... 19
Figure 21: Taux d'adaptation du modèle LR. ..................................................................... 19
Figure 22: Résultat de prédiction en utilisant le modèle LR. ............................................. 19
Figure 23: La matrice de confusion (LR). ............................................................................ 20
Figure 24: Taux d'adaptation du modèle KNN. .................................................................. 20
Figure 25: Résultat de prédiction en utilisant le modèle KNN. ......................................... 20
Figure 26: La matrice de confusion (KNN).......................................................................... 21
Figure 27: Taux d'adaptation du le modèle SVC. ............................................................... 21
Figure 28: Résultat de prédiction en utilisant le modèle SVC. .......................................... 21
Figure 29: La matrice de confusion (SVC). ......................................................................... 22
Figure 30: Comparaison des taux d'adaptation. ................................................................. 22
2
Introduction
La prédiction des crises d'épilepsie a toujours été extrêmement difficile dans le domaine
médical. Cependant, au fur et à mesure du développement de la technologie informatique,
l'application de l'apprentissage automatique a introduit de nouvelles idées pour la prévision des
crises. L'application d'un modèle d'apprentissage automatique à la prédiction d'une crise
d'épilepsie pourrait nous aider à obtenir un meilleur résultat et de nombreux scientifiques ont
effectué de tels travaux afin qu'il y ait suffisamment de données médicales fournies aux
chercheurs pour former des modèles d'apprentissage automatique.
Dans nos recherches, nous avons appliqué des algorithmes d'apprentissage automatique
traditionnels, tels que SVC, Logistic Regression et KNN (K Nearest Neighbors). L'accent de
notre recherche est de comparer la précision de divers modèles. Le résultat de la recherche
indique que l'apprentissage automatique peut faire de la prédiction des crises d'épilepsie une
réalité réalisable. Cette prédiction peut aider les patients à réprimer la crise d'épilepsie avant
que les symptômes ne se manifestent. Par conséquent, il permet un traitement à temps des
patients, réduit la pression de travail pour le personnel médical et apporte un contrôle plus
efficace pour l'épilepsie.
Le but de ce travail est de distinguer le meilleur modèle et savoir si la base de données
utilisée est suffisante pour bénéficier du travail en réalité ou bien elle nécessite encore des
modifications, si oui, savoir quelle sont ces modifications.
Dans ce cadre, notre travail sera composé de trois partie, d’emblé on va commencer par
définir la crise d’épilepsie ainsi que le signal EEG qui représente l’activité du cerveau humain,
en suite on passera à la définition de l’apprentissage automatique et on citera les modèles qu’on
va utiliser. La dernière sera la programmation dans laquelle on va charger la base de données
afin de tester les modèles et comparer les résultats.
3
I.
Epilepsie
1. Introduction
L’épilepsie est une maladie chronique caractérisée par la répétition de manifestations
cliniques paroxystiques. Ces crises se traduisent par une modification brutale de la conscience
et du comportement du malade. Elles sont la conséquence d’un dysfonctionnement cérébral
généralisé ou localisé dû à une décharge électrique anormale. L’épilepsie peut être d’origine
génétique ou lésionnelle. Toute les lésions cérébrales, tumeurs, dysplasie, infections, peuvent
provoquer des crises d’épilepsie.
2. Crise d’épilepsie
Une crise correspond à l'événement et à l'encombrement clinique primaire d'un état
épileptique actif. Il pourrait être difficile de donner une spécification élaborée des phénomènes
cliniques subjectifs et objectifs au cours d'une crise d'épilepsie, en raison du large éventail
d'apparitions possibles. La façon dont la crise se présente dépend, entre autres, de la localisation
de son apparition dans le cerveau, du cycle veille sommeil et de la maturité du cerveau.
Lors d'une crise d'épilepsie, une décharge anormale d'un groupe de neurones à lieu. Pour les
crises partielles, le point de départ de la crise est localisé dans un hémisphère cérébral. Dans le
cas des crises généralisées, un plus grand nombre de cellules nerveuses est touché. Ces deux
types de crises permettent de poser le diagnostic de la forme de l'épilepsie : épilepsie généralisée
ou épilepsie focale (ou partielle).
Figure 1: Cerveau d'un cas épilepsie
4
3. L’épilepsie et EEG
Le diagnostic d'une épilepsie repose sur la répétition de crises, ainsi que sur leur nature et
sur une série d'examens complémentaires pour en comprendre l'origine. Il permet également de
définir si l'épilepsie est partielle ou généralisée, idiopathique ou symptomatique.
a.
EEG
L'électroencéphalographie (EEG) est une technologie largement utilisée pour mesurer et
surveiller l'activité du cerveau humain. Il s'agit d'une méthode de surveillance
électrophysiologique non invasive, qui enregistre l'activité électrique du cerveau humain à l'aide
de l'électrode placée le long du cuir chevelu. En raison des fluctuations de tension causées par
les courants ioniques dans les neurones cérébraux, l'EEG peut mesurer l'activité du cortex
cérébral. Il s'agit d'un affichage graphique de la différence de tension entre les deux côtés du
cerveau au fil du temps. Il représente le ratio de mesure de l'activité. En conséquence, les
données EEG présentées sous la forme d'une forme d'onde à séquence temporelle continue d'un
signal de tension extrêmement petit ont toujours une amplitude microonde. Bien que
l'enregistrement de la forme d'onde se fasse au niveau du cortex cérébral, il a été influencé par
l'activité du sous-cortex profond.
Figure 2: Méthode d'extraction d'un signal EEG
5
b.
Détection de l'épilepsie par EEG
L’analyse EEG permet de différencier les données épileptiques des données normales, et de
distinguer les différentes phases d'une crise. En détectant les changements EEG précédant une
crise, il est possible de prédire le début des crises d'épilepsie. Ce type de système de prédiction
nécessite un système automatisé capable de distinguer clairement les stades normal, précritique
et inter-critique. Le stade normal correspond aux données EEG d'une personne en bonne santé,
le stade précritique fait référence aux changements EEG précédant une crise et le stade intercritique fait référence aux changements EEG pendant une crise. Pour ce système de détection,
il y a deux considérations principales. La première considération est le type de caractéristiques
à extraire du signal EEG, c'est-à-dire les techniques d'extraction de caractéristiques. La
deuxième considération est le type de techniques d'analyse à utiliser sur les caractéristiques
extraites pour détecter le stade, c'est-à-dire les techniques de classification.
4. Conclusion
L’activité du cerveau humain est caractérisée par un signal appelé EEG, en analysant se
signal nous pourrons prédire le début d’une crise d’épilepsie et savoir l’état actuel du cerveau,
pour effectuer cette analyse d’une manière rapide on va faire recours au Machine Learing.
6
II.
Machine learning
1. Introduction
Sans aucun doute, l'apprentissage automatique est la technologie la plus demandée sur le
marché actuel. Ce chapitre résume les modèles d'apprentissage automatique qui seront utilisés
dans cette étude pour classer les données EEG. L'objectif commun des modèles est d'obtenir
une grande précision et une faible latence dans la détection des crises.
2. Définition
L’apprentissage automatique ou machine learning réside dans le fait de rassembler une large
quantité d’exemples afin de déterminer les schémas sous-jacents pour ensuite les utiliser afin
d’effectuer des pronostics concernant de nouveaux exemples.
Des techniques d’apprentissage automatique sont essentielles pour que les pronostics de la
machine soient les plus justes possibles. En effet, il y a de nombreuses approches qui changent
selon la catégorie et la quantité de données.
3. L’utilité de l’apprentissage automatique
Augmentation de la production de données : en raison d'une production excessive de
données, nous avons besoin d'une méthode qui puisse être utilisée pour structurer, analyser et
tirer des informations utiles à partir des données. C'est là qu'intervient le Machine Learning. Il
utilise les données pour résoudre les problèmes et trouver des solutions aux tâches les plus
complexes auxquelles sont confrontées les organisations.
Améliorer la prise de décision : en utilisant divers algorithmes, l'apprentissage automatique
peut être utilisé pour prendre de meilleures décisions commerciales. Par exemple, le Machine
Learning permet de prévoir les ventes, de prévoir les baisses de marché boursier, d'identifier
les risques et les anomalies, etc.
Figure 3: Les avantages de l’apprentissage automatique
7
4. Principe de fonctionnement de l’apprentissage automatique
En générale, l’apprentissage automatique se compose de 2 phases :
Le première phase est la conception de système qu’on appelle aussi phase d’apprentissage
ou d’entraînement est l’estimation d’un modèle à partir de l’analyse des données. Cela
comprend une estimation d’une densité de probabilité ou la résolution d’une tâche pratique
comme la traduction d’un discours.
La seconde phase est une mise en production. Il est possible que des systèmes continuent
leur apprentissage même en étant déjà en production. Après la détermination du modèle, on
teste la seconde partie de données utile pour la réalisation de la tâche désirée.
Figure 4: Principe de fonctionnement de l’apprentissage.
5. Approches de l'apprentissage automatique
Des techniques d'apprentissage automatique sont nécessaires pour améliorer l'exactitude des
modèles prédictifs. Selon la nature du problème métier traité, il existe différentes approches qui
varient selon le type et le volume des données.
Il existe plusieurs types d’apprentissage automatique, dans notre rapport nous avons cité que
les types les plus utilisés.
a. Apprentissage non supervisé
L'apprentissage non supervisé est utilisé lorsque le problème nécessite une quantité massive
de données non étiquetées. Par exemple, les applications de réseaux sociaux, telles que Twitter,
Instagram et Snapchat, exploitent toutes de très grandes quantités de données non étiquetées.
Pour comprendre le sens de ces données, il est nécessaire d'utiliser des algorithmes qui
classifient les données en fonction des tendances ou des clusters qu'ils décèlent. L'apprentissage
non supervisé mène un processus itératif, analysant les données sans intervention humaine. Il
est utilisé avec la technologie de détection de spam envoyé par e-mail. Les e-mails normaux et
les spams comportent un nombre de variables beaucoup trop élevé pour qu'un analyste puisse
étiqueter les e-mails indésirables envoyés en masse. En revanche, les discriminants
d'apprentissage automatique, basés sur la mise en cluster et l'association, sont appliqués pour
identifier les courriers électroniques non désirés.
8
▪
Des tâches de clustering
Ici, on demande à la machine de grouper des objets dans des ensembles de données les plus
homogènes possible. Cette technique peut sembler proche de celle de la classification dans
l’apprentissage supervisé, mais à la différence de cette dernière, les classes ne sont pas
préremplies par un humain, c’est la machine qui “invente” ses propres classes, à un niveau de
finesse pas toujours évident pour un humain. Une technique très utile dans le marketing pour
faire de la segmentation client notamment.
▪
Des tâches de filtrage collaboratif
Ici l’objectif est toujours de personnaliser une expérience client. C’est une technique utilisée
par de très nombreuses plateformes, telles que Netflix, Spotify, etc. Leurs algorithmes étudient
ce que vous avez regardé, aimé, mais aussi ce que des profils similaires au vôtre ont apprécié,
pour vous faire des recommandations automatiques. Le modèle s’appuie sur des facteurs
implicites inconscients (ce que l’utilisateur a fait), plutôt que des facteurs explicites (des critères
remplis par l’utilisateur). Ce genre d’outils est très utilisé dans le e‑commerce, pour proposer
des produits qui pourraient intéresser le client. Amazon en est devenu spécialiste.
b. Apprentissage supervisé
Lorsqu’on apprend à faire du machine learning, on débute souvent par de l’apprentissage
supervisé qui est beaucoup plus accessible. L’apprentissage supervisé consiste en
l’entraînement d’une machine en utilisant des données labellisées. C’est-à-dire des données qui
ont déjà été étiquetées avec le bon label (classe, valeur continue…). Cet apprentissage sur des
données ayant déjà la ‘’réponse correcte’’ permet de prédire par la suite le label de données
nouvelles non étiquetées.
Figure 5: Différence entre apprentissage supervisé et non supervisé
9
Cette méthode permet de réaliser deux types de tâches :
▪
Des tâches de classification
Ces tâches consistent à attribuer une classe à des objets. Par exemple, dans le milieu
bancaire, on peut identifier si une transaction est frauduleuse ou non frauduleuse de manière
automatique. On parle de détection d’anomalie. Dans l’industrie, on peut déterminer si oui ou
non une machine est susceptible de tomber en panne. On associe une réponse prédéfinie (oui
ou non, jaune, rouge, vert ou bleu) à un objet, avant de demander à l’algorithme de réaliser cette
classification.
Des tâches de régression
▪
Ici, on n’attribue pas une classe mais une valeur mathématique : un pourcentage ou une
valeur absolue. Par exemple, une probabilité pour une machine de tomber en panne (15 %, 20
%, etc.) ou le prix de vente idéal d’un appartement en fonction de critères comme la surface, le
quartier, etc.
6. Algorithmes d’apprentissage supervisé
Afin de créer un apprentissage supervisé, on applique différents algorithmes, selon la
méthode employée. Voilà quelque exemple des algorithmes d’apprentissage supervisé.
a. Régression linéaire
La régression linéaire est l’un des algorithmes d’apprentissage supervisé les plus populaires.
Il est aussi simple et parmi les mieux compris en statistique et en apprentissage automatique.
La régression linéaire est un type d’analyse prédictive de base. Le concept général de la
régression est d’étudier deux questions :
-
Un ensemble de variables prédictives permet-il de prédire une variable de résultat ?
Quelles sont les variables les plus significatives et ont le plus d’impact sur la variable
de résultat ?
On utilise ces estimations de régression pour expliquer les relations entre variable
dépendante et une ou plusieurs variables indépendantes. La forme la plus simple de l’équation
de régression avec une variable dépendante et une variable indépendante est définie par la
formule y = c + b * x, avec y = variable dépendante estimé, c = constante, b = coefficient de
régression et x = variable indépendante. On parle ici de Régression linéaire simple. Pour la
régression linéaire multiple on écrira y = c + b * x1 +…+ n*xn avec x1 jusqu’à xn les variables
indépendantes et b jusqu’à n les coefficients de régression respectifs des variables.
10
Figure 6:Graphe de la régression linéaire simple
b. Régression logistique
Les prédictions de régression linéaire sont des valeurs continues (températures en degrés),
les prévisions de régression logistique sont des valeurs discrètes, c’est-à-dire un ensemble fini
de valeurs (Vrai ou faux par exemple). La régression logistique convient mieux à la
classification binaire. Par exemple, on peut considérer un ensemble de données où y = 0 ou 1,
où 1 représente la classe par défaut. Pour illustrer on peut imaginer que l’on veuille prédire s’il
pleuvra ou non. On aura 1 pour s’il pleut et 0 le cas contraire.
Au contraire de la régression linéaire, la régression logistique, propose le résultat sous forme
de probabilités de la classe par défaut. Le résultat appartient donc à l’intervalle [0 :1]. C’est-àdire qu’il est compris entre 0 et 1, vu qu’il s’agit d’une probabilité. La valeur y de sortie est
générée par la transformation de la valeur x, à l’aide de la fonction logistique
h (x) = 1 / (1 + e ^ -x). Un seuil est ensuite appliqué pour forcer cette probabilité dans une
classification binaire.
Figure 7: Graphe de la régression logistique
11
c. K-NN
L’algorithme K-NN qui signifie k-voisins les plus proches utilise l’intégralité du data set en
tant qu’entraînement, au lieu de diviser se dernier en un training et testing set.
Quand un résultat est requis pour une nouvelle instance de données, l’algorithme KNN
parcourt l’intégralité du data set pour rechercher les k-instances les plus proches de la nouvelle
instance ou le nombre k d’instances les plus similaires au nouvel enregistrement, puis renvoie
la moyenne des résultats ou le classe à laquelle appartient cette instance si c’est un problème de
classification. L’utilisateur spécifie lui-même la valeur de k.
Figure 8: Principe de fonctionnement du KNN
d. SVM
(Support Vector Machine ou Machine à vecteurs de support) : Les SVMs sont une famille
d’algorithmes d‘apprentissage automatique qui permettent de résoudre des problèmes tant de
classification que de régression ou de détection d’anomalie. Ils sont connus pour leurs solides
garanties théoriques, leur grande flexibilité ainsi que leur simplicité d’utilisation même sans
grande connaissance de data mining.
Comme le montre la figure ci-dessous, leur principe est simple : ils ont pour but de séparer
les données en classes à l’aide d’une frontière aussi « simple » que possible, de telle façon que
la distance entre les différents groupes de données et la frontière qui les sépare soit maximale.
12
Cette distance est aussi appelée « marge » et les SVMs sont ainsi qualifiés de « séparateurs à
vaste marge », les « vecteurs de support » étant les données les plus proches de la frontière.
Figure 9: Graphe du SVM
7. Conclusion
Afin d’analyser la base de données qui contienne les signaux EEG en utilisant
l’apprentissage puis tester sur des nouvelles données, on a choisi de faire tester on se basant sur
3 modèles différents à savoir LR, K-NN et SVM, notre par la suite et de comparer leurs résultats
au dessein de savoir le meilleur modèle pou notre base de données.
13
III.
Programme pas à pas
1. Introduction
Pour effectuer les tâches expliquées précédemment il faut traduire les étapes de
l’apprentissage automatique en un programme contenant l’importation des bibliothèques,
chargement de la base de données, entrainement et test en utilisant des modèles différents puis
comparaison.
2. Importation des bibliothèques
Dans cette première étape on a importé les bibliothèques dont on aura besoin par la suite.
Figure 10: Importation des bibliothèques.
▪
Numpy
NumPy (diminutif de Numerical Python) fournit une interface pour stocker et effectuer des
opérations sur les données. D'une certaine manière, les tableaux Numpy sont comme les listes
en Python, mais Numpy permet de rendre les opérations beaucoup plus efficaces, surtout sur
les tableaux de large taille.
▪
Matplotlib
Matplotlib est une bibliothèque Python open source permettant de créer des visualisations
de données.La visualisation de données est une étape clé de l’analyse de données. Après avoir
collecté, stocké et analysé des données, il est essentiel de transformer les résultats de ces
analyses en rapports et en visualisations graphiques.
▪
Pandas
Pandas est une bibliothèque open-source permettant la manipulation et l’analyse de données
de manière simple et intuitive en Python.
14
▪
Seaborn
Seaborn est un outil de Data Visualization en langage Python. En plus de fournir un
ensemble de fonctions permettant de tracer divers graphiques très complets, Seaborn fournit
aussi un ensemble de thèmes, qui permettent de rendre les graphiques plus modernes, et ce de
manière très simple. Il est possible de faire la même chose avec Matplotlib, mais il faut jouer
avec beaucoup d’options liées à l’esthétique pour arriver au résultat que Seaborn fournit en
choisissant juste un thème comme option.
▪
Scikit-learn
Scikit-learn, encore appelé sklearn, est la bibliothèque la plus puissante pour le machine
learning en Python. Elle fournit une sélection d’outils efficaces pour l’apprentissage
automatique et la modélisation statistique, notamment la classification, la régression et le
clustering via une interface cohérente en Python.
3. Charger et vérifier les données
Après l’importation des bibliothèques, il faut charger les données.
Figure 11: Chargement des données.
4. Analyse des données
Notre base de données contient des X = [X1 X2 … X178] qui représente le signal EEG, et
une sortie y correspondante à chaque X, y elle est soit égale à 1,2,3,4 ou bien 5.
-
Si y=1 : Il existe une activité épileptique
-
Si y=2 : Signal EEG enregistré à partir de la place ou il existe une tumeur.
-
Si y=3 : Signal EEG enregistré en évitant la place de la tumeur.
-
Si y=4 : Le patient avait les yeux fermés.
-
Si y=5 : Le patient avait les yeux ouverts.
15
Figure 12: traçage des signaux EEG.
Figure 13: Exemples des signaux 'epileptic' et 'non epileptic'.
Dans notre étude on s’intéresse aux signaux EEG qui représente l’existence d’une activité
épileptique, pour cela on transformer notre sortie y en 0 (non epileptic) et 1 (epileptic) en
utilisant les lignes suivantes :
Figure 14: Programme pour transformer les y>1 en 0.
Maintenant nous pourrons arriver à savoir combien de signal présentant un cas épileptique
et combien de signal présentant un cas sain dans notre base de données.
16
Figure 15: Programme pour calculer les cas sains et les cas épileptique.
Figure 16: Histogramme présentant les cas sain (bleu) et les cas épileptique (orange).
Afin de savoir une idée sur la différence entre les cas épileptique et les cas sain on a choisi
de présenter des points dans un graphe dans l’axe des abscisses présente le point maximal du
signal et l’axe des ordonnées présente le point minimal du signal, ceci est fait en utilisant une
fonction qui retourne le max et le min.
17
Figure 17: Programme pour tracer l'intersection des points maximaux et minimaux de chaque signal.
Figure 18: Résultat du programme de la figure 9.
5. Entrainement, test et résultat
Par la suite, on va diviser les données en deux partie, données d’apprentissage (training) et
données de test afin de tester les modèles en utilisant le code suivant :
Figure 19: Séparation des données en données d'apprentissage et de test.
18
Où x_tr contient les signaux EEG de ‘training’ et y_tr contient leur sorties, x_te contient
0.2% des signaux EEG ce qui est équivalent à 23 signaux et y_te c’est la sortie de chaque signal
de test.
En utilisant le code suivant on va arriver à savoir le contenu de y_te, c’est combien de cas
sain et combien de cas épileptique existe dans les 23 signaux de test.
Figure 20: La sortie vraie des signaux de test.
Maintenant en utilisant trois modèles différents on va prédire la sortie en utilisant les entrées
de test x_te.
▪
Logistique régression
Figure 21: Taux d'adaptation du modèle LR.
Figure 22: Résultat de prédiction en utilisant le modèle LR.
19
Figure 23: La matrice de confusion (LR).
▪
KNN
Figure 24: Taux d'adaptation du modèle KNN.
Figure 25: Résultat de prédiction en utilisant le modèle KNN.
20
Figure 26: La matrice de confusion (KNN).
▪
SVC
Figure 27: Taux d'adaptation du le modèle SVC.
Figure 28: Résultat de prédiction en utilisant le modèle SVC.
21
Figure 29: La matrice de confusion (SVC).
6. Comparaison des résultats
Le code suivant nous permettra d’afficher le taux d’adaptation des trois modèles dans un
tableau :
Figure 30: Comparaison des taux d'adaptation.
Modèle
Logistique
régression
KNN
SVC
Sortie prédite
Épileptique : 13
Non épileptique : 10
Épileptique : 20
Non épileptique : 3
Épileptique : 19
Non épileptique : 4
Tableau 1: Comparaison des résultats.
22
7. Conclusion
Sachant que la vraie sortie y_te contient 19 cas sain et 4 cas épileptique on peut constater
que le modèle SVC a arrivé à donner une prédiction correcte, le KNN a raté un seul cas par
contre le modèle logistique régression et loin de la réalité.
23
Conclusion
A partir de se travail on peut conclure que l’apprentissage automatique peut être utile dans
la reconnaissance des crises d’épilepsie à partir de l’extraction des signaux EEG, comme il est
déjà montré dans les résultats de notre travail qui montrent que le SVC était parfait dans la
reconnaissance des crises d’épilepsie.
Néanmoins, le contenu de notre base de données reste insuffisant et difficile de faire
confiance sur tel base, car elle contient deux informations, présente d’une crise d’épilepsie ou
bien absence de cette crise, ça serait meilleur si la base de données contient par exemple trois
informations, la première équivalente à présence d’une crise d’épilepsie, la deuxième pour
l’absence d’une d’épilepsie et la dernière contient les signaux EEG qui décrit les changement
qui précède une crise d’épilepsie, comme ça on peut arriver non seulement à reconnaitre la
présence de la crise d’épilepsie, mais aussi à prédire l’arriver d’une crise avant qu’elle se
manifeste.
24
Webographie
-
https://www.futura-sciences.com/sante/definitions/medecine-crise-epilepsie-3202/
-
https://datascientest.com/apprentissage-automatique
-
https://ichi.pro/fr/introduction-a-l-apprentissage-automatique-avec-un-r-pratique166675806938998
-
https://www.ibm.com/fr-fr/analytics/machinelearning#:~:text=L'apprentissage%20automatique%2C%20%C3%A9galement%20appel%C3%
A9,aide%20d'une%20programmation%20explicite
-
https://www.actuia.com/vulgarisation/difference-entre-apprentissage-superviseapprentissage-non-supervise/
-
https://experiences.microsoft.fr/articles/intelligence-artificielle/apprentissage-supervise-etnon-supervise-quelles-differences/
-
https://datascientest.com/apprentissage-supervise
-
https://analyticsinsights.io/5-apprentissage-supervise/
-
https://dataanalyticspost.com/Lexique/svm/
-
https://www.kaggle.com/harunshimanto/machine-learning-algorithms-for-epileptic-seizures
25
Téléchargement