Contrôle d`accès des utilisateurs aux réseaux sociaux

publicité
République algérienne démocratique et populaire
Ministère de l’enseignement supérieur et de la recherche scientifique
Université des sciences et de la technologie d’Oran Mohamed Boudiaf USTOMB
Faculté des sciences
Département d’informatique
Spécialité : Informatique
Option : Ingénierie des logiciels et
des réseaux
Mémoire présenté par
Mme KINANE DAOUADJI Amina
Pour l’obtention du diplôme de Magistère
Thème :
Contrôle d’accès des utilisateurs aux réseaux
sociaux
Soutenu publiquement le 05 /01 / 2012
Devant le jury :
Mme MEKKI. Rachida
MC A-USTO
Présidente
Mme BENDELLA. Fatima
MC A-USTO
Rapporteur
Mme SELKA. Sadika
MC B-USTO
Co-rapporteur
M BELKADI. Khaled
MC A-USTO
Examinateur
M RAHAL. Sidi Ahmed Hebri
MC A-USTO
Examinateur
2010 - 2011
Remerciements
C'est grâce à dieu qui m’a donnée le courage et la patience pour accomplir ce modeste
travail.
Je tien à remercier très sincèrement mon professeur le docteur MEKKI. R de m’avoir
donné de son temps précieux pour présider le jury.
Je remercie infiniment mon professeur et chargé d’option ILR le docteur BENDELLA.
F, qui m’a encadré dans mon projet de fin d’étude, je la remercie aussi d’avoir accepté
d’être parmi le jury de ce travail et pour ses conseils, son soutient et pour tous ce
qu’elle m’a appris durant mon cycle d’études et jusqu'à ce jour.
Je tien à remercier tout particulièrement et à témoigner toute ma reconnaissance à mon
professeur et mon encadreur le docteur SELKA. S pour le thème qu’elle m’a proposé,
ses conseils et sa compréhension. Je la remercie encor d’avoir dirigé et d’avoir suivit
mon travail dès la proposition du thème jusqu'à l’acceptation de mes travaux
scientifiques.
Je remercie aussi mon professeur le docteur BELKADI. K pour tout ce qu’il m’a
appris durant mon cycle d’ingénieur, et aussi dans m’a 1ere année de magistère, je le
remercie encor d’avoir accepté d’être parmi le jury et d’examiner mon travail.
Je remercie également le docteur RAHAL. S pour sa générosité et pour le temps qu’il
à consacré à ma présentation.
Merci à toute ma famille et à toutes mes amies.
Enfin je remercie toute personne qui ma aider de prés ou de loin dans ce travail.
Résumé
L’objectif de notre travail est de classifier les utilisateurs des sites des réseaux sociaux en
classes, selon des critères de confiance choisis. Ces critères de confiance proposés sont
extraits du comportement de l’utilisateur dans le réseau. La classification est réalisée en
utilisant un réseau immunitaire artificiel non supervisé (AIN).
Cette méthode est destinée à l’utilisateur et à l’administrateur du réseau social pour qu’ils
puissent s’avoir la nature (confiant ou menace) des utilisateurs inscrits dans le site social.
Mots clés : Réseau social, contrôle d’accès, classification, les réseaux immunitaires artificiels
(AIN).
Abstract
The objective of our method is to classify the users of the social networks sites in classes,
according to criteria's confidences. The criteria of confidence we thought of extracting them
from the behavior of the user in the network. The classification is performed by using an
unsupervised artificial immune network (AIN).
This method is intended to the administrator and the user of the social networks, so they can
have the nature (entrusting or threatens) of the social network site users.
Key words: Social network, access control, classification, artificial immune networks (AIN).
Table des matières
Introduction générale ……………………………………………………………….. 2
Chapitre I Réseaux Sociaux (SRS)
I.1 Introduction……………………………………………………………………………..
5
I.2 Définitions………………………………………………………………………………
5
I.3 Les différentes typologies des réseaux sociaux en ligne ……………………………….
6
I.4 Les caractéristiques des réseaux sociaux………………………………………………..
7
I.4.1 Les réseaux sociaux électroniques………………….................................................
8
I.4.1.1 Myspace……………………………………………………………………….
8
I.4.1.2 Yoolink ……………………………………………………………………….
8
I.4.1.3 Twitter ………………………………………………………………………....
8
I.4.1.3.1La sécurité sur Twitter ……………………………………………………..
9
I.4.1.4 Facebook ……………………………………………………………………....
9
I.4.1.4.1 La sécurité sur Facebook…………………………………………………... 9
I.5 Les menaces sur les réseaux sociaux …………………………………………………...
10
I.5.1 Les vers……………………………………………………………………………...
10
I.5.2 Les Spams …….…………………………………………………………………….
10
I.5.3 Cheval de Troie ……………………………………………………………………..
10
I.5.4 Fuite de données ……………………………………………………………………
11
I.5.5 Les liens raccourcis ……...………………………………………………………....
11
I.5.6 Attaques de type Cross-Site Request Forgery……………………………………....
11
I.5.7 Usurpation d'identité ……………………………………………………………….
11
I.6 Les méthodes proposées pour la sécurité des RS……………………………………….
12
I.6.1 Renforcement d’un contrôle d’accès dans un réseau social………………………… 12
I.6.1.1 Le modèle proposé ……………………………………………………………...
12
I.6.1.1.1 La classe des connexions …………………………………………………...
12
I.6.1.1.2 La classe des contenus ……………………………………………………..
12
I.6.1.2 Le contrôle d’accès ……………………………………………………………..
13
I.6.1.3 Avantage et inconvénient………………………………………………………..
14
I.6.2 Contrôle d'accès dans le Web 2.0………………………………………………….....
14
I.6.2.1 Avantages et inconvénients………………………………………………………
I.6.3 Gestion de la protection collective dans les réseaux sociaux………………………
15
15
I.6.3.1 Politique de confidentialité dans le SRS………………………………………….
16
I.6.3.2 La copropriété des donnés dans le SRS…………………………………………..
16
I.6.3.3 la collaboration des exigences de partage………………………………………...
17
I.6.3.3.1 L'intégrité du contenu…………………………………………………………. 18
I.6.3.3.2 Semi-automatique……………………………………………………………... 18
I.6.3.3.3 Adaptive……………………………………………………………………….
18
I.6.3.3.4 Groupe de correspondance…………………………………………………….
18
I.6.3.4 Avantages et inconvénients……………………………………………………..
18
I.6.4 Contrôle d'accès en utilisant une collaboration dans les réseaux sociaux……………. 18
I.6.4.1Le protocole de contrôle d’accès………………………………………………….. 20
I.6.4.1.1 Définition 1…………………………………………………………………...
20
I.6.4.1.2 Définition 2…………………………………………………………………..
20
I.6.4.3Avantages et inconvénients…………………………………………………….
21
I.7 La sécurité des réseaux sociaux…………………………………………………………
21
I.8 Conclusion………………………………………………………………………………
21
Bibliographie………………………………………………………………………………..
22
Chapitre II Le système immunitaire
II.1 Introduction…………………………………………………………………………….
25
II.2 Le système immunitaire naturel ……………………………………………………...... 25
II.2.1 Définitions………………………………………………………………………….
25
II.2.2 Architecture d’un système immunitaire naturel……………………………………. 26
II.2.2.1 Le système immunitaire inné …………………………………………………..
26
II.2.2.1.1 La peau…………………………………………………………………….
27
II.2.2.1.2 Les muqueuses (poumons - tubes digestif - intestin)……………………… 27
II.2.2.1.3 Les phagocytes ……………………………………………………………. 27
II.2.2.1.4 Les monocytes……………………………………………………………..
27
II.2.2.1.5 Les macrophages…………………………………………………………... 27
II.2.2.2 Le système immunitaire adaptatif……………………………………………… 28
II.2.2.2.1 Lymphocytes………………………………………………………………..
28
II.2.2.2.1.1 les cellules T…………………………………………………………....
28
II.2.2.2.1.2 les cellules B……………………………………………………….......
29
II.2.2.3 Antigènes……………………………………………………………………….
30
II.2.2.4 Comment le système immunitaire assure t-il la protection du corps humain ?...
30
II.2.2.5 Le principe de la sélection clonal………………………………………………. 32
II.2.2.6 La distinction entre le soi et le non soi………………………………………....
34
II.2.2.7 Apprentissage…………………………………………………………………..
34
II.2.2.8 Sélection positive……………………………………………………………….
34
II.2.2.9 La sélection négative…………………………………………………………… 35
II.2.2.10 Les réseaux immunitaires……………………………………………………..
35
II.2.2.11 Les caractéristiques du système immunitaire…………………………………
37
II.2.3 Le système immunitaire est-il ″cognitif ″ ?...............................................................
38
II.3 Le système immunitaire artificiel………………………………………………………
39
II.3.1 Définition …………………………………………………………………………..
39
II.3.2 Le processus de conception d’un AIS……………………………………………… 39
II.3.3 La représentation d’un AIS…………………………………………………………
41
II.3.3.1 Le modèle Shape-Space………………………………………………………... 41
II.3.3.2 Les concepts de base du modèle………………………………………………..
42
II.3.3.3 Les mesure d’affinités………………………………………………………….
42
II.3.4 Les algorithmes du système immunitaire artificiel………………………………… 43
II.3.4.1 L’algorithme de la sélection positive…………………………………………..
43
II.3.4.2 L’algorithme de la sélection négative………………………………………….
44
II.3.4.2.1 Le principe de la sélection négative artificiel……………………………..
45
II.3.4.2.2 Domaines d’utilisation de la sélection négative…………………………… 46
II.3.4.3 La sélection clonale…………………………………………………………….. 46
II.3.4.3.1 L’algorithme de la sélection clonale……………………………………….
46
II.3.4.3.2 Domaines d’utilisation de la sélection clonale…………………………….. 49
II.3.4.4 La théorie du danger……………………………………………………….......
49
II.3.4.5 Réseaux immunitaires artificiels……………………………………………….
50
II.3.4.5 .1 Algorithme des réseaux immunitaires artificiels non supervisé………….
52
II.3.5 Conclusion………………………………………………………………………….
54
Bibliographie………………………………………………………………………………..
55
Chapitre III Solution proposée
III Introduction……………………………………………………………………………...
59
III.1 Idée générale…………………………………………………………………………... 59
III.2 Classification des utilisateurs dans le réseau………………………………………….. 59
III.2.1 Les critères proposés…………………………………………………………….
60
a) Les critères extraits au moment de la création du compte………………………… 60
b) Les critères extraits après la création du compte………………………………….
60
b.1) L’activité………………………………………………………………………
60
b.2) La réputation………………………………………………………………….
60
b.3) Le partage de documents……………………………………………………..
60
b.4) Le nombre d’invitation acceptées…………………………………………….
61
III.2.2 La représentation des critères……………………………………………………
61
III.2.2.1 Illustration des différents critères …………………………………………
61
III.2.2.2 Comment attribuer la valeur binaire à chaque critère ?.................................
63
III.2.2.3 Comment calculer le pourcentage ¨%¨ ?.......................................................
63
a) Le critère Réputation…………………………………………………………
63
b) Le critère Nombre d’invitation………………………………………………
63
c) Le critère Activité………………………………………………………….....
64
III.3 l’architecture de notre système……………………………………………………….
65
III.4 Algorithme du Réseau immunitaire artificiel non supervisé………………………….
66
III.5 Implémentation………………………………………………………………………..
67
III.5.1 Traitement des données…………………………………………………………..
68
III.5.2 La représentation des résultats…………………………………………………… 70
III.5.3 Test……………………………………………………………………………….
71
III.5.4 Les résultats du test………………………………………………………………. 71
II.6 Points complémentaire ……………………………………..........................................
72
III.7 Conclusion……………………………………………………………………………..
73
Travaux scientifiques …………………………………………………………………......... 74
Conclusion générale et perspective ……………………………………………….. 76
Liste des figures
Figure I.1 : Graphe non orienté représente les relations sociométriques entre les internautes...
6
Figure I.2 : L'approche proposée avec un exemple de contrôle d'accès……………………….
13
Figure I.3 : Une partie d'un web site social network (WBSN)………………………………… 19
Figure II.1 : Hiérarchie des cellules immunitaires……………………………………………..
26
Figure II.2 : Cellule T d’aide…………………………………………………………………..
29
Figure II.3 : Cellule T cytotoxiques……………………………………………………………
29
Figure II.4: Cellule B………………………………………………………………………….
29
Figure II.5: Structure d’un anticorps…………………………………………………………..
30
Figure II.6 : Reconnaissance de la cellule T de la combinaison de peptide / MHC…………..
31
Figure II.7 : Reconnaissance de la cellule B l’antigène protéique ou non protéique………….
31
Figure II.8 : Le processus de base de défense immunitaire……………………………………
32
Figure II.9 : Le principe de la sélection clonale……………………………………………….
33
Figure II.10: Activation/suppression d’un anticorps…………………………………………..
36
Figure II.11 : Principes des réseaux immunitaires……………………………………………..
37
Figure II.12 : La structure de conception d’un AIS……………………………………………
40
Figure II.13 : La représentation du modèle Shape-Space……………………………………..
41
Figure II.14 : La distance Euclidienne ………………………………………………………..
43
Figure II.15 : La distance de Manhattan ……………………………………………………...
43
Figure II.16 : La distance de Hamming……………………………………………………….
43
Figure II.17 : L’algorithme de la sélection positive……………………………………………
44
Figure II.18 : La structure générale de l’algorithme de la sélection négative………………….
45
Figure II.19 : La structure générale de l’algorithme de la sélection négative suite……………
46
Figure II.20 : Initialisation de la population d’anticorps (cellules B)………………………….
47
Figure II.21 : Cellules B activées………………………………………………………………
47
Figure II.22 : Maturation des cellules B……………………………………………………….
48
Figure II.23 : Nouvelle population d’anticorps………………………………………………..
48
Figure II.24 : Diversification de la population d’anticorps……………………………….……
48
Figure II.25 : Principe de la théorie du danger………………………………………………… 50
Figure II.26 : Exemple de groupements de données…………………………………………..
51
Figure II.27 : Réseau immunitaire généré par aiNet…………………………………………...
51
Figure III.1 Les critères illustrés sur l’interface du réseau social Facebook (1)……………….
61
Figure III.1 Les critères illustrés sur l’interface du réseau social Facebook (2)……………….
62
Figure III.1 Architecture du système proposé…………………………………………………
66
Liste des tableaux
Tableau III.1 : Les valeurs des critères proposés………………………………………………. 62
Tableau III.2 : Échantillon de la BDD…………………………………………………………
68
Tableau III.3 : Représentation des différents ARB générés …………………………………...
69
Tableau III.4 : Les valeurs choisis pour le traitement………………………………………….
70
Tableau III.5 : Représentation des différents utilisateurs reconnus, avec leurs types de
classes …………………………………………………………………………………………. 70
Tableau III.6 : Représentation d’un nouveau groupe d’utilisateur………………………….....
71
Tableau III.7 : La représentation des résultats obtenue………………………………………..
71
Introduction générale
Introduction générale
La société est un ensemble de citoyens qui doivent communiquer, partager des idées ou
demander des informations les uns des autres. La communication commence par la langue, la
capacité distinctive qui a rendu possible l'évolution de la société humaine. Bien avant
l’apparition des technologies informatiques, la communication entre individus se faisait par
déplacement, avec le temps la communication est devenue de plus en plus facile à l’aide du
développement informatique et l’apparition des réseaux. Au début des années quatre-vingtdix, un Anglais, Tim Bernes-Lee a inventé ce qui a été appelé le web. Cette réalisation a
poussé les chercheurs après des années à pondéré pour faire le 1er pas vers l’apparition des
réseaux sociaux ou ce qu’on peut appeler le web 2.0.
Le Web 2.0 est une nouvelle version de l’internet, il s’agit du même phénomène, mais avec de
multiples dimensions. Il est caractérisé par une dimension technique, aussi il se base sur des
pratiques éditoriales, et encore sur une dimension sociologique. Donc d’un côté, il est vu
comme un basculement des techniques vers des services, et d’un autre côté, il représente un
nouveau réseau d’interaction sociale (les réseaux sociaux).
Les réseaux sociaux permettent aux utilisateurs de propager leurs profiles, leurs idées et
autres informations rapidement et partout à travers le monde. En 1967, le sociologue
américain Stanley Milgram décrivait le «small world phenomenon»,avec le principe des six
degrés de séparation, en montrant qu'il existait en moyenne six intermédiaires entre deux
personnes prises au hasard sur la planète Terre. Inspirés par cette intuition, les «réseaux
sociaux» ont fait leur apparition en mars 2003 sur internet avec le lancement du site
Friendster, puis, quelques mois plus tard, MySpace aux Etats-Unis, etc…, Le phénomène a
explosé à travers le monde.
Le problème majeur des réseaux sociaux est la sécurité. Notre travail consiste à contrôler
l’accès des utilisateurs aux réseaux sociaux, par la classification des utilisateurs du réseau
social, en deux classes, une classe pour des utilisateurs de confiance, et une autre classe pour
les utilisateurs qui constituent une menace, en se basant sur des critères de confiance choisis.
Cette classification est réalisée en utilisant un système immunitaire artificiel (AIS).
Un système immunitaire artificiel (AIS), est une catégorie d'algorithme inspirée par les
principes et le fonctionnement du système immunitaire naturel (NIS), dans ce mémoire nous
allons le présenter comme un outil d’apprentissage utilisé, pour réaliser la classification des
différents utilisateurs du site social.
Notre méthode est destinée à l’utilisateur du site du réseau social pour garantir une sécurité
locale, et aussi à l’administrateur du réseau social, pour une sécurité globale.
Chapitre Ι
Les Réseaux
Sociaux
Chapitre I
Les réseaux sociaux
I.1 Introduction
Depuis leur apparition, les sites des réseaux sociaux (SRS), tels que « MySpace, twitter,
Bebo et Facebook »,
ont attiré des millions d'utilisateurs, de nombreuses personnes ont
intégré ces sites dans leurs pratiques quotidiennes. Chaque réseau social a sa propre technique
mais ils se basent tous sur deux points principaux : Les amis de mes amis sont mes amis. Les
personnes qui partagent les mêmes centres d’intérêts que moi sont mes amis. Ces réseaux
sociaux permettent aux utilisateurs de créer des profils, pour partager leurs données et leurs
loisirs afin de retrouver d’anciens amis ou créer de nouvelles connaissances avec d'autres
utilisateurs du site.
Ce phénomène a explosé à travers le monde en créant un réel problème de sécurité. Dans ce
chapitre nous allons essayer de présenter les différents types des réseaux sociaux, les menaces
et les méthodes proposées pour résoudre ce problème.
I.2 Définitions
Selon Tichy un réseau social décrit une société comme un système de participants – individus,
groupe, organisations- reliés par une variété de relations. Chaque paire de participant n’est pas
jointe forcément et certaines sont jointes par plusieurs relations [Tichy, 1981].
Selon Giles Hogben et ENISA « Un réseau social consiste en un ensemble fini d'acteurs et les
relations définies entre eux. Un acteur peut être une seule personne, ou un groupe de
personnes. Les acteurs dans un réseau social sont liés par des relations. Le type et le niveau de
confiance de ces relations peut varier dépendemment des acteurs impliqués. Les amis, la
famille, ou encore les collègues sont autant d'exemples de types de relations » [Giles Hogben
& ENISA, 2007].
Selon Dajana Kapusova Leconte « Un réseau social est une structure formée par des relations
entre des personnes. Cette structure sociale est composée de nœuds, généralement représentés
par des individus ou des organisations. Les nœuds sont reliés entre eux par diverses
connaissances sociales qui peuvent aller d'une connaissance simple jusqu'à un lien familial
très fort (figure I.1). [ Dajana Kapusova Leconte, 2008].
5|Page
La figure I.1 illustre la représentation d’un réseau social :
Ami
Ami
Famille
Collègue
Figure I.1 : Graphe non orienté représente les relations sociométriques
entre les internautes.
I.3 Les différentes typologies des réseaux sociaux en ligne
Les réseaux sociaux en ligne peuvent être classés selon différentes typologies [Philippe
Torloting, 2006]:
Les réseaux plate-forme de partage
Les plates-formes permettent de diffuser du contenu, souvent multimédia (vidéo et son), aux
internautes. La mise en ligne et le partage de vidéos par exemple deviennent plus faciles car
accessibles par tous les internautes de la communauté. Exemples : YouTube, Dailymotion…
Les réseaux personnels et généralistes
Souvent orientés autour d’un centre d’intérêt (musique, lecture…), le but de ce type de
réseaux n’est autre que de faire partager ses passions au reste de la communauté. Les mises en
relation directes sont rares sur ce type de réseaux. Exemples de réseau généraliste MySpace,
et Friendster , et réseau personnel Skyblog, …
6|Page
Les réseaux thématiques
Ils fonctionnent souvent sur le même principe que les réseaux généralistes mais sont orientés
autour d’une thématique : les voitures, la musique, la cuisine… Exemples :Boompa,
EsCom…
Les réseaux professionnels
Les réseaux professionnels sont les réseaux les plus aboutis dans le sens réel du terme. Ils
offrent la possibilité de mise en relation ainsi que le partage d’informations (coordonnées,
informations sur les entreprises…) Exemples : 6nergies, Viaduc, LinkedIn, OpenBC…
I.4 Les caractéristiques des réseaux sociaux
Le réseau social est avant tout un lieu d'interaction, qui permet le passage de la connaissance
et de l’information entre les individus. Les points suivants représentent certaines
caractéristiques qui peuvent être partagés entre les différents types des réseaux sociaux :
La première caractéristique du réseau social : est de regrouper des personnes qui
partagent toutes sortes de centres d’intérêts.
La deuxième caractéristique : certain réseaux sociaux fonctionnent de la même
manière :
• Chaque personne doit créer son propre profil par une inscription en ligne sur le
site. Ce profil lui servira de clé d’entrée au site et lui permettra d’être identifié
par tous les autres membres qui sont inscrits dans le même site.
• Chaque membre peut par la suite soit intégrer un groupe existant, soit créer sa
propre communauté avec qui il partagera les centres d’intérêts et les
motivations liées au site, à travers un système d’invitations et de recherches.
• plusieurs applications sont par la suite proposées aux utilisateurs par le site
pour les inciter à être actifs.
La troisième caractéristique des réseaux sociaux : est la suppression des barrières de
communication, le réseau social permet de joindre un nombre considérable de personnes qui
se trouvent dans le monde entier. Dont le but est de renouer des liens avec des personnes que
l’on a perdues de vue et d’établir de nouvelles relations, ni l’âge, ni la région, ni le niveau
social, ne posent problème.
7|Page
Ils se caractérisent aussi par :
Un système de qualification des contacts par degré de séparation.
Un moteur de recherche.
Un système de contrôle des données.
Une reconnaissance automatique des personnes appartenant à son réseau et déjà
inscrites sur le site.
I.4.1 Les réseaux sociaux électroniques
I.4.1.1 Myspace
« Myspace » est un réseau social, accessible à tous ; C'est un site dont la cible principale est
les adolescents et les jeunes adultes. Il suffit de s'y connecter pour se faire des "amis", selon
ses affinités musicales, sportives, cinématographiques ou autres. Mais c'est aussi un puissant
outil de marketing, à la fois direct et individualisé. Créé en 2003, actif depuis janvier 2004
aux Etats-Unis, il s'est élargi à la Grande-Bretagne en 2005 puis à la France, à l'Allemagne et
au Japon.
I.4.1.2 Yoolink
L’idée du réseau social Yoolink est de découvrir et de partager des documents de toutes sortes
trouvés sur internet avec des personnes qu’on connaît, mais aussi avec d’autres, inconnues,
qui semblent intéressantes. Pour avoir accès simplement aux sites web, aux articles et vidéos
qu’un utilisateur enregistre publiquement on devient « fan » de lui, C’est une relation
asymétrique. Si à son tour l’utilisateur devient fan de nous alors nous devenons des amis.
I.4.1.3 Twitter
« Twitter » est un service de "microblogging" qui sert à suivre ce que font ou disent les autres
membres au travers de très courts messages (max 141 caractères). L'idée du service est de
publier très fréquemment (plusieurs fois par jour) des informations. Où on est anonyme et On
se relie aux autres en étant « à l’écoute » ou « écouté », la relation est asymétrique.
8|Page
I.4.1.3.1 La sécurité sur Twitter
Le réseau social Twitter a augmenté sa sécurité grâce au protocole HTTPS (Hypertext
Transfer Protocol Secure). Les usagers de Twitter peuvent se connecter au réseau en
utilisant en tout temps une connexion sécurisée à l'aide du protocole HTTPS, ce protocole
permet de créer un canal de transmission sécurisé pour une connexion internet en vérifiant
notamment la légitimité d'un site internet et s'il a été approuvé par des autorités reconnues.
I.4.1.4 Facebook
« Facebook » est un site de communauté où il est possible de faire de multiples rencontres, de
retrouver des amis d'enfance ou bien de nouveaux amis. De nombreuses informations y
circulent, ce qui demande une véritable sécurité sur le site de facebook(utilisateurs et leurs
données).
Il s’agit donc de retrouver des personnes réelles, l’identité des membres est public. La relation
est toujours symétrique. Pour permettre de discuter avec des gens qu’on ne connaît pas.
La particularité de Facebook : on peut choisir d'installer des programmes complémentaires et
on les partage avec nos «amis». On trouve des programmes en tous genres : partage de vidéo,
conseils, quiz, jeux, agendas, murs, forums.
I.4.1.4.1 La sécurité sur Facebook
Les points essentielle qu’on doit prendre en considération lors de l’utilisation de Facebook est
l’utilisation de mots de passe trop simples, la publication de dates de naissance complètes, le
fait de ne pas prêter attention aux réglages de confidentialité, etc.
Avec Facebook en particulier, les réglages de confidentialité sont généralement obscurs et peu
compréhensibles, du coup, ils sont souvent négligés par la majorité des utilisateurs.
Du coté de Facebook, la sécurité appliquée pour garantir la confidentialité des données est : le
contenu du profil qui peut être vu par tous, et quels sont ceux dont la consultation doit être
réservée au réseau de contacts. Par défaut, elle propose que le nom de l’utilisateur et la photo
du profil soient lisibles, de façon à aider les internautes à localiser des personnes qu'ils
connaissent. Les réglages peuvent ensuite être affinés pour tous les éléments du profil via la
9|Page
page « Confidentialité » pour que, par exemple, photos ou publications ne puissent être vus
que par un groupe de contacts donné (amis ou amis de mes amis…).
La sécurité en utilisant le protocole HTTPS est offerte à tous les membres de Facebook depuis
janvier 2011.
I.5 Les menaces sur les réseaux sociaux
On remarque aujourd’hui l’apparition d’un phénomène explosif incontrôlable des réseaux
sociaux, cette explosion provoque de grandes menaces. Voici quelques menaces auxquelles il
faut penser lors de l’utilisation de ce type de réseau:
I.5.1 Les Vers:
Le ver est un programme qui peut s'auto-reproduire et se déplacer à travers un réseau, sans
avoir réellement besoin d'un support physique ou logique (disque dur, programme hôte,
fichier, etc.) pour se propager; Par exemple le ver informatique Koobface, sur facebook ce
ver se propage en envoyant des messages aux amis des personnes dont l'ordinateur a été
infecté. Les messages envoyés portent des titres accrocheurs. Les destinataires se voient alors
proposer un lien vers un site où l'on demande de télécharger par exemple une fausse version
d'un lecteur de vidéo. Le virus profite alors du téléchargement de cette prétendue mise à jour
pour s'installer sur l'ordinateur.
I.5.2 Les Spams
Le spam ou spamming, également appelé pourriel par les Québécois, est l'envoi massif et
automatique, parfois répété, de courriers électroniques non sollicités, à des personnes avec
lesquelles l'expéditeur n'a jamais eu de contact et dont il a récupéré les adresses électroniques
de façon irrégulière. Aujourd’hui, les internautes passent davantage de temps sur les réseaux
sociaux que sur leurs boîtes emails. Fort de cette constatation, les spammeurs ont fait évoluer
leurs méthodes pour s’adapter au média en réalisant des applications malveillantes et de faux
profils.
I.5.3 Cheval de Troie : Un cheval de Troie est un programme caché dans un autre. Il exécute
des commandes sournoises, et donne un accès à la machine sur laquelle il est exécuté en
ouvrant une porte dérobée (backdoor). Les réseaux sont devenus de grands vecteurs de
chevaux de Troie par exemple :
10 | P a g e
Zeus : il s'agit d'un cheval de Troie bancaire puissant et populaire qui s'est vu offrir une
seconde jeunesse grâce à l'arrivée des réseaux sociaux.
URL Zone : Similaire à un cheval de Troie bancaire, mais plus intelligent, il peut évaluer la
valeur du compte de sa victime pour définir ses priorités.
I.5.4 Fuite de données : La raison d'être des réseaux sociaux est le partage.
Malheureusement, beaucoup d'utilisateurs partagent trop de choses au sujet de leur entreprise
et de leur vie privée : les projets, les produits, les finances, les changements organisationnels,
les scandales ou toute autre information sensible [Benjamin Vauchel , 2010] .
I.5.5 Les liens raccourcis : Un lien raccourci prend moins de caractères. Beaucoup
d’utilisateur web utilisent les services de raccourcissement d'URL tel-que (Tinyurl ou bit.ly).
Les pirates se font également un plaisir de cacher les liens de telle sorte que les victimes ne se
rendent pas compte qu'elles sont en train d'installer un malware sur leur PC par un simple clic.
Ces liens raccourcis sont facile à créer et universels ce qui fait que beaucoup d'utilisateurs de
Twitter raccourcissent automatiquement tous leurs liens.
I.5.6 Attaques de type Cross-Site Request Forgery : il ne s'agit pas d'un type de menace
spécifique mais plutôt d'une manière de répandre un vers sur les réseaux sociaux. Ce genre de
menace utilise l'utilisateur comme déclencheur. L'attaque étant enclenchée par l'utilisateur,
cela permet de contourner beaucoup de systèmes d'authentification, cette confiance exploitée
dans le système d'authentification permet de déclencher des actions de façon implicite
[Benjamin Vauchel , 2010] .
I.5.7 Usurpation d'identité : L'usurpation d'identité ou vol d’identité est le fait de prendre
délibérément l'identité d'une autre personne, généralement dans le but de réaliser une action
frauduleuse, comme accéder aux finances de la personne usurpée, ou de commettre en son
nom un délit ou d'accéder à des droits de façon indue. L’usurpation d’identité débute toujours
par la collecte de renseignements personnels sur l’individu. Les renseignements personnels
peuvent être le nom, le numéro de téléphone, la date de naissance, l’adresse, ou toute autre
information permettant d’identifier la personne. Les usurpateurs utilisent ensuite ces
informations pour effectuer une ou des transactions en simulant l’identité de la personne
fraudée [Benjamin Vauchel , 2010] .
11 | P a g e
I.6 Les méthodes proposées pour la sécurité des RS
Plusieurs méthodes ont été proposées pour faire face aux différents problèmes rencontrés lors
d’utilisation des réseaux sociaux, généralement, les chercheurs pensent à renforcer un contrôle
sur l’accès au réseau social et sur les données eux même :
I.6.1 Renforcement d’un contrôle d’accès dans un réseau social (Enforcing Access
control in social network sites)
Filipe Beato et son équipe ont proposé une méthode pour renforcer un contrôle sur l’accès à
un réseau social en utilisant des techniques cryptographiques, pour garantir la confidentialité
des données des utilisateurs, les auteurs ont utilisé OpenPGP il supporte de crypter
à
plusieurs récepteurs et il utilise le cryptage hybride [Filipe Beato et al, 2009].
Pour chaque utilisateur, les chercheurs ont proposé une clé OpenPGP secrète et publique lord
d’une connexion entre deux utilisateurs, ils doivent échanger leurs clés publiques pour qu’à la
suite ils doivent être sauvegardés localement et formé le cercle de confiance de l’utilisateur.
Cette clé publique OpenPGP peut être retirée par un serveur de clés en ligne, par un nom ou
un email.
Par exemple, deux utilisateurs veulent établir une connexion, l’un des deux accepte le
deuxième comme ami, il ajoute sa clé OpenPGP publique pour former le cercle de confiance
pour qu’il puisse ensuite poster ses messages cryptés.
I.6.1.1 Le modèle proposé
Le modèle proposé à une structure arborescente, du nœud profil de l’utilisateur, ce dernier est
catégorisé par deux types de classe (Figure I.2):
I.6.1.1.1 La classe des connexions : représentent les groupes et peuvent être divisés en sousgroupes, son rôle est de classifier les connexions de l’utilisateur, comme les amis, la famille et
les collègues.
I.6.1.1.2 La classe des contenus : représentent les données de contenu dans le profil de
l’utilisateur. Ces données de contenu peuvent être divisées en sous classes, comme les
données en rapport avec les loisirs, la famille, ou le travail. Pour définir le contrôle d’accès,
ils ont considéré que chaque classe représente un ensemble, donc un ensemble A est une sous
classe de B si A est inclus dans B , de cette façon les connexions et les contenus de
l’utilisateur forment un ensemble ordonné partiel.
12 | P a g e
I.6.1.2 Le contrôle d’accès : Le contrôle d’accès est défini par la correspondance entre les
connexions et les contenus. La structure de la classe permet une propagation facile des droits
d’accès, quand une nouvelle information est introduite dans une classe de contenu, tous les
membres qui font partie d’une classe de connexion et qui ont les droits d’accès au contenu,
auront l’accès à cette information. Aussi si une nouvelle connexion est ajoutée à une classe de
connexion, elle aura l’accès à toutes les informations auxquelles ces partenaires ont accès. Le
renforcement du contrôle d'accès pour les informations de l’utilisateur se fait par l’utilisateur
lui-même, en utilisant l'application prototype côté client, le fournisseur du SRS ne saura pas
qui à les droits d'accès à quoi.
Ce modèle permet à l'utilisateur de contrôler l'accès à ses informations de façon très fine
pendant que les utilisateurs qualifiés peuvent trouver cela intéressant, les gens moins qualifiés
ont besoin de quelques classes par défaut des connexions et des données, et avec préférence
une correspondance par défaut, dans laquelle un niveau d'intimité est spécifié. De cette façon,
on essaye de créer une bonne balance entre l’utilisabilité et la confidentialité.
All internet users
All SN users
Connection
User profile
Content
User U0
Hobbies
Friends
Family
Work
Public
Co-workers
Document d5
Document d1
User U3
Document d2
User U1
User U5
User U2
User U4
Document d3
Document d4
Figure I.2 L'approche proposée avec un exemple de contrôle d'accès.
La Figure I.2 représente un exemple de l'approche proposée, le profil de l'utilisateur est
divisé en sous-groupes de classes, formant une structure hiérarchique. Le graphe avec la
structure des connexions de l'utilisateur est représenté dans les serveurs du fournisseur du
13 | P a g e
SRS. L’utilisateur du RS fait confiance à un cercle d'amis, et les clés publiques
sont contrôlées sur le coté client par l'utilisateur lui-même.
Dans cet exemple en remarque que les membres de la classe « friends » ont le droit d’accès a
tous les documents de la classe « Hobbies » de l’utilisateur.
Le contrôle d'accès présenté dans cette méthode est du type RBAC (Rôle Based Access
Control).le contrôle d'accès est basé sur le classement des connexions et des contenus, et des
correspondances mises en place entre les deux. Si l'utilisateur appartient à une classe dans les
connexions d’un ami il possède le droit d’accès aux données relatives à son rôle.
I.6.1.3 Avantage et inconvénient
L’avantage de cette méthode est qu'elle groupe les liens en différentes parties et applique le
contrôle d'accès en se basant sur cette classification. L’inconvénient est qu’elle reste pesante
pour l'utilisateur qui doit connaître un minimum dans le fonctionnement de ce système de
contrôle d'accès sinon il doit être un expert.
I.6.2 Contrôle d'accès dans le Web 2.0 (More Content - Less Control : Access Control in
the Web 2.0)
Ce système est constitué par deux points essentiels : une spécification de politique
utilisable et une application automatique de la politique. Il y a déjà des résultats promettant
dans la conception des interfaces de politique utilisables qui prennent en charge le vide entre
le modèle mentale de l'utilisateur et la politique actuelle. Ces méthodes utilisent les
techniques du langage naturel, les modèles, et les guides pour faciliter les politiques lisibles
par les machines. L'approche qui utilise les modèles, peut permettre aux utilisateurs de
spécifier avec succès les politiques naturelles. De telle politiques sont courtes,
correspondent aux modèles mentaux des utilisateurs, et peuvent être appliquées globalement à
plusieurs documents [Michael Hart et al, 2008].
Un mécanisme est présenté après que la politique soit spécifiée pour l'appliquer
automatiquement à des documents existants ou nouveaux basé uniquement sur leurs contenus,
avec une intervention minimale ou inexistante de l'utilisateur.
Le système de contrôle d'accès peut implémenter des politiques basées sur le contenu en
réduisant le contenu à des tags sur le contenu ou l'utilisateur. Pour avoir ces tags, on peut
exploiter plusieurs techniques de l'apprentissage des machines et des procédés du langage
14 | P a g e
naturel. Ces méthodes extraient les métas informations des documents, nommées entités et
mentionnées dans le document, et d'autres phrases du texte du document qui statistiquement et
probablement résument son contenu. En se basant sur ses caractéristiques des documents on
peut déduire les tags appropriés d'un document en le comparant à d'autres documents avec des
caractéristiques similaires et des tags connus. Un tel système provoquera des erreurs
occasionnelles.
Au-delà de la spécification intuitive de la politique, ces techniques se confèrent de nouveaux
types de contrôle d'accès non faisable auparavant. Parmi de telles politiques existe le contrôle
d'accès basé sur l'affinité, où les commentaires sur un thème T sont visibles à des utilisateurs
qui ont démontré un réel intérêt au thème T, par exemple, en postant de façon répétée sur le
thème T. Cette politique est bien adaptée aux SRS où les gens veulent rencontrer d'autres gens
ayant les mêmes visions des choses sans exposer leurs vies privées à n'importe qui pouvant
les connaître comme leurs employeurs. Ce mécanisme peut aussi implémenter les politiques
«Need-to-know»de la forme, « seul les gens mentionnés dans cet affichage peuvent lire cet
affichage ».
Cette méthode de contrôle d'accès est du type contrôle d'accès discrétionnaire, les contenus
représentent les objets protégés, les autres utilisateurs représentent les sujets qui cherchent à
avoir l'accès, et les spécifications faites par le propriétaire représentent les droits d'accès.
I.6.2.1 Avantages et inconvénients :
L’avantage de cette méthode de contrôle d'accès est que l’utilisateur donne des spécifications
en entrant de simples phrases qui expriment sa volonté, donc il ne doit pas être un expert du
système pour préciser ce qu'il veut. L’inconvénient, est que ce système est basé sur les tags
extraits par les méthodes du langage naturel et les techniques de l'apprentissage des machines,
donc il peut ne pas être efficace, et peut provoquer des erreurs occasionnelles.
I.6.3 Gestion de la protection collective dans les réseaux sociaux (Collective Privacy
Management in Social Networks)
Les auteurs de cette méthode ont proposé une solution qui offre des moyens automatisés pour
partager des images sur la base d’une notion étendue de la propriété du contenu. Ils ont
proposé un mécanisme simple qui favorise la véracité, et qui récompense les utilisateurs qui
font la promotion copropriété. Ils ont intégré une conception de l'inférence technique qui
libère l'utilisateur de la charge de la main de la sélection des préférences de confidentialité de
chaque image [Anna C et al .2009].
15 | P a g e
I.6.3.1 Politiques de confidentialité dans le SRS
Dans ce modèle les auteurs ont proposé que pour chaque utilisateur i ∈ U ou (U est
l’ensemble des utilisateurs) applique localement des politiques de confidentialité de ses
données. Ces politiques de confidentialité sont des énoncés simples en précisant pour chaque
élément de propriété locale qui y ont accès, et dans le cas contraire, quel type d'opérations
peuvent être effectuées sur les données.
Exemple1 : Supposons qu'Alice souhaite que les amis de ses amis soient en mesure d'afficher
ses photos. Elle mettra en application une politique de type (i, 2) ou i représente les noms de
ses amis et leurs positions sera égale à (2), la propriété ami de ( Friend Of). Bob est l’ami de
Alice, dans ce cas, il satisfait la politique, tandis que John qui n’est pas l’ami d’Alice ne la
satisfait pas, John est l’ami de bob donc en peut dire que John et Alice sont indirectement
amis par l'intermédiaire d'un collègue de relation qui est (Bob).
I.6.3.2 La copropriété des données dans le SRS
Dans le SRS, les utilisateurs peuvent afficher des données sur leurs profils, ces données sont
généralement considérées comme appartenant au propriétaire profil. Le propriétaire du profil
est également appelé à prendre la responsabilité de gérer l'accès à ses données publiées.
Toutefois, les données publiées par le propriétaire du profil peuvent appartenir aussi à un
autre utilisateur. Par exemple, les documents peuvent être co-auteur c’est à dire qu’ils
appartiennent à plusieurs personnes. Plusieurs utilisateurs peuvent apparaître dans une même
image, il y va de même pour d'autres types de données, tels que les vidéos. Toutefois, si les
messages d'Alice d’un document dans son profil, qui peut aussi appartenir à Bob, elle est
chargée de fixer les règles de confidentialité du document, indépendamment du fait que Bob
est heureux avec sa politique ou non. Ces simples observations conduisent naturellement à
l'idée de soutenir la copropriété (ou les parties prenantes) dans le RS, pour indiquer l'ensemble
des utilisateurs qui sont propriétaires d'un morceau de données, quel que soit d'où ces données
ont été postées (par exemple, dans n’importe quel profil).
Afin d'identifier les copropriétaires d'un morceau de données, ils ont effectué une
classification générale des utilisateurs en fonction de leur relation.
Ils ont concentré leurs présentations sur les images photo ou images, bien que l'idée principale
derrière est suffisamment générale pour être appliquée pour d'autres données.
Les utilisateurs peuvent être classés en tant que spectateurs, initiateurs et propriétaires. Les
utilisateurs qui sont autorisés à accéder à la donnée sont définis en tant que spectateurs.
16 | P a g e
L’initiateur ou le donneur d'ordre est l'utilisateur ayant initialement posté les données sur un
profil donné. Enfin, les propriétaires sont les utilisateurs qui partagent des privilèges de
propriété avec l'auteur sein du réseau social.
Les propriétaires potentiels d'un élément de données envoyé sur un profil sont identifiés en
utilisant les caractéristiques de marquage pris en charge par le SRS. En général, le marquage
se compose d'annoter le contenu social par des moyens pour mettre des mots librement choisis
[X. Wu, L. Zhang, 2006]. Dans le cas des images, ils ont employé un type spécifique de tags
largement utilisé dans Facebook . Ces balises, connus sous le nom id-tags, donne la possibilité
aux utilisateurs d’ajouter des étiquettes sur les images pour indiquer les utilisateurs qui
apparaissent dans ces image. Par conséquent, chaque id-tag correspond essentiellement à
l’identifiant d'utilisateur unique. En s'appuyant sur id-tags, on peut facilement identifier les
propriétaires potentiels dans une image donnée.
Exemple. Considérons qu’Alice, Bob et John, font partie du réseau social Facebook. Alice et
Bob sont des amis, mais Bob et John sont des collègues. Alice a participé à une fête organisée
pour les employés de la société où Bob et John sont employés. Alice a pris des photos avec
Bob dans lequel apparaît également John et les affiche sur son profil FaceBook. John
demande à Alice de devenir propriétaire des images dans lequel il apparaît. Alice a décidé de
donner la propriété des images contenues dans l'album de la fête à tous les utilisateurs x tels
que la propriété {Ami de et collègue de} est de la forme (Alice, 2). Donc Alice et John ont un
degré de séparation égale à deux, alors John devient propriétaire.
I.6.3.3 La collaboration des exigences de partage
En cas de propriété mono-utilisateur, l'application de la politique de la vie privée pour un
morceau de données est simple. L'utilisateur définit sa politique de confidentialité en fonction
de ses préférences de confidentialité. La politique de confidentialité va être affichée par
l'utilisateur donné, en indiquant la distance et le type de relations que les téléspectateurs
devraient avoir avec le propriétaire.
Une approche de base de données de type, où il y’a différents propriétaires pourraient
ne pas fonctionner, car cette approche peut entraîner des violations de la confidentialité. Par
exemple, Alice peut exiger qu’un groupe de ses amis peut voir une image publiée, par contre
Bob veut laisser cette même image publique à tous ses amis. De toute évidence, John qui n'est
pas un ami d'Alice, se connecte au réseau social et accède à l'image à travers le profil de Bob,
17 | P a g e
il viole la vie privée d'Alice. Sur la base de ces considérations, les auteurs on proposer des
exigences de base pour la gestion de la vie privée de collaboration:
I.6.3.3.1 L'intégrité du contenu: Les données ne devraient pas être modifiées, ou divulguées
de façon sélective. En d'autres termes, les données de type documents texte ne doivent pas
être modifiées pour satisfaire les préférences des individus en conflit.
I.6.3.3.2 Semi-automatique : Le processus de construction des politiques d'accès ne doit pas
compter uniquement sur la saisie manuelle de l'utilisateur pour chaque donnée, mais les
utilisateurs doivent tirer parti des décisions antérieures et d'en tirer le contexte actuel.
I.6.3.3.3 Adaptative: Quand un nouveau propriétaire est ajouté pour les données, il doit être
pris en compte, même si la politique d'accès aux donnés a été déjà mise en place.
I.6.3.3.4 Groupe de correspondance: L'algorithme doit tirer parti de l'information des
individus à développer une politique collective.
I.6.3.4 Avantages et inconvénients :
Cette méthode est très intéressante pour le partage des données, qui autorise plusieurs
utilisateurs à être propriétaires d’une même donnée. Mais elle cause des conflits. Si chaque
utilisateur veut poser sa propre propriété de contenu, car il est très difficile que plusieurs
personnes s’entendent.
I.6.4 Contrôle d'accès en utilisant une collaboration dans les réseaux sociaux (PrivacyAware Collaborative Access Control in Web-Based Social Networks)
Dans cette méthode les auteurs ont proposé une solution pour concevoir la vie privée par des
mécanismes de contrôle d'accès en mesure d'effectuer un partage pour contrôler les ressources
et dans le même temps, satisfaire les exigences de confidentialité des utilisateurs des réseaux
sociaux par rapport à leurs relations.
Ils ont appliqué un contrôle d'accès grâce à une collaboration de nœuds sélectionnés dans le
réseau [Barbara Carminati et Elena Ferrari, 2009].
18 | P a g e
(fof : friend of)
(cof : colleague of)
C
(cof ,0.7)
(fof ,0.8)
(fof ,1)
A
R
(fof ,1)
(fof ,0.6)
(fof ,0.8)
(cof ,0.5)
(fof ,0.8)
M
(fof ,0.2)
T
Figure I.3 : Une partie d'un web site social network (WBSN)
L’application de contrôle repose sur un nœud central de stockage des certificats chiffrés à
être utilisés pour obtenir l’accès à une ressource.
Barbara Carminati et Elena Ferrari en 2009, ont proposé un mécanisme d'exécution
alternative, où l'application de contrôle est obtenue grâce à une collaboration des nœuds
sélectionnés dans le réseau.
Dans ce qui suit fof désigne friend of (ami de) , cof désigne colleague of (collègue de) et DR
(Règle de Diffusion) et AR (Règle d’Accès).
La figure I.3 représente un exemple simple de WBSN, le nœud initial d'une arête est le nœud
qui à créé la relation de correspondance. Le label associé à désigner les bords, respectivement,
le type et Le niveau de confiance de la relation correspondante. En référence à la figure I.3,
Alex (A) est l'ami (fof) à la fois de Carl (C) et Mark (M). Alex (A) fait confiance à Carl (C)
plus que Mark (M). Alex (A) et Ted (T) sont des amis indirects en raison des relations
existantes fof entre (A) et (M) , et (M) et (T). Carl (C) est également un collègue de (cof)
Alex (A), et la confiance attribuée à cette relation par Carl (C) est de 0,7.
Exemple 2. Supposons que, doc1 est une ressource d’Alex (A). Et Alex (A) souhaite faire
doc1 accessible uniquement à ses effets directs ou entre amis indirecte de la profondeur
maximale de trois, avec la contrainte que leur niveau de confiance doit être au moins égal à
19 | P a g e
0,8. Ces exigences peuvent être exprimées par les règles d'accès suivantes: AR1 = (doc1,
{((A), fof, 3,0.8)}).
En revanche, supposons que (A) spécifie la suite de la diffusion règle DR
3), cela signifie que la relation de type fof existant entre (A)
fof
AM
= ((A), fof,
et (M) ne peut être
communiquée qu'aux amis de la profondeur maximale égale à trois, qui est, (M), (T), (R) et
(C). Enfin, si (M) précise la règle de répartition suivante: DR
fof
AT
= ((M), fof, 2), cela
signifie que la relation de type fof existant entre (M) et (T) ne peut être vue que par des amis
directs de M et par les amis des amis directs de M, qui est, (T), (R) et (C).
I.6.4.1 Le protocole de contrôle d’accès
L’application de contrôle d'accès est obtenue par une collaboration entre les nœuds du RS. La
collaboration a pour but d'identifier un chemin dans la RS satisfaisant les exigences énoncées
par les règles d'accès spécifié pour la ressource demandée. La notion de parcours est
formalisée comme suit :
I.6.4.1.1 Définition 1 (Relationship path) : SN = ( VSN , ESN , RTSN , TSN , QESN ) est un
WBSN Une relation chemin dans le SN est une paire de (rt, node_list), ou rt ∈ RTSN est un
type de relation et node_list est une liste de nœuds ordonnés (n1….nk), n1….nk ∈ VSN et pour
chaque pair ni , ni+1 ∈ node_list , i=1,…..k-1, il existe une arête (ni , ni+1) ∈ ESN marque avec
rt qui est le type de relation.
Chaque nœud recevant une demande de collaboration doit être en mesure de vérifier si les
nœuds précédents ont correctement appliqué les règles de diffusion pour toutes les relations
dans le chemin. A cet effet, chaque nœud doit insérer dans le message à envoyer au prochain
nœud, le processus de collaboration, plus les règles de diffusion, et bien sûr sa signature. En
outre, ce nœud doit vérifier toutes les signatures des règles de diffusions contenues dans le
message qu'il a reçu, et si elles sont correctement appliquées par les nœuds précédents.
Les règles de diffusion et de signatures correspondantes pour les relations dans un chemin
d'accès sont stockées dans une base de données structurée appelée Onion signature.
I.6.4.1.2 Définition 2 (Onion signature) : P= ( rt , node_list) ou rt est un chemin de relation
pour un réseau social SN et node_list est une liste de nœuds ordonnés (n1….nk). La signature
du chemin p est appelée Onion signature(p) est une paire de (DRrtni,ni+1 , Signature i),
i=1,…..k-1 ou DRrtni,ni+1 est la distribution des règles spécifiées par le nœud ni pour la relation
de type rt qui connecte ni par ni+1 on considèrent la Signature = Signk(Signkrt
1(…Sign(DR ni,ni+1))).
20 | P a g e
Exemple 3 Considérons le WBSN de la figure 3 et les règles de répartition de l’exemple 2. Ce
qui suit est un exemple de chemin de relation: (fof, ((A), (M), (T))) indiquant qu'il existe une
relation indirecte de type fof entre (A) et (T). accordée par les règles de distribution mis en
place dans l'exemple 2.
La signature correspondante à exemple3 est la suivante: (((A, fof, 3), SignT (SignM (SignA
(A.fof, 3 )))),(( M, fof, 2), SignT (SignM (M, fof, 2 )))).
I.6.4.2 Avantages et inconvénients :
L’avantage de cette méthode est qu’elle permet un réel contrôle sur le partage des donnés, elle
peut exiger réellement qui sont les personnes qui ont le droit pour accéder aux données.
L’inconvénient est de faire collaborer plusieurs nœuds ce qui peut diminuer l’efficacité de
cette méthode. En plus le degré de confiance attribué à chaque nœud n’est pas bien déterminé.
I.6.5 La sécurité des réseaux sociaux:
Cette méthode est proposée pour restreindre ou annuler le champ d’action d’un attaquant en
utilisant un contrôle appliqué avant de donner l’accès au réseau social.
L’utilisateur du réseau social doit montrer un réel intérêt pour le réseau, le système de
contrôle d’accès prend les tags introduits par l’utilisateur, ces tags représentent les centres
d’intérêt de l’utilisateur, ensuite le système de contrôle d’accès les compare aux tags de
chaque groupe du site et cherche les correspondances.
S’il n’ya pas de correspondance, l’utilisateur se voit refuser l’accès. Si une correspondance est
trouvée, le système de contrôle d’accès autorise l’utilisateur à accéder au site et le classe dans
le groupe qui correspond à ses centres d’intérêts [Belhocine A, 2010].
I.7 Conclusion
Les réseaux sociaux sont utilisés de plus en plus sur une grande échelle de la société, ce point
critique a fait des réseaux sociaux une plateforme intéressante pour les cybercriminels
concernant le vol de données personnelles, l’usurpation d’identité, Etc.
Ce chapitre présente les différents types des réseaux sociaux et leurs caractéristiques, nous
avons essayé de citer les menaces qui entourent ce domaine et résumé les méthodes qui ont
été proposées pour résoudre les problèmes de sécurité.
21 | P a g e
Bibliographie
[Tichy, 1981] : Tichy, N. M “Networks in organizations”, in Nystrom and Starbuck (Eds)
Handbook of Organizational Design, Vol. 2, Oxford University Press, New York, 1981.
[Giles Hogben & ENISA, 2007] : Giles Hogben & ENISA, "security issues and
recommendations for online social networks", ENISA Report, Greece, http://www.
enisa.europa.eu/ doc/pdf/ deliverables/enisa_pp_social_networks .pdf, 2007.
[Dajana Kapusova Leconte, 2008] : Dajana Kapusova Leconte “ développement
d’un
logiciel de réseau social comme soutien à une communauté de pratique ”, Mémoire présenté
pour l’obtention du DESS STAF Sciences et Technologies de l’Apprentissage et de la
Formation TECFA, Juin 2008.
[Philippe Torloting, 2006]: Philippe Torloting “ Enjeux et perspectives des réseaux
sociaux ”, Institut supérieur de commerce de paris, Marketing, Management et technologie de
l’information 2006.
[Benjamin Vauchel, 2010] : Benjamin Vauchel “ Dix menaces de piratage sur les réseaux
sociaux ”, http://securite.reseaux-telecoms.net/actualites/lire-dix-menaces-de-piratage-sur-lesreseaux-sociaux-22378-page-2.html, 26/07/2010.
[Filipe Beato et al, 2009]: Filipe Beato, Markulf kohlweiss etKarel Wouters: “Enforcing
Access control” in sociallnetworksites,.http://www.cosicesat.kuleuven.be/publication/article
1240. pdf, 2009.
[Michael Hart et al, 2008]: Michael Hart, Rob Johnson, & Amanda Stent, “More Content –
Less Control: Access Control in the Web 2.0”, Seventh International Workshop on Software
and Performance (WOSP'08),ACM,NJ,USA.http://www. cs.stonybrook.edu/~rob/papers/cbac
w2sp07.pdf, 2008.
[Anna C et al, 2009]: Anna C. Squicciarini et Mohamed Shehab et Federica Paci “ Collective
Privacy Management in Social Networks ” Track: Security and Privacy / Session: Web
Privacy, WWW MADRID, p521, 2009.
22 | P a g e
[Barbara C et Elena F, 2009]: Barbara Carminati and Elena Ferrari “ Privacy-Aware
Collaborative Access Control in Web-Based Social Networks ” , University of Insubria 22100
Varese, Italy , 2009.
[Belhocine A, 2010] : Belhocine Amine : “ sécurité des réseaux sociaux ”, Mémoire présenté
Pour l’obtention du diplôme de Magistère, Département d’informatique, USTO-MB, 2010.
23 | P a g e
Chapitre II
Le Système
Immunitaire
Chapitre II
Le système immunitaire
II.1 Introduction
Les méthodes bios inspirées tel que les réseaux de neurone, les algorithmes génétiques et les
systèmes immunitaires artificiels ont tous été inspirés d’un mécanisme naturel. Nous sommes
tous nés avec un système de défense naturelle à base génétique, ce système nous permet de
défendre notre corps des maladies. Le bon fonctionnement de défense de ce système contre
les attaques pathogènes à poussé les chercheurs à réaliser un système artificiel (AIS)
compatible pour résoudre les problèmes qui ont reconnu un échec en informatique. Dans ce
chapitre nous allons présenter le système immunitaire naturel, son fonctionnement, ses points
forts, le passage vers le système immunitaire artificiel et les algorithmes utilisés dans ce
système.
II.2 Le système immunitaire naturel
Un système immunitaire naturel est un système avec lequel l'organisme se défend contre les
attaques des agents pathogènes de l'environnement (bactéries, virus, champignons
microscopiques, parasites), et aussi contre ses propres constituants lorsque ceux-là présentent
une anomalie (cancérisation, vieillissement cellulaire), donc le système immunitaire nous
protège contre les maladies.
II.2.1 Définition
Il existe plusieurs définitions pour les systèmes immunitaires naturels :
Selon Roitt Le système immunitaire est responsable de la défense de l’organisme contre les
maladies et autres infections. C’est un système complexe de molécules, cellules et tissus
capables de reconnaître aussi bien les cellules anormales du soi que les microorganismes
exogènes (antigènes) [Roitt, 1990].
Selon De Castro .L.N & Von Zuben .F.J un système immunitaire est une collection
de cellules, des molécules et des organes. Il représente un mécanisme d’identification capable
25 | P a g e
de percevoir et de combattre le dysfonctionnement de ses propres cellules et les microorganismes exogènes infectieux qui envahissent le corps [De Castro .L.N & Von Zuben
.F.J, 1999].
II.2.2 Architecture d’un système immunitaire naturel
Le système immunitaire est divisé en deux systèmes de défenses principaux:
Un qui est présent dès la naissance de l’individu, c’est le système immunitaire inné; et
l’autre est un système immunitaire adaptatif qui représente l’ensemble des défenses
acquises au cours du temps [Roitt, 1990].
Leucocytes
Innés
Adaptatifs
Lymphocytes
Macrophage
Monocytes
Cellules-T
Cellules-B
Plasma
Cellules
Mémoires
Figure II.1 : Hiérarchie des cellules immunitaires.
Les leucocytes ou globules blancs sont des cellules du système immunitaire décomposé en deux :
Cellules du système immunitaire inné et cellules du système immunitaire adaptatif.
Les deux systèmes immunitaires inné et adaptatif dépendent de la capacité du système
immunitaire de distinguer entre les molécules du soi et du non-soi.
II.2.2.1 Le système immunitaire inné
Reconnait et réagit aux agents pathogènes d'une manière générique donc il représente la
première ligne de défense contre les antigènes et inclut des éléments tels que la peau et les
muqueuses.
26 | P a g e
II.2.2.1.1 La peau
C’est le premier bouclier, à condition qu'elle soit en bon état. Dès qu'un corps étranger se pose
sur celle-ci, une réaction réflexe se produit au niveau de tout l'organisme, déclenchant un état
de défense. Si la peau est de bonne qualité, le microbe est neutralisé et détruit instantanément.
La lutte s'arrête là [Philippe DARGERE, 2005].
II.2.2.1.2 Les muqueuses (poumons - tube digestif - intestin)
Elles sont recouvertes intérieurement d'un film protecteur : le mucus. Souvent asséchées, ces
barrières ne remplissent plus leur rôle de protection [Philippe DARGERE, 2005].
Les cellules impliquées dans la réponse innée sont appelées phagocytes et incluent dans leurs
rangs les monocytes et les macrophages [Lyddyard et al., 2002].
II.2.2.1.3 Les phagocytes
Se lient aux agents infectieux pour les ingérer. Une fois digéré, l’antigène est découpé en
plusieurs morceaux qui sont présentés par les macrophages comme un signal de présence de
l’agent infectieux. Les cellules qui effectuent cette tâche de signalisation sont appelées
cellules présentatrices d’antigènes. Ce signal peut être utilisé pour stimuler d’autres
phagocytes et/ou la réponse immunitaire adaptative.
II.2.2.1.4 Les monocytes
Variété de globule blanc de grande dimension, c’est une cellule jeune destiné à devenir un
macrophage dont le but est de capter et de digérer les éléments étrangers à l'organisme.
II.2.2.1.5 Les macrophages
Le macrophage est une variété de globule blanc, de grande taille, ayant la propriété d'absorber
et de détruire de grosses particules comme une cellule abîmée ou âgée, mais aussi des
éléments étrangers (bactéries, virus, champignons, etc.).
Le système immunitaire inné est composé d’un ensemble de cellules spécialisées dont le rôle
principal est la liaison avec des modèles moléculaires trouvés dans des micro-organismes.
Le système immunitaire inné ne peut pas assurer la protection complète du corps. Il est
caractérisé par [LABED, 2006] :
Les mécanismes de détection des organismes sont constants, aussi bien pour les
infections répétées.
La réponse du système immunitaire inné est non spécifique à un type particulier
d’intrus mais elle est identique contre tous les pathogènes qui envahissent le corps.
27 | P a g e
Il joue un rôle vital pour l’initialisation et la régularisation de la réponse immunitaire
adaptative.
II.2.2.2 Le système immunitaire adaptatif
La réponse immunitaire adaptative est responsable de la protection de l’organisme contre les
microorganismes infectieux non rencontrés auparavant. Ce système est capable d’apprendre et
de se rappeler les formes moléculaires présentées par les antigènes. Les cellules impliquées
dans la réponse immunitaire adaptative sont appelées lymphocytes, et peuvent être divisés en
deux catégories : les cellules B et les cellules T. les cellules B se développent dans la moelle
et les cellules T dans le Thymus [DENECHE, 2006].
Le système immunitaire adaptatif est caractérisé par [LABED, 2006] :
Le système immunitaire adaptatif s’occupe des intrus qui ne sont pas détectés par le
système immunitaire inné.
Le système immunitaire adaptatif est généré dynamiquement contre les organismes
étrangers pendant sa durée de vie. Il fournit des mécanismes plus efficaces qui seront
adaptés aux changements antigéniques.
Le système adaptatif est adressé à des intrus spécifiques.
La présence d’une mémoire immunologique qui permet aux cellules de se souvenir des
intrus déjà rencontrés lors des prochaines rencontres.
II.2.2.2.1 Lymphocytes
Cellule du système immunitaire, responsable des réactions de défense de l’organisme contre
les substances qu’il considère comme étrangère. Les lymphocytes appartiennent à la famille
des leucocytes (globules blancs) ; il représente environ 20 à 30% des leucocytes du sang
[Larousse médicale, 2006].
II.2.2.2.1.1 Les cellules T
Il existe deux types de cellule T :
Les cellules T d’aide ou (T helper) : les cellules T d’aide représentées dans la (figure II.2)
assurent des fonctions essentielles pour la régularisation de la réponse immunitaire par
exemple l’activation ou la suppression du développement de certain type de réponse
immunitaire.
Les cellules T cytotoxiques ou (T killer) : Les cellules T cytotoxiques représentées dans la
(figure II.3) assurent des fonctions de suppression des envahisseurs microbiens, des virus ou
les cellules cancéreuses. Ainsi, les cellules T présentent des récepteurs sur leur surface.
28 | P a g e
Figure II.2 : Cellule T d’aide
Figure II.3 : Cellule T cytotoxiques
II.2.2.2.1.1 Les cellules B
Les lymphocytes B représentés dans la (figure II.4) fabriquent des protéines appelées
anticorps, spécifiques d'un antigène donné. Elles sont produites dans la moelle osseuse et tout
comme les cellules-T, elles migrent vers les tissus lymphoïdes secondaires où elles répondent
aux antigènes étrangers. Les anticorps qui se trouvent sur leur surface sont leurs récepteurs
d’antigènes.
Moelle osseuse
Figure II.4 : Cellule B
Lorsque les cellule B sont activées par l’antigène la plupart du temps avec l’aide de la celluleT, elles prolifèrent et atteignent la maturité formant des cellules à mémoire, qui restent
capables de répondre à l’antigène si celui-ci est réintroduit et en plasmocytes (des usines
29 | P a g e
produisant et secrétant de grandes quantités d’anticorps de même spécifié que celle du
récepteur de l’antigène se trouvant sur la cellule-B parente) [YAHIAOUI, 2010].
Un anticorps comme illustre la figure II.5 est constitué de deux régions principales, la région
variable (VH et VL), qui détermine le type d’antigène avec lequel cet anticorps peut se lier ;
et la région constante (CH et CL), qui permet entre autre aux macrophages d’ingérer plus
facilement l’antigène.
Chaque cellule B produit un seul type d’anticorps.
Figure II.5 : Structure d’un anticorps
II.2.2.3 Antigènes
Substance (généralement étrangère à l’organisme), susceptible de déclencher une réaction
immunitaire en provoquant la formation d’anticorps .Un antigène peut être soit un virus, une
bactérie, un parasite ou des cellules altérées de l’organisme (infectés par un germe ou
tumorales) [Larousse médicale, 2006].
Le système immunitaire considère l’intrus comme possédant un nombre d’antigènes. Un
antigène est une substance qui provoque une réponse immunitaire sous forme de prolifération
de lymphocytes et la production d’anticorps spécifiques pour l’antigène introduit. Celui-ci
contient habituellement des protéines, des glucides, des lipides et des acides nucléiques. La
même réponse peut être produite virtuellement à tout ce qui est introduit dans une forme
semblable [Lyddyard et al., 2002].
II.2.2.4 Comment le système immunitaire assure t-il la protection du corps
humain ?
Lors de la pénétration d’un intrus dans le corps illustré dans la figure II.8, les cellules de
présentation antigénique comme les macrophages procèdent à l’ingestion et la digestion de
l’antigène rencontré pour le présenter comme des fragments de peptides antigéniques.
30 | P a g e
Ces peptides seront liées avec les molécules MHC (MHC : Major Histocompatibility
Complex) pour permettre leurs liaisons avec les cellules T qui ont la capacité de reconnaître la
combinaison de peptide / MHC, car les cellules T sont incapables de reconnaitre l’antigène
directement, la reconnaissance de la composition de peptide/MHC est illustrée dans la figure
II.6 :
Antigène
Peptides
Figure II.6 : Reconnaissance de la cellule T de la combinaison de peptide / MHC
Après que la combinaison peptide / MHC est reconnue par les cellules T, ces dernières seront
activées en produisant et sécrétant des lymphokines ou des signaux chimiques pour mobiliser
d’autres composants du système immunitaire.
Les cellules B qui ont aussi des molécules de récepteur complémentaires répondent à ces
signaux. À la différence des récepteurs de cellules T, ceux de cellules B peuvent reconnaître
les parties d’antigènes libres sans les molécules MHC, Reconnaissance de l’antigène
protéique ou non protéique illustré dans la figure II.7 :
Antigène
B
Figure II.7 : Reconnaissance de la cellule B l’antigène protéique ou non protéique
31 | P a g e
Après cette activation, les cellules B prolifèrent et se différencient et sécrètent des protéines
d’anticorps.
La liaison entre les anticorps et les antigènes disponibles mènent à la destruction et la
suppression des antigènes.
Un nombre de cellules B et T deviennent des cellules mémoires pour permettre l’élimination
rapide de l’antigène s’il se présente une autre fois dans l’avenir.
Figure II.8 : Le processus de base de défense immunitaire
II.2.2.5 Le principe de la sélection clonale
La théorie de la sélection clonale illustrée dans la figure II.9 décrit les conséquences de la
réponse immunitaire suite à un stimulus antigénique en assurant que seules les cellules qui
reconnaissent l’antigène subissent des proliférations et des différentiations.
Le principe de la sélection clonale réside au niveau des cellules-T et des cellules-B, les
cellules-B subissent une mutation somatique pendant la reproduction aussi les cellules-B
plasma sont des cellules actives donc elles sécrètent des anticorps, par contre les cellules-T ne
subissent pas une mutation pendant la reproduction, et les cellules-T plasma sont
principalement des cellules actives secrétant des lymphokines (TK).
32 | P a g e
Quand un nouvel antigène pénètre dans le corps, il faut plusieurs jours avant que des anticorps
efficaces apparaissent dans le sang. Par contre quand un antigène similaire pénètre dans le
corps pour une seconde fois les anticorps correspondants sont produits beaucoup plus
rapidement et en plus grandes quantités et c’est grâce aux cellules mémoire issues de la
première infection, On dit que le système est devenu immunisé contre l’antigène, ou encore
qu’il l’a mémorisé.
Figure II.9 : Le principe de la sélection clonale.
Les propriétés principales de la théorie de la sélection clonale sont:
Sélection négative : son rôle est d’éliminer les lymphocytes nouvellement différenciés
et qui réagissent avec les modèles antigéniques portés par des composants du soi,
appelés antigènes-soi ;
Expansion clonale : son rôle est de faire proliférer et différencier les lymphocytes
mûrs avec les antigènes étrangers après le contact de ces derniers dans le corps.
Mono-spécificité : la restriction phénotypique d'un modèle à une cellule différencié et
la conservation de ce modèle par les clones descendants.
33 | P a g e
Hypermutation somatique : génération de nouveaux changements génétiques
aléatoires, plus tard exprimée comme des modèles divers d'anticorps par une forme de
mutation somatique accélérée.
Auto-immunité : le concept des clones résistant à l'élimination précoce par les
antigènes-soi est la base des maladies auto-immunes.
II.2.2.6 La distinction entre le soi et le non soi
Comment le système immunitaire, se comporte quand il est confronté à un antigène de soi
(une autre appellation pour les propres cellules du corps humain) ?
Le système immunitaire doit être capable d’identifier ses propres molécules (le soi), des
molécules étrangères. Les cellules T sont chargés de faire la distinction entre le soi et le non
soi [Roitt, 90].
Pour garantir que les cellules T matures ne vont jamais se lier avec des molécules du soi. Ces
cellules mémoire doivent être confrontées à un échantillon de molécules du soi durant leur
maturation dans le thymus.
Si une cellule T est activée en présence de cet échantillon, elle doit être immédiatement
détruite. Ceci veut dire aussi si une cellule T se lie à une certaine molécule, cette dernière est
forcément une molécule non soi.
Les cellules B sont activées que par les signaux chimiques dégagés par les cellules T pour
confirmer la présence d’un antigène, ceci veut dire que même si une cellule B reconnait
l’antigène elle ne peut s’activer que par un signal d’une cellule T.
II.2.2.7 Apprentissage
L’apprentissage tente de définir des modèles de référence ou de caractériser des « classes » de
décision. Il permet ainsi de dicter au système, l’algorithme de décision le plus adéquat vis-àvis des règles de modélisation choisies [YAHIAOUI, 2010].
Il existe l’apprentissage supervisé où les différentes familles des formes sont connues à priori.
Et la tache d’apprentissage est guidée par un superviseur. Il y a aussi l’apprentissage non
supervisé ou un apprentissage sans professeur, dans ce type d’apprentissage les classes et leur
nombre sont inconnus en plus il ne nécessite pas un superviseur.
II.2.2.8 Sélection positive
L’objectif de la sélection positive des lymphocytes (T et B) est d'éviter l'accumulation des
lymphocytes inutiles avec aucun récepteur ou avec des récepteurs qui sont improductifs pour
l’organisme.
34 | P a g e
Pour les cellules T : Le processus de la sélection positive doit s'assurer que les cellules-T
matures quittant le thymus vers tout le corps sont activées seulement par des antigènes
étrangers présentés par des molécules de soi-MHC.
Pour les cellules B : Les cellules B dans la sélection positive se prolifèrent et subissent
ensuite des hypermutations somatiques étendus des régions V (la région variable ,VH et VL)
de leurs anticorps.
L’hypermutation somatique est un mécanisme
qui permet la reproduction de nouvelles
cellules qui sont des sosies de leurs parents. Ces clones seront soumis à un mécanisme de
mutation avec des taux très élevés (plus haut que des taux de mutation de cellules ordinaires).
Ce mécanisme permet au système immunitaire d'augmenter la capacité d'identification des
anticorps par rapport à un antigène sélectif.
II.2.2.9 La sélection négative
La sélection négative d'un lymphocyte décrit le processus par lequel une interaction
lymphocyte-antigène ait comme conséquence la mort (ou l'anergie) de ce lymphocyte
[YAHIAOUI, 2010].
Pour les cellules T : Le processus de la sélection négative permet l’élimination des cellules T
naïves qui peuvent reconnaître un antigène de soi. Les cellules T naïves qui ne reconnaissent
aucun antigène du soi dans le thymus seront libérées pour la recherche éventuelle des cellules
de non soi.
Pour les cellules B : quand les cellules B immatures identifient les cellules du soi, elles seront
éliminées. Ce mécanisme est appliqué seulement sur les cellules B immatures dans la moelle
osseuse.
II.2.2.10 Les réseaux immunitaires :
Formellement un système immunitaire est défini comme un énorme réseau de paratopes qui
reconnaissent des ensembles d’épitopes, et des épitopes qui sont reconnus par des ensembles
de paratopes, donc chaque cellule peut aussi bien reconnaître qu’être reconnue. Les éléments
importants du réseau ne sont pas seulement les molécules, mais aussi les interactions entre ces
molécules.
La théorie du réseau immunitaire a été proposée par « Jerne »,
qui a suggéré que les
interactions au sein du système immunitaire ne se limitent pas entre anticorps et antigènes,
mais aussi entre les anticorps même en absence d’un stimulus antigénique. Cette interaction
est assurée par des récepteurs spécialisés présents sur la surface des anticorps appelés :
idiotope. Alors, le système immunitaire est formellement défini par un réseau énorme et
35 | P a g e
complexe de paratopes reconnus par un ensemble d'idiotopes et d'idiotopes reconnus par un
ensemble de paratopes. Ainsi, chaque élément pourrait reconnaître aussi bien qu'être reconnu
[Jerne. N. K, 1974].
Les cellules immunitaires peuvent répondre positivement ou négativement à un signal de
reconnaissance (d’un antigène ou d’une autre cellule immunitaire), ce mécanisme est
représenté dans la figure II.10. Une réponse positive induit l’activation de la cellule, sa
prolifération et la sécrétion d’anticorps ; alors qu’une réponse négative conduit à la tolérance
et à la suppression [DENECHE, 2006].
Figure II.10 : Activation/suppression d’un anticorps
Selon deCastro et VonZuben en 2001, le fonctionnement d’un réseau immunitaire est
comme suit :
Le système immunitaire entre en contact avec un antigène (Ag), son épitope est
reconnu par un ensemble de paratopes différents (Pa).
L’ensemble d’épitopes (Ib) est appelé l’image interne de l’épitope (ou antigène) parce
qu’il peut être reconnu par le même ensemble Pa qui a reconnu l’antigène.
Chaque épitope de l’ensemble Ia est reconnue par un ensemble de paratopes. Donc, la
totalité de l’ensemble Ia est reconnue par un ensemble encore plus large de paratopes
Pc associé à un ensemble d’épitopes Ic.
Dans la figure II.11 Les flèches indiquent une stimulation lorsque les épitopes sont
reconnus par les paratopes des récepteurs des cellules.
Une suppression lorsque des paratopes reconnaissent les épitopes des récepteurs des
cellules.
36 | P a g e
Figure II.11 : Principe des réseaux immunitaires
II.2.2.11 Les caractéristique du système immunitaire
Le système immunitaire est doté de plusieurs caractéristiques parmi lesquelles nous pouvons
citer :
Multicouche : Le système immunitaire possède une architecture multicouches qui
consiste en deux sous systèmes inter-liés qui sont le système immunitaire inné et le
système immunitaire adaptatif. Ces deux systèmes combinent leurs tâches et
responsabilités pour assurer la protection et la sécurité globale.
La reconnaissance de formes : les cellules et les molécules d’un système
immunitaire ont plusieurs méthodes pour reconnaître une forme, comme les anticorps
sur la surface des cellules et les molécules intra cellulaire (MHC).
Autonomie : Le système immunitaire humain ne possède aucun contrôle central ou un
gestionnaire particulier. Il possède une autonomie globale dans la détection et
l’élimination des intrus.
L’identité du soi : l’unicité du système immunitaire permet de considérer les cellules,
les molécules et les tissus étrangers comme non-soi afin de les reconnaître et les
éliminer.
37 | P a g e
La diversité : le système immunitaire comporte plusieurs éléments (cellules,
molécules, protéines, etc.) qui performent le rôle d’identification du non-soi, en plus,
nous trouvons différentes lignes de défense comme l’immunité innée et adaptative.
Parallélisme : Le système immunitaire est capable de produire plusieurs réponses
immunitaires en même temps à des endroits dispersés.
Robustesse : la diversité, le nombre des cellules et molécules immunitaires et leur
distribution sont des facteurs essentiels dans la robustesse du système immunitaire.
Apprentissage et mémorisation : les molécules du système immunitaire sont
capables d’adapter leurs structures et leurs nombres selon le challenge antigénique.
Les mécanismes de cette adaptation sont suivis d'une pression sélective forte, qui
permet aux individus les plus adaptés de rester dans le répertoire immunitaire pendant
de longues périodes. Ces cellules de longue vie fortement adaptées s'appellent les
cellules mémoire et favorisent des réponses plus rapides et plus efficaces pour le
même (ou légèrement semblable) défi antigénique. En plus, les cellules et les
molécules immunitaires peuvent s'identifier, et ceci dote le système immunitaire avec
un comportement autonome.
Dynamique : Le système immunitaire change continuellement par l’élimination des
cellules vieilles ou endommagées, et la création de nouvelles cellules et molécules.
Un bon exemple de la dynamique du système immunitaire est la théorie du réseau
idiotypique.
Détection : Le système immunitaire est capable d’identifier et détecter les intrus dans
le corps sans aucune connaissance antérieure de la structure de ces intrus.
II.2.3 Le système immunitaire est-il "cognitif" ?
Pour qu’on puisse qualifier un système par la notion de cognition, il doit se caractériser par les
points suivants : la possibilité de percevoir son environnement, la capacité de faire des actions
différenciés, et troisièmement ses actions sont-elle suivies par ses perceptions.
La réponse est « oui » le système immunitaire est cognitif, premièrement il perçoit son
environnement par la distinction entre le soi et le non soi, il est capable de détecter la
pénétration d’un antigène dans le corps et les changements causés par ce dernier.
Deuxièmement il réagit contre l’infection par des moyens différenciés (attaque des cellules
macrophage, cellule T ou cellule B), et en dernier seule les cellules capables de reconnaitre
l’antigène réagit contre l’infection.
38 | P a g e
II.3 Le système immunitaire artificiel
Le système immunitaire biologique est un système distribué et adaptatif. Il utilise
l'apprentissage, la mémoire, et la récupération pour résoudre des tâches de reconnaissance et
de classification. En particulier, il apprend à reconnaître les motifs pertinents, et l'utilisation
combinatoire pour construire des détecteurs de modèles. Ces remarquables capacités de
traitement des informations du système immunitaire fournit des éléments importants dans le
domaine du calcul. Ce nouveau domaine est parfois dénommé immunologique de calcul,
Immunocomputing, ou le système immunitaire artificiel (AIS). Bien qu'il soit encore
relativement nouveau, l’AIS, ayant une forte relation avec d'autres modèles de calcul
d'inspiration biologique et la biologie computationnelle.
II.3.1 Définition
Selon « Timmis » Un système immunitaire artificiel est un système computationnel basé sur
des métaphores du système immunitaire naturel [Timmis, 2001].
« Dasgupta » a défini le système immunitaire artificiel comme suit: « Le système immunitaire
artificiel est la composition de méthodologies intelligentes inspirées par le système
immunitaire naturel afin de résoudre des problèmes du monde réel » [Dasgupta, 1999].
Tandis que « Timmis et De Castro » ont donné la définition suivante : « Les systèmes
immunitaires artificiels sont des systèmes adaptatifs inspirés par des théories immunologiques
et des observations de fonctions immunitaires, des principes et des modèles, seront appliqués
à la résolution des problèmes » [Timmis et De Castro, 2002].
II.3.2 Le processus de conception d’un AIS
Un schéma pour concevoir un algorithme de point de vue quantitatif exige au moins les
éléments de base suivants (figure II.12):
Une représentation pour les composants du système.
Un ensemble de mécanismes pour évaluer l'interaction des individus avec
l'environnement. L’environnement est simulé par un ensemble de stimulus d'entrée, ou
plusieurs fonctions d’évaluation.
La procédure d'adaptation qui dirige la dynamique du système, c'est-à-dire comment
son comportement varie dans le temps.
39 | P a g e
Ce schéma est adopté par Timmis & de Castro [Timmis et De Castro, 2002] qui ont
proposé un processus de conception d’un AIS. Leur principe est :
• Une représentation pour créer les modèles abstraits des cellules et d'organes
immunitaires. Un ensemble de fonctions nommé fonction d'affinité pour
évaluer les interactions entre ces éléments artificiels d’une manière
quantitative.
• Un ensemble d'algorithmes pour diriger la dynamique du système immunitaire
artificiel.
Figure II.12 : La structure de conception d’un AIS
Un système immunitaire artificiel qui réussirait à reproduire le comportement du système
immunitaire naturel aurait les avantages suivants [YAHIAOUI, 2010] :
Le système adapte ses ressources selon la complexité de la forme à reconnaître :
a. Si la forme est connue, elle est traitée rapidement par la cellule mémoire correspondante ;
b. Moins la forme rencontrée ressemble aux formes précédemment rencontrées, plus la
concentration de l’AG correspondant sera élevée, et plus les ressources mobilisées (cellules
activées) seront importantes, ainsi que le temps de traitement ;
Un mécanisme unique est utilisé à la fois pour la reconnaissance rapide des formes
déjà rencontrées (classification), ainsi que pour la mémorisation des formes inconnues
(apprentissage). En plus, le système est en apprentissage continu, chaque forme
inconnue déclenche le processus de mémorisation ;
Le système est en adaptation continue avec son environnement : les formes qui sont
rencontrées dans l’environnement sont mémorisées, et celles qui ne le sont pas (ou ne
le sont plus) sont tout simplement oubliées. De cette manière, même si le système est
40 | P a g e
placé dans un environnement avec une mémoire initiale très générale, avec le temps sa
mémoire va devenir spécifique à son environnement de travail et donc, plus
performante ;
Les singularités, même si elles sont mémorisées, peuvent être « oubliées » si elles ne
sont pas rencontrées plus longtemps ;
La vaccination du système permet de lui faire apprendre rapidement de nouvelles
formes, ou bien de restaurer une partie de sa mémoire par apprentissage itérative ;
Cette liste n’est certainement pas exhaustive, et une recherche plus poussée dans les
mécanismes
de fonctionnement
du
système
immunitaire naturel
permettra
certainement de trouver d’autres propriétés très intéressantes.
II.3.3 La représentation d’un AIS
Les cellules B et T représentent les cellules les plus importantes dans le système immunitaire
naturel. Elles présentent des récepteurs superficiels utiles pour la reconnaissance des intrus,
les formes de ces récepteurs sont complémentaires à la forme d’antigène. Les cellules et les
molécules immunitaires sont alors les éléments qui doivent être modélisés et employés dans
les modèles proposés par le système immunitaire artificiel [Timmis & De Castro.L.N, 2003].
II.3.3.1 Le modèle Shape – Space
Le modèle Shape- Space (Forme - Espace) représenter dans la figure II.13 a été proposé par
Perelson et Oster en 1979 [Perelson .A.S & Oster .G.F, 1979].
Ce modèle permet une description quantitative des interactions de molécules de récepteur et
les antigènes.
Dans le système immunitaire biologique, le concept Forme - Espace est le degré de liaison (le
degré de correspondance ou l'affinité) entre le récepteur d’anticorps (Ab ou TCR) et un
antigène (Ag). Ce degré de liaison est mesuré via les régions de complémentarité entre les
deux éléments.
Figure II.13 : La représentation du modèle Shape-Space
41 | P a g e
II.3.3.2 Les concepts de base du modèle Shape-Space
La forme généralisée
La forme généralisée est l'ensemble de caractéristique qui décrit les propriétés relatives à une
molécule d'une perspective d’identification. Mathématiquement, la forme généralisée d'une
molécule (m), peut être représentée par un ensemble de coordonnées m = < m1, m2, .mL>,
m∈ SL ⊆ RL tel que m est un point dans un espace L- dimensionnel, où S représente le modèle
Shape-Space.
L’identification via les régions de complémentarité
Une population de N individus (les récepteurs de cellule) correspond au Shape-Space avec un
volume V fini contenant N points. Puisque les interactions antigène anticorps sont mesurées
via les régions de complémentarité, les déterminants antigéniques sont aussi caractérisés par
des formes généralisées.
Le seuil d’affinité
Chaque anticorps agit spécifiquement avec tous les antigènes dont les compléments existent
dans une petite région d'encerclement. Le paramètre « ε » est le seuil d'affinité qui caractérise
Cette région.
La région d’identification
Le résultat de la définition du seuil d’affinité est le volume V qui est appelé la région
d’identification.
II.3.3.3 Les mesure d’affinités
L'affinité entre un anticorps et un antigène peut être estimée via n'importe quelle mesure de
distance entre deux chaînes (ou vecteurs) par exemple par l’utilisation de la distance
Euclidienne, la distance de Manhattan ou la distance de Hamming
[Timmis & De
Castro.L.N, 2003].
On considère un anticorps Ab = <Ab1, Ab2, .AbL> et un antigène Ag = <Ag1, Ag2, .AgL>,
la distance D peut être calculée selon :
42 | P a g e
La distance Euclidienne :
Figure II.14 : La distance Euclidienne
La distance de Manhattan :
Figure II.15 : La distance de Manhattan
La distance de Hamming :
Figure II.16 : La distance de Hamming
II.3.4 Les algorithmes du système immunitaire artificiel
Parmi les algorithmes du système immunitaire artificiel :
II.3.4.1 L’algorithme de la sélection positive
Le principe de cet algorithme est la génération des détecteurs qui repèrent les éléments de soi
au lieu de la génération des détecteurs qui repèrent les éléments de non soi. Selon cet
algorithme, un élément de non soi suspect doit être comparé avec l’ensemble de soi, s’il n’est
pas détecté alors il est considéré comme élément non soi.
43 | P a g e
Selon de Castro et Timmis l'algorithme de la sélection positive peut être récapitulé comme
suit [de Castro et Timmis, 2002]:
1. Initialisation : Produire un répertoire potentiel P des cellules-T immatures. Supposons
toutes les molécules (récepteurs et MHCs) représentées par des chaines binaires de la même
longueur L, 2L de cellules distinctes sont générées ;
2. Évaluation d'affinité : Déterminer l'affinité de tous les éléments dans P avec tous les
éléments de l’ensemble de soi S ;
3. Génération du répertoire disponible : Si l'affinité d'un élément de P avec au moins une
molécule de MHC est supérieure ou égale à un seuil ε , alors la cellule-T identifiant cet
individu du MHC est définitivement choisie et présentée dans le système (répertoire
disponible A) ; sinon on élimine cette cellule-T.
Figure II.17 : L’algorithme de la sélection positive.
II.3.4.2 L’algorithme de la sélection négative
Le principe de la sélection négative naturel
1. l’élimination des cellules immunitaires immatures qui se lient avec les cellules du soi.
2. les cellules nouvellement générées qui n’appartiennent à aucune cellule du soi seront
libérées du thymus et de la moelle osseuse.
3. La distribution des cellules nouvellement générées dans le corps humain afin d’assurer
leurs contrôle contre les organismes étrangers.
44 | P a g e
II.3.4.2.1 Le principe de la sélection négative artificiel
Forrest et al ont proposé l’algorithme de la sélection négative qui reflète ce principe. Ils ont
considéré l’algorithme de la sélection négative comme un processus de détection d’anomalies
composé de trois phases principales [Forrest et al, 1994] :
La définition du soi.
La génération des détecteurs.
Le contrôle d’occurrence des anomalies.
L’algorithme est le suivant (figure II.18 et figure II.19):
• (M) est l’ensemble des modèles de soi à être protégé.
• (S) est un ensemble de détecteurs généré qui n’identifient aucun élément appartenant à
l’ensemble M.
Les figures II.18 et II.19 illustrent ce processus :
L’ensemble soi
(M)
Génération
des
candidates
(C)
Appariement
Oui
Détecteur
(S)
Non
Rejet
Figure II.18 : La structure générale de l’algorithme de la sélection négative.
(C) est une chaîne d’élément de candidats générés de façon aléatoire.
Déterminer l’affinité entre chaque élément en (C) avec tous les éléments de l’ensemble de soi
(M). Si l’affinité d’une chaîne dans (C) avec au moins une chaîne dans (M) est plus grande ou
égale à un seuil d’affinité prédéfini, alors Cette chaîne reconnaît l’ensemble de soi, ce qui
implique qu’elle doit être éliminée. Sinon la chaîne est ajoutée à l’ensemble de détecteurs (S).
La dernière étape de l’algorithme consiste à contrôler le système contre la présence des
modèles de non soi. Ainsi chaque élément détecté par les détecteurs générés est considéré
comme un élément de non soi.
45 | P a g e
L’ensemble de
détecteur soi (S)
L’ensemble
protégé (M*)
Non
Appariement
Oui
Détection du non
soi
Figure II.19 : La structure générale de l’algorithme de la sélection négative suite.
II.3.4.2.2 domaines d’utilisation de la sélection négative
Okamoto et Ishida [Okamoto, T & Ishida, Y, 1999], ont proposé un système multi agent
basé sur les AIS. Ce système de détection de virus opère dans un environnement distribué et
hétérogène. L’algorithme de la sélection négative a été utilisé comme une méthode
d’authentification de fichiers.
La détection des virus est réalisée via l’appariement entre les informations propres d’un
fichier tel que les premiers bits de l’entête du fichier, sa taille, le chemin d’accès et le fichier
de l’hôte. La neutralisation des virus est faite par la réécriture des informations initiales sur le
fichier infecté. Le système est composé de quatre types d’agents qui sont :
Les agents anticorps qui détectent les virus sur les hôtes locaux.
Les agents tueurs qui neutralisent les virus par les réécritures des informations initiales sur les
fichiers infectés.
Les agents de copie qui copient les fichiers non infectés qui sont équivalents aux fichiers
infectés à partir des différents hôtes.
Les agents de contrôle qui établissent la communication entre les différents agents.
II.3.4.3 La sélection clonale
La sélection clonale est le nom de la théorie utilisée pour exprimer comment le système
immunitaire adaptatif fait face aux micro-organismes pathogènes.
La sélection clonale artificielle est une abstraction des mécanismes de mémorisation des
systèmes immunitaires.
II.3.4.3.1 L’algorithme de la sélection clonale
Il est décrit selon Esponda et Forrest en 2003 comme suit [Esponda et Forrest, 2003] :
46 | P a g e
1. Initialisation : générer aléatoirement la population initiale d’anticorps Ab, un
anticorps est une abstraction de la cellule B et des anticorps qu’elle produit (figure
II.20).
Figure II.20 : Initialisation de la population d’anticorps (cellules B)
Répéter tant qu’une condition prédéfinie n’est pas vérifiée :
1. Evaluation et sélection (1) : sélectionner s1 anticorps de (Ab) qui ont les plus grandes
affinités. Utiliser une certaine fonction f(a) qui renvoie l’affinité de l’anticorps (figure
II.21).
Figure II.21: Cellules B activées
2. Clonage : cloner chaque anticorps sélectionné proportionnellement à son affinité,
mettre les clones dans C (figure II.22).
2. Mutation : chaque clone de C est muté avec un degré inversement proportionnel à son
affinité, nous obtenons une population mature C*.
47 | P a g e
Figure II.22 : Maturation des cellules B
3. Evaluation et sélection 2 : sélectionner s2 anticorps de C* qui ont les plus grandes
affinités, nous obtenons Ab’ (figure II.23).
Figure II.23 : Nouvelle population d’anticorps
4. Diversité : combiner Ab’ avec s3 anticorps générés aléatoirement, remplacer Ab par
l’ensemble d’anticorps obtenus (figure II.24).
Figure II.24 : Diversification de la population d’anticorps
3. La mort : les anticorps non retenus dans Ab sont éliminés.
48 | P a g e
II.3.4.3.2 domaines d’utilisation de la sélection clonale
De Castro et Von Zuben ont appliqué la sélection clonale à l’optimisation, où chaque
anticorps représente une solution possible au problème. La fonction affinité, quand à elle,
renvoie la qualité de chaque solution (les meilleures solutions ont les plus grandes affinités).
Kim et Ben en 2002, ont proposé un algorithme de sélection clonale destiné à la détection
d’intrusions. L’algorithme nommé DynamiCS, est un algorithme de classification binaire qui
contient deux classes le soi et le non soi, et utilise les propriétés de la sélection clonale pour
générer des cellules mémoire qui reconnaissent le non soi sans reconnaître le soi. Les auteurs
ont aussi proposés ClonAlg, une implémentation de la sélection clonale pour la
reconnaissance des formes. Mais n’étant pas plus qu’une preuve de faisabilité, l’algorithme
souffre de limitations majeures. La plus importante étant qu’il n’accepte pas plus d’un
exemple d’entraînement par classe [Kim et Ben, 2002].
White et Garrett ont proposé ClonClas, qui est une amélioration de ClonAlg. Les auteurs ont
utilisé la sélection clonale pour chercher dans chaque classe le prototype qui la représente le
mieux. Ces prototypes sont ensuite utilisés dans un système de reconnaissance de chiffres
imprimés. En d’autres termes, la sélection clonale est utilisée comme un algorithme
d’apprentissage [Whi et Gar, 2003].
Les principes de la sélection clonale ont aussi été appliqués à la résolution de problèmes multi
objectifs. Pour ce genre de problèmes, plusieurs objectifs doivent être optimisés en même
temps. Les objectifs étant souvent en conflit, l’optimisation de l’un d’eux rend les autres
objectifs non optimisés. Cuello a proposé un algorithme pour la résolution des problèmes
multi objectifs en utilisant les principes de la sélection clonale. L’algorithme nommé MISA
est générique dans le sens où il peut être appliqué à n’importe quel problème d’optimisation
quel que soit le nombre d’objectifs. Pour plus de détails sur l’algorithme et les résultats
obtenus le lecteur est invité à consulter [Coe et Cor, 05].
II.3.4.4 La théorie du danger
La théorie du danger est une alternative à la sélection négative.
Le principe de la théorie du danger est le suivant :
Lorsqu’une cellule est attaquée par un agent infectieux, elle émet un signal de danger qui se
propage dans les alentours de la cellule. Ce signal va définir une ‘zone de danger’ tout autour
de la cellule attaquée. Les antigènes sont capturés par les macrophages (réponse innée) puis
49 | P a g e
présentés aux lymphocytes. Les cellules B qui se lient avec les antigènes dans la zone de
danger sont activées et commencent alors à se reproduire, les autres cellules B (qui ne se sont
pas liées avec les antigènes ou bien qui sont en dehors de la zone de danger) ne sont pas
stimulées [DENECHE, 2006].
La théorie du danger a été appliqué dans plusieurs domaines tel-que la détection d’anomalies
(virus informatiques, transactions frauduleuses, défaillances matérielles) aussi dans le
datamining et de façon générale dans tout domaine pour lequel on peut définir la nature du
‘danger’.
L’inconvénient majeur de la théorie du danger est que le système doit attendre que le soi soit
endommagé avant de pouvoir activer la protection, parce qu’il nécessite des exemples d’états
dangereux. Ceci n’est pas le cas de la détection négative qui se contente des exemples d’états
sains du système [DENECHE, 2006].
Figure II.25 : Principe de la théorie du danger
II.3.4.5 Réseaux immunitaires artificiels
Un réseau immunitaire artificiel (AIN) est un modèle informatique bio-inspiré qui emploie les
idées et les concepts de la théorie des réseaux immunitaires, principalement les interactions
entre les cellules-B (stimulation et suppression), et le processus de clonage et de mutation
[YAHIAOUI, 2010].
50 | P a g e
De Castro et VonZuben, en 2001 [De Castro et VonZuben, 2001], on proposé aiNet, un
algorithme qui combine la théorie des réseaux immunitaires et la sélection clonale. AiNet
utilise la notion d’image interne pour représenter les regroupements de données dans un
réseau.
Par exemple, pour l’ensemble de données de la figure II.26, une architecture hypothétique
générée par aiNet est donnée à la figure II.27. Les nœuds représentent les anticorps, les lignes
pleines sont des connections entre les anticorps, et les lignes en pointillé sont des connections
qui seront éliminées pour révéler les regroupements. Comme le nombre de nœuds du réseau
est plus petit que le nombre initial de données, aiNet peut être utilisé pour la compression.
Figure II.26 : Exemple de groupements de données
Figure II.27 : Réseau immunitaire généré par aiNet.
Pour l’algorithme de aiNet, nous avons les étapes suivantes :
Initialisation
La population d’anticorps est générée aléatoirement.
51 | P a g e
La population de cellules mémoire est initialement vide.
La population d’antigènes contient les données d’apprentissage.
Pour chaque antigène, faire :
Répéter pour un certain nombre d’itérations :
Evaluation et sélection 1
Evaluer l’affinité de tous les anticorps pour l’antigène courant.
Sélectionner n anticorps qui ont les plus grandes affinités.
Clonage
Cloner les anticorps proportionnellement à leurs affinités.
Mutation
Muter les anticorps clonés avec un taux inversement proportionnel à leur affinité pour obtenir
une population mature.
Evaluation et sélection 2
Evaluer l’affinité des anticorps matures pour l’antigène courant ;
Sélectionner un pourcentage’ %’ d’anticorps qui ont les meilleures affinités pour obtenir les
cellules mémoire.
Suppression clonale 1
Eliminer les cellules mémoire qui sont très similaires les unes aux autres.
Mémorisation
Ajouter les cellules mémoire qui ont une affinité qui dépasse un certain seuil à la population
de cellules mémoire.
Mort
Les anticorps et cellules mémoire non mémorisés sont éliminés.
Suppression clonale 2
Eliminer les cellules mémoire (de la population de cellules mémoire) très similaires les unes
aux autres.
Il y a beaucoup de similarité entre aiNet et les algorithmes de sélection clonale. En fait la
sélection clonale artificielle est un cas particulier des réseaux immunitaires.
II.3.4.5 .1 Algorithme des réseaux immunitaires artificiels non supervisé
L’algorithme suivant est réalisé pour illustrer une étude présentée pour générer un réseau de
nœuds significatifs (appelés ARB : Artificial Recognition Balls) qui capturent la structure et
les relations entre les éléments de la base de données.
52 | P a g e
L’algorithme est basé sur un paramètre de contrôle très important qui est le seuil d’affinité
appeler NAT (Network Affinity Threshold), sont rôle est de dicter quand les ARB sont
connectés pour former le réseau et les clusters. La connectivité entre les ARB est calculée on
utilisant la distance Euclidienne. Si la distance entre deux ARB est inférieure au NAT alors
ils sont connectés. La distance euclidienne permette aussi de faire une distinction entre les
éléments du réseau [YAHIAOUI, 2010].
La valeur du NAT n’est pas connue à l’avance, l’algorithme doit être exécuté avec plusieurs
valeurs, et la valeur qui donne de meilleurs résultats est la valeur du NAT à utiliser.
Les étapes de l’algorithme:
• Etape d’initialisation
Le réseau est initialisé par un petit ensemble d’antigène choisis arbitrairement en créant des
ARB qui identifient avec précision ces antigènes, ce petit ensemble représente à peu prés (≈
5%) de l’ensemble totale des antigènes.
La valeur initiale de l’ARB doit produire un réseau non vide, donc cette valeur doit être aussi
testée par l’algorithme avec plusieurs valeurs car si ce nombre est trop petit le réseau meurt.
• Stimulation
1. Calculer l’affinité entre chaque ARB et tout l’ensemble d’Antigènes :
ARB → Ag
ps = 1 – dis(p)
⇒ Réaction antigénique
La dis(p) renvoie la distance Euclidienne entre l'ARB courant et l'élément p.
2. Calculer l’affinité entre les cellules ARB (voisinage):
n
ARB → ARB
ns = Σ dis(x)
⇒ Réaction idiotopique
X=0
La dis(x) renvoie la distance Euclidienne entre l'ARB courant et l'élément x, et n représente le
nombre de voisins de l'ARB courant.
• Clonage
Antigène non reconnu ⇒ Réponse primaire : Expansion du répertoire (intégrer une nouvelle
ARB à l’ensemble des ARB).
Antigène reconnu ⇒ Réponse secondaire : clonage des ARB.
53 | P a g e
• Allocation de ressources
L’allocation de ressources est caractérisée par un mécanisme simple de stimulation et de
réduction pour mettre à jour le niveau de ressources tenues par chaque ARB.
Le niveau des ressources tenues par chaque ARB est calculé selon deux mécanismes :
Le premier est un mécanisme de réduction géométrique simple exprimé par la formule
suivante :
Rdecayed = Rcurrent x decay_Rate
Où decay_Rate est une grandeur scalaire entre zéro et un. Pour ce travail une valeur de 0.99.
Le deuxième est un mécanisme concernant le niveau de ressources de l'ARB courant est
exprimé par la formule suivant :
Rnew = Rcurrent + (k x (maxres i– Rdecayed) x S)
Où Rnew est le nouveau niveau de ressources pour l'ARB, k est une grandeur scalaire entre
zéro et un (une valeur de 0.0005) a été utilisé dans tout ce travail. maxres est le niveau
maximum de ressources que n'importe quel ARB peut avoir. Dans tout ce travail, la valeur a
été placée à 1000.0.
• Et l’étape de la suppression sélective (Culling)
Eliminer les ARBs qui ont des ressources inférieures à un certain seuil et celles qui se
ressemblent (grande affinité dans la réaction idiotopique), la valeur dans ce travail il a été fixé
à 1.0.
II.3.5 Conclusion
Le système immunitaire naturel est le centre d’intérêt accru pour résoudre divers problèmes,
ce système dispose de deux sortes de défenses : les défenses innées, à moyenne efficacité, et
les défenses acquises qui sont très efficaces. Sa nature adaptative, et ses mécanismes de
défense ont fait de lui un domaine de recherche très prometteur, ce qui a permis la création de
l’AIS, un système artificiel compatible, différents algorithmes ont été proposés dans ce cadre
et plusieurs problèmes ont été résolus par ce nouveau système.
54 | P a g e
Bibliographie
[Roitt, 90] : I. Roitt, "Immunologie", Editions Pradel, 1990.
[de Castro et Von Zuben, 99] : L. N. de Castro, F. J. Von Zuben, “Artificial immune
systems: Part I—basic theory and applications”. Technical Report DCA-RT 01/99, School of
Computing and Electrical Engineering, State University of Campinas, Brazil, 1999.
[Philippe DARGERE, 2005] : Philippe DARGERE “Système immunitaire et naturopathie“.
Extrait du A M E S S I - Alternatives Médecines Evolutives Santé et Sciences Innovantes,
pp.6/9.
[Lyddyard et al., 2002] : Lyddyard Peter, Alex Whelan et Michael Fanger, “L’essentiel en
immunologie“, Port Royal Livres, Paris. BERTI Editions 2002.
[LABED Ines, 2006] : LABED Ines “Proposition d’un système immunitaire artificiel pour la
détection d’intrusions“ Mémoire présenté Pour l’obtention du diplôme de Magistère
Computer Vision Group, Laboratoire LIRE, Université Mentouri, Constantine, Algérie, 2006.
[DENECHE, 2006] : Abdel Hakim DENECHE, ″Approches bio inspirées pour la
reconnaissance de formes", Mémoire présenté pour l’obtention du diplôme de Magistère en
Informatique, Option: Information & Computation, Université Mentouri de Constantine,
2006.
[YAHIAOUI, 2010] : Yahiaoui Hadj Habib : « Application des réseaux immunitaires
artificiels dans la reconnaissance de formes », Mémoire présenté Pour l’obtention du diplôme
de Magistère, Département d’informatique, USTO-MB, 2010.
[Larousse médicale, 2006] : Larousse médicale, 2006. ISBN 2-03-560425-7.
[Jerne. N. K, 1974]: Jerne N. K., Towards, a network theory of the immune system. Ann.
Immunol. (inst. Pasteur) 125C, pp. 373-389, 1974.
[deCastro et VonZuben, 2001] : de Castro L. N. et Von Zuben F. J. Learning and
Optimization Using the Clonal Selection Principle. the IEEE Transactions on Evolutionary
Computation, Special Issue on Artificial Immune Systems , 2001.
55 | P a g e
[Timmis, 2001]: J. Timmis « Artificial Immune Systems: A novel data analysis technique
inspired by the immune network theory », PhD Thesis, University of Wales, 2001.
[Dasgupta, 1999]: D. Dasgupta «Artificial Immune Systems and Their Application »,
Springer-Verglas, 1999.
[Timmis et De Castro, 2002] : Timmis J. et de Castro L. N., Artificial Immune System, A
new computational intelligence Approch, ISBN 1-85233-594-7, Eddition Springer, 2002.
[Timmis & De Castro.L.N, 2003] : J.Timmis & De Castro.L.N « Artificial Immune System
as a novel Soft Computing Paradigm ». To appear in the Soft Computing Journal, vol7, Issue
7, July 2003.
[Perelson .A.S & Oster .G.F, 1979]: Perelson .A.S & Oster .G.F « Theoretical studies of
clonal selection minimal antibody repertoire size and reliability of Self-Nonself
discrimination » J. theor.Biol, 81, pp 645-670, 1979.
[Forrest et al, 1994] : Forrest S., Perelson A., Allen L. et Cherukuri R., Self-Nonself
discrimination in a computer, Proc. Of the IEEE Symposium on Research in sicurity and
privacy, pp. 202-212 , 1994.
[Okamoto, T & Ishida, Y, 1999] : Okamoto, T & Ishida, Y « A Distributed Approach to
Computer Virus Detection and Neutralization by Autonomous and Heterogeneous Agents »,
the Proceeding of the ISADS.99, pp.328-331. 1999.
[Esponda et Forrest, 2003] : F. Esponda, S. Forrest, “The crossover closure and partial
match detector”. In ICARIS- 2003, pp. 249–260, 2003.
[Kim et Ben, 2002] : “A model of Gene Library Evolution in the Dynamic Clonal Selection
Algorithm”, ICARIS, pp.175-182, 2002.
[Whi et Gar, 2003] : J. A. White, S. M. Garrett, “Improved pattern recognition with artificial
clonal selection”. In Proceedings of ICARIS, 2003.
56 | P a g e
[Coe et Cor, 05] : C.A.C. Coello, N.C. Cortez, "Solving Multiobjective Optimization
Problems Using an Artificial Immune System", Genetic Progrqmming and Evolvable
Machines, vol. 6, pp. 163-190, 2005.
57 | P a g e
Chapitre III
Solution
Proposée
Chapitre III
Solution proposée
III Introduction
Les méthodes qui ont été proposées pour résoudre le problème de contrôle d’accès aux
réseaux sociaux visent généralement l’utilisateur plus particulièrement son accès au réseau
social et l’accès à ses données, la solution que nous allons proposer est bien différente mais
elle vise toujours l’utilisateur du réseau social. La méthode permet de classifier les utilisateurs
des sites des réseaux sociaux en deux classes (classe confiance et classe menace), elle est
basée sur des critères de confiance bien définis et réalisée en utilisant un réseau immunitaire
artificiel.
III.1 Idée générale
Notre méthode est tirée de notre vie quotidienne, chacun de nous possède un nombre d’amis
qui varie entre une personne et une autre, cette amitié est en fonction des intérêts communs
partagés par les individus ; avec chaque personne nous partageons une quantité
d’informations qui peuvent être semblables ou qui diffèrent d’une personne à une autre.
Socialement il existe toujours un moyen (des critères) pour savoir à quel moment et avec qui
on peut partager ses informations. Les amis sont toujours choisis selon des critères bien
définis et propres à chaque personne. Dans notre système, nous allons utiliser le même
principe, nous allons choisir quelques critères qui peuvent nous donner la possibilité de créer
deux classes distinctes, une classe pour des utilisateurs confiants et une autre classe pour des
utilisateurs qui constituent une menace, nous devons aussi mentionner que ces critères sont
choisis comme un échantillon pour établir la classification et pour réaliser notre méthode.
III.2 Classification des utilisateurs dans le réseau social
La classification concerne typiquement l’identification de sous-population ayant des
caractéristiques proches dans les bases de données. Le but de cette classification est d’établir
les propriétés des objets aux comportements similaires, afin de les associer à leurs classes
adéquates. Chaque internaute inscrit dans le site se comporte d’une manière différente par
59 | P a g e
rapport aux autres utilisateurs, notre système doit classifier les utilisateurs du site social selon
des critères de confiance choisis.
III.2.1 Les critères proposés
Les critères proposés sont extraits du comportement de l’utilisateur dans le réseau social (son
activité, son comportement avec ses amis….), ainsi que des données qu’il va insérer lors de la
création de son compte dans le site comme (le nom et prénom, la région, les photos et
informations partagés…). Nous avons choisi des critères extraits durant et après la création du
compte :
a) Les critères extraits durant la création du compte
Les critères extraits durant la création du compte sont : le nom et prénom, la région et le
pseudonyme. Le champ pseudonyme n’existe pas dans les sites sociaux actuels, mais nous
allons l’ajouter pour laisser le choix à l’utilisateur soit de remplir les champs nom et prénom,
ou de remplir le champ pseudonyme, de même pour le champ région ce champ n’existe pas
dans la page accueil des sites des réseaux sociaux.
Remarque : (Le champ pseudonyme est un champ piège, selon le principe des réseaux
sociaux chaque utilisateur, doit remplir son nom et son prénom pour qu’il puisse être reconnu
par les autres utilisateurs inscrits dans le site, si un utilisateur donné rempli le champ
pseudonyme nous allons supposer que cet utilisateur n’accède pas au site social avec de
bonnes intentions).
b) Les critères extraits après la création du compte
Quand un internaute accède au réseau après la création de son compte, nous allons essayer de
contrôler son comportement dans le réseau. Ce comportement est caractérisé par les critères
suivants :
b.1) L’activité : ce critère va nous permettre de savoir si un utilisateur i est actif ou pas, en
d’autres termes s’il accède fréquemment à son compte ou rarement.
b.2) La réputation: Le champ réputation n’existe pas dans les sites sociaux actuels. Nous
allons supposer que dans notre site social il existe un champ où chaque internaute doit donner
un avis de (bonne réputation ou mauvaise réputation) sur chaque ami.
b.3) Le partage de documents : après que l’utilisateur s’inscrit dans le site on peut
remarquer si cet internaute partage ses données ou pas avec ses amis.
60 | P a g e
b.4) Le nombre d’invitations acceptées : après que l’utilisateur s’inscrit dans le site, on peut
compter le nombre d’invitations acceptées (par les autres utilisateurs du réseau) par rapport au
nombre d’invitations envoyées.
III.2.2 La représentation des critères
Une application doit attribuer à chaque critère une valeur binaire (1 ou 0), ou bien un
pourcentage calculé selon une formule mathématique. Donc chaque utilisateur i est présenté
de la forme suivante :
Utilisateur i (Utilisateur ID (nom et prénom ou pseudonyme); Région; Activité; Partage
document ; Réputation ; Nombre d’invitation).
III.2.2.1 Illustration des différents critères
Pour illustrer nos critères nous allons les représenter sur une interface d’un réseau social réel
qui est Facebook.
Ajouter un champ pour le
pseudonyme et un autre
champ pour la région
Figure III.1 Les critères illustrés sur l’interface du réseau
social Facebook (1)
61 | P a g e
Ajouter un champ réputation ou
chaque internaute doit donner un
avis sur la réputation de ses amis
Figure III.2 Les critères illustrés sur l’interface du réseau
social Facebook (2)
L’activité, le partage de document et le nombre d’invitations, ne sont pas représenter dans
l’interface comme des champs visible.
Le critère
Valeur appropriée
Nom & prénom
1
Pseudonyme
0
Région
1 (si la région est vraie) ou 0 (si elle est fausse)
Activité
Pourcentage %
Partage de document
1 (s’il partage) ou 0 (s’il ne partage pas)
Réputation
Pourcentage %
Nombre d’invitation
Pourcentage %
Tableau III.1 : Les valeurs des critères proposés
62 | P a g e
III.2.2.2 Comment attribuer la valeur binaire à chaque critère ?
Si un utilisateur i remplit les champs nom et prénom, la valeur binaire attribuée à ce critère
(nom et prénom) est égale à 1, sinon s’il remplit le champ pseudonyme la valeur binaire
attribuée va être égale à 0 ;
S’il remplit sa vraie région la valeur binaire doit être égale à 1 sinon, s’il remplit une fausse
région la valeur binaire est égale à 0 ;
Et si l’utilisateur partage ses données avec d’autres utilisateurs du réseau social la valeur
binaire attribuée est égale à 1 sinon s’il ne partage rien la valeur binaire attribuée est égale à 0.
III.2.2.3 Comment calculer le pourcentage ¨%¨ ?
Le pourcentage est une valeur sensible, elle dépend toujours du comportement de l’utilisateur,
le calcul du pourcentage est presque analogue pour chaque critère proposé :
a) Le critère Réputation
Pour chaque utilisateur i, nous comptons le nombre d’amis qui ont mentionné une bonne
réputation à son propos, le calcul de pourcentage est de la forme suivante :
P = (Ra *100) / Ta
• Ra est le nombre d’amis qui ont mentionné une bonne réputation sur l’utilisateur i ;
• Ta est le nombre total des amis de l’utilisateur i ;
• P est le pourcentage du degré de réputation à calculer.
Si la valeur de P est de 50% et plus cela veut dire que l’utilisateur i donne une
bonne impression sur lui dans le site, sinon si la valeur de P est inferieur à 50%
alors l’utilisateur i a une mauvaise réputation dans le site.
b) Le critère Nombre d’invitations
Pour chaque utilisateur i, nous comptons le nombre d’invitations d’amis acceptées, le calcul
du pourcentage est de la forme suivante :
N = (I *100) / Ti
63 | P a g e
• I est le nombre d’invitations acceptées ;
• Ti est le nombre total d’invitations ;
• N est le pourcentage du nombre d’invitation à calculer.
Si la valeur de N est de 50% et plus cela veut dire que cet internaute à des
connaissances dans le site, sinon si la valeur de pourcentage du nombre
d’invitations est inferieur à 50% alors cet internaute a abusé le système par des
invitations destinées à des personnes inconnues.
c) Le critères Activité
Le calcul du pourcentage du critère Activité est différent des autres critères.
Généralement l’utilisateur accède au moins deux fois par jour à son compte dans le réseau
social selon une étude qui à été faite sur le réseau social Facebook, donc si on veut calculer le
pourcentage de l’activité d’un utilisateur pour une durée donnée N, le calcul doit être de la
forme suivante :
S = (A *100) / (2*N jours)
•
(2*N jours) est le nombre moyen d’accès au réseau social;
• A est la valeur d’accès au réseau social propre pour chaque utilisateur ;
• S est le pourcentage d’accès à calculer.
Si la valeur d’accès au réseau social propre pour chaque utilisateur dépasse le
nombre moyen d’accès au réseau social, le système doit négliger la valeur propre
et la remplacer par le nombre moyen d’accès au réseau.
Exemple 1 Pour une duré d’un mois le nombre moyen d’accès au réseau social est égale à :
(30 jours *2) = 60, donc pour un utilisateur moyen l’accès doit être égale à 60 fois pour 30
jours, alors si un utilisateur accède 65 fois à son compte par 30 jours le système doit changer
la valeur 65 par 60 est par la suite calculer le pourcentage.
64 | P a g e
Exemple 2 : A(hmed) est un utilisateur d’un réseau social, quand il a créé son compte, il a
rempli le champ nom et prénom, mentionné sa vraie région, il accède fréquemment au site, il
partage ses informations avec ses amis, il a une bonne réputation avec ses amis et toute ses
demandes d’invitations ont été acceptées, donc A(hmed) est considéré comme utilisateur de
confiance.
Exemples de représentation : Utilisateur A : (1, 1, 0.80, 1, 0.90, 1.00) ou
Utilisateur A : (1, 1, 0.90, 1, 0.80, 1.00) ou Utilisateur A : (1, 1, 0.70, 1, 0.70, 1.00).
Exemple 3 : L(eila) est un utilisateur du même réseau social, quand elle a créé son compte,
elle a rempli le champ pseudonyme, elle a mentionné une fausse région, elle accède
fréquemment au site, elle ne partage pas ses données, la plupart de ses contacts mentionnent
un avis non favorable à son égard, et la moitié de ses invitations ont été refusées, donc L(eila)
est considérée comme utilisateur menace. Exemples de représentation : Utilisateur L :( 0, 0,
0.70, 0, 0.30, 0.50) ou Utilisateur L :( 0, 0, 0.60, 0, 0.10, 0.30) ou Utilisateur L :( 0, 0, 0.40,
0, 0.50, 0.20).
III.3 L’architecture de notre système
Notre méthode a comme but la classification des utilisateurs des sites des réseaux sociaux en
deux classes, cette classification permet à l’utilisateur et à l’administrateur de savoir à tout
moment la nature (menace ou confiant) des internautes inscrits dans le site.
Le réseau immunitaire artificiel reçoit les valeurs des critères des utilisateurs du réseau social
pour les traiter afin de les classifier en utilisateurs de classe confiance ou des utilisateurs de
classe menace.
La figure III.3 illustre la représentation de l’architecture de notre système :
65 | P a g e
Utilisateur
Figure III.3 Architecture du système proposé
III.4 Algorithme du Réseau immunitaire artificiel
Nous allons utiliser un algorithme d’un réseau immunitaire artificiel non supervisé, cet
algorithme est caractérisé par cinq étapes :
• Etape d’initialisation
Initialiser l’ensemble des ARB (cellule Anticorps) par un nombre minime de
l’ensemble des individus (≈ 5%).
Le reste des individus représente les Antigènes (≈ 95%).
66 | P a g e
• Etape de stimulation
1. Calculer l’affinité entre chaque ARB et tout l’ensemble d’Antigènes :
ARB → Ag
ps = 1 – dis(p) ⇒ Réaction antigénique
2. Calculer l’affinité entre les cellules ARB (voisinage):
ARB → ARB
ns = Σ dis(x) ⇒ Réaction idiotopique
• Etape de clonage
1.
Antigène non reconnu ⇒ Réponse primaire : Expansion du répertoire (intégrer une
nouvelle ARB à l’ensemble des ARB).
2. Antigène reconnu ⇒ Réponse secondaire : clonage des ARB.
• Etape d’allocation de ressources
Réduction : Rdecayed = Rcurrent x decay_Rate
Nouveau degré de ressources : Rnew = Rcurrent + (k x (maxres i– Rdecayed) x S)
• Et l’étape de la suppression sélective (Culling)
Eliminer les ARBs qui ont des ressources inférieures à un certain seuil et celles qui se
ressemblent (grande affinité dans la réaction idiotopique).
Paramètres de l’algorithme
Niveau de stimulation (S) c’est la valeur calculé au niveau de l’étape de stimulation.
Proximité au niveau maximum de ressources (maxres - Rdecayed) ⇒ ( maxres = 1000.0
et decay_Rate = 0.99) .
Grandeur scalaire (k) (très petite = 0.0005)
III.5 Implémentation
L’algorithme est réalisé en utilisant le langage C pour le traitement des données et
la classification des utilisateurs, et aussi le langage java pour la représentation des résultats et
la réalisation des tests.
67 | P a g e
III.5.1 Traitement des données
Chaque utilisateur i est représenté par six critères, Utilisateur i (Utilisateur ID (nom et
prénom ou pseudonyme); Région; Activité; Partage document ; Réputation ; Nombre
d’invitation), le tableau III.2 illustre la représentation d’un échantillon de notre base de
données sachant que nous avons utilisé un échantillon de 100 individus, 50 utilisateurs
confiants et 50 utilisateurs menaces.
Utilisateur 0
1
1
1.00
1
1.00
1.00
confiance
Utilisateur 1
0
0
0.80
0
0.10
1.00
menace
Utilisateur 2
0
0
0.70
0
0.10
0.70
menace
Utilisateur 3
1
0
0.50
0
0.30
1.00
menace
Utilisateur 4
0
0
0.70
0
0.20
1.00
menace
Utilisateur 9
1
1
0.90
1
0.90
1.00
confiance
Utilisateur 10
0
1
1.00
1
1.00
1.00
confiance
Utilisateur 11
0
0
1.00
0
1.00
0.00
menace
Utilisateur 15
1
1
0.80
1
0.80
0.90
confiance
Utilisateur 26
1
1
0.80
1
1.00
0.90
confiance
Tableau III.2 Échantillon de la BDD
L’algorithme se base sur quelques points initiaux, parmi ces points nous allons citer (le
nombre d’itération, le nombre d’ARB initiale, et le seuil d’affinité). Nous avons réalisé le
traitement des données pour différentes itérations, avec chaque itération nous avons changé le
nombre initial d’ARB (cellule Anticorps) et le seuil d’affinité pour réaliser le traitement. Le
tableau III.3 représente les différentes itérations avec le changement du seuil d’affinité et le
nombre d’ARB généré :
68 | P a g e
Le nombre
Le nombre d’ARB
Le seuil d’affinité
Le nombre d’ARB
d’itération
initiale
NAT
généré
100
5
0.45
23
200
5
0.45
28
300
5
0.45
29
400
5
0.45
29
500
5
0.45
29
1000
5
0.45
29
1000
7
0.45
31
1000
5
0.5
35
1000
7
0.5
34
2000
8
0.90
31
3000
7
1.5
8
Tableau III.3 Représentation des différents ARB générés
• Le nombre d’itérations n’influe plus sur le nombre d’ARBs généré s’il dépasse les 200
itérations ;
• Le nombre d’ARBs initial influe sur le nombre d’ARBs généré. A chaque changement
d’ARB initial le nombre d’ARB généré peut soit augmenter soit diminuer ;
• Le seuil d’affinité influe sur le nombre d’ARB généré. A chaque changement de seuil
d’affinité le nombre d’ARB généré peut soit augmenter soit diminuer.
• Le changement d’itération influe moins sur le nombre d’ARBs généré contrairement
au seuil d’affinité et au nombre d’ARB initial qui influe le plus.
69 | P a g e
III.5.2 La représentation des résultats
Pour représenter les résultats de la classification, nous avons choisi les valeurs du traitement
suivant :
Le nombre
Le nombre d’ARB
d’itération
initiale
3000
7
Le seuil d’affinité
Le nombre d’ARB
généré
1.5
8
Tableau III.4 Les valeurs choisis pour le traitement
Chaque ARB généré a pu reconnaitre un ensemble d’individus soit confiants, soit menaces.
Le tableau III.5 représente les différents ARBs générés avec le type de classe de chaque
utilisateur :
Les ARB
générés
0, 2, 5, 7
1, 3, 4, 6
Les utilisateurs
reconnus
Le type de
classe
Le taux de
reconnaissance
Le taux
d’erreur
0, 9, 10, 15, 20, 22,
26, 34, 37, 38,46, 48,
50, 53, 66, 23, 25, 28,
29, 40, 41, 45, 52, 58,
59, 67,69, 71, 27, 54,
70, 21, 35, 36, 39, 47,
49, 51,60, 64, 65, 68,
72, 74, 75, 76, 77, 78,
98, 99
Confiance
100%
0%
Menace
100%
0%
5, 7, 8, 11,13, 14, 17,
18, 31,33, 43, 44, 55,
57, 61, 63,79, 83, 85,
86, 88, 91, 94, 95, 97,
1, 2, 3, 4, 19, 24, 30,
32, 42, 73, 80, 81, 82,
89, 90, 93, 96, 6, 56,
62, 12, 16, 84, 87,92
Tableau III.5 Représentation des différents utilisateurs reconnus, avec leurs types de classes
70 | P a g e
III.5.3 Test
Le tableau III.6 représente un échantillon d’un groupe d’utilisateurs qui n’appartiennent pas à
la base de données utilisée. Pour effectuer un nouveau test par le système réalisé, les
utilisateurs (101, 106, 107, 109, et 110) représentent des utilisateurs de confiance et les
utilisateurs (102, 103, 104, 105, et 108) représentent des utilisateurs de menace :
Utilisateur 101
1
1
0.70
1
1.00
1.00
Utilisateur 102
0
0
0.60
0
0.20
1.00
Utilisateur 103
0
0
0.80
0
0.10
0.70
Utilisateur 104
0
0
0.40
0
0.30
1.00
Utilisateur 105
0
0
0.60
0
0.20
1.00
Utilisateur 106
1
0
0.90
1
0.90
1.00
Utilisateur 107
0
1
1.00
1
1.00
0.90
Utilisateur 108
0
0
0.90
0
1.00
0.00
Utilisateur 109
1
1
0.70
1
0.80
0.70
Utilisateur 110
1
1
0.90
1
0.90
0.90
Tableau III.6 Représentation d’un nouveau groupe d’utilisateurs
III.5.4 Les résultats du test :
Les résultats du test sont représentés dans le tableau III.7 :
Les utilisateurs à tester
La valeur de l’ARB reconnu
Utilisateurs (102, 103, 104, 105)
ARB n° (3)
Utilisateurs (101, 106, 107, 110)
ARB n° (0)
Utilisateur 108
ARB n° (1)
Utilisateur 109
ARB n° (7)
Tableau III.7 La représentation des résultats obtenus
71 | P a g e
Selon les résultats obtenus, on peut remarquer que les utilisateurs (102, 103, 104, 105) ont été
reconnus par l’ARB n° (3), qui représente des utilisateurs de classe menace. Les utilisateurs
(101, 106, 107, 110) ont été reconnus par l’ARB n° (0), qui représente des utilisateurs de
classe de confiance. L’utilisateur 108 est reconnu par l’ARB n° (1), qui représente des
utilisateurs de classe menace, et l’utilisateur 109 est reconnu par l’ARB n° 7, qui représente
des utilisateurs de classe de confiance. Donc on peut déduire que le système a bien classifié
les nouveaux utilisateurs proposés.
Remarque
1. Nous avons réalisé le même système mais en utilisant quatre critères seulement
Utilisateur i (Utilisateur ID (nom et prénom ou pseudonyme); Région; Activité; et
Partage document) : les résultats obtenus n’étaient pas satisfaisants, un des ARB
généré a reconnu des utilisateurs qui ne devraient pas appartenir à sa classe.
2. Avec les six critères utilisés pour la classification des 100 individus, nous avons
obtenu une très bonne classification, entre temps nous avons changé les valeurs, nous
avons travaillé avec 50 individus de confiance et 30 de menace, ensuite 20 utilisateurs
de confiance et 40 de menace et on a toujours obtenu une très bonne classification.
III.6 Points complémentaire
La validation du système n’est pas implémentée, elle demande la réalisation d’un réseau
social, néanmoins nous allons citer les principales étapes que le système doit prendre en
considération :
Pour l’utilisateur
Chaque utilisateur de la classe ‘confiance’ doit être informé de la nature de ses amis et de ses
nouveaux contacts pour garantir une sécurité locale:
1. Pour un nouveau contact : Supposons que Ahmed est un utilisateur dans la classe
‘confiance’ et que Ali est un utilisateur de la classe ‘menace’, Ahmed invite Ali, le
système avertira Ahmed que Ali peut représenté une menace pour lui par un message
d’avertissement envoyé à sa boite email, et s’il veut toujours l'inviter. Si Ahmed
autorise toujours l'invitation d’Ali, le système doit enregistrer l'heure, la date, et la
confirmation d’Ahmed.
72 | P a g e
2. Pour un ancien contact (ami) : Si Ali est déjà un ami de Ahmed, le système doit
avertir Ahmed que Ali peut représenter une menace pour lui par un message
d’avertissement envoyer à sa boite email pour lui demander s'il veut toujours contacter
Ali ou le supprimer de sa liste de contacts, le système doit aussi enregistrer l'heure, la
date, et la confirmation de Ahmed.
Pour l’administrateur
L’administrateur doit être informé à tout moment de la nature des utilisateurs inscrits dans le
site du réseau social, et des informations enregistrées par le système de chaque confirmation,
Si un jour un utilisateur attaque le site du réseau social en justice, pour un contact de la classe
menace, le réseau social peut se défendre par les informations de confirmation qui ont été déjà
enregistrées par le système.
III.7 Conclusion
Le système proposé est réalisé en utilisant un réseau immunitaire non supervisé, il permet de
classifier les utilisateurs des sites des réseaux sociaux, en deux classes, une pour les
utilisateurs confiants, et une autre pour les utilisateurs menaces. Notre base de données
comporte deux types de classes, 50 utilisateurs pour la classe de confiance et 50 utilisateurs
pour la classe qui constitue une menace. Nous avons eu une reconnaissance complète des 100
utilisateurs choisis pour notre échantillon. Notre système permet non seulement de classifier
les utilisateurs mais aussi de donner la possibilité de faire des tests d’appartenance pour de
nouveaux utilisateurs et les affecter dans des classes adéquates.
73 | P a g e
Travaux scientifiques
Papier accepté sous le titre "Classification of the Social Networks Users: Application of
the Artificial Immune Networks", dans ‘The 2011 International Workshop on Social
Computing, Network, and Services’ (SocialComNet 2011)
http://www.ftrai.org/socialcomnet2011-11-07
Crete, Greece, June 28-30,2011 (in Conjunction with FutureTech 2011)
Papier accepté et communiqué "Security of the Social Network Site User", dans ‘2011
International Conference on Security and Management’ (July 18-21, 2011, Las Vegas, USA),
Publier dans ‘SAM2011, PROCEDINGS OF INTERNATIONAL CONFERENCE ON
SECURITY AND MANAGEMENT’
WORDCOMP’11 July 18-21, 2011 Las Vegas Nevada, USA
www.world-academy-of-science.org
Copyright 2011CSREA Press
ISBN: 1-60132-196-1, 1-60132-197-X (1-60132-198-8)
Printed in the United States of America
74 | P a g e
Conclusion générale
Conclusion générale et perspective
Notre méthode est une continuation des méthodes qui ont été déjà proposées, néanmoins elle
est destinée à l’utilisateur et à l’administrateur du réseau social.
Les méthodes précédentes se basaient sur le degré de confiance et le type de relation, notre
méthode se base sur des critères de confiance choisis, pour réaliser une classification destinée
à l’utilisateur du réseau social et pour qu’il puisse savoir la nature (confiance ou menace) de
ses amis et de ses nouveaux contacts dans le site social.
Nous avons utilisé un réseau immunitaire artificiel non supervisé, pour réaliser cette
classification et permettre d’exploiter un espace de recherche plus vaste, et aussi pour
généraliser les profils de la base de données en classes capables de représenter deux types
d’utilisateurs (utilisateurs de classe confiance et d’autres de classe menace).
Nos résultats restent toujours dans le cadre expérimental, c’est de la théorie qui devrait être
appliquée sur un réseau social réel afin de déceler les lacunes de notre méthode, les critères
utilisés peuvent êtres changés ou être insuffisants dans un site social réel.
Nous tenons aussi à souligner que la classification peut être réalisée en utilisant les réseaux de
neurones, une comparaison entre les résultats obtenus nous permettra de savoir quel est le
meilleur algorithme qui nous assure une bonne classification dans un réseau social réel, et
comme travail future, on peut ajouter le degré de menace sous forme de pourcentage pour
chaque utilisateur du site du réseau social.
Téléchargement