Avec l’une ou l’autre de ces procédures, vous divisez vos 
données en trois ensembles : ensemble d’apprentissage, 
ensemble de test et ensemble pilote (holdout). L’ensemble 
d’apprentissage est utilisé pour estimer les paramètres du 
réseau. L’ensemble de test sert à éviter tout “surapprent-
issage”. L’ensemble pilote ou “holdout” permet d’évaluer 
de façon isolée le réseau final, qui sera ensuite appliqué 
à la totalité de l’ensemble de données et à toute nouvelle 
donnée.
Vous spécifiez les variables dépendantes qui peuvent être 
des variables numériques, nominales ou une combinaison 
des deux. Si une variable dépendante a un niveau de 
mesure numérique, alors le réseau neuronal prédit les 
valeurs continues qui s’approchent de la valeur “vraie” 
d’une fonction continue des données d’entrée. Si une  
variable dépendante est nominale, alors le réseau  
neuronal est utilisé pour classifier les cas en “meilleure” 
catégorie en fonction des prédicteurs d’entrée.
Vous rdéfinissez le modèle en choisissant le mode de 
partitionnement des ensembles de données, le type 
d’architecture souhaité et les ressources de traitement à 
appliquer à l’analyse. Enfin vous spécifiez l’affichage des 
résultats sous forme de tableaux ou de graphiques, vous 
précisez si l’enregistrement des variables temporaires 
optionnelles doit se faire dans l’ensemble de données  
actif et si l’export des modèles se fait vers des formats  
de fichier XML pour scorer les données futures.
Dans un réseau MLP comme celui illustré ici, les données 
sont transmises d’une couche d’entrée via une ou plusieurs 
couches masquées vers la couche de sortie.
Caractéristiques
Multilayer Perceptron (MLP)
La procédure MLP s’adapte à un type particu-
lier de réseau neuronal appelé “perceptron 
multicouche”. Le perceptron multicouche 
est une méthode supervisée utilisant 
l’architecture “feedforward”. Il peut com-
porter plusieurs couches masquées. Une ou 
plusieurs variables dépendantes peuvent 
être spécifiées. Il peut s’agir de variables 
numériques, nominales ou d’une combinaison 
des deux. Si une variable dépendante a un 
niveau de mesure numérique alors le réseau 
neuronal prévoit les valeurs continues qui 
approchent la valeur “vraie” d’une fonction 
continue des données d’entrée. Si une  
variable dépendante est nominale, le réseau 
neuronal est utilisé pour classifier les cas  
en “meilleure” catégorie en fonction des  
prédicteurs d’entrée.
n  Prédicteurs
– Facteurs
– Covariables
n  La sous-commande EXCEPT répertorie sur 
la ligne de commande toutes les variables 
que la procédure MLP doit exclure des 
listes de facteurs ou de covariables. Cette 
sous-commande est utile si les listes de 
facteurs ou de co-variables contiennent un 
grand nombre de variables.
n  La sous-commande RESCALE sert à  
redimensionner les covariables ou les  
variables dépendantes numériques
–   Variable dépendante (si numérique) :  
standardisée, normalisée, ajustée  
normalisée ou néant
–   Covariables : standardisée, normalisée,  
normalisée ajustée ou néant
n  La sous-commande PARTITION spéci-
fie la méthode de partitionnement de 
l’ensemble de données actif en échan-
tillon d’apprentissage, échantillon de 
test et échantillon pilote. L’échantillon 
d’apprentissage inclut les enregistrements 
de données utilisés pour former le réseau 
neuronal. L’échantillon de test est un 
ensemble indépendant d’enregistrements 
de données utilisés pour assurer le 
suivi des erreurs de prédiction pendant 
l’apprentissage afin d’empêcher le surap-
prentissage. L’échantillon pilote ou “hold-
out” est un autre ensemble indépendant 
d’enregistrements de données utilisés pour 
évaluer le réseau neuronal final. Vous pou-
vez spécifier :
    –    Le nombre relatif de cas dans l’ensemble 
de données actif à affecter de façon 
aléatoire à l’échantillon d’apprentissage
–   Le nombre relatif de cas dans l’ensemble 
de données actif à affecter de façon aléa-
toire à l’ensemble pilote.
–   Une variable qui assigne chaque cas 
de l’ensemble de données actif à 
l’échantillon Apprentissage, Test ou 
Pilote 
n  la sous-commande ARCHITECTURE est utili-
sée pour spécifier l’architecture de réseau 
neuronal. Vous pouvez spécifier :
–   si l’architecture automatique doit ou non 
être utilisée :
–   Le nombre de couches masquées du 
réseau neuronal
–   La fonction d’activation à utiliser pour 
toutes les unités des couches masquées 
(Tangente hyperbolique ou Sigmoid)
–   La fonction d’activation à utiliser pour 
toutes les unités de la couche de sor-
tie (Identité, tangente hyperbolique, 
Sigmoid ou Softmax)
n  La sous-commande CRITERIA spécifie les 
paramètres de calcul et de ressource pour 
la procédure MLP. Vous pouvez spécifier 
le type d’apprentissage ce qui va déter-
miner la façon dont le réseau neuronal 
traite les enregistrements de données 
d’apprentissage : apprentissage par lots, 
apprentissage en ligne, apprentissage par 
mini-lots. Vous pouvez également spécifier:
–   Le nombre d’enregistrements 
d’apprentissage par mini-lots (si 
cette méthode est sélectionnée pour 
l’apprentissage)
–   Le nombre maximum de cas à enregistrer 
en mémoire lorsque la sélection est : 
architecture automatique et/ou apprent-
issage par mini-lots 
  –   L’algorithme d’optimisation utilisé pour 
déterminer les poids synaptiques : 
Méthode du gradient, gradient conjugué
  –   La vitesse d’apprentissage initiale 
pour l’algorithme d’optimisation de la 
Méthode du gradient
  –   La limite inférieure pour la vitesse 
d’apprentissage lorsque la Méthode du 
gradient est utilisée avec l’apprentissage 
en ligne ou par mini-lots
  –   La vitesse de propagation pour 
l’algorithme d’optimisation de la 
Méthode du gradient
  –   Le lambda initial pour l’algorithme 
d’optimisation du gradient conjugué 
numérique 
  –   Le sigma initial pour l’algorithme 
d’optimisation du gradient conjugué 
numérique 
  –   L’intervalle [a0−a, a0+a] dans lequel les 
vecteurs de poids sont générés de façon 
aléatoire lorsque l’hybridation simulée 
est utilisée 
 
Les résultats de l’exploration des données à l’aide des techniques des 
réseaux neuronnaux peuvent être affichés avec toute une variété de 
graphiques. Ce simple diagramme à barres est l’une des nombreuses 
options possibles.
A partir de la boîte de dialogue Multilayer Perceptron (MLP), 
vous sélectionnez les variables à inclure dans votre modèle.