■ Statistiques descriptives de groupe :
maximum, moyenne, minimum, nombre de
cas, écart type, erreur standard et intervalle
de confiance 95 pour-cent
■ Homogénéité du test de variance : test de
Levene
■ Matrices de lecture et d’écriture
■ Egalité des moyennes : obtenez des
résultats précis lorsque les variances et les
tailles d’échantillon varient entre différents
groupes :
– Test Brown-Forsythe
– Test Welch
Modèles analyse de variance – factoriel simple
■ Créez des modèles personnalisés sans limite
quant à l’ordre d’interaction maximum
■ Travaillez plus rapidement sans avoir à
spécifier les étendues des niveaux de facteur
■ Choisissez le bon modèle en utilisant quatre
types de somme de carrés
■ Augmentez la certitude avec une meilleure
gestion des données dans les cellules vides
■ Exécutez des tests ‘lack-of-fit’ (absence
d’ajustement) pour sélectionner votre
meilleur modèle
■ Choisissez entre deux plans : équilibré ou
non équilibré
■ Utilisez l’analyse de covariance avec jusqu’à
10 méthodes covariables : expérimentale
classique, hiérarchique et régression
■ Entrez le contrôle des covariables : avant,
avec ou après les effets principaux
■ Définissez l’interaction pour : néant, 2, 3, 4,
ou 5 entrées
■ Choisissez parmi les statistiques suivantes
: Analyse de variance, moyennes et tableau
de décomptes, analyse de classification
multiple, coefficients de régression non
standardisés et moyennes de cellules à n
entrées.
■ Choisissez jusqu’à 10 variables
indépendantes
■ Obtenez les valeurs prédites et les
déviations par rapport à la moyenne dans un
tableau MCA
Corréler†
Avec deux variables (Bivariate)
■ r Pearson, Tau-b de Kendall et Spearman
■ Probabilités à une et deux possibilités
■ Moyennes, nombre de cas non manquants
et écarts types
■ Déviations et covariances entre les produits
■ Coefficients affichés au format matrice
ou série
Partiel†
■ Probabilités à une et deux possibilités
■ Moyenne, nombre de cas manquants et
écart type
■ Corrélations d’ordre zéro
■ Jusqu’à 100 variables de contrôle
■ Jusqu’à cinq valeurs d’ordre
■ Corrélations affichées au format de matrice
ou de chaîne série, matrice de corrélation
triangulaire inférieure ou rectangulaire
Distances
■ Calculez les proximités entre les cas ou les
variables
■ Mesures de dissimilarité
– Mesure d’intervalle : euclidien et
distance euclidienne au carré, mesure de
distance Chebychev, distance city-block
ou Manhattan, distance en mesure de
puissance Minkowski absolue et distance
personnalisée.
– Mesures de décomptes : Khi-carré et
Phi-carré
– Mesures binaires : euclidienne et distance
euclidienne au carré ; taille, modèles
et différence de formes ; mesure de
dissimilarité de variance et mesure non
métrique de Lance et Williams
■ Mesures de similarité
– Mesures d’intervalle : corrélation de
Pearson et cosinus
– Mesures binaires : Russell et Rao ;
concordance simple ; Jaccard ; dé (ou
Czekanowski ou Sorenson) ; Rodgers
et Tanimoto ; Sokal et Sneath 1 à 5 ;
Kulczynski 1 et 2 ; Hamann ; Goodman
et Krusal Lambada ; D de Anderberg
; coefficient de colligation de Yule ;
Coefficient Q de Yule ; Ochiai ; mesure de
similarité de dispersion et coefficient de
corrélation phi
■ Valeurs de données standardisées : scores
Z, étendue de –1 à 1, étendue de 0 à 1,
magnitude maximum de 1, moyenne de 1
et écart type de 1
■ Mesures de transformation : valeurs
absolues, dissimilarités en similarités,
similarités en dissimilarités et valeurs de
proximité de redimensionnement pour une
étendue de 0 à 1
■ Spécification de variable d’identification
■ Matrice imprimée des proximités entre les
éléments
■ Evolutivité améliorée pour les proximités
entre les matrices de variables
Régression – régression linéaire*
■ Méthodes : élimination arrière, entrée
forcée, suppression forcée, entrée avant,
sélection par étapes avant et changement
R2 /test de signification
■ Statistiques d’équation : critère
d’information Akaike (AIC), critère de
prédiction d’Ameniya, tableaux d’analyse
de variance (F, carré moyen, probabilité
de F, régression et valeur résiduelle de
somme des carrés), changement dans R2,
test F à l’étape, Cp de Mallow, R multiple,
probabilité de F, R2, R2 ajusté, Critère
Bayésien de Schwartz (SBC), erreur standard
d’estimation, algorithme SWEEP et matrice
variance-covariance
■ Statistiques descriptives : matrice de
corrélation, matrice de covariance,
déviations de produit vectoriel par rapport
à la moyenne, moyennes, nombre de cas
utilisés pour calculer les coefficients de
corrélation, probabilités de coefficients de
corrélation à une possibilité, écarts types et
variances
■ Statistiques des variables indépendantes :
coefficients de régression, dont B, erreurs
standard des coefficients, coefficients de
régression standardisés, erreur standard
approchée des coefficients de régression
standardisés, et t ; tolérances ; ordre
zéro ; corrélations partielles ; intervalle
de confiance 95% pour le coefficient de
régression non standardisé
■ Variables non présentes dans l’équation :
Beta ou tolérance minimale
■ Durbin-Watson
■ Diagnostics de colinéarité : indices de
condition, racines caractéristiques, facteurs
d’inflation de variance, proportions de
variances et tolérances
■ Graphes : de cas, histogramme, probabilité
normale, normale redressée, partielle,
aberrance et nuage de points
8
■ Créer et enregistrer des variables :
– Intervalles de prédiction : moyen et
individuel
– Valeurs prédites : non standardisées,
standardisées, ajustées et erreur de
moyenne standard
– Distances : distances de Cook, distance
de Mahalanobis et valeurs levier
– Valeurs résiduelles : non standardisées,
standardisées, de Student, supprimées,
et de Student supprimées
– Statistiques d’influence : dfbetas, dfbetas
standardisé, dffits, dffits standardisé et
rapports de covariance
■ Contrôles d’option : F-to-enter, F-to-remove,
probabilité de F-to-enter, probabilité de
F-to-remove, supprimer la constante, poids
de régression pour le modèle des moindres
carrés pondérés, intervalles de confiance,
nombre maximum d’étapes, remplacer les
valeurs manquantes par la moyenne des
variables, tolérance
■ Coefficients de régression affichés selon
l’ordre défini par l’utilisateur
■ Les fichiers système peuvent contenir des
estimations de paramètres et leurs matrices
de covariance et de corrélation via la
commande OUTFILE.
■ Les solutions peuvent être appliquées à de
nouveaux cas ou utilisées dans d’autres
analyses.
■ La prise de décision peut être optimisée
pour toute l’entreprise en exportant les
modèles via XML.
Régression ordinale – PLUM†
■ Prédire les résultats ordinaux
– Sept options pour contrôler l’algorithme
itératif utilisé pour l’estimation, pour
spécifier la tolérance numérique pour
la vérification de singularité et pour
personnaliser la sortie
– Cinq fonctions de liens pour spécifier le
modèle : Cauchit, log-log complémentaire,
logit, log-log négatif et probit
– Sous-commande de localisation pour
spécifier le modèle de localisation
: interception, effets principaux,
interactions, effets imbriqués, effets
imbriqués à plusieurs niveaux,
imbrication dans une interaction,
interactions parmi les effets imbriqués
et covariables
– Impression : information de cellule,
matrice de corrélation asymptotique des
estimations de paramètres, statistiques «
goodness-of-fit » (qualité de l’ajustement),
historique d’itération, noyau de la fonction
log-likelihood, test d’hypothèse de lignes
parallèles, statistiques de paramètres et
résumé de modèle
– Enregistrez les statistiques de post-
estimation de cas dans le fichier actif
: probabilités prévues de facteur de
classification/modèles de covariables
dans les catégories de réponse et
catégories de réponse avec la probabilité
prévue maximum pour les modèles de
facteur/covariable.
– Personnalisez vos tests d’hypothèse en
spécifiant directement des hypothèses
nulles comme combinaisons linéaires des
paramètres avec la sous-commande TEST
(syntaxe uniquement).
Estimation de courbe
■ Onze types de courbes disponibles
■ Affichages de résumé de régression : type
de courbe, coefficient R2, degrés de liberté,
test F général et niveau de signification, et
coefficients de régression
■ Modèles de tendance-régression : linéaires,
logarithmiques, inverses, quadratiques,
cubiques, composés, puissance, S,
croissance, exponentiels, et logistiques
Tests non-paramétriques
■ Khi-carré : spécifiez l’étendue prévue (en
fonction des données ou spécifié par
l’utilisateur) et les fréquences (toutes
les catégories égales ou spécifiées par
l’utilisateur)
■ Binomial : définissez la dichotomie (en
fonction des données ou des points de
rupture) et spécifiez la proportion de test
■ Séquences : spécifiez les points de rupture
(médian, mode, moyenne ou spécifié)
■ Un échantillon : Kolmogorov-Smirnov,
uniforme, normal et Poisson
■ Deux échantillons indépendants : séquences
Mann-whitney U, Kolmogorov-Smirnov Z,
Moses extreme et Wald-Wolfowitz
■ Echantillons k indépendants : Kruskal-Wallis
H et median
■ 2 échantillons reliés : Wilcoxon, signe et
McNemar
■ Echantillons k reliés : Friedman, Kendall W
et Cochran Q
■ Descriptifs : maximum, moyenne, minimum,
nombre de cas et écart type
Réponses multiples
■ Tableaux à double entrée : nombre de
cellules, pourcentages de cellules en
fonction des cas ou des réponses, colonne
et ligne, et pourcentages de tableau à
double entrée
■ Tables de fréquence : décomptes,
pourcentage de cas ou réponses
■ La dichotomie multiple et les groupes de
réponse multiples peuvent tous deux être
gérés.
Réduction de données
Facteur*
■ Le nombre de cas et les libellés de variable
pour l’analyse peuvent être affichés
■ Entrée provenant de matrice de corrélation,
facteur, matrice de pondération, matrice de
covariance ou fichier de cas avec données
brutes
■ Sortie de matrice de corrélation ou de
matrice de facteur
■ Sept méthodes d’extraction à utiliser lorsque
l’analyse est exécutée sur des matrices
de corrélation ou des fichiers de données
brutes : composant principal, axe principal,
mise en facteur Alpha, mise en facteur
image, vraisemblance maximum, moindres
carrés non pondérés et moindres carrés
généralisés
■ Méthodes de rotation : Varimax, equamax,
quartimax, promax et oblimin
■ Affichage : communautés initiales et
finales, racines caractéristiques, variance
de pourcentage, pondérations de facteur
sans rotation, matrice de modèles de facteur
avec rotation, matrice de transformation de
facteur, structure de facteur et matrice de
corrélation (rotations obliques uniquement)
■ Les matrices de covariance peuvent être
analysées avec trois méthodes d’extraction :
composant principal, axe principal et image
■ Positions sur un facteur : régression, Bartlett
et Anderson-Rubin
■ Positions sur un facteur enregistrées en tant
que variables actives
9
† Algorithme multithread donnant des performances et une évolutivité optimisées sur les machines multiprocesseur ou multicoeur.
Ces fonctions sont susceptibles d’être modifiées en fonction de la version finale du produit. Ce symbole indique une nouvelle fonction.