Fonctionnalités
de
STATISTICA Solutions Industrielles
STATISTICA
Solutions Industrielles offre une gamme étendue de
statistiques industrielles pour accompagner efficacement votre
démarche qualité ; vous disposez de tous les
outils nécessaires à la mise en place d'une méthodologie six
sigma grâce aux raccourcis DMAIC
intégrés.
La version Entreprise de STATISTICA (STATISTICA
Entreprise/QC) offre des possibilités
étendues avec notamment une configuration
centralisée des données, des analyses et des
rapports. Vous définissez vous-même la
fréquence de mise à jour des données,
et les critères de filtrage interactif lors de
l'exécution des analyses (par exemple, selon la ligne de
production, par date, par produit, etc...). STATISTICA
Gestion Documentaire vous permet de conserver
différentes versions de vos configurations et de restaurer
une version particulière à tout moment (une
exigence de la norme 21 CFR Part 11). Tous ces outils sont disponibles
en client léger, depuis un simple navigateur Internet, à
l'autre bout du couloir ou à l'autre bout du monde,
grâce au produit complémentaire WebSTATISTICA
Server.
Langage de programmation
Visual Basic et nombreux graphiques intégrés dans
toutes les analyses.
STATISTICA Statistiques Avancées + Solutions Industrielles
fonctionne sur les plates-formes Windows XP, Windows Vista et Windows
7. Ce produit est constitué des modules suivants :
STATISTICA
Base
STATISTIQUES
DESCRIPTIVES, DÉCOMPOSITIONS ET ANALYSE EXPLORATOIRE DES
DONNÉES. STATISTICA Base vous
propose une large gamme de méthodes pour réaliser
vos analyses exploratoires :
Statistiques Descriptives et Graphiques.
Le programme calcule les statistiques descriptives les plus courantes
et généralistes comme les médianes,
modes, quartiles, centiles personnalisés, moyennes et
écarts-types, intervalles inter-quartiles, limites de
confiance autour de la moyenne, asymétries et aplatissements
(avec leurs erreurs-types respectives), moyennes harmoniques et
géométriques, ainsi que de nombreuses
statistiques descriptives et diagnostiques
spécialisés. Comme dans tous les modules de STATISTICA,
de nombreux graphiques vous aident lors de la phase exploratoire de vos
analyses, par exemple, divers types de boîtes à
moustaches, histogrammes, histogrammes bivariés (en 3D ou
catégorisés), nuages de points en 2D et 3D avec
représentation différenciée de
catégories, tracés de normalité
(droite de Henry, normalité par moitié,
écarts à la normalité),
tracés Q-Q, tracés P-P,
etc... Différents tests sont proposés pour
vérifier la normalité de vos données
(tests de Kolmogorov-Smirnov, Lilliefors et Shapiro-Wilk ; vous pouvez
toutefois tester l'ajustement de nombreuses autres distributions ; voir
aussi le descriptif du module Analyse
de Processus ainsi que le paragraphe concernant
l'ajustement dans les Graphiques).
Analyses
par Groupe (Décompositions). La plupart des
statistiques descriptives et graphiques de synthèse peuvent
être calculés pour des données
catégorisées (décomposées)
selon une ou plusieurs variables de classement. Par exemple, quelques
clics de souris vous permettent de décomposer vos
données en fonction du Sexe et de l'Âge
et de visualiser les représentations
catégorisées sous forme d'histogrammes, de
boîtes à moustaches, de tracés de
normalité, de nuages de points, etc... Si vous
sélectionnez plus de deux variables
(catégorielles) de classement, des cascades
de graphiques seront automatiquement produites. Des options vous
permettent de catégoriser vos données selon des
variables continues ; par exemple, vous pouvez ventiler cette variable
continue en un certain nombre de classes, ou utiliser l'une des options
de recodification pour définir la manière dont la
variable sera recodifiée (vous pouvez spécifier
des options de catégorisation d'une complexité
quasi-illimitée, pouvant faire intervenir toutes les
variables de votre fichier de données, et ce, à
tout moment). En outre, une procédure
spécialisée de décomposition
hiérarchique permet à l'utilisateur de
catégoriser ses données en spécifiant
jusqu'à six variables catégorielles, et de tracer
toute une gamme de graphiques ou calculer de nombreuses statistiques
descriptives et matrices de corrélations pour
chaque catégorie (l'utilisateur peut, de
façon interactive, ignorer certains facteurs de la table de
décomposition complète, et ne visualiser les
statistiques que pour certains des tableaux marginaux). De nombreuses
options de mise en forme et d'étiquetage permettent
à l'utilisateur de produire des tableaux et comptes-rendus
de qualité, avec les noms et descriptions
détaillées des variables. Remarque : vous pouvez
spécifier des plans très importants pour la
procédure de décomposition (par exemple, 100.000
groupes pour une seule variable de classement), et les
résultats contiennent toutes les statistiques
appropriées de l'ANOVA (notamment le tableau complet de
l'ANOVA, des tests d'hypothèses comme le test
d'homogénéité des variances de Levene,
sept tests post-hoc, etc...). Comme dans tous les
autres modules de STATISTICA, les calculs sont
effectués en précision étendue (la "quadruple"
précision, à chaque fois que c'est possible) afin
de produire les résultats avec un niveau de
précision sans égal (voir la section sur la Précision).
La nature interactive du programme rend l'analyse exploratoire des
données très simple. Par exemple, vous pouvez
produire des graphiques exploratoires directement depuis les feuilles
de données en pointant simplement avec la souris une cellule
ou un groupe de cellules spécifiques. Des cascades
de graphiques même complexes (par exemple,
catégorisation multiple) peuvent être
créées d'un seul clic et affichés sous
forme de diaporama. Outre les nombreux graphiques statistiques
prédéfinis, vous avez à votre
disposition quantité de graphiques pour
représenter vos données brutes, statistiques de
synthèse, relations entre vos statistiques. Toutes les
techniques graphiques exploratoires (décrites dans la
section sur les Graphiques)
sont intégrées aux statistiques pour simplifier
l'analyse graphique de vos données (par exemple, suppression
interactive des points atypiques, sélection de
sous-ensembles, lissage, fonction d'ajustement, options extensives
d'habillage/balayage permettant à l'utilisateur d'identifier
et/ou d'extraire simplement les données
sélectionnées, etc...). Voir aussi la section sur
les Statistiques de Blocs,
ci-dessous.

CORRÉLATIONS. Diverses options vous
permettent d'étudier les corrélations entre vos
variables. Les mesures d'association les plus courantes peuvent
être calculées, notamment le r
de Pearson, le R des rangs de Spearman, le
tau (b, c) de Kendall,
le Gamma, le rtétrachorique,
le Phi, le V de Cramer, le
coefficient de contingence C, le D
de Sommer, les coefficients d'incertitude, les corrélations
partielles et semi-partielles, les autocorrélations,
diverses mesures de distances, etc... (des régressions
non-linéaires, ou sur des données
censurées et autres mesures
spécialisées de corrélations sont
proposées dans les modules Estimation
Non-Linéaire, Analyse de Survie,
ainsi que dans d'autres modules du produit complémentaire STATISTICA Statistiques
Avancées). Vous pouvez calculer des
matrices de corrélation avec diverses options de traitement
des valeurs manquantes : vous pouvez ignorer les cellules à
valeurs manquante, ignorer toute observation contenant au moins une
valeur manquante, ou remplacer les valeurs manquantes par la moyenne de
la variable respective. Comme dans tous les autres modules de STATISTICA,
les calculs sont réalisés en précision
étendue (la "quadruple" précision,
à chaque fois que c'est possible) afin d'obtenir des
résultats aussi précis que possible (voir la
section sur la Précision).
Comme tous les autres résultats de STATISTICA,
les matrices de corrélations sont affichées dans
des feuilles de données, vous offrant diverses options de
mise en forme (voir ci-dessous) et de représentation des
résultats numériques ; vous pouvez ainsi cliquer
sur une corrélation particulière dans la feuille
de données et choisir de représenter ce
coefficient grâce à l'un des nombreux "graphiques
de synthèse" disponibles (par exemple, un nuage de points
avec des intervalles de confiance, divers histogrammes
bivariés en 3D, des tracés de
probabilité, etc...).
Balayage et détection des points
atypiques. L'outil de balayage dans les
nuages de points permet à l'utilisateur de
sélectionner/désélectionner des points
individuels dans le tracé pour mesurer leur influence sur la
droite de régression (ou sur la courbe d'ajustement).
Formats d'affichage des nombres.
Divers formats globaux d'affichage sont proposés pour les
corrélations ; les coefficients de corrélation
significatifs peuvent apparaître en surbrillance
automatiquement, et chaque cellule de la feuille de données
peut reporter les n et niveaux p,
ou encore, vous pouvez demander les résultats
détaillés avec toutes les statistiques
descriptives (moyennes et écarts-types par couples,
pondérations B, ordonnées à l'origine,
etc...). Comme pour tous les autres résultats
numériques, les matrices de corrélations sont
affichées dans des feuilles de données offrant
des options de zoom et d'affichage/mise en forme interactifs (par
exemple, changer +.4 en +.41358927645193)
; vous pouvez donc compacter de grandes matrices (soit en utilisant le
zoom, soit en modifiant la largeur des colonnes à l'aide de
la souris pour des colonnes individuelles, ou en utilisant un bouton de
la barre d'outils pour modifier la largeur de toutes les colonnes) afin
de faciliter l'identification visuelle des coefficients
dépassant un certain niveau personnalisé, ou un
seuil de significativité (par exemple, les cellules
respectives peuvent apparaître en rouge dans la feuille de
données).
Nuage de points, nuages matriciels,
analyses par groupes. Comme dans toutes les boîtes
de dialogue de résultats, de nombreuses options graphiques
globales vous permettent de poursuivre l'analyse des relations entre
les variables, comme par exemple divers nuages de points en 2D et 3D
(avec ou sans les noms d'observations) destinés à
identifier la structure des relations entre des séries de
variables ou catégories d'observations. Les matrices de
corrélations peuvent être calculées en
fonction des variables de classement et
représentées dans des nuages de points
catégorisés. En outre, vous pouvez produire des
"décompositions de matrices de corrélations" (une
matrice par catégorie), qui seront affichées dans
des feuilles de données distinctes, et qui pourront
être enregistrées sous forme de matrices de
corrélations empilées (que vous pourrez ensuite
utiliser par exemple en entrée d'une nouvelle analyse dans
le module Modélisation
d'Équations Structurelles et Analyse de Causalité
[SEPATH] proposé dans le produit
complémentaire STATISTICA
Statistiques Avancées). Vous pouvez
synthétiser une matrice de corrélations
entière dans un même graphique grâce
à l'option Nuage de points matriciel
(avec une densité quasi-illimitée) ; vous pouvez
examiner de larges matrices de nuages de points de façon
interactive en "zoomant" sur des sections
spécifiques du graphique (ou en utilisant les barres de
défilement en mode zoom [voir l'illustration ci-contre]).
Vous pouvez également produire des nuages de points
matriciels catégorisés (un tracé
matriciel par catégorie). Vous avez par ailleurs la
possibilité de tracer des nuages de points matriciels multi-groupes,
chaque catégorie distincte (par exemple, définie
selon les modalités d'une variable de classement ou par des
filtres de sélection d'une complexité
quasi-illimitée) étant
représentée par un symbole de points
différent. D'autres méthodes graphiques peuvent
être utilisées pour représenter des
matrices de corrélations et rechercher des structures
globales (par exemple, courbes d'isoréponse, surfaces non
lissées, tracés de figures, etc...). Toutes ces
opérations peuvent être
réalisées en quelques clics et divers raccourcis
permettent de simplifier le paramétrage des analyses ; vous
pouvez afficher simultanément autant de feuilles de
données et de graphiques que vous le souhaitez, ce qui
permet de comparer les résultats et réaliser des
analyses exploratoires interactives de façon
extrêmement simple.
|
 STATISTIQUES
ÉLÉMENTAIRES SUR DES TABLEAUX DE
RÉSULTATS (FEUILLES DE DONNÉES). STATISTICA
est un système analytique intégré qui
affiche tous ses résultats numériques sous la
forme de feuilles de données utilisables directement (sans
aucune modification) en entrée d'autres analyses. Vous
pouvez ainsi produire des statistiques
élémentaires (ou tout autre type d'analyse
statistique) à partir des tableaux de résultats
d'une analyse précédente ; vous pouvez par
exemple calculer très rapidement un tableau de moyennes sur
2000 variables, puis utiliser ce tableau comme fichier
d'entrée pour analyser la distribution de ces moyennes selon
les variables. Les statistiques élémentaires sont
donc accessibles à tout moment d'une analyse, et peuvent
être calculées sur toute type de
résultat.
Statistiques
de Blocs. Outre les statistiques descriptives que vous pouvez
calculer sur chaque feuille de données, vous pouvez mettre
des blocs de cellules numériques en surbrillance dans une
feuille de données, et produire rapidement un certain nombre
de graphiques et de statistiques descriptives sur ce bloc
sélectionné (sous-ensemble de données)
uniquement. Par exemple, si vous avez produit une feuille de
données avec les caractéristiques de tendance
centrale de 2000 variables (par exemple, avec les moyennes, modes,
médianes, moyennes géométriques et
harmoniques) ; vous pouvez mettre un bloc en surbrillance, disons de
200 variables avec uniquement les moyennes et les médianes,
puis produire un graphique curviligne multiple de ces deux mesures pour
les 200 variables sélectionnées. Vous pouvez
réaliser des analyses statistiques sur des blocs de lignes
ou de colonnes ; par exemple, vous pouviez
également produire un tracé curviligne d'un
groupe de variables en fonction de différentes
caractéristiques de tendance centrale. Pour
résumer, les statistiques de blocs vous permettent de
produire des statistiques et graphiques statistiques à
partir de valeurs arbitrairement sélectionnées
(mises en surbrillance) dans votre feuille de données
(données d'entrée ou résultats
d'analyses).
|
CALCULATEUR
INTERACTIF DE PROBABILITÉS. Un Calculateur
de Probabilités interactif est accessible depuis
toutes les barres d'outils. Il vous propose une large gamme de
distributions (en particulier Bêta, Cauchy,
Chi2, Exponentielle,
Valeur Extrême, F,
Gamma, Laplace, Log-normale,
Logistique, Pareto, Rayleigh,
t (Student), Weibull, et Z
(Normale)) ; la mise à jour interactive des
graphiques dans cette boîte de dialogue (tracé des
fonctions de répartition et de densité) permet
à l'utilisateur de visualiser ces distributions en utilisant
les micro-défilements "intelligents" de
STATISTICA qui permettent à
l'utilisateur d'augmenter la dernière décimale
significative (en appuyant sur le bouton GAUCHE de la souris) ou
l'avant-dernière (en appuyant sur le bouton DROIT de la
souris). Diverses options vous permettent de produire des graphiques
composés et personnalisables de distributions avec des
seuils spécifiques. Ce calculateur de
probabilités vous permet donc d'explorer de façon
interactive les distributions (par exemple, les probabilités
respectives associées à différents
paramètres de dispersion (forme)).
|
Tests
T et autres Tests
d'Homogénéité entre des Groupes.
Vous pouvez calculer des tests t pour des
échantillons appariés ou indépendants,
comparer des valeurs à un standard (par exemple,
tester des moyennes par rapport à une constante
particulière) ou encore des tests multivariés T
2 de Hotelling (voir aussi le module ANOVA/MANOVA
et le module GLM
(Modèle Linéaire Général)
proposé dans le produit complémentaire STATISTICA Statistiques
Avancées. Diverses options vous
permettent de comparer aisément vos variables (par exemple,
vous pouvez traiter différentes colonnes de votre feuille de
données comme des échantillons distincts) et vos
groupes (par exemple, si vos données contiennent une
variable catégorielle de classement représerntant
par exemple le Sexe, et permettant d'identifier à quel
groupe chaque observation appartient). Par exemple, après un
test t pour des échantillons
indépendants, vous pouvez calculer des tests t
avec une estimation séparée des variances, le
test d'homogénéité des variances de
Levene, divers histogrammes catégorisés,
boîtes à moustaches, tracés de
probabilités, ou nuages de points
catégorisés, etc... D'autres tests
d'homogénéité (plus
spécialisés) sont proposés dans des
modules spécifiques (par exemple, Tests
Non-Paramétriques (voir ci-dessous), ou
encore Analyse
de Survie et Fiabilité/Analyse
d'Échelle (tous deux proposés
dans le produit complémentaire STATISTICA Statistiques
Avancées).
|
 TABLES DE
FRÉQUENCES, TRIS CROISÉS, ANALYSE DE
RÉPONSES MULTIPLES. Diverses
fonctionnalités vous permettent de croiser des variables
continues, catégorielles, et à
réponses ou dichotomies multiples. De nombreuses options
vous permettent de contrôler la mise en forme et le format
des tableaux. Ainsi, pour des tableaux avec des variables de
réponses ou dichotomies multiples, les effectifs marginaux
et pourcentages peuvent être calculés à
partir du nombre total de répondants ou de
réponses, les variables à réponses
multiples peuvent être traitées par couples, et
vous pouvez comptabiliser (ou ignorer) les valeurs manquantes de
diverses manières. Les tables de fréquences
peuvent également être calculées en
utilisant des filtres de sélection logiques (d'une
complexité quasi-illimitée, utilisant toute
variable du fichier de données) pour affecter les
observations à des catégories du tableau. Tous
les tableaux peuvent être personnalisés et mis en
forme (habillés) pour produire des comptes-rendus de
qualité. Par exemple, des tableaux "de synthèse
à plusieurs entrées" peuvent être
produits avec une organisation hiérarchique des facteurs ;
dans les tableaux croisés, vous pouvez reporter le
pourcentage de chaque cellule par rapport au total en ligne, en colonne
ou à l'effectif total ; vous pouvez utiliser des
étiquettes pour décrire les catégories
de votre tableau, ou encore mettre les effectifs supérieurs
à un certain seuil en surbrillance dans le tableau, etc...
Le programme peut reporter les effectifs cumulés et
relatifs, les effectifs transformés Logit et Probit, les
effectifs normaux théoriques (ainsi que les tests de
Kolmogorov-Smirnov, Lilliefors et Shapiro-Wilk), les effectifs
théoriques et les résidus dans les tableaux
croisés, etc... Divers tests statistiques vous sont
proposés pour les tableaux croisés, notamment les
tests du Chi2 de Pearson, du
Maximum de Vraisemblance et de Yates (corrigé), le Chi2
de McNemar, le test exact de Fisher
(unilatéral et bilatéral), le Phi,
et le r tétrachorique ; ou encore le tau
(a, b) de
Kendall, Gamma, r de Spearman, D
de Sommer, coefficients d'incertitude, etc...
Graphiques. Diverses options
graphiques vous sont également proposées, en
particulier des histogrammes simples, catégorisés
(multiples), ou en 3D, des histogrammes croisés (pour chaque
"section" d'un tableau
élémentaire, à double
entrée, ou d'ordre multiple), ainsi que de nombreux autres
graphiques, y compris un "tracé d'interaction des effectifs"
qui synthétise les effectifs d'un tableau
croisé complexe (sur le même principe que les
tracés de moyennes dans l'ANOVA). Vous pouvez visualiser des
cascades de graphiques même
complexes (par exemple, catégorisation multiple, ou
interactions) de façon interactive. Voir aussi la section
sur les Statistiques de Blocs,
ci-dessus, et la description des modules Analyse
Log-Linéaire et Analyse
des Correspondances (tous deux proposés
dans le produit complémentaire STATISTICA Statistiques
Avancées).
|
 RÉGRESSION
MULTIPLE. Le module Régression Multiple
propose diverses techniques de régression
linéaire, en particulier des régressions simples,
multiples, pas-à-pas (ascendante, descendante, ou par
blocs), hiérarchiques, non-linéaires (en
particulier polynomiale, exponentielle, logarithmique, etc...), des
régressions Ridge, avec ou sans ordonnée
à l'origine (c'est-à-dire passant ou non par
l'origine), et modèles de moindres carrés
pondérés ; d'autres méthodes
avancées sont proposées dans le module Modèles
Généraux de Régression (GRM)
(par exemple, recherche exhaustive du meilleur modèle,
régression pas-à-pas multivariée pour
plusieurs variables dépendantes, avec des modèles
pouvant comporter des effets de facteurs catégoriels ;
synthèse statistique des échantillons
utilisés pour la validation et la prévision,
hypothèses personnalisées, etc...). Le module Régression
Multiple permet de calculer divers diagnostiques et
statistiques, notamment la table complète de la
régression (y compris les erreurs-types de B, Bêta
et de l'ordonnée à l'origine, le R2
et le R2 ajusté
pour les modèles avec ou sans ordonnée
à l'origine et la table ANOVA de la régression),
la matrice des corrélations partielles, les
corrélations et covariances des coefficients de
régression, la matrice sweep (inverse), le d
de Durbin-Watson, les distances de Mahalanobis et de Cook, les
intervalles de confiance autour des valeurs prévues , etc...
Valeurs prévues et
résidus. De nombreux tracés tels que
nuages de points, histogrammes, tracés de
normalité (droite de Henry, normalité par
moitié, écarts à la
normalité), tracés de corrélations
partielles, etc..., vous permettent de poursuivre l'analyse des
résidus et des points atypiques plus avant. Les
résultats de chaque observation peuvent être
représentés graphiquement à l'aide des
tracés exploratoires de figures et autres graphiques
multidimensionnels intégrés, accessibles
directement depuis les feuilles de données. Les
résidus et les valeurs prévues peuvent
être automatiquement ajoutées au fichier de
données. Une routine de prévision permet
à l'utilisateur d'effectuer des analyses conditionnelles,
et de calculer de façon interactive les valeurs
prévues pour des valeurs spécifiques des
prédicteurs.
Analyses par Groupes ; procédures
associées. D'autres procédures de
régression permettent de traiter des modèles
extrêmement importants. Une option vous permet de
réaliser des régressions multiples
décomposées selon une ou plusieurs variables
catégorielles (régression multiple par groupe) ;
d'autres procédures permettent encore de traiter des
modèles avec plusieurs milliers de variables, de calculer
des régressions par les Moindres Carrés
à deux Étapes, ainsi que des
transformations Box-Cox et Box-Tidwell
avec des graphiques. Le produit complémentaire STATISTICA Statistiques
Avancées, contient également
divers modules généraux d'estimation
non-linéaire (Estimation
Non-Linéaire, Modèles
Linéaires/Non-Linéaires
Généralisés (GLZ),
Modèles
Généraux PLS) qui permettant
d'estimer pratiquement tout type de modèle
non-linéaire personnalisé, en particulier Logit,
Probit, etc... Ce produit complémentaire contient
également un module généraliste de Modélisation
d'Équations Structurelles et d'Analyse de
Causalité (SEPATH),
qui vous permet d'analyser des matrices de corrélations, de
covariance ou des moments, très importantes (pour des
modèles avec ordonnée à l'origine).
|
 TESTS
NON-PARAMÉTRIQUES. Le module Tests
Non-Paramétriques contient toute une gamme de
statistiques descriptives et inférentielles, avec les tests
les plus courants et certaines procédures
spéciales. Parmi les procédures statistiques
disponibles, citons le test des séries de Wald-Wolfowitz, le
test U de Mann-Whitney (avec les
probabilités exactes [et non les approximations Z]
pour les petits échantillons), les tests de
Kolmogorov-Smirnov, le test de Wilcoxon pour des
échantillons appariés, l'ANOVA par rangs de
Kruskal-Wallis, le test de la médiane, le test des signes,
l'ANOVA par rangs de Friedman, le test Q de
Cochran, le test de McNemar, le coefficient de concordance de Kendall,
le tau (b, c)
de Kendall, le R de Spearman, le test exact de
Fisher, les tests du Chi2,
le V2, Phi,
Gamma, le d de Sommer, les
coefficients de contingence, etc... (des statistiques et tests
non-paramétriques spécialisés sont
également disponibles dans d'autres modules, par exemple Analyse de Survie,
, etc..., ou dans le module Analyse
de Processus) Tous les tests (basés sur
des rangs) permettent de tenir compte des ex-aequos et appliquent des
corrections pour les petits n ou les ex-aequos.
Comme dans tous les autres modules de STATISTICA,
des graphiques sont intégrés à tous
les tests (notamment des nuages de points, boîtes
à moustaches spécialisées,
tracés curvilignes, histogrammes, et autres graphiques en 2D
ou 3D).
|
ANOVA/MANOVA.
Le module ANOVA/MANOVA ne contient qu'une partie des
fonctionnalités proposées dans le module Modèle
Linéaire Général et peut
réaliser des analyses de variance univariées et
multivariées sur des plans factoriels avec ou sans mesures
répétées (ce module peut traiter au
maximum un facteur de mesure répétée).
Pour des modèles linéaires plus complexes avec
des variables prédictives catégorielles ou
continues, des effets aléatoires, et plusieurs facteurs de
mesures répétées, vous devez utiliser
le module Modèle Linéaire
Général (le module Modèles
Généraux de Régression (GRM)
offre diverses options d'analyse pas-à-pas et de
sélection du meilleur modèle). Dans le module
ANOVA/MANOVA , vous pouvez spécifier tous les
modèles de manière extrêmement simple,
en termes fonctionnels de variables et niveaux (et
non pas en termes techniques, par exemple, en spécifiant des
matrices de codes), et même les utilisateurs les moins
familiarisés avec l'ANOVA peuvent analyser des
modèles très complexes avec STATISTICA.
Interface-utilisateur. Comme dans le
module Modèle Linéaire
Général, le module ANOVA/MANOVA offre
trois interfaces-utilisateur alternatives pour spécifier les
modèles : (1) Un Assistant Analyse qui vous guide
pas-à-pas pour spécifier votre modèle,
(2) une interface-utilisateur simplifiée qui vous permet de
spécifier votre modèle en
sélectionnant les variables, les codes, les niveaux, et
d'autres options du modèle dans une boîte de
dialogue de spécifications rapides, et (3) un
Éditeur de Syntaxe qui vous permet de spécifier
vos modèles et leurs options grâce à
des mots-clé et une syntaxe commune.
Méthodes de calcul. Par
défaut, le programme utilise une paramétrisation
sigma-restreint pour les modèles factoriels et applique
l'approche de l'hypothèse efficace (voir Hocking, 19810)
lorsque le modèle n'est pas équilibré
ou s'il est incomplet. Il est possible de calculer les
hypothèses (standard) de type I, II, III, et IV ; les
hypothèses de type V et de type VI permettent de
réaliser des tests dans la logique des analyses-type des
plans factoriels fractionnaires utilisés dans les
applications industrielles et d'amélioration de la
qualité (voir aussi la description du module Plans
d'Expériences).
Résultats. Le module
ANOVA/MANOVA n'est pas limité en termes de routines de
calcul ce qui vous permet d'accéder à l'ensemble
des outils analytiques disponibles dans le module Modèle
Linéaire Général (voir la
description du module Module Linéaire
Général (GLM) pour plus d'informations)
; parmi les résultats standard, vous retrouverez les
tableaux de synthèse de l'ANOVA, les résultats
univariés et multivariés des facteurs de mesures
répétées à plus de 2
niveaux, les ajustements de Greenhouse-Geisser et Huynh-Feldt, les
tracés d'interactions, des statistiques descriptives
détaillées, diverses statistiques sur les
résidus, les comparaisons planifiées et tests post-hoc,
des tests d'hypothèses et termes d'erreur
personnalisés, diverses statistiques et tracés
diagnostiques détaillés (par exemple, un
histogramme des résidus intra, tests
d'homogénéité des variances,
tracés des moyennes en fonction des écarts-types,
etc...).
|
 AJUSTEMENT
DE DISTRIBUTIONS. Les options du module Ajustement
de Distributions vous permettent de comparer la distribution
d'une variable en fonction de nombreuses distributions
théoriques. Vous pouvez ajuster vos données par
une distribution Normale, Uniforme,
Exponentielle, Gamma, Log-normale,
du Chi2, Weibull,
Gompertz, Binomiale, de Poisson,
Géométrique, ou de Bernoulli.
Vous pouvez ensuite évaluer l'ajustement par un test du Chi2
ou par un test de Kolmogorov-Smirnov (avec contrôle des
paramètres d'ajustement) ; les tests de Lilliefors et
Shapiro-Wilk sont également proposés (voir
ci-dessus). Vous pouvez évaluer l'ajustement d'une
distribution particulière à une distribution
empirique grâce à des histogrammes
personnalisés (standard ou cumulés) avec
superposition des fonctions sélectionnées ; vous
pouvez produire des graphiques curvilignes et en bâtons des
effectifs théoriques et observés, ou des
divergences et autres résultats dans toutes les feuilles de
données de résultats. D'autres options
d'ajustement de distributions sont proposées dans le module STATISTICA Analyse de
Processus, où l'utilisateur peut estimer
les paramètres par le maximum de vraisemblance pour les
distributions Bêta, Exponentielle,
Valeur Extrême (Type I, Gumbel), Gamma,
Log-normale, Rayleigh, et Weibull.
Ce module vous permet également de sélectionner
et ajuster automatiquement la meilleure distribution à vos
données, ou encore d'ajuster des distributions
générales par les moments (à l'aide
des courbes de Johnson et de Pearson). Des fonctions
personnalisées en 2 et 3 dimensions peuvent
également être représentées
et superposées sur les graphiques. Les fonctions peuvent
faire référence à de nombreuses
distributions comme la distribution Bêta,
Binomiale, de Cauchy, du Chi2,
Exponentielle, Valeur
Extrême, du F, Gamma,
Géométrique, Laplace,
Logistique, Normale, Log-normale,
de Pareto, de Poisson, Rayleigh,
du t (Student), ou de Weibull,
ou leurs intégrales et inverses. D'autres
fonctionnalités permettant d'ajuster des fonctions
prédéfinies ou personnalisées d'une
complexité quasi-illimitée à vos
données sont décrites dans le cadre du module Estimation
Non-Linéaire (disponible dans le produit
STATISTICA Statistiques Avancées).
|
STATISTICA
Cartes de Contrôle Qualité
STATISTICA Cartes de Contrôle Qualité
vous propose une large gamme de techniques de contrôle
qualité (avec des cartes de contrôle de grande
qualité), d'une souplesse et d'une richesse incomparables.
Ce produit est idéal, pour les systèmes de
contrôle qualité automatisés en
atelier, quel que soit le type et le niveau de complexité
(voir aussi le descriptif des
Systèmes
Entreprise de STATISTICA, comme pour les
systèmes sophistiqués d'analyse et de recherche
d'amélioration de la qualité. Diverses options
d'automatisation et raccourcis d'interface-utilisateur vous permettent
de simplifier encore vos tâches routinières ; en
outre, la plupart des options de mise en forme graphique et
spécifications peuvent être modifiées
de façon permanente (enregistrées sous forme de
paramètres par défaut du système ou de
modèles réutilisables). Enfin,
STATISTICA
Cartes de Contrôle Qualité met
à votre disposition diverses fonctionnalités
puissantes et simples à utiliser pour créer de
nouvelles procédures analytiques et les ajouter de
façon permanente à votre application, et ces
options s'avèrent particulièrement utiles lorsque
des analyses de contrôle qualité doivent
s'intégrer dans des systèmes de collecte des
données et de suivi.
Cartes standard. Le
programme vous permet de créer des diagrammes de Pareto, des
cartes
X-barre,
R,
S,
S2 (variance), des cartes
C,
Np (effectifs binomiaux),
P
(proportions binomiales),
U,
Cusum (somme
cumulée), des cartes d'étendues mobiles, des
cartes individuelles (pour des observations individuelles), des cartes
MA
(moyenne mobile) et
EWMA (moyenne mobile
pondérée exponentiellement). Ces cartes peuvent
être basées sur des valeurs
personnalisées ou sur des paramètres (moyennes,
étendues, proportions, etc...) calculés
à partir des données. La plupart des cartes de
contrôle aux variables peuvent être construites
à partir des observations individuelles (par exemple, cartes
d'étendues mobiles) ou d'échantillons
constitués de plusieurs observations. Vous pouvez
spécifier des limites de contrôle en termes de
sigma (par exemple, 3 * sigma), de probabilités normales ou
non (courbes de Johnson) (par exemple, p=0,01, 0,99), ou encore de
constantes. Pour des échantillons de tailles
différentes, les cartes de contrôle peuvent
être calculées avec des limites de
contrôle variables ou des limites basées sur des
valeurs centrées-réduites. Pour la plupart des
cartes, vous pouvez utiliser plusieurs ensembles de
spécifications sur une même carte (par exemple,
les limites de contrôle de tous les nouveaux
échantillons peuvent être calculées
à partir d'un sous-ensemble d'échantillons
antérieurs, etc...). Comme pour tous les graphiques
STATISTICA,
les cartes de contrôle
STATISTICA sont
ultra-personnalisables ; vous pouvez ajouter des titres, des
commentaires, tracer des traits ou des droites ou ancrer dynamiquement
certaines zones spécifiques à des valeurs
particulières de l'échelle , ou
étiqueter les différents échantillons
à l'aide de dates, d'identifiants, etc...
Balayage
analytique interactif et étiquetage des points. Différents
outils de balayage analytique généralistes,
"intelligents" et complets vous permettent, de manière
interactive, de supprimer ou étiqueter des points aberrants
(ou réaliser des analyses conditionnelles) sur des cartes
individuelles ou sur des ensembles de cartes. L'utilisateur peut
sélectionner des échantillons individuels ou des
groupes d'échantillons sur la base des critères
actuellement spécifiés pour la carte (limites de
contrôle, tests des séries), et les exclure des
calculs de la carte (mais en continuant à les faire
apparaître sur la carte) ou même les
éliminer totalement de la carte. Vous pouvez utiliser les
mêmes critères d'inclusion/exclusion
d'échantillons sur plusieurs cartes ; de cette
manière, vous pouvez réaliser un balayage de
plusieurs cartes simultanément (par exemple, un point exclu
d'une carte
X-barre et d'une carte
R
sera simultanément exclu de tous les histogrammes).
L'utilisateur peut également demander à
représenter toutes les observations individuelles pour les
échantillons sélectionnés (ou tous les
échantillons).
Assigner des causes et des actions. L'utilisateur
a la possibilité d'assigner des causes, des actions, et/ou
des commentaires aux points aberrants ou à tout autre point
de la carte, dans la plupart des cartes. Vous pouvez affecter des
étiquettes de causes et d'actions à l'aide d'un
balayage interactif, mais vous pouvez également laisser le
programme détecter et sélectionner les
échantillons hors-contrôle pour vous.
Un système
flexible et personnalisable de notification d'alarmes. De
nombreuses options vous permettent de spécifier vos propres
critères personnalisés pour définir
les conditions hors-contrôle ou les
"événements notables" (par exemple, violation
d'un test des séries, observation individuelle en dehors des
limites de spécifications, etc...). Vous pouvez configurer
le système de notification d'alarmes pour
déclencher divers types de "réponses" lorsqu'un
événement particulier se produit ; par exemple,
vous pouvez mettre en place un système qui va
automatiquement se déclencher en cas
d'échantillon hors-contrôle. STATISTICA
Cartes de Contrôle va alors (par exemple)
automatiquement demander à l'opérateur de
renseigner une cause, puis exécuter un programme STATISTICA
Visual Basic qui va calculer diverses statistiques ou
exécuter une application externe pour envoyer un e-mail aux
ingénieurs en charge de superviser le processus
correspondant et appeler le superviseur sur son pager.
Vous pouvez sauvegarder les notifications d'alarmes dans un fichier de
configuration (et l'utiliser pour de nouvelles cartes), ou utiliser ces
notifications d'alarmes par défaut pour toutes vos nouvelles
cartes.
Mode
superviseur et opérateur ; protection par un mot de passe. Toutes
les fonctions d'édition des cartes en atelier (en
particulier, l'affectation de causes, d'actions, le balayage, la
notification d'alarme, etc...), les spécifications des
cartes ou le fichier de données lui-même peuvent
être protégés par un mot de passe, afin
de créer un mode opérateur
personnalisé avec un accès limité aux
cartes ou à leurs données. Les cartes peuvent
être enregistrées (par exemple, par le
superviseur), et ouvertes par l'opérateur en
accès limité.
Organisation des données. Pour
la plupart des cartes, vous pouvez organiser les données de
telle sorte qu'elles s'adaptent au format dans lequel elles sont
collectées par les applications de contrôle
qualité. Vous pouvez identifier les différents
échantillons en utilisant un identifiant ou un code, mais
vous pouvez aussi spécifier un nombre constant de mesures
par échantillon (et par gamme, voir ci-dessous).
Cartes petites
séries. La plupart des cartes de
contrôle standard aux mesures (
X-barre,
R,
S,
S2,
MA,
EWMA) et aux attributs (
C,
U,
P,
Np) peuvent être
utilisées pour des séries courtes (
cartes
petites séries pour plusieurs gammes ou machines).
Pour les cartes de contrôle petites séries aux
mesures (variables), vous pouvez spécifier des valeurs cible
nominales uniquement (
carte nominale ou
carte
cible), ou des valeurs cible et des valeurs de dispersion
pour des
cartes petites séries
centrées-réduites. Vous avez à votre
disposition, diverses options pour trier les points
d'échantillons dans les cartes respectives, et les
représenter en fonction du numéro
d'échantillon, de la gamme, ou dans l'ordre chronologique
où les échantillons respectifs ont
été tirés. Diverses statistiques
détaillées sont calculées par gamme et
par échantillon. Les identifiants respectifs des
échantillons et des gammes pour chaque mesure peuvent
être issus du fichier de données et/ou vous pouvez
affecter un certain nombre constant d'observations successifs
à des échantillons et/ou à des gammes
consécutives. Remarque : toutes les options et statistiques
des cartes (indices de capabilité et de performance, tests
des séries, etc...) habituellement reportées sur
les cartes standard sont également disponibles pour les
cartes petites séries.
Statistiques et options des cartes. De
nombreuses autres statistiques de contrôle qualité
sont également proposées. Vous pouvez calculer
des indices de capabilité et de performance du processus
(par exemple, les indices Cpk,
Ppk, etc... pour des
distributions normales, les indices Cpk,
Ppk, etc... pour des
distributions non-normales), produire les histogrammes des
caractéristiques de qualité respectives, ou
réaliser automatiquement l'un des sept tests des
séries disponibles. Les cartes de contrôle
standard aux mesures sont produits par défaut sous la forme
de graphiques composés ; par exemple, les cartes X-barre,
R (ou S, ou S2)
sont représentées avec éventuellement
les histogrammes des moyennes, étendues, proportions, etc...
respectifs, sur la même carte. Les points atypiques
(échantillons situés au-delà des
limites de contrôle) ou les segments de données
successives identifiées par un test des séries
vont automatiquement apparaître en surbrillance (dans une
couleur différente) dans les tracés. Vous pouvez
également ajouter des droites d'alerte, tracer des courbes
de moyennes mobiles ou de moyennes mobiles exponentiellement
pondérées, ou encore des droites
représentant les spécifications du processus.
Limites de contrôle et indices de
capabilité/performance du processus non normaux. Pour
les cartes de contrôle aux mesures, outre les statistiques et
cartes habituels basés sur la Loi Normale, le programme va
également calculer des cartes pour des mesures qui ne sont
pas distribuées normalement (par exemple, pour des mesures
distribuées de façon très
asymétrique). Ces options sont très importantes
lorsque vous travaillez avec des tailles d'échantillon
faibles (et où par conséquent, des
écarts à la normalité pourraient
conduire à sur-estimer ou sous-estimer les taux d'erreur si
les statistiques basées sur la Loi Normale
étaient utilisées). Le programme calcule des
limites de contrôle sur la base de l'ajustement des courbes
de Johnson aux quatre premiers moments des données
observées ; vous pouvez également utiliser des
valeurs personnalisées pour les moments. Les indices de
capabilité du processus peuvent être
calculés sur la base de l'ajustement des courbes de Johnson
ainsi que sur celles Pearson. Remarque : il est également
possible de calculer des indices de capabilité sur la base
de distributions spécifiques dans le module Analyse
de Processus.
Autres
résultats et tracés. Pour la plupart
des cartes (y compris la carte R), vous pouvez
calculer et représenter les courbes d'efficacité
respectives. Outre les cartes, les valeurs respectives
(représentées sur les cartes) peuvent
également être affichées dans des
feuilles de données, ce qui vous permet de visualiser les
valeurs précises des droites et des points qui sont
représentés. Vous pouvez imprimer des cartes
personnalisées (vierges) que l'ingénieur pourra
ultérieurement "compléter" à la main
s'il le souhaite. Remarque : comme tous les autres graphiques de STATISTICA,
les graphiques produits par STATISTICA Cartes de
Contrôle peuvent être
personnalisés à façon et
enregistrés pour d'autres analyses et/ou personnalisations.
Système
de contrôle qualité en temps réel ;
source de données externes. La plupart des
graphiques et cartes de contrôle de
STATISTICA
Cartes de Contrôle peuvent être
automatiquement liés aux données et
actualisés dès que les données sont
mises à jour. Afin de faciliter le transfert des
données, deux applications
STATISTICA
(facultatives) puissantes sont disponibles :
STATISTICA
Entreprise/QC et
STATISTICA Entreprise.
STATISTICA Entreprise. STATISTICA
Entreprise est une version groupware de
STATISTICA,
totalement intégrée, avec un data warehouse
(entrepôt de données) centralisé
puissant.
STATISTICA Entreprise constitue une
interface généraliste efficace avec les
systèmes existants de stockage des données dans
l'entreprise et permet un partage des projets et de l'information entre
les différents utilisateurs (autorisés) du
système (fonctionnalité groupware
avancée).
STATISTICA Entreprise/QC. STATISTICA
Entreprise/QC est un logiciel intégré
multi-utilisateurs offrant un accès complet à des
fonctionnalités de MSP (Maîtrise Statistique des
Procédés) à l'échelle de
l'entreprise.
STATISTICA Entreprise/QC est
organisé autour d'une base de données
centralisée, et offre tous les outils nécessaires
pour traiter et gérer des données issues de
différentes sources, et pour coordinonner le travail de
différents opérateurs, ingénieurs
qualité et superviseurs.
STATISTICA Entreprise/QC
comme
STATISTICA Entreprise vous offre des
fonctionnalités très souples pour
créer une intégration efficace entre les
procédures proposées dans le produit
STATISTICA
Cartes de Contrôle et les données
contenues dans vos bases de données existantes, et
élaborer des systèmes de suivi de la
qualité à l'échelle de l'entreprise.
STATISTICA
Plans d'Expériences
Plans
d'Expériences. STATISTICA Plans
d'Expériences offre une gamme très
complète de procédures pour construire et
analyser divers plans d'expériences utilisés en
recherche industrielle (qualité) : plans factoriels 2**(k-p)
avec blocs (pour plus de 100 facteurs, y compris des algorithmes de
recherche spécifiques, très efficaces pour
trouver des plans avec un minimum d'aberrations et un maximum d'effets
non confondus, où l'utilisateur peut spécifier
les effets d'interaction devant être non confondus), plans de
sélection (criblage) (pour plus de 100 facteurs, en
particulier les plans de Plackett-Burman), plans factoriels 3**(k-p)
avec blocs (en particulier les plans de Box-Behnken), plans de
mélange, plans composites centrés ou surfaces de
réponse (en particulier les petits plans composites
centrés), Carrés Latin, plans robustes de Taguchi
(matrices orthogonales), plans de mélange et plans de
surfaces triangulaires, sommets et barycentres pour des
surfaces et mélanges sous contraintes, et plans
D-
et
A-optimaux pour les plans factoriels, de
surfaces, et de mélanges. Divers modèles de plans
spécifiques sont disponibles, et nous décrirons
les méthodes permettant de les générer
et de les analyser dans les paragraphes suivants.
Analyse de
Plans d'Expériences : Principales fonctionnalités.
Les options permettant d'analyser les plans factoriels, surfaces de
réponse, et plans de mélange sont de nature
généraliste. Elles permettent de manipuler des
plans non équilibrés et incomplets, et donnent
à l'utilisateur un contrôle total sur le choix des
modèles à ajuster aux données. Le
programme calcule l'inverse généralisé
de la matrice X'X (où X
représente la matrice du modèle) pour
déterminer les effets estimables, et les effets
aliassés des autres effets. Le programme donne aussi
automatiquement la table des alias et estime les paramètres
de tous les effets non-redondants. Vous pouvez également
introduire ou exclure manuellement certains effets
spécifiques de votre modèle (rapidement et
simplement), et observer l'effet obtenu sur l'ajustement global. Toutes
les analyses peuvent porter sur les valeurs originales ou
recodifiées des facteurs et de nombreuses options permettent
de représenter les paramètres estimés,
le tableau de l'analyse de la variance, etc... D'autres options
permettent d'explorer les moyennes prévues
(ajustées), surfaces de réponse, etc... ; ces
options sont décrites plus en détail ci-dessous
dans le cadre des plans respectifs.
Analyses des
résidus et transformations. De nombreux graphiques
et options de sorties permettent d'approfondir l'analyse des
résidus à partir d'un modèle
donné. Plus précisément, le programme
calcule les valeurs prévues (ajustées), les
résidus et leurs erreurs-types, les intervalles de
prévision personnalisés et les intervalles de
confiance autour des valeurs prévues (ajustées),
les valeurs centrées-réduites des valeurs
prévues et des résidus, les résidus
studentisés, les résidus supprimés,
les résidus studentisés supprimés, les
distances de Mahalanobis et de Cook, les valeurs DFFIT
et DFFIT centrées-réduites,
etc... Toutes ces statistiques sur les résidus peuvent
être enregistrées en vue de poursuivre l'analyse
dans d'autres modules de STATISTICA (par exemple,
pour analyser l'autocorrélation des erreurs dans le module Séries
Chronologiques). En outre, ces statistiques sur les
résidus pour chaque observation peuvent être
examinées par numéro croissant d'observations, ou
selon l'importance des résidus ; ainsi, vous pouvez
identifier rapidement les points atypiques. Pour évaluer
l'ajustement du modèle respectif, et identifier les points
atypiques, vous pouvez tracer divers histogrammes des
résidus (et des résidus supprimés) ou
des valeurs prévues, des nuages de points des
résidus (supprimés) en fonction des valeurs
prévues, ou des tracés normalité,
normalité par moitié, ou tracés des
écarts à la normalité (des
résidus supprimés). Pour contrôler
l'autocorrélation des résidus, vous pouvez aussi
représenter les valeurs des résidus
(supprimés) en fonction des numéros
d'observations. Dans tous les tracés d'observations
individuelles (par exemple, résidus des observations), les
points sont associés au numéro ou au nom de
l'observation respective, ce qui vous permet d'identifier
très facilement les points atypiques dans le fichier de
données. Enfin, les valeurs lambda du
maximum de vraisemblance peuvent être calculées
pour la transformation Box-Cox des variables de réponse ; le
tracé de la somme des carrés des
résidus en fonction de lambda, avec la limite de confiance
de lambda, accompagne les résultats dans
le tracé de la transformation de Box-Cox.
Optimisation d'une ou
plusieurs variables de réponse : Profil de
réponse (désirabilité). Un
ensemble d'options spécifiques permettent à
l'utilisateur d'optimiser de façon interactive une ou
plusieurs variables de réponse, compte tenu du
modèle actuel. Tout d'abord, pour des modèles de
surface de réponse du second ordre et pour des
modèles de surface de mélange, le programme va
calculer les réglages des facteurs associés au
minimum, au maximum, ou au point selle la surface respective
(c'est-à-dire, déterminer la valeur critique de
la surface, avec les valeurs propres et les vecteurs propres
respectifs, pour indiquer la courbure et l'orientation de la surface de
réponse quadratique). Remarque : pour les plans de
mélange, les options du profil de
désirabilité ne sont pas basées sur un
simple reparamétrage du modèle de
mélange vers un modèle de surface sans
contraintes (pouvant conduire à des résultats
erronés, où les paramétrages de
facteurs optimaux sont des mélanges incorrects). Tous les
calculs sont en revanche basés sur le véritable
modèle de mélange (ajusté sous
contraintes). Ainsi, lorsque vous recherchez les
paramétrages optimaux des facteurs, compte tenu de la
fonction de désirabilité d'une ou plusieurs
variables de réponse, seule la région
expérimentale sous contraintes (mélange) sera
prise en compte, garantissant ainsi que les paramétrages
obtenus des facteurs vont spécifier un mélange
correct. De nombreuses options graphiques permettent de
représenter les valeurs prévues d'une ou
plusieurs variables de réponse en fonction des
différents facteurs de l'analyse, tout en maintenant
constants les autres facteurs à des valeurs
données. Plus précisément, si vous
avez plusieurs variables de réponse, vous pouvez
spécifier une fonction de désirabilité
reflétant la valeur la plus désirable de chaque
variable de réponse, et l'importance de chaque variable dans
la désirabilité globale. Vous pouvez ensuite
représenter les profils de la fonction de
désirabilité (calculée à
partir des valeurs prévues de chaque variable de
réponse) pour un nombre défini de niveaux sur
chaque facteur. En outre, vous pouvez représenter les
profils de chaque variable de réponse individuelle sur un
même graphique avec les intervalles de confiance.

La
fonction de désirabilité peut être
représentée sous la forme de surfaces de
réponse ou de courbes d'isoréponse (de
désirabilité), et vous pouvez produire des
tracés matriciels de tous les facteurs de l'analyse (voir
l'illustration ci-contre). Vous pouvez rapidement modifier les
paramètres comme la grille factorielle ou la fonction de
désirabilité et ainsi réaliser des
analyses interactives (par exemple, vous pouvez rapidement exclure
certaines variables spécifiques de l'analyse, et observer
l'effet résultant sur la fonction de
désirabilité globale). Vous pouvez
également enregistrer les spécifications de
fonctions complexes de désirabilité pour
plusieurs variables de réponse dans un fichier, puis les
récupérer rapidement pour analyser d'autres
expériences avec les mêmes variables de
réponse. Enfin, vous avez la possibilité de
déterminer la valeur optimale de la fonction de
désirabilité, soit en utilisant une grille de
recherche sur la région expérimentale, soit en
utilisant un algorithme efficace et généraliste
d'optimisation de fonctions (particulièrement utile pour
optimiser des fonctions de désirabilité dans des
expériences faisant appel à de nombreux
facteurs). Remarque : vous retrouverez également ces options
de profils de désirabilité dans les modules
suivants :
Modèle
Linéaire Général (GLM),
Modèles
Généraux de Régression (GRM)
et
Modèles
Généraux d'Analyse Discriminante (GDA)
(pour des réponses catégorielles).
Plans factoriels
fractionnaires à deux niveaux 2**(k-p) avec blocs (Plans de
Box-Hunter-Hunter avec minimum d'aberration. STATISTICA
Plans d'Expériences vous propose toute la gamme
des les plans standard, également
dénommés "avec minimum d'aberrations" (comme dans
des ouvrages de référence de Box et Draper, 1987
; Box, Hunter et Hunter, 1978 ou encore dans l'ouvrage de Montgomery,
1991). Vous pouvez afficher les plans dans une feuille de
données ; vous pouvez randomiser les essais (par blocs ou
globalement), et ajouter des colonnes vierges à votre
feuille de données. Des options vous permettent de
spécifier les niveaux inférieurs et
supérieurs des facteurs, et vous pouvez afficher et
enregistrer le plan en termes de niveaux codés des facteurs
ou en conservant la métrique originale des facteurs. Vous
pouvez également demander des réplications,
ajouter des points centraux au plan, ou ajouter des replis au plan
original. Vous pouvez également afficher les
générateurs de plans fractionnaires et les
générateurs de blocs du plan, ainsi que la
matrice des alias des effets principaux et des interactions.
STATISTICA
Plans d'Expériences va automatiquement
réaliser une ANOVA complète du plan.
L'utilisateur a un contrôle total sur les effets et les
interactions à inclure dans le modèle, et peut
examiner les corrélations entre les colonnes de la matrice
du modèle (
X) ou l'inverse de la matrice
X'X
(c'est-à-dire, les matrices de covariance et de
corrélations des paramètres estimés).
Le programme estime les paramètres de l'ANOVA et leurs
erreurs-types ainsi que les intervalles de confiance, les coefficients
des valeurs des facteurs recodifiés (
-1,
+1)
avec leurs erreurs-types et les intervalles de confiance, ainsi que les
coefficients (erreurs-types, intervalles de confiance) des facteurs non
transformés. Sur la base de ces estimations, le programme
peut calculer les valeurs prévues (erreurs-types,
intervalles de confiance) pour des niveaux personnalisés des
facteurs.

Le
programme va calculer la table ANOVA complète, en utilisant
la moyenne des carrés de l'erreur, ou, lorsque le plan est
au moins partiellement répliqué, sur en utilisant
une estimation de l'erreur pure. Si une estimation de l'erreur pure est
disponible, le programme va effectuer un test de manque d'ajustement
global ; si le plan contient des points centraux, le programme
réalise un contrôle global de courbure.
L'utilisateur peut visualiser la table des moyennes et les moyennes
marginales, et leurs intervalles de confiance. De nombreuses options
vous permettent de représenter les résultats sous
une forme graphique : le diagramme de Pareto des effets, les
tracés de normalité et de normalité
par moitié des effets, des tracés
carrés et cubes, des tracés de moyennes et
d'interactions (avec intervalles de confiance des moyennes marginales),
des surfaces de réponse, et des courbes
d'isoréponse. En outre, toutes les
fonctionnalités décrites ci-dessus (sous les
intitulés
Plans d'Expériences,
Analyse de Plans d'Expériences : Principales
fonctionnalités,
Analyse des
résidus et transformations et
Optimisation
d'une ou plusieurs variables de réponse : profil de
réponse (désirabilité)) vous
permettent d'étudier en détail les
résidus, mais aussi d'évaluer la
qualité d'ajustement du modèle, et de trouver les
réglages optimaux des facteurs, compte tenu d'une ou
plusieurs variables de réponse.
Plans factoriels
fractionnaires 2**(k-p) avec blocs et minimum d'aberration et maximum
de non confondus : Recherche générale de plans.
Outre les plans standard 2**(k-p),
STATISTICA Plans
d'Expériences offre une option
généraliste de recherche de plans permettant de
générer des plans factoriels fractionnaires avec
un minimum d'aberration (le moins confondus possibles), avec ou sans
blocs, avec jusqu'à 100 facteurs et plus de 2.000 essais.
Ces plans particulièrement efficaces ont
été découverts récemment et
ils vous permettent de tester un plus grand nombre d'interactions
(spécifiques) entre les facteurs par rapport aux plans
standard de Box-Hunter.
STATISTICA Plans
d'Expériences est actuellement le seul programme
sur le marché à vous offrir cette
fonctionnalité. Pour une résolution
donnée, vous pouvez également réaliser
une recherche complète de tous les groupes
(non-isomorphiques) de générateurs, ou
spécifier des ensembles particuliers d'interactions
à garder non confondues pour la résolution
respective. Outre le critère habituel de recherche de
"minimum d'aberrations", vous pouvez aussi choisir le
critère du "maximum non confondus" qui permettra de trouver
le plan contenant le plus grand nombre possible d'effets non confondus
(avec les autres effets, pour une résolution
donnée du plan). Comme pour les plans standard 2**(k-p)
décrits au paragraphe précédent, ces
plans peuvent être améliorés (en
ajoutant des réplications, des points centraux, des replis,
etc...). Toutes les options analytiques décrites
précédemment s'appliquent également
à ces plans (ou tout plan arbitraire 2**(k-p)).
Plans de Criblage
[ou de sélection] (Plackett-Burman). STATISTICA
Plans d'Expériences permet à
l'utilisateur de construire et d'analyser des plans de criblage pour un
grand nombre de facteurs. Le programme permet de
générer des plans de Plackett-Burman (matrice de
Hadamard) et des plans factoriels fractionnaires saturés
avec jusqu'à 127 facteurs. Comme pour les plans 2**(k-p),
l'utilisateur peut demander des réplications du plan,
ajouter manuellement des points centraux, et imprimer ou enregistrer le
plan. Les mêmes options sont disponibles pour l'analyse des
plans de criblage que celles décrites pour l'analyse des
plans 2**(k-p) (voir les paragraphes précédents).
Plans factoriels
à différents niveaux (mixtes). Le
programme permet également de produire des plans avec des
niveaux mixtes (tels qu'il sont décrits par le Bureau
National Américain de Normalisation, Département
du Commerce). Les options de création et d'analyse
disponibles pour ces plans sont identiques à celles
décrites pour les plans 3**(k-p) (voir le paragraphe
précédent).
Plans factoriels
fractionnaires à trois niveaux 3**(k-p) avec blocs et plans
de Box-Behnken. STATISTICA Plans
d'Expériences offre tous les plans 3**(k-p)
standard (avec blocs). Les plans standard de Box-Behnken sont
également disponibles. Comme pour tous les autres plans,
l'utilisateur a la possibilité d'afficher et d'enregistrer
ces plans dans un ordre standard ou aléatoire, de demander
des réplications ou ajouter des essais individuels, ou
encore d'examiner le plan et les générateurs de
bloc, etc... Le programme réalise une analyse
complète des plans 3**(k-p). L'utilisateur a un
contrôle total sur les effets à inclure dans
l'analyse. Les effets principaux sont divisés en effets
linéaires et quadratiques, et les interactions en effets
linéaire-linéaire,
linéaire-quadratique, quadratique-linéaire et
quadratique-quadratique. L'utilisateur peut visualiser la matrice de
corrélations de la matrice du modèle (
X)
ainsi que l'inverse de
X'X. Le programme calcule
les estimations standard des paramètres de l'ANOVA
(erreurs-types, intervalles de confiance, significativité
statistique, etc...), les coefficients des facteurs
recodifiés (
-1, 0, +1) et les
coefficients des facteurs non recodifiés. Sur la base de ces
valeurs, le programme permet de calculer les valeurs prévues
(et les erreurs-types, intervalles de confiance) pour des valeurs
personnalisées des facteurs. La table ANOVA reporte les
tests des composantes linéaires et quadratiques pour chaque
effet. Si le plan comporte des réplications, l'estimation de
l'erreur pure pourra être utilisée pour l'ANOVA et
pour tester la significativité ; dans ce cas un test global
de manque d'ajustement sera également
réalisé.
Pour vous aider à interpréter les
résultats, le programme calcule la table des moyennes (et
les intervalles de confiance) ainsi que les moyennes marginales (et les
intervalles de confiance) des interactions. Les options graphiques
disponibles incluent les tracés de moyennes et de moyennes
marginales (avec les intervalles de confiance), le diagramme de Pareto
des effets, ainsi que les tracés de normalité et
de normalité par moitié des effets, ou les
surfaces de réponse et courbes d'isoréponse. En
outre, toutes les fonctionnalités décrites
ci-dessus (sous les intitulés Plans
d'Expériences, Analyse de Plans
d'Expériences : Principales fonctionnalités,
Analyse des résidus et transformations et
Optimisation d'une ou plusieurs variables de
réponse : profil de réponse
(désirabilité)) vous permettent
d'étudier en détail les résidus, mais
aussi d'évaluer la qualité d'ajustement du
modèle, et de trouver les réglages optimaux des
facteurs, compte tenu d'une ou plusieurs variables de
réponse.
Plans composites
centrés (surface de réponse). Vous avez
à votre disposition tous les plans standard, notamment de
petits plans composites centrés (basés sur les
plans de Plackett-Burman). Outre les options standard disponibles pour
tous les plans (ajouter des essais, randomisation,
réplications, paramétrages inférieurs
et supérieurs des facteur, etc... ; reportez-vous
à la description des plans 2**(k-p) pour plus
d'informations), vous pouvez choisir des points étoiles
centrés, ou qui sont calculés pour obtenir
l'isovariance par rotation, l'orthogonalité, ou les deux.
Les options d'analyse sont voisines de celles décrites pour
les plans 3**(k-p) et 2**(k-p) ci-dessus. L'utilisateur peut calculer
les paramètres de l'ANOVA, les coefficients des valeurs des
facteurs recodifiés, et les coefficients des facteurs non
transformés. Vous pouvez également calculer les
valeurs prévues pour des valeurs personnalisés
des facteurs. Vous avez un contrôle total sur les effets
à inclure dans le modèle, et vous pouvez
représenter la matrice de corrélations de la
matrice du modèle (
X) et de l'inverse de
X'X.
S'il existe des réplications, la table ANOVA reportera
l'estimation de l'erreur pure et un test global de manque d'ajustement.
Parmi les graphiques standard, citons le diagramme de Pareto des
effets, les tracés de probabilité des effets, les
surfaces de réponse et courbes d'isoréponse (s'il
existe plus de deux facteurs, pour des valeurs
personnalisées des facteurs supplémentaires). En
outre, toutes les fonctionnalités décrites
ci-dessus (sous les intitulés
Plans
d'Expériences,
Analyse de Plans
d'Expériences : Principales fonctionnalités,
Analyse des résidus et transformations et
Optimisation d'une ou plusieurs variables de
réponse : profil de réponse
(désirabilité)) vous permettent
d'étudier en détail les résidus, mais
aussi d'évaluer la qualité d'ajustement du
modèle, et de trouver les réglages optimaux des
facteurs, compte tenu d'une ou plusieurs variables de
réponse.
Carrés
Latins. L'utilisateur peut choisir entre
différents Carrés Latin, comportant
jusqu'à neuf niveaux. Chaque fois que c'est possible, le
programme construit des Carrés Greco-Latin et des
Carrés Hyper-Greco Latin. Lorsque plusieurs
Carrés Latins distincts sont disponibles, le programme en
choisi un au hasard, mais l'utilisateur peut toujours
sélectionner le ou les Carrés Latin
souhaités. Vous pouvez afficher les plans dans une feuille
de données, randomisés l'ordre, ou ajouter des
colonnes vierges pour créer de nouvelles variables
dépendantes. Vous pouvez également enregistrer le
plan sous la forme d'un fichier de données
STATISTICA.
Une fois que vous avez ajouté les données
observées dans le fichier de données, vous pouvez
aisément analyser l'expérience. Outre la table
ANOVA complète,
STATISTICA Plans
d'Expériences calcule les moyennes de tous les
facteurs, et vous pouvez représenter ces moyennes dans un
tracé de synthèse.
Plans
robustes de Taguchi. STATISTICA Plans
d'Expériences peut produire des matrices
orthogonales comportant jusqu'à 31 facteurs, et vous pouvez
analyser des plans jusqu'à 65 facteurs. Comme pour tous les
types de plans, vous pouvez randomiser les essais, et ajouter des
colonnes vierges à la feuille de données afin
d'accueillir les données des variables
dépendantes. Vous pouvez aussi étudier les alias
des interactions d'ordre deux.
STATISTICA Plans
d'Expériences calcule automatiquement les ratios
standard signal/bruit (
S/B) pour des
problèmes du type : (1)
L'optimum est un minima,
(2)
L'optimum est la nominale, (3)
L'optimum
est un maxima, (4)
Critère
ciblé, (5)
Fraction
défectueuse et (6)
Nombre de
défauts par intervalle (
analyse
d'accumulation). Vous pouvez également analyser
des données non transformées ; ainsi, vous pouvez
produire tout type de ratio
S/B
personnalisé grâce au langage de programmation
Visual Basic et les analyser
grâce à cette procédure. Outre des
statistiques descriptives complètes, vous pouvez visualiser
les ratios
S/Bcalculés. Les
résultats complets de l'ANOVA sont reportés dans
une feuille de données interactive où
l'utilisateur peut ajouter ou supprimer des effets
spécifiques dans le terme d'erreur. Une feuille de
données interactive similaire permet à
l'utilisateur de prévoir
Eta (le ratio
S/B)
sous les conditions optimales, c'est à dire, aux
paramétrages des niveaux des facteurs. Vous avez la
possibilité d'inclure ou d'exclure des effets
spécifiques du modèle, et spécifier
des niveaux particuliers pour les facteurs. Enfin, vous pouvez
représenter les moyennes dans un tracé standard
des effets principaux d'
Eta par niveau de facteur ;
si vous réalisez une analyse d'accumulation sur des
données catégorielles, vous pourrez
représenter les résultats sous la forme d'un
tracé empilé ou d'un tracé curviligne
des probabilités cumulées selon les
catégories des niveaux des facteurs
sélectionnés. Remarque : vous pouvez optimiser
différents types de fonctions de
désirabilité des réponses pour une ou
plusieurs variables grâce au
profil de
réponse (désirabilité)
décrit précédemment, et disponible
pour les plans 2**(k-p), 3**(k-p), plans composites centrés,
etc... (ou dans les modules
GLM,
GRM,
GDA).
Plans de
mélanges et surfaces triangulaires. Cette
procédure offre un certain nombre d'options pour construire
des plans simplexes et simplexes centrés sur des variables
de mélange. Ces plans peuvent être
améliorés en ajoutant des points
intérieurs et un barycentre. Vous pouvez
spécifier des limites inférieures pour chaque
facteur, et le programme va alors construire automatiquement le plan
respectif dans un sous-simplexe défini par les contraintes.
Vous pouvez ajouter plusieurs contraintes supérieures et
inférieures grâce aux fonctionnalités
généralistes de construction de plans dans des
régions expérimentales sous contraintes (voir
ci-dessous). Vous pouvez ajouter des essais individuels ou des
réplications, et afficher puis enregistrer le plan dans un
ordre standard ou randomisé. Le programme calcule les
coefficients des pseudo-composantes et des composantes dans leur
métrique originale, avec les erreurs-types, intervalles de
confiance, et tests de significativité statistique.
(Remarque : le module
Modèle
Linéaire Général (GLM)
offre également des fonctionnalités pour analyser
des plans de mélange. Ces options sont
particulièrement utiles pour analyser les plans combinant
à la fois des variables de mélange et d'autres
variables dans des plans complexes). L'utilisateur a un
contrôle total sur les termes à inclure dans le
modèle ; les modèles standard sont les
modèles linéaires, quadratiques, cubiques
spéciaux et cubiques complets. La table ANOVA reporte les
tests d'ajustement incrémentiel des différents
modèles, et si le plan comporte des essais
répliqués, un test de défaut
d'ajustement basé sur l'estimation de l'erreur pure sera
également calculé. Parmi les résultats
standard, citons la table des moyennes, les corrélations des
colonnes de la matrice du modèle (
X),
l'inverse de la matrice du modèle
X'X (la
matrice de variance/covariance des paramètres
estimés), le diagramme de Pareto, les tracés de
normalité des paramètres estimés,
etc... L'utilisateur peut aussi calculer des prévisions en
utilisant des valeurs personnalisées des facteurs.
Différents graphiques spécialisés
permettent de synthétiser les résultats des
expériences de mélange sous forme de
tracés de réponse pour des mélanges
personnalisés de référence, ainsi que
des surfaces triangulaires et courbes d'isoréponse. S'il
l'expérience comporte plus de 3 composantes, vous pouvez
produire des surfaces de réponse et courbes
d'isoréponse pour des valeurs personnalisées
d'autres composantes. Enfin, toutes les fonctionnalités
décrites ci-dessus (sous les intitulés
Plans
d'Expériences,
Analyse de Plans
d'Expériences : Principales fonctionnalités,
Analyse des résidus et transformations et
Optimisation d'une ou plusieurs variables de
réponse : profil de réponse
(désirabilité)) vous permettent
d'étudier en détail les résidus, mais
aussi d'évaluer la qualité d'ajustement du
modèle, et de trouver les réglages optimaux des
facteurs, compte tenu d'une ou plusieurs variables de
réponse. Remarque : les options du profil de
réponse (désirabilité) disponibles
pour les plans de mélange ne se limitent pas à un
simple reparamétrage du modèle de
mélange en modèle de surface sans contraintes ;
en revanche, tous les calculs sont réalisés sur
la base du véritable modèle de mélange
(ajusté). Ainsi, lorsque vous recherchez les
réglages optimaux des facteurs compte tenu d'une fonction de
désirabilité pour une ou plusieurs variables de
réponse, seule la région expérimentale
sous contrainte (mélange) est étudiée,
et vous avez ainsi la certitude que les réglages obtenus
pour les facteurs décrivent un mélange valide.
Plans de
mélanges et surfaces sous contraintes. STATISTICA
Plans d'Expériences contient un certain nombre de
procédures permettant de calculer des points sommets et
barycentres pour des surfaces et mélanges sous
contraintes définis par des contraintes
linéaires. Vous pouvez spécifier les limites
inférieures et supérieures des facteurs, ainsi
que toute autre contrainte linéaire (de la forme A
1*x
1
+ ... + A
n*x
n + A
0
>= 0) concernant les valeurs des facteurs. Le programme va
calculer ensuite les points sommets et les points barycentres
éventuels de la région sous contraintes. Les
contraintes sont traitées de façon
séquentielle et les contraintes inutiles sont ises en
évidence et écartées. De nombreuses
autres options permettent d'examiner les caractéristiques de
la région sous contraintes. Vous pouvez
représenter les points sommets et barycentres dans
des nuages de points triangulaires (pour les mélanges) ou en
3D. Vour pouvez aussi calculer la matrice de corrélations
des colonnes de la matrice
X du modèle
pour différents types de plans ainsi que l'inverse de la
matrice
X'X (c'est-à-dire, la matrice
de variance/covariance des paramètres estimés).
Vous pouvez ainsi évaluer les caractéristiques du
plan, sur la base des points sommets et barycentres. Ces points
peuvent ensuite être soumis aux fonctionnalités de
plan optimal (voir ci-dessous), pour construire des plans avec un
nombre minimum d'essais.
Plans
D- et A-optimaux. Le programme contient différents
algorithmes permettant de construire des plans optimaux. Vous pouvez
choisir entre le critère d'optimalité
D
(déterminant) et le critère
d'optimalité
A (ou trace), et avez la
possibilité de spécifier des modèles
de surfaces de réponse et de mélanges. Vous
pouvez spécifier manuellement la liste de points candidats
du plan, ou récupérer cette liste à
partir d'un fichier de données
STATISTICA
(par exemple, un plan que vous auriez
précédemment créé
grâce aux fonctionnalités de calcul des points
sommets et barycentres pour des surfaces sous contraintes et
des mélanges, voir ci-dessus). Vous pouvez forcer
l'inclusion ce certains points candidats spécifiques dans le
plan final, ce qui vous permet d'améliorer ou de
"réparer" des expériences existantes. Le
programme offre tous les algorithmes de recherche les plus courants
pour construire des plans
D- et
A-optimaux
: la procédure séquentielle de recherche de
Dykstra, la procédure d'échange simple de
Wynn-Mitchell, la procédure
DETMAX
(échange avec excursions), la procédure de
permutation simultanée de Fedorov, ainsi qu'une
procédure de permutation simultanée
modifiée. Pour le plan final, le programme va calculer le
déterminant de
X'X et les
efficacités
D,
A et
G.
Vous pouvez également examiner la matrice de
corrélations des colonnes de la matrice du plan final (
X),
et l'inverse de la matrice
X'X (la matrice de
variance/covariance des estimations de paramètres). Les
points du plan final peuvent être
représentés sous la forme de nuages de points en
3D et de surfaces triangulaires (pour les mélanges).
Autres
procédures pour analyser des données
collectées au cours d'expériences. STATISTICA
met à votre disposition de nombreuses méthodes
statistiques pour analyser des données collectées
au cours d'expériences et pour ajuster des
modèles de type ANOVA/ANCOVA à des variables
continues ou catégorielles. Plus
précisément,
STATISTICA
contient les modules suivants :
- Modèle
Linéaire Général (GLM)
et Modèles
Généraux de Régression (GRM)
(tous deux proposés dans ce produit) avec des
procédures sophistiquées de construction de
modèles (sélection pas-à-pas des
prédicteurs et recherche exhaustive du meilleur
modèle).
- Modèles
Linéaires/Non-Linéaires
Généralisés (GLZ)
(proposé dans ce produit), qui permet également
de sélectionner les prédicteurs
pas-à-pas et d'effectuer une recherche exhaustive du
meilleur modèle dans des plans de type ANOVA/ANCOVA, pour
différentes alternatives aux modèles
linéaires des moindres carrés, comme les
modèles logit, logit multinomial et probit.
- Modèles
Généraux d'Analyse Discriminante (GDA)
(proposé dans ce produit), qui vous permet d'utiliser des
plans d'expériences de type ANOVA/ANCOVA pour des
classifications, et d'utiliser une sélection
pas-à-pas des prédicteurs ou par recherche
exhaustive du meilleur modèle ; le module GDA offre
également un profil de désirabilité et
diverses méthodes d'optimisation des réponses,
permettant de mettre en évidence les combinaisons, niveaux
et/ou valeurs de facteurs qui vont maximiser les
probabilités de classification a posteriori
d'une ou plusieurs catégories de la variable
dépendante.
- Modèles
d'Arbres de Classification et de Régression
et Modèles
CHAID, tous deux proposés dans le
produit STATISTICA Data
Miner), qui vous permettent d'évaluer
l'efficacité des plans d'expériences de type
ANOVA/ANCOVA pour construire des arbres de classification or de
régression hiérarchiques avec une forte
non-linéarité.
STATISTICA peut donc s'utiliser dans des
problématiques d'amélioration de la
qualité de façon tout à fait innovante
et créative, lorsque les variables dépendantes
étudiées sont de nature catégorielle,
ou lorsque l'effet des variables prédictives (effets) est de
nature clairement non-linéaire.
STATISTICA
Analyse de Processus
STATISTICA Analyse de Processus est
constitué de deux modules vous permettant d'utiliser les
techniques d'analyses de processus, les analyses de
répétabilité et de
reproductibilité, l'analyse de
Weibull,
les plans d'échantillonnage, et les techniques de
décomposition de la variance pour des effets
aléatoires ; chacune de ces techniques est
décrite dans les paragraphes suivants.
Analyse
de capabilité du processus. STATISTICA
Analyse de Processus vous offre un certain nombre d'options
pour calculer des indices de capabilité sur des
données groupées ou non (par exemple, Cp,
Cr, Cpk,
Cpl, Cpu,
K, Cpm,
Pp, Pr,
Ppk, Ppl,
Ppu), des
limites de tolérance normales ou non, avec les
tracés de capabilité du processus correspondants
(histogramme avec l'étendue du processus, limites de
spécification, courbe normale). En outre, au lieu des
indices et statistiques basés sur la Loi Normale,
l'utilisateur peut choisir des estimations (par exemple, Cpk,
Cpl, Cpu
basés sur la méthode des centiles) en utilisant
des distributions non-normales généralistes
(ajustement des courbes de Johnson et Pearson par les moments), ou
d'autres distributions continues, comme les distributions Bêta,
Exponentielle, Valeur Extrême
(Type I, Gumbel), Gamma, Log-Normale,
Rayleigh et Weibull. Le
programme estime les paramètres de ces distributions par le
maximum de vraisemblance, et offre de nombreuses options pour
évaluer la qualité de l'ajustement de la
distribution respective aux données, notamment la
répartition des effectifs avec les effectifs
observés et théoriques, la statistique d
de Kolmogorov-Smirnov, divers histogrammes, tracés de
Probabilité-Probabilité (P-P)
et tracés Quantiles-Quantiles (Q-Q). Une
option vous permet également d'ajuster automatiquement
toutes les distributions, et de retenir celle qui ajuste le mieux les
données.
Analyses
de
Répétabilité/Reproductibilité
(R&R). Vous pouvez produire et analyser des plans de
répétabilité/reproductibilité
avec un ou plusieurs essais. Les données de l'analyse R&R
peuvent être organisés sous forme de
données brutes ou être mis en tableau dans un
format standard de feuille de données de R&R
utilisée dans de nombreuses publications de la
Société Américaine de
Contrôle Qualité ainsi que dans les ouvrages du
Groupe d'Action Automobile). Les résultats produits vous
permettent d'estimer les composantes de la variance
(répétabilité ou variation de
l'équipement, de l'opérateur ou variation de
l'estimation, variation des pièces, variation
opérateur-par-pièce, etc...), en utilisant la
méthode des étendues, ou la table ANOVA. Si vous
utilisez la table ANOVA, les intervalles de confiance des composantes
de la variance seront également estimés. D'autres
statistiques vous permettent d'estimer les composantes de la variance,
notamment le pourcentage de tolérance, la variation du
processus, et la variation totale. Le programme calcule
également les statistiques descriptives par
opérateur/pièce, des cartes d'étendue
et sigma par opérateurs/pièces, diverses
boîtes à moustaches, et des tracés de
synthèse R&R. Remarque :
d'autres méthodes vous permettent d'estimer les composantes
de la variance pour des effets aléatoires dans le module
spécialisé STATISTICA
Décomposition de la Variance (proposé
dans cette application, voir ci-dessous), ainsi que dans le module Modèle
Linéaire Général,
disponible dans ce produit.
|
Analyse
de Weibull. Les options de l'analyse de Weibull offrent un
certain nombre de techniques graphiques puissantes permettant
d'exploiter la puissance et le caractère
généraliste de la distribution Weibull qui peut
trouver son application dans différents domaines.
L'utilisateur peut produire des tracés de
probabilités Weibull et estimer les paramètres de
la distribution, ainsi que les intervalles de confiance de la
fiabilité. Les tracés de probabilités
peuvent être produits pour des données
complètes, mono-censurées, ou
multi-censurées, et les paramètres peuvent
être estimés pour des tracés de risque
des ordres d'échec. Les méthodes d'estimation
disponibles sont le maximum de vraisemblance (pour des
données complètes et censurées), des
facteurs de pondération basés sur des techniques
d'estimation linéaire pour des données
complètes et mono-censurées, ainsi que les
Estimateurs Modifiés des Moments, qui offrent des
estimations non-biaisées de la moyenne et de la variance.
Des intervalles de confiance sont calculés pour les
paramètres de forme, d'échelle, et de position,
ainsi que pour les centiles. Le programme comporte des tests graphiques
de qualité d'ajustement, ainsi que les tests d'ajustement de
Hollander-Proschan, Mann-Scheuer-Fertig, et Anderson-Darling. Remarque
: le module Modèles
Linéaires/Non-Linéaires
Généralisés offre
diverses options pour ajuster des modèles
linéaires généralisés issus
de la famille des distributions exponentielles à des
données normales et non normales.
|
Plans
d'échantillonage. Vous pouvez produire des plans
d'échantillonnage fixes et séquentiels pour des
moyennes normales et binomiales, ou des fréquences de
Poisson. Parmi les résultats produits, citons les tailles
d'échantillons, les courbes d'efficacité, les
tracés des plans séquentiels avec ou sans
données, la période opérationnelle
moyenne (H0/H1).
Remarque : le produit STATISTICA Puissance de Test
offre également diverses options pour calculer les
estimations de tailles d'échantillon requises et de la
puissance de test pour un grand nombre de modèles (par
exemple, ANOVA) et de type de données (par exemple, pour des
effectifs binaires, des données censurées de
temps à l'échec, etc...).
|
Puissance
de Test
![[Captures]](images/power_ss.gif)
L'utilisation du module
Puissance de
Test lors de la conception et l'analyse de vos
problèmes de recherche, vous assure de toujours utiliser vos
ressources le plus efficacement possible. Il n'a en effet rien de plus
décevant que de constater que vos travaux de recherche
manquent de fiabilité parce que la taille des
échantillons que vous avez utilisée est trop
faible. De même que l'utilisation d'échantillons
surdimensionnés peut constituer une perte de temps et
d'argent. Le module
Puissance de Test va vous aider
à déterminer la taille idéale pour vos
échantillons et va enrichir vos travaux de recherche avec
une variété d'outils pour estimer les intervalles
de confiance et mener des analyses complètes de puissance de
tests.
Le module Puissance
de Test est un outil généraliste
complet pour vous aider dans vos tâches de conception et
d'analyse de travaux de recherche, vous permettant par exemple de
déterminer si la taille de votre échantillon est
appropriée à l'objectif de votre
étude. Il offre également une grande
variété d'outils pour analyser tous les aspects
des calculs de puissance de test et de taille d'échantillon.
Pourquoi Le module Puissance de Test
est-il le programme le plus moderne et le plus puissant de ce type ?
![[Boîte de dialogue des options]](images/pow_startup.gif)
- Parce qu'aucun autre programme de calcul de puissance de
test ne réunit autant de possibilités que le
module Puissance de Test.
- Parce que le module Puissance de Test
est de loin le plus rapide et le plus simple à utiliser.
- Parce que le module Puissance de Test
est le seul programme de ce type disponible sur le marché
qui va au-delà des simples tests standards de "l'effet
zéro", et qui intègre des méthodes
modernes utilisant la technologie des estimations d'intervalles. Le
programme peut calculer les intervalles de confiance exacts des tailles
des effets et les utiliser pour construire les intervalles de confiance
exacts de la puissance de test et des tailles
d'échantillons.
- Parce que le module Puissance de Test
offre des routines de calcul d'une précision et d'une
puissance sans égal. Les algorithmes de calcul sont
extrêmement précis et maintiennent cette
précision à travers une plus large gamme de
paramètres que les autres applications de puissance de
tests.
![[Calculateur du t]](images/t_calc.gif)
Examinez les captures d'écran ci-dessus qui
illustrent la manière dont le module Puissance de
Test peut traiter des calculs extrêmement lourds
sur des distributions non centrées. Un programme d'analyse
de puissance de test va produire un message d'erreur et refuser de
produire les calculs de l'exemple du F non
centré, avec un message "Échec de
Vérification des Limites". Un autre programme va produire,
sans autre commentaire, des résultats totalement faux pour
l'exemple du t non centré.
- Parce qu'en appuyant sur quelques boutons, le programme va
produire automatiquement des graphiques élégants
et professionnels, représentant la puissance de test en
fonction de la taille d'échantillon, la puissance de test en
fonction de la taille des effets, la puissance de test en fonction de
alpha. Des menus pour personnaliser l'étendue des graphiques
sont immédiatement disponibles, ce qui vous permet de
définir délimiter la zone à
étudier et de produire rapidement plusieurs graphiques
à la suite. Le programme produit tout le détail
de la procédure, décrivant le calcul sous une
forme pouvant être transférée
directement dans votre rapport final, publication, etc...
Calculs de Taille d'Échantillon. Le
module
Puissance de Test calcule la taille
d'échantillon en fonction du risque de première
espèce et de la valeur des effets pour tous les
tests cités ci-dessous.
Le module
Puissance de Test
calcule la puissance de test en fonction de la taille
d'échantillon, de la taille de l'effet, du risque de
première espèce pour les tests suivants :
- Comparaison d'une moyenne à un standard
- Test-t de comparaison de 2 moyennes dans
des échantillons indépendants
- Test-t de comparaison de 2 moyennes dans
des échantillons appariés
- Contrastes Planifiés
- ANOVA à 1 facteur (effets fixes ou
aléatoires)
- ANOVA à 2 facteurs
- Test du Chi2 sur une seule variable
- Test F de comparaison de 2 variances
- Test-Z (ou test du Chi2) de
comparaison d'une proportion à un standard
- Test-Z de coimparaison de 2 proportions
indépendantes
- Test de Mcnemar sur 2 proportions appariées
- Test-F de significativité du R2
- Test-t de significativité du
coefficient de corrélation
- Test-t de comparaison de 2 coefficients
de corrélation indépendants
- Test des Log-rangs de l'analyse de survie
- Test d'égalité de survie
exponentielle, avec période cumulée
- Test d'égalité de survie
exponentielle, avec une période cumulée et
abandons
- Test de significativité du Chi2
en modélisation d'équations structurelles
- Tests d'ajustement en analyse factorielle confirmatoire
dans la modélisation d'équations structurelles
... et bien plus encore !
Estimation des Intervalles de Confiance. La pratique
statistique moderne a donné un nouvel élan
à l'estimation des intervalles de confiance, non seulement
pour la conception des études, mais également
pour leur interprétation. Le module
Puissance de
Test est le seul programme de ce type à calculer
les intervalles de confiance pour un certain nombre de grandeurs
statistiques importantes comme la taille des effets
centrés-réduits (dans les tests
t
et l'ANOVA), les coefficients de corrélation, la
corrélation multiple au carré, une proportion
dans un échantillon et la différence entre les
proportions de plusieurs échantillons
(indépendants ou appariés). Ces
possibilités peuvent être utilisées
à la fois pour construire les intervalles de confiance sur
les valeurs telles que la puissance du test ou les tailles
d'échantillons, permettant ainsi à l'utilisateur
de construire à partir de données issues d'une
étude particulière, un intervalle de confiance
exact sur la taille d'échantillon requise pour une autre
étude.
Calculateurs de Distributions Statistiques. Outre,
le large choix de distributions disponibles dans tous les modules de
STATISTICA,
le module
Puissance de Test offre des
procédures spécifiques
particulièrement utiles pour réaliser des calculs
de puissance de test. Ces routines, qui incluent les distributions non
centrées de Student, du F et du Chi
2,
la distribution binomiale, les distributions exactes des coefficients
de corrélation et du coefficient de corrélation
multiple au carré, se caractérisent par leurs
faculté à produire une solution lorsqu'un
paramètre reste inconnu, et à traiter des cas
"non-nuls".
Par exemple, le programme peut non seulement calculer le coefficient de
corrélation de Pearson
p en fonction de
r
et de
N pour
rho=0, mais aussi
pour d'autres valeurs de
rho. En outre, il peut
déterminer la valeur exacte de
rho pour
un
r donné à un pourcentage
particulier, et pour une taille d'échantillon
N
donnée.
Exemple d'Application.
Imaginons que vous souhaitiez produire une ANOVA à un
facteur pour étudier l'effet d'un médicament.
Avant de concevoir l'étude, vous réalisez qu'une
étude similaire a déjà
été réalisée
précédemment. Cette étude
particulière était basée sur 4
groupes, avec N = 50 observations par groupe, et a donné une
valeur du
F égale à 15,4.
À partir de cette information, vous pouvez (a)
évaluer l'importance de l'effet dans la population avec un
intervalle de confiance exact, (b) utiliser cette information pour
définir la taille minimum de votre échantillon
pour cette nouvelle étude.
Saisissez simplement les données dans la boîte de
dialogue appropriée, et les résultats sont
calculés instantanément comme vous pouvez le
constater à gauche.
Dans cet exemple, nous constatons que l'intervalle de confiance
à 90% de l'effet quadratique moyen
centré-réduit (RMSSE), est compris entre 0,398 et
0,686. Avec des effets de cette ampleur, il n'est pas
étonnant que l'intervalle de confiance à 90% de
la puissance du test soit compris entre 0,989 et presque 1. Nous
pouvons utiliser cette information pour construire l'intervalle de
confiance du
N désiré afin
d'obtenir la puissance de test cible (dans ce cas, 90%). Cet intervalle
de confiance est compris entre 12 et 31. Ainsi, sur la base de
l'étude précédente, nous pouvons
être sûr à 90% qu'une taille
d'échantillon n'excédant pas 31 aurait
été suffisante pour obtenir une puissance de test
de 0,90.
![[Premier graphique]](images/power1.gif)
![[Second graphique]](images/power2.gif)
Revenons
à notre étude, et supposons que nous cherchions
à examiner la relation entre la puissance de test et la
taille de l'effet pour une taille d'échantillon
égale à 31. Le premier graphique (à
gauche) indique clairement que tant que la taille de l'effet du
médicament demeure dans l'intervalle de confiance
défini dans l'étude
précédente, la puissance du test reste
importante. En revanche, si la taille de l'effet de notre
médicament est de l'ordre de 0,25, la puissance du test
deviendrait clairement inadaptée. De la même
manière, si nous utilisions la même taille
d'échantillon que dans l'étude
précédente (c'est-à-dire 50 individus
par groupe), nous constaterions que la puissance de test reste
raisonnable, même pour des effets de l'ordre de 0,28 (voir le
graphique à droite). Avec le module
Puissance de
Test, toute cette analyse ne prendrait guère plus
qu'une minute ou deux.