Logo
Unionpédia
Communication
Disponible sur Google Play
Nouveau! Téléchargez Unionpédia sur votre appareil Android™!
Installer
Accès plus rapide que le navigateur!
 

Table d'utilisation des tests statistiques

Indice Table d'utilisation des tests statistiques

Il existe de nombreux tests statistiques différents avec chacun leurs domaines et leurs conditions d'application.

48 relations: Analyse de la variance, Analyse de variance multivariée, ANOVA de Friedman, Concordance de Kendall, Corrélation (statistiques), Corrélation de Spearman, Méthode des moindres carrés, Méthode médiane-médiane, Régression linéaire multiple, Régression logistique, Tau de Kendall, Test augmenté de Dickey-Fuller, Test d'Anderson-Darling, Test de Bartlett, Test de Box-Pierce, Test de Breusch-Godfrey, Test de Chow, Test de Cramer-Von Mises, Test de D'Agostino, Test de Dickey-Fuller, Test de Durbin-Watson, Test de Fisher d'égalité de deux variances, Test de Goldfeld et Quandt, Test de Jarque-Bera, Test de Jonckheere-Terpstra, Test de Kolmogorov-Smirnov, Test de Kruskal-Wallis, Test de Levene, Test de Lilliefors, Test de McNemar, Test de Mood, Test de Phillips-Perron, Test de Sargan, Test de Shapiro-Wilk, Test de Student, Test de Van der Waerden, Test de Wald, Test de Wilcoxon-Mann-Whitney, Test des rangs signés de Wilcoxon, Test des signes, Test des suites de Wald-Wolfowitz, Test du χ², Test du χ² de Cochran-Mantel-Haenszel, Test Gamma, Test KPSS, Test Q de Cochran, Test Q de Ljung-Box, Test statistique.

Analyse de la variance

En statistique, lanalyse de la variance (terme souvent abrégé par le terme anglais ANOVA: analysis of variance) est un ensemble de modèles statistiques utilisés pour vérifier si les moyennes des groupes proviennent d'une même population.

Nouveau!!: Table d'utilisation des tests statistiques et Analyse de la variance · Voir plus »

Analyse de variance multivariée

L'analyse de variance multivariée (ou MANOVA pour) est un test statistique qui vise à déterminer si des facteurs qualitatifs ont des effets significatifs sur plusieurs variables dépendantes quantitatives prises collectivement.

Nouveau!!: Table d'utilisation des tests statistiques et Analyse de variance multivariée · Voir plus »

ANOVA de Friedman

En statistique, l'ANOVA de Friedman aussi appelée ANOVA de Friedman par rangs est un test statistique non-paramétrique développé par Milton Friedman.

Nouveau!!: Table d'utilisation des tests statistiques et ANOVA de Friedman · Voir plus »

Concordance de Kendall

En statistique, la concordance de Kendall, parfois appelé W de Kendall, désigne un test statistique permettant de produire une statistique proche du R de Spearman, à la différence qu'elle exprime la relation entre plusieurs observations.

Nouveau!!: Table d'utilisation des tests statistiques et Concordance de Kendall · Voir plus »

Corrélation (statistiques)

En probabilités et en statistique, la corrélation entre plusieurs variables aléatoires ou statistiques est une notion de liaison qui contredit leur indépendance.

Nouveau!!: Table d'utilisation des tests statistiques et Corrélation (statistiques) · Voir plus »

Corrélation de Spearman

En statistique, la corrélation de Spearman ou rho de Spearman, nommée d'après Charles Spearman (1863-1945) et souvent notée par la lettre grecque \rho (rho) ou r_s est une mesure de dépendance statistique non paramétrique entre deux variables.

Nouveau!!: Table d'utilisation des tests statistiques et Corrélation de Spearman · Voir plus »

Méthode des moindres carrés

La méthode des moindres carrés, indépendamment élaborée par Legendre et Gauss au début du, permet de comparer des données expérimentales, généralement entachées d’erreurs de mesure, à un modèle mathématique censé décrire ces données.

Nouveau!!: Table d'utilisation des tests statistiques et Méthode des moindres carrés · Voir plus »

Méthode médiane-médiane

La méthode médiane-médiane, également appelée droite robuste de Tukey (resistant line), est une méthode de régression linéaire à deux dimensions.

Nouveau!!: Table d'utilisation des tests statistiques et Méthode médiane-médiane · Voir plus »

Régression linéaire multiple

En statistique, la régression linéaire multiple est une méthode de régression mathématique étendant la régression linéaire simple pour décrire les variations d'une variable endogène associée aux variations de plusieurs variables exogènes.

Nouveau!!: Table d'utilisation des tests statistiques et Régression linéaire multiple · Voir plus »

Régression logistique

En statistiques, la régression logistique ou modèle logit est un modèle de régression binomiale.

Nouveau!!: Table d'utilisation des tests statistiques et Régression logistique · Voir plus »

Tau de Kendall

En statistique, le tau de Kendall (ou \tau de Kendall) est une statistique qui mesure l'association entre deux variables.

Nouveau!!: Table d'utilisation des tests statistiques et Tau de Kendall · Voir plus »

Test augmenté de Dickey-Fuller

Le test augmenté de Dickey-Fuller ou test ADF est un test statistique qui vise à savoir si une série temporelle est stationnaire c'est-à-dire si ses propriétés statistiques (espérance, variance, auto-corrélation) varient ou pas dans le temps.

Nouveau!!: Table d'utilisation des tests statistiques et Test augmenté de Dickey-Fuller · Voir plus »

Test d'Anderson-Darling

Le test d'Anderson-Darling est un test de normalité de l'échantillon statistique.

Nouveau!!: Table d'utilisation des tests statistiques et Test d'Anderson-Darling · Voir plus »

Test de Bartlett

En statistique, le test de Bartlett du nom du statisticien anglais Maurice Stevenson Bartlett (–) est utilisé en statistique pour évaluer si k échantillons indépendants sont issus de populations de même variance (condition dite d'homoscédasticité).

Nouveau!!: Table d'utilisation des tests statistiques et Test de Bartlett · Voir plus »

Test de Box-Pierce

Le Test de Box-Pierce est un test statistique qui teste l'auto-corrélation d'ordre supérieur à 1.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Box-Pierce · Voir plus »

Test de Breusch-Godfrey

Le test de Breusch-Godfrey est un test statistique qui teste l'autocorrélation de n'importe quel ordre.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Breusch-Godfrey · Voir plus »

Test de Chow

Le test de Chow est un test statistique et économétrique afin de déterminer si les coefficients de deux séries linéaires sont égaux.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Chow · Voir plus »

Test de Cramer-Von Mises

Le test de Cramer-Von Mises ou critère de Cramer-Von Mises est un test statistique utilisé pour évaluer la qualité de l'ajustement d'une fonction de répartition notée F^* comparée à une fonction de répartition empirique notée F_n.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Cramer-Von Mises · Voir plus »

Test de D'Agostino

Le test de D'Agostino ou test du K² de D'Agostino est un test statistique nommé en l'honneur de Ralph D'Agostino.

Nouveau!!: Table d'utilisation des tests statistiques et Test de D'Agostino · Voir plus »

Test de Dickey-Fuller

Le test de Dickey-Fuller ou test de racine unitaire de Dickey-Fuller est un test statistique qui vise à savoir si une série temporelle est stationnaire c'est-à-dire si ses propriétés statistiques (espérance, variance, auto-corrélation) varient ou pas dans le temps et si leur valeur est bien finie.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Dickey-Fuller · Voir plus »

Test de Durbin-Watson

Le test de Durbin-Watson est un test statistique destiné à tester l'autocorrélation des résidus dans un modèle de régression linéaire.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Durbin-Watson · Voir plus »

Test de Fisher d'égalité de deux variances

En statistique, le test F d'égalité de deux variances, est un test d'hypothèse qui permet de tester l'hypothèse nulle que deux lois normales ont la même variance.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Fisher d'égalité de deux variances · Voir plus »

Test de Goldfeld et Quandt

Le test de Goldfeld et Quandt (formulé en 1965) est un test statistique, très utilisé en économétrie dans le cadre d'un modèle linéaire multiple estimé par la méthode des moindres carrés afin de savoir si les perturbations sont hétéroscédastiques ou homoscédastiques.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Goldfeld et Quandt · Voir plus »

Test de Jarque-Bera

Le test de Jarque-Bera est un test d'hypothèse qui cherche à déterminer si des données suivent une loi normale.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Jarque-Bera · Voir plus »

Test de Jonckheere-Terpstra

Le test de Jonckheere-Terpstra ou Test de tendance de Jonckheere est un test statistique qui s'utilise avec des échantillons indépendants.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Jonckheere-Terpstra · Voir plus »

Test de Kolmogorov-Smirnov

En statistiques, le test de Kolmogorov-Smirnov est un test d'hypothèse utilisé pour déterminer si un échantillon suit bien une loi donnée connue par sa fonction de répartition continue, ou bien si deux échantillons suivent la même loi.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Kolmogorov-Smirnov · Voir plus »

Test de Kruskal-Wallis

Le test de Kruskal-Wallis (d'après William Kruskal et Wilson Allen Wallis), aussi appelé ANOVA unidirectionnelle sur rangs (ou ANOVA à un facteur contrôlé sur rangs) est une méthode non paramétrique utilisée pour tester si des échantillons trouvent leur origine dans la même distribution.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Kruskal-Wallis · Voir plus »

Test de Levene

En statistique, le Test de Levene est une statistique déductive utilisée pour évaluer l'égalité de variance pour une variable calculée pour deux groupes ou plus.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Levene · Voir plus »

Test de Lilliefors

En statistique, le test de Lilliefors est un test de normalité adapté du test de Kolmogorov-Smirnov permettant de tester l'hypothèse nulle que les données soient issues d'une loi normale quand les paramètres de la loi normale ne sont pas connus, c'est-à-dire quand ni l'espérance μ ni l'écart type σ ne sont connus.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Lilliefors · Voir plus »

Test de McNemar

En statistique, le test de McNemar est un test statistique, alternative non-paramétrique au test T pour des échantillons appariés, il permet de comparer au maximum deux valeurs mesurées.

Nouveau!!: Table d'utilisation des tests statistiques et Test de McNemar · Voir plus »

Test de Mood

Le test de Mood, également appelé test de Brown et Mood ou test des médianes, est un test statistique destiné à comparer les positions de deux jeux de données; c'est un test non-paramétrique, c'est-à-dire qu'il ne suppose pas que les données suivent une loi de probabilité donnée.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Mood · Voir plus »

Test de Phillips-Perron

Le test de Phillips-Perron est un test statistique qui vise à savoir si une série temporelle est stationnaire c'est-à-dire si ses propriétés statistiques (espérance, variance, auto-corrélation) varient ou pas dans le temps.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Phillips-Perron · Voir plus »

Test de Sargan

Le test de Sargan ou test de Sargan-Hansen est un test statistique permettant de tester une hypothèse de suridentification dans un modèle statistique.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Sargan · Voir plus »

Test de Shapiro-Wilk

En statistique, le test de Shapiro–Wilk teste l'hypothèse nulle selon laquelle un échantillon x_1, \dots,x_n est issu d'une population normalement distribuée.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Shapiro-Wilk · Voir plus »

Test de Student

En statistique, un test de Student, ou test t, désigne n'importe quel test statistique paramétrique où la statistique de test calculée suit une loi de Student lorsque l’hypothèse nulle est vraie.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Student · Voir plus »

Test de Van der Waerden

Le test de Van der Waerden est un test statistique qui permet de déterminer si les fonctions de distribution de k populations sont égales.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Van der Waerden · Voir plus »

Test de Wald

Le test de Wald est un test paramétrique économétrique dont l'appellation vient du mathématicien américain d'origine hongroise Abraham Wald (-) avec une grande variété d'utilisations.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Wald · Voir plus »

Test de Wilcoxon-Mann-Whitney

En statistique, le test de Wilcoxon-Mann-Whitney (ou test U de Mann-Whitney ou encore test de la somme des rangs de Wilcoxon) est un test statistique non paramétrique qui permet de tester l'hypothèse selon laquelle les distributions de chacun de deux groupes de données sont proches.

Nouveau!!: Table d'utilisation des tests statistiques et Test de Wilcoxon-Mann-Whitney · Voir plus »

Test des rangs signés de Wilcoxon

En statistique, le test des rangs signés de Wilcoxon est une alternative non-paramétrique au test de Student pour des échantillons appariés.

Nouveau!!: Table d'utilisation des tests statistiques et Test des rangs signés de Wilcoxon · Voir plus »

Test des signes

En statistique, le test des signes est une alternative non-paramétrique au test T pour des échantillons appariés.

Nouveau!!: Table d'utilisation des tests statistiques et Test des signes · Voir plus »

Test des suites de Wald-Wolfowitz

Le test des suites de Wald-Wolfowitz est une alternative non-paramétrique au test T pour des échantillons indépendants.

Nouveau!!: Table d'utilisation des tests statistiques et Test des suites de Wald-Wolfowitz · Voir plus »

Test du χ²

En statistique, le test du khi carré, aussi dit du khi-deux, d’après sa désignation symbolique, est un test statistique où la statistique de test suit une 2''' sous l'hypothèse nulle.

Nouveau!!: Table d'utilisation des tests statistiques et Test du χ² · Voir plus »

Test du χ² de Cochran-Mantel-Haenszel

Le test du χ² de CMH ou test de Cochran-Mantel-Haenszel est un test statistique utilisé dans l'analyse de variables catégorielles appariées ou stratifiées.

Nouveau!!: Table d'utilisation des tests statistiques et Test du χ² de Cochran-Mantel-Haenszel · Voir plus »

Test Gamma

Le Test Gamma ou Gamma de Kruskal et Goodman est un test non-paramétrique de corrélation qui est une alternative non-paramétrique au test de corrélation de Pearson.

Nouveau!!: Table d'utilisation des tests statistiques et Test Gamma · Voir plus »

Test KPSS

Le test KPSS ou test de Kwiatkowski-Phillips-Schmidt-Shin est un test statistique qui vise à savoir si une série temporelle est stationnaire c'est-à-dire si ses propriétés statistiques (espérance, variance, auto-corrélation) varient ou pas dans le temps.

Nouveau!!: Table d'utilisation des tests statistiques et Test KPSS · Voir plus »

Test Q de Cochran

En statistique, le test Q de Cochran est un test statistique non paramétrique et une extension du test de McNemar pour k échantillons appariés (avec k>2).

Nouveau!!: Table d'utilisation des tests statistiques et Test Q de Cochran · Voir plus »

Test Q de Ljung-Box

Le Test Q de Ljung-Box ou Test de Ljung-Box est un test statistique qui teste l'auto-corrélation d'ordre supérieur à 1.

Nouveau!!: Table d'utilisation des tests statistiques et Test Q de Ljung-Box · Voir plus »

Test statistique

En statistiques, un test, ou test d'hypothèse, est une procédure de décision entre deux hypothèses.

Nouveau!!: Table d'utilisation des tests statistiques et Test statistique · Voir plus »

SortantEntrants
Hey! Nous sommes sur Facebook maintenant! »