Logo
Unionpédia
Communication
Disponible sur Google Play
Nouveau! Téléchargez Unionpédia sur votre appareil Android™!
Installer
Accès plus rapide que le navigateur!
 

Régression linéaire

Indice Régression linéaire

En statistiques, en économétrie et en apprentissage automatique, un modèle de régression linéaire est un modèle de régression qui cherche à établir une relation linéaire entre une variable, dite expliquée, et une ou plusieurs variables, dites explicatives.

128 relations: Adrien-Marie Legendre, Ajustement affine, Alain Degenne, Alpes du Nord, Analyse thermogravimétrique, Andreï Markov (mathématicien), Andrew Gelman, Apprentissage automatique, Apprentissage supervisé, Autocorrélation, École des hautes études en sciences sociales, École nationale supérieure des mines de Nancy, Éditions Dunod, Éditions Economica, Éditions Montchrestien, Équation de droite, Cambridge University Press, Carl Friedrich Gauss, Catherine Marry, Centre de gravité, Chambre des représentants des États-Unis, Chapman & Hall, Coefficient de détermination, Colinéarité, Combinaison linéaire, Corrélation (statistiques), Corrosion à haute température, Covariance, Daron Acemoğlu, David Romer, David Weil, Décomposition de Blinder-Oaxaca, Déformation élastique, Distance d'un point à une droite, Droite de Henry, Erreur de mesure, Espérance conditionnelle, Estimateur de Wald, Extrapolation (mathématiques), Fonction affine, Fonction de répartition, Francis Galton, Gary King, Géostatistique, Gregory Mankiw, Groupe De Boeck, Inférence bayésienne, Intervalle de confiance, Jacques Mairesse (économiste), James Heckman, ..., James Tobin, Jeu de données, John Tukey, Joshua Angrist, Lasso (statistiques), Linéarité, Loi affine, Loi d'Ohm, Loi de Fisher, Loi de puissance, Loi de Student, Loi de Weibull, Loi normale, Machine à mesurer tridimensionnelle, Marie-Odile Lebeaux, Matrice identité, Matrice transposée, Maximum de vraisemblance, Médiane (statistiques), Méthode des moindres carrés, Méthode des moments (statistiques), Méthode des variables instrumentales, Méthode médiane-médiane, Métrologie, Modèle additif généralisé, Modèle de sélection, Modèle de Solow, Modèle linéaire généralisé, Modèle probit, Modèle tobit, Nombre réel, Nuage de points, Ordonnée à l'origine, Orthodromie, Pente (mathématiques), Pierre-Simon de Laplace, Pluviométrie, Polynôme, Poursuite de base, Princeton University Press, Projection gnomonique, Qualité de l'ajustement, Quartet d'Anscombe, R (langage), Rang (algèbre linéaire), Régression (statistiques), Régression de Poisson, Régression des moindres carrés partiels, Régression linéaire multiple, Régression logistique, Régression non linéaire, Régression polynomiale, Régression quantile, Régression sur composantes principales, Résistance (électricité), Robert Tibshirani, Roger Joseph Boscovich, Roger Koenker, Russie, Série statistique à deux variables, Série temporelle, Sciences de l'éducation, Springer Science+Business Media, Statistique, Statistique bayésienne, Statistique de test, Steven Levitt, Test de Breusch-Pagan, Test de Chow, Test de Durbin-Watson, Test de Fisher d'égalité de deux variances, Test de Student, Théorème de Frisch-Waugh, Théorème de Gauss-Markov, Théorie de la cinétique d'oxydation de Wagner, Variable aléatoire à densité, Variable aléatoire réelle, Vecteur ligne. Développer l'indice (78 plus) »

Adrien-Marie Legendre

Adrien-Marie Legendre, né le à Paris et mort le dans la même ville, est un mathématicien français.

Nouveau!!: Régression linéaire et Adrien-Marie Legendre · Voir plus »

Ajustement affine

Nuage de points et sa droite d'ajustement En mathématiques, un ajustement affine est la détermination d’une droite approchant au mieux un nuage de points dans le plan.

Nouveau!!: Régression linéaire et Ajustement affine · Voir plus »

Alain Degenne

Alain Degenne est un sociologue français né en.

Nouveau!!: Régression linéaire et Alain Degenne · Voir plus »

Alpes du Nord

Les Alpes du Nord sont une zone géographique non-administrative des Alpes françaises située en majeure partie dans la région Auvergne-Rhône-Alpes, ainsi qu'en Provence-Alpes-Côte d'Azur (Hautes-Alpes).

Nouveau!!: Régression linéaire et Alpes du Nord · Voir plus »

Analyse thermogravimétrique

L'analyse thermogravimétrique (ATG), (TGA), est une technique d'analyse thermique qui consiste en la mesure de la variation de masse d'un échantillon en fonction du temps, pour une température ou un profil de température donné.

Nouveau!!: Régression linéaire et Analyse thermogravimétrique · Voir plus »

Andreï Markov (mathématicien)

Andreï Andreïevitch Markov (en Андрей Андреевич Марков) (1856-1922) est un mathématicien russe.

Nouveau!!: Régression linéaire et Andreï Markov (mathématicien) · Voir plus »

Andrew Gelman

Andrew Gelman est un statisticien et un politologue américain.

Nouveau!!: Régression linéaire et Andrew Gelman · Voir plus »

Apprentissage automatique

L'apprentissage automatique.

Nouveau!!: Régression linéaire et Apprentissage automatique · Voir plus »

Apprentissage supervisé

L'apprentissage supervisé (supervised learning en anglais) est une tâche d'apprentissage automatique consistant à apprendre une fonction de prédiction à partir d'exemples annotés, au contraire de l'apprentissage non supervisé.

Nouveau!!: Régression linéaire et Apprentissage supervisé · Voir plus »

Autocorrélation

L'autocorrélation est un outil mathématique souvent utilisé en traitement du signal.

Nouveau!!: Régression linéaire et Autocorrélation · Voir plus »

École des hautes études en sciences sociales

Bâtiment au 105 boulevard Raspail. 6e arrondissement de Paris). L'École des hautes études en sciences sociales (EHESS) est un grand établissement français.

Nouveau!!: Régression linéaire et École des hautes études en sciences sociales · Voir plus »

École nationale supérieure des mines de Nancy

L’École nationale supérieure des mines de Nancy ou Mines Nancy, également connue sous les noms: École des mines de Nancy, ENSMN et Nancy School of Mines, est l'une des françaises accréditées au à délivrer un diplôme d'ingénieur.

Nouveau!!: Régression linéaire et École nationale supérieure des mines de Nancy · Voir plus »

Éditions Dunod

Dunod est une maison d'édition du groupe Hachette Livre, spécialisée dans les ouvrages de formation universitaire et professionnelle et regroupe les marques Dunod, Armand Colin, InterÉditions, Ediscience, ETSF.

Nouveau!!: Régression linéaire et Éditions Dunod · Voir plus »

Éditions Economica

Éditions Economica est une maison d'édition française spécialisée dans les sujets économiques et stratégiques.

Nouveau!!: Régression linéaire et Éditions Economica · Voir plus »

Éditions Montchrestien

Les Éditions Montchrestien sont une maison d'édition juridique française associée à la LGDJ dans le cadre des Éditions juridiques associées constituées en 1998.

Nouveau!!: Régression linéaire et Éditions Montchrestien · Voir plus »

Équation de droite

En géométrie affine, une équation de droite, au sens large, permet de décrire l'ensemble des points appartenant à cette droite.

Nouveau!!: Régression linéaire et Équation de droite · Voir plus »

Cambridge University Press

Cambridge University Press ou CUP (en français, Presses universitaires de Cambridge) est une maison d'édition universitaire britannique rattachée à l’université de Cambridge.

Nouveau!!: Régression linéaire et Cambridge University Press · Voir plus »

Carl Friedrich Gauss

Johann Carl Friedrich Gauß (Prononciation en allemand standard retranscrite phonémiquement selon la norme API.; traditionnellement transcrit Gauss en français; Carolus Fridericus Gauss en latin), né le à Brunswick et mort le à Göttingen, est un mathématicien, astronome et physicien allemand.

Nouveau!!: Régression linéaire et Carl Friedrich Gauss · Voir plus »

Catherine Marry

Catherine Marry, née Marie Catherine Guyonvoir l'octroi de sa Légion d'honneur, Journal officiel 1 janvier 2017: « Mme Marry, née Guyon (Marie-Catherine dite Catherine), directrice de recherche émérite au Centre national de la recherche scientifique; 44 ans de services », en 1948, est une sociologue française.

Nouveau!!: Régression linéaire et Catherine Marry · Voir plus »

Centre de gravité

En physique, le centre de gravité ou CdG, appelé G, est le point d'application de la résultante des forces de gravité ou de pesanteur.

Nouveau!!: Régression linéaire et Centre de gravité · Voir plus »

Chambre des représentants des États-Unis

La Chambre des représentants des États-Unis compose, avec le Sénat, le Congrès des États-Unis et forme à ce titre l'un des deux organes du pouvoir législatif américain.

Nouveau!!: Régression linéaire et Chambre des représentants des États-Unis · Voir plus »

Chapman & Hall

Chapman & Hall est une maison d'édition britannique de Londres, fondée dans la première moitié du par Edward Chapman et William Hall.

Nouveau!!: Régression linéaire et Chapman & Hall · Voir plus »

Coefficient de détermination

Illustration du coefficient de détermination pour une régression linéaire. Le coefficient de détermination est égal à 1 moins le rapport entre la surface des carrés bleus et la surface des carrés rouges. En statistique, le coefficient de détermination linéaire de Pearson, noté ou, est une mesure de la qualité de la prédiction d'une régression linéaire.

Nouveau!!: Régression linéaire et Coefficient de détermination · Voir plus »

Colinéarité

En algèbre linéaire, deux vecteurs \vec et \vec d'un espace vectoriel \mathsf sont colinéaires s'il existe un scalaire k tel que \vec.

Nouveau!!: Régression linéaire et Colinéarité · Voir plus »

Combinaison linéaire

En mathématiques, une combinaison linéaire est une expression construite à partir d'un ensemble de termes en multipliant chaque terme par une constante et en ajoutant le résultat.

Nouveau!!: Régression linéaire et Combinaison linéaire · Voir plus »

Corrélation (statistiques)

En probabilités et en statistique, la corrélation entre plusieurs variables aléatoires ou statistiques est une notion de liaison qui contredit leur indépendance.

Nouveau!!: Régression linéaire et Corrélation (statistiques) · Voir plus »

Corrosion à haute température

Corrosion sulfurée à haute température La corrosion à haute température est la dégradation des métaux par l'environnement à haute températures (supérieure à). C'est un phénomène complexe qui a lieu dans les moteurs, chaudières et réacteurs.

Nouveau!!: Régression linéaire et Corrosion à haute température · Voir plus »

Covariance

En théorie des probabilités et en statistique, la covariance entre deux variables aléatoires est un nombre permettant de quantifier leurs écarts conjoints par rapport à leurs espérances respectives.

Nouveau!!: Régression linéaire et Covariance · Voir plus »

Daron Acemoğlu

Daron Acemoğlu, né le à Istanbul, est un économiste turco-américain actuellement professeur d'économie au Massachusetts Institute of Technology (MIT) où il détient la « chaire Charles P. Kindleberger ».

Nouveau!!: Régression linéaire et Daron Acemoğlu · Voir plus »

David Romer

David Romer est un macroéconomiste américain rattaché à la Nouvelle économie keynésienne né en 1958.

Nouveau!!: Régression linéaire et David Romer · Voir plus »

David Weil

David N. Weil est un macroéconomiste américain, intéressé par les questions de la croissance économique, du marché boursier, de la santé.

Nouveau!!: Régression linéaire et David Weil · Voir plus »

Décomposition de Blinder-Oaxaca

La décomposition de Blinder-Oaxaca est une méthode statistique d'économétrie permettant d'expliquer les différences salariales observées entre deux groupes distincts.

Nouveau!!: Régression linéaire et Décomposition de Blinder-Oaxaca · Voir plus »

Déformation élastique

En mécanique des milieux continus, une déformation élastique est une déformation réversible, c'est-à-dire qui disparaît lorsque les forces appliquées au matériau disparaissent.

Nouveau!!: Régression linéaire et Déformation élastique · Voir plus »

Distance d'un point à une droite

En géométrie euclidienne, la distance d'un point à une droite est la plus courte distance séparant ce point et un point courant de la droite.

Nouveau!!: Régression linéaire et Distance d'un point à une droite · Voir plus »

Droite de Henry

En statistique, la droite de Henry est une méthode graphique pour ajuster une distribution gaussienne à celle d'une série d'observations (d'une variable numérique continue).

Nouveau!!: Régression linéaire et Droite de Henry · Voir plus »

Erreur de mesure

Mesurage avec une colonne de mesure. Une erreur de mesure, dans le langage courant, est Exemples usuels et fictifs d'après cette définition.

Nouveau!!: Régression linéaire et Erreur de mesure · Voir plus »

Espérance conditionnelle

En théorie des probabilités, l'espérance conditionnelle d'une variable aléatoire réelle donne la valeur moyenne de cette variable quand un certain événement est réalisé.

Nouveau!!: Régression linéaire et Espérance conditionnelle · Voir plus »

Estimateur de Wald

Abraham Wald a défini l'estimateur de Wald en 1940. En économétrie et en statistiques, l'estimateur de Wald est un estimateur d'un modèle linéaire à variables instrumentales utilisé lorsque l'instrument est binaire (ie prend pour valeur 0 ou 1).

Nouveau!!: Régression linéaire et Estimateur de Wald · Voir plus »

Extrapolation (mathématiques)

En mathématiques, l'extrapolation est le calcul d'un point d'une courbe dont on ne dispose pas d'équation, à partir d'autres points, lorsque l'abscisse du point à calculer est au-dessus du maximum ou en dessous du minimum des points connus.

Nouveau!!: Régression linéaire et Extrapolation (mathématiques) · Voir plus »

Fonction affine

En analyse, une fonction affine est une fonction obtenue par addition et multiplication de la variable par des constantes.

Nouveau!!: Régression linéaire et Fonction affine · Voir plus »

Fonction de répartition

En théorie des probabilités, la fonction de répartition, ou fonction de distribution cumulative, d'une variable aléatoire réelle est la fonction qui, à tout réel, associe la probabilité d’obtenir une valeur inférieure ou égale: F_X(x).

Nouveau!!: Régression linéaire et Fonction de répartition · Voir plus »

Francis Galton

Sir Francis Galton (près de Birmingham, – Haslemere, Surrey) est un anthropologue, explorateur, géographe, inventeur, météorologue, écrivain, proto-généticien, psychométricien et statisticien britannique.

Nouveau!!: Régression linéaire et Francis Galton · Voir plus »

Gary King

Gary King est un politologue et un statisticien américain né le à Madison dans l'État du Wisconsin.

Nouveau!!: Régression linéaire et Gary King · Voir plus »

Géostatistique

La géostatistique est l'étude des variables régionalisées, à la frontière entre les mathématiques et les sciences de la Terre.

Nouveau!!: Régression linéaire et Géostatistique · Voir plus »

Gregory Mankiw

Nicholas Gregory Mankiw est un macroéconomiste américain de la nouvelle économie keynésienne né le dans le New Jersey.

Nouveau!!: Régression linéaire et Gregory Mankiw · Voir plus »

Groupe De Boeck

L’éditeur De Boeck a été fondé en 1889, la constitution du Groupe De Boeck a été progressive et s'est accélérée depuis la fin des années 1980.

Nouveau!!: Régression linéaire et Groupe De Boeck · Voir plus »

Inférence bayésienne

Illustration comparant les approches fréquentiste et bayésienne (Christophe Michel, 2018). L’inférence bayésienne est une méthode d'inférence statistique par laquelle on calcule les probabilités de diverses causes hypothétiques à partir de l'observation d'événements connus.

Nouveau!!: Régression linéaire et Inférence bayésienne · Voir plus »

Intervalle de confiance

Chaque ligne montre 20 échantillons tirés selon une loi normale de moyenne μ inconnue. On y montre l'intervalle de confiance de niveau 50% pour la moyenne correspondante aux 20 échantillons, marquée par un losange. Si l'intervalle contient μ, il est bleu; sinon il est rouge. En mathématiques, plus précisément en théorie des probabilités et en statistiques, un intervalle de confiance est un intervalle censé contenir un paramètre inconnu que l'on cherche à estimer (typiquement, une moyenne, la médiane ou la variance).

Nouveau!!: Régression linéaire et Intervalle de confiance · Voir plus »

Jacques Mairesse (économiste)

Jacques Mairesse, né le, est un économiste français. Il est le fils posthume de Jacques Mairesse (-), joueur international de football, mort pour la France.

Nouveau!!: Régression linéaire et Jacques Mairesse (économiste) · Voir plus »

James Heckman

James Heckman, né le, est un économiste de l'Université de Chicago.

Nouveau!!: Régression linéaire et James Heckman · Voir plus »

James Tobin

James Tobin (-) est un économiste américain, pro-keynésien, qui a contribué à la science économique en particulier, dans les domaines de l'investissement, des marchés financiers et des politiques budgétaire et monétaire.

Nouveau!!: Régression linéaire et James Tobin · Voir plus »

Jeu de données

420x420px Un jeu de données (en anglais dataset ou data set) est un ensemble de valeurs « organisées » ou « contextualisées » (alias « données »), où chaque valeur est associée à une variable (ou attribut) et à une observation.

Nouveau!!: Régression linéaire et Jeu de données · Voir plus »

John Tukey

John Wilder Tukey (à New Bedford - à New Brunswick) est l'un des plus importants statisticiens américains du.

Nouveau!!: Régression linéaire et John Tukey · Voir plus »

Joshua Angrist

Joshua Angrist est un économiste israélo-américain né le à Columbus dans l'Ohio.

Nouveau!!: Régression linéaire et Joshua Angrist · Voir plus »

Lasso (statistiques)

En statistiques, le lasso est une méthode de contraction des coefficients de la régression développée par Robert Tibshirani dans un article publié en 1996 intitulé Regression shrinkage and selection via the lasso.

Nouveau!!: Régression linéaire et Lasso (statistiques) · Voir plus »

Linéarité

Le concept de linéarité est utilisé dans le domaine des mathématiques et dans le domaine de la physique, et par extension dans le langage courant.

Nouveau!!: Régression linéaire et Linéarité · Voir plus »

Loi affine

Une loi affine est une loi physique ou mathématique reliant deux grandeurs x et y sous la forme d'une fonction affine: avec les coefficients a (pente) et b (ordonnée à l'origine) étant des constantes.

Nouveau!!: Régression linéaire et Loi affine · Voir plus »

Loi d'Ohm

La loi d'Ohm est une loi physique empirique qui lie l'intensité du courant électrique traversant un dipôle électrique à la tension à ses bornes.

Nouveau!!: Régression linéaire et Loi d'Ohm · Voir plus »

Loi de Fisher

Pas de description.

Nouveau!!: Régression linéaire et Loi de Fisher · Voir plus »

Loi de puissance

La loi de puissance est une relation mathématique entre deux quantités.

Nouveau!!: Régression linéaire et Loi de puissance · Voir plus »

Loi de Student

En théorie des probabilités et en statistique, la loi de Student est une loi de probabilité, faisant intervenir le quotient entre une variable suivant une loi normale centrée réduite et la racine carrée d'une variable distribuée suivant la ''χ''2.

Nouveau!!: Régression linéaire et Loi de Student · Voir plus »

Loi de Weibull

Pas de description.

Nouveau!!: Régression linéaire et Loi de Weibull · Voir plus »

Loi normale

En théorie des probabilités et en statistique, les lois normales sont parmi les lois de probabilité les plus utilisées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires.

Nouveau!!: Régression linéaire et Loi normale · Voir plus »

Machine à mesurer tridimensionnelle

Les machines à mesurer tridimensionnelles (MMT) sont des machines utilisées en métrologie dimensionnelle.

Nouveau!!: Régression linéaire et Machine à mesurer tridimensionnelle · Voir plus »

Marie-Odile Lebeaux

Marie-Odile Lebeaux est une chercheuse française en sciences sociales spécialisée en analyse des données, ingénieure au Centre national de la recherche scientifique (CNRS), laboratoire de statistique de l'Institut de statistique de Sorbonne Université (ISUP) de l'université Pierre-et-Marie-Curie.

Nouveau!!: Régression linéaire et Marie-Odile Lebeaux · Voir plus »

Matrice identité

En mathématiques, plus précisement en algèbre linéaire, une matrice identité ou matrice unité est une matrice carrée diagonale dont la diagonale principale est remplie de 1, et dont les autres coefficients valent 0.

Nouveau!!: Régression linéaire et Matrice identité · Voir plus »

Matrice transposée

En mathématiques, la matrice transposée (ou la transposée) d'une matrice A \in\mathrm M_(K) est la matrice A^\mathsf\in\mathrm M_(K), également notée ^\!A ou A', obtenue en échangeant les lignes et les colonnes de A. Plus précisément, si on note a_ pour (i,j) \in \ \times \ et b_ pour (i,j) \in \ \times \ les coefficients respectivement de A et de A^\mathsf alors pour tout (i,j) \in \ \times \ on a b_.

Nouveau!!: Régression linéaire et Matrice transposée · Voir plus »

Maximum de vraisemblance

En statistique, l'estimateur du maximum de vraisemblance est un estimateur statistique utilisé pour inférer les paramètres de la loi de probabilité d'un échantillon donné en recherchant les valeurs des paramètres maximisant la fonction de vraisemblance.

Nouveau!!: Régression linéaire et Maximum de vraisemblance · Voir plus »

Médiane (statistiques)

En théorie des probabilités et en statistiques, la médiane est une valeur qui sépare la moitié inférieure et la moitié supérieure des termes d’une série statistique quantitative ou d’une variable aléatoire réelle.

Nouveau!!: Régression linéaire et Médiane (statistiques) · Voir plus »

Méthode des moindres carrés

La méthode des moindres carrés, indépendamment élaborée par Legendre et Gauss au début du, permet de comparer des données expérimentales, généralement entachées d’erreurs de mesure, à un modèle mathématique censé décrire ces données.

Nouveau!!: Régression linéaire et Méthode des moindres carrés · Voir plus »

Méthode des moments (statistiques)

La méthode des moments est un outil d'estimation intuitif qui date du début des statistiques.

Nouveau!!: Régression linéaire et Méthode des moments (statistiques) · Voir plus »

Méthode des variables instrumentales

En statistique et en économétrie, la méthode des variables instrumentales est une méthode permettant d'identifier et d'estimer des relations causales entre des variables.

Nouveau!!: Régression linéaire et Méthode des variables instrumentales · Voir plus »

Méthode médiane-médiane

La méthode médiane-médiane, également appelée droite robuste de Tukey (resistant line), est une méthode de régression linéaire à deux dimensions.

Nouveau!!: Régression linéaire et Méthode médiane-médiane · Voir plus »

Métrologie

platine-iridium utilisée comme prototype du '''mètre''' de 1889 à 1960. La métrologie est la science de la mesure.

Nouveau!!: Régression linéaire et Métrologie · Voir plus »

Modèle additif généralisé

En statistiques, le modèle additif généralisé (en anglais, generalized additive model ou GAM) est un modèle statistique développé par Trevor Hastie et Rob Tibshirani pour fusionner les propriétés du modèle linéaire généralisé avec celles du modèle additif.

Nouveau!!: Régression linéaire et Modèle additif généralisé · Voir plus »

Modèle de sélection

En économétrie, le modèle de sélection de Heckman (ou heckit, ou modèle tobit généralisé ou encore modèle tobit de type 2) est une méthode semi-paramétrique de correction du biais de sélection développée par James Heckman.

Nouveau!!: Régression linéaire et Modèle de sélection · Voir plus »

Modèle de Solow

Le modèle de Solow est un des principaux modèles de la théorie de la croissance économique.

Nouveau!!: Régression linéaire et Modèle de Solow · Voir plus »

Modèle linéaire généralisé

En statistiques, le modèle linéaire généralisé (MLG) souvent connu sous les initiales anglaises GLM est une généralisation souple de la régression linéaire.

Nouveau!!: Régression linéaire et Modèle linéaire généralisé · Voir plus »

Modèle probit

En statistiques, le modèle probit est un modèle de régression binomiale.

Nouveau!!: Régression linéaire et Modèle probit · Voir plus »

Modèle tobit

Le modèle tobit est un modèle statistique utilisé pour décrire une relation entre une variable dépendante censurée et une variable indépendante.

Nouveau!!: Régression linéaire et Modèle tobit · Voir plus »

Nombre réel

En mathématiques, un nombre réel est un nombre qui peut être représenté par une partie entièreCette partie entière par troncature, désignant les chiffres « à gauche de la virgule » ne correspond pas forcément à la partie entière par défaut: dans le cas d’un nombre réel négatif comme, la partie entière par défaut vaut.

Nouveau!!: Régression linéaire et Nombre réel · Voir plus »

Nuage de points

Le terme nuage de points désigne, en mathématiques, un ensemble discret de points.

Nouveau!!: Régression linéaire et Nuage de points · Voir plus »

Ordonnée à l'origine

En géométrie cartésienne, l'ordonnée à l'origine du graphe d'une fonction désigne la valeur de l'ordonnée y lorsque l'abscisse x vaut 0.

Nouveau!!: Régression linéaire et Ordonnée à l'origine · Voir plus »

Orthodromie

L'orthodromie désigne le chemin le plus court entre deux points d'une surface.

Nouveau!!: Régression linéaire et Orthodromie · Voir plus »

Pente (mathématiques)

En mathématiques, la pente d'une droite, son coefficient angulaire ou encore son coefficient directeur, est un nombre qui permet de décrire à la fois le sens de l'inclinaison de la droite (si la droite monte quand on la parcourt de la gauche vers la droite, le nombre est positif, si la droite descend, le nombre est négatif) et la force de celle-ci (plus le nombre est grand en valeur absolue, plus la pente est forte).

Nouveau!!: Régression linéaire et Pente (mathématiques) · Voir plus »

Pierre-Simon de Laplace

Pierre-Simon de Laplace ou Pierre-Simon Laplace, comte Laplace, puis de Laplace, né le à Beaumont-en-Auge et mort le à Paris, est un mathématicien, astronome, physicien et homme politique français.

Nouveau!!: Régression linéaire et Pierre-Simon de Laplace · Voir plus »

Pluviométrie

Pluviométrie mondiale mensuelle La pluviométrie est l'évaluation quantitative des précipitations, de leur nature (pluie, neige, grésil, brouillard) et distribution.

Nouveau!!: Régression linéaire et Pluviométrie · Voir plus »

Polynôme

Courbe représentative d'une fonction cubique. En mathématiques, un polynôme est une expression formée uniquement de produits et de sommes de constantes et d'indéterminées (aussi appelées variables), habituellement notées X, Y, Z, etc.

Nouveau!!: Régression linéaire et Polynôme · Voir plus »

Poursuite de base

La poursuite de base (de l'anglais basis pursuit), aussi appelée recouvrement par norme \ell_1 ou plus simplement recouvrement \ell_1, est une technique d'optimisation mathématique utilisée initialement en traitement du signal qui revient à résoudre un problème d'optimisation de la forme (P_1)\quad \left\.

Nouveau!!: Régression linéaire et Poursuite de base · Voir plus »

Princeton University Press

La Princeton University Press est une maison d'édition indépendant liée de près à l'université de Princeton.

Nouveau!!: Régression linéaire et Princeton University Press · Voir plus »

Projection gnomonique

En géométrie et en cartographie, une projection gnomonique est une projection cartographique azimutale transformant les grands cercles en lignes droites; le trajet le plus court entre deux points de la sphère correspond donc à celui sur la carte.

Nouveau!!: Régression linéaire et Projection gnomonique · Voir plus »

Qualité de l'ajustement

La qualité de l'ajustement d'un modèle statistique désigne le degré d'ajustement du modèle aux données observées.

Nouveau!!: Régression linéaire et Qualité de l'ajustement · Voir plus »

Quartet d'Anscombe

Le quartet d'Anscombe est constitué de quatre ensembles de données qui ont les mêmes propriétés statistiques simples mais qui sont en réalité très différents, ce qui se voit facilement lorsqu'on les représente sous forme de graphiques.

Nouveau!!: Régression linéaire et Quartet d'Anscombe · Voir plus »

R (langage)

R est un langage de programmation et un logiciel libre destiné aux statistiques et à la science des données soutenu par la R Foundation for Statistical Computing.

Nouveau!!: Régression linéaire et R (langage) · Voir plus »

Rang (algèbre linéaire)

En algèbre linéaire.

Nouveau!!: Régression linéaire et Rang (algèbre linéaire) · Voir plus »

Régression (statistiques)

En mathématiques, la régression recouvre plusieurs méthodes d’analyse statistique permettant d’approcher une variable à partir d’autres qui lui sont corrélées.

Nouveau!!: Régression linéaire et Régression (statistiques) · Voir plus »

Régression de Poisson

En statistique, la régression de Poisson est un modèle linéaire généralisé utilisé pour les données de comptage et les tableaux de contingence.

Nouveau!!: Régression linéaire et Régression de Poisson · Voir plus »

Régression des moindres carrés partiels

La régression des moindres carrés partiels a été inventée en 1983 par Svante Wold et son père Herman Wold; on utilise fréquemment l'abréviation anglaise régression PLS (et/ou). La régression PLS maximise la variance des prédicteurs (Xi).

Nouveau!!: Régression linéaire et Régression des moindres carrés partiels · Voir plus »

Régression linéaire multiple

En statistique, la régression linéaire multiple est une méthode de régression mathématique étendant la régression linéaire simple pour décrire les variations d'une variable endogène associée aux variations de plusieurs variables exogènes.

Nouveau!!: Régression linéaire et Régression linéaire multiple · Voir plus »

Régression logistique

En statistiques, la régression logistique ou modèle logit est un modèle de régression binomiale.

Nouveau!!: Régression linéaire et Régression logistique · Voir plus »

Régression non linéaire

Une régression non linéaire consiste à ajuster un modèle, en général non linéaire, pour un ensemble de valeurs (xi, yi)1 ≤ i ≤ n. Les variables xi et yi peuvent être des scalaires ou des vecteurs.

Nouveau!!: Régression linéaire et Régression non linéaire · Voir plus »

Régression polynomiale

Régression sur un nuage de points par un polynôme de degré croissant. La régression polynomiale est une analyse statistique qui décrit la variation d'une variable aléatoire expliquée à partir d'une fonction polynomiale d'une variable aléatoire explicative.

Nouveau!!: Régression linéaire et Régression polynomiale · Voir plus »

Régression quantile

Les régressions quantiles sont des outils statistiques dont l’objet est de décrire l’impact de variables explicatives sur une variable d’intérêt.

Nouveau!!: Régression linéaire et Régression quantile · Voir plus »

Régression sur composantes principales

En statistiques, la régression sur composantes principales est une analyse en régression sur les composantes d'une analyse en composantes principales.

Nouveau!!: Régression linéaire et Régression sur composantes principales · Voir plus »

Résistance (électricité)

En électricité, le terme résistance désigne.

Nouveau!!: Régression linéaire et Résistance (électricité) · Voir plus »

Robert Tibshirani

Robert Tibshirani est un statisticien canado-américain né le.

Nouveau!!: Régression linéaire et Robert Tibshirani · Voir plus »

Roger Joseph Boscovich

Roger Joseph BoscovichIl écrivait « Boscovich ».

Nouveau!!: Régression linéaire et Roger Joseph Boscovich · Voir plus »

Roger Koenker

Roger William Koenker est un économètre américain né le.

Nouveau!!: Régression linéaire et Roger Koenker · Voir plus »

Russie

La Russie (en Россия, Rossiïa), en forme longue la fédération de Russie (en Российская Федерация, Rossiïskaïa Federatsiïa), est un État fédéral transcontinental, le plus vaste État de la planète, à cheval sur l'Asie du Nord (80 % de sa superficie) et sur l'Europe (20 %).

Nouveau!!: Régression linéaire et Russie · Voir plus »

Série statistique à deux variables

Il arrive fréquemment que l'on observe conjointement deux caractères statistiques pour déterminer s'il existe une corrélation entre les deux (âge et taille des enfants entre 0 et 20 ans, prix du m² et année, allongement du ressort et force appliquée, etc.).

Nouveau!!: Régression linéaire et Série statistique à deux variables · Voir plus »

Série temporelle

Exemple de visualisation de données montrant une tendances à moyen et long terme au réchauffement, à partir des séries temporelles de températures par pays (ici regroupés par continents, du nord au sud) pour les années 1901 à 2018. Une série temporelle, ou série chronologique, est une suite de valeurs numériques représentant l'évolution d'une quantité spécifique au cours du temps.

Nouveau!!: Régression linéaire et Série temporelle · Voir plus »

Sciences de l'éducation

Les sciences de l’éducation concernent l’étude de différents aspects de l’éducation, et font appel à diverses disciplines: histoire de l'éducation, sociologie de l'éducation, didactique des disciplines, psychologie des apprentissages, pédagogie, ou encore philosophie.

Nouveau!!: Régression linéaire et Sciences de l'éducation · Voir plus »

Springer Science+Business Media

Springer Science+Business Media ou Springer (anc. Springer Verlag) est un groupe éditorial et de presse spécialisée d'origine allemande.

Nouveau!!: Régression linéaire et Springer Science+Business Media · Voir plus »

Statistique

La statistique est la discipline qui étudie des phénomènes à travers la collecte de données, leur traitement, leur analyse, l'interprétation des résultats et leur présentation afin de rendre ces données compréhensibles par tous.

Nouveau!!: Régression linéaire et Statistique · Voir plus »

Statistique bayésienne

La statistique bayésienne est une approche statistique fondée sur l'inférence bayésienne, où la probabilité exprime un degré de croyance en un événement.

Nouveau!!: Régression linéaire et Statistique bayésienne · Voir plus »

Statistique de test

En statistique, une statistique de test - aussi appelée variable de décision - est une variable aléatoire construite à partir d'un échantillon statistique permettant de formuler une règle de décision pour un test statistique.

Nouveau!!: Régression linéaire et Statistique de test · Voir plus »

Steven Levitt

Steven Levitt, né Steven David Levitt le à La Nouvelle-Orléans, est un économiste américain, professeur à l'Université de Chicago.

Nouveau!!: Régression linéaire et Steven Levitt · Voir plus »

Test de Breusch-Pagan

En statistiques, le test de Breusch-Pagan permet de tester l'hypothèse d'homoscédasticité du terme d'erreur d'un modèle de régression linéaire.

Nouveau!!: Régression linéaire et Test de Breusch-Pagan · Voir plus »

Test de Chow

Le test de Chow est un test statistique et économétrique afin de déterminer si les coefficients de deux séries linéaires sont égaux.

Nouveau!!: Régression linéaire et Test de Chow · Voir plus »

Test de Durbin-Watson

Le test de Durbin-Watson est un test statistique destiné à tester l'autocorrélation des résidus dans un modèle de régression linéaire.

Nouveau!!: Régression linéaire et Test de Durbin-Watson · Voir plus »

Test de Fisher d'égalité de deux variances

En statistique, le test F d'égalité de deux variances, est un test d'hypothèse qui permet de tester l'hypothèse nulle que deux lois normales ont la même variance.

Nouveau!!: Régression linéaire et Test de Fisher d'égalité de deux variances · Voir plus »

Test de Student

En statistique, un test de Student, ou test t, désigne n'importe quel test statistique paramétrique où la statistique de test calculée suit une loi de Student lorsque l’hypothèse nulle est vraie.

Nouveau!!: Régression linéaire et Test de Student · Voir plus »

Théorème de Frisch-Waugh

Le théorème de Frisch-Waugh ou théorème de Frisch-Waugh-Lovell est un théorème en économétrie nommé en référence à Ragnar Frisch, Frederick V. Waugh et Michael C. Lovell.

Nouveau!!: Régression linéaire et Théorème de Frisch-Waugh · Voir plus »

Théorème de Gauss-Markov

En statistiques, le théorème de Gauss–Markov, nommé ainsi d'après Carl Friedrich Gauss et Andrei Markov, énonce que dans un modèle linéaire dans lequel les erreurs ont une espérance nulle, sont non corrélées et dont les variances sont égales, le meilleur estimateur linéaire non biaisé des coefficients est l'estimateur des moindres carrés.

Nouveau!!: Régression linéaire et Théorème de Gauss-Markov · Voir plus »

Théorie de la cinétique d'oxydation de Wagner

La théorie de la cinétique d'oxydation de Wagner est une théorie physique destinée à modéliser la vitesse de croissance d'une couche d'oxyde sur un métal lorsque celle-ci est compacte et adhérente, dans le cadre de la corrosion sèche.

Nouveau!!: Régression linéaire et Théorie de la cinétique d'oxydation de Wagner · Voir plus »

Variable aléatoire à densité

En théorie des probabilités, une variable aléatoire à densité est une variable aléatoire réelle, scalaire ou vectorielle, pour laquelle la probabilité d'appartenance à un domaine se calcule à l'aide d'une intégrale sur ce domaine.

Nouveau!!: Régression linéaire et Variable aléatoire à densité · Voir plus »

Variable aléatoire réelle

Une variable aléatoire réelle est une variable aléatoire à valeurs dans \textstyle\R, ou une partie de \textstyle\R; c'est une fonction définie depuis l'ensemble des résultats possibles d'une expérience aléatoire, dont on doit pouvoir déterminer la probabilité qu'elle prenne une valeur donnée ou un ensemble donné de valeurs.

Nouveau!!: Régression linéaire et Variable aléatoire réelle · Voir plus »

Vecteur ligne

En algèbre linéaire, un vecteur ligne (ou une matrice ligne) est une matrice possédant une ligne et p colonnes.

Nouveau!!: Régression linéaire et Vecteur ligne · Voir plus »

Redirections ici:

Corrélation linéaire, Descente linéaire, Regression lineaire.

SortantEntrants
Hey! Nous sommes sur Facebook maintenant! »