Logo
Unionpédia
Communication
Disponible sur Google Play
Nouveau! Téléchargez Unionpédia sur votre appareil Android™!
Télécharger
Accès plus rapide que le navigateur!
 

Méthode de Monte-Carlo par chaînes de Markov

Indice Méthode de Monte-Carlo par chaînes de Markov

Les méthodes de Monte-Carlo par chaînes de Markov, ou méthodes MCMC pour Markov chain Monte Carlo en anglais, sont une classe de méthodes d'échantillonnage à partir de distributions de probabilité.

33 relations: Algorithme de Metropolis-Hastings, Algorithme de Metropolis-Hastings à sauts réversibles, Anglais, Apprentissage automatique, Échantillon (statistiques), Échantillonnage de Gibbs, Échantillonnage préférentiel, Biologie de systèmes, Chaîne de Markov, Cycle cellulaire, Dérivée seconde, Dynamique moléculaire, Générateur de nombres aléatoires, Inférence bayésienne, Loi de probabilité, Marche aléatoire, Maximum de vraisemblance, Méthode de la transformée inverse, Méthode de Monte-Carlo, Méthode de rejet, Méthode de surrelaxation successive, Modèle de Markov caché, Monte Carlo Hamiltonien, Nombre d'Avogadro, Paul Langevin, Physique statistique, Probabilité stationnaire d'une chaîne de Markov, Processus ergodique, Réseau bayésien, Réseau bayésien dynamique, Série temporelle, Springer Science+Business Media, Théorie des probabilités.

Algorithme de Metropolis-Hastings

En statistique, l'algorithme de Metropolis-Hastings est une méthode MCMC dont le but est d'obtenir un échantillonnage aléatoire d'une distribution de probabilité quand l'échantillonnage direct en est difficile.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Algorithme de Metropolis-Hastings · Voir plus »

Algorithme de Metropolis-Hastings à sauts réversibles

L'algorithme de Metropolis-Hastings à sauts réversibles ou méthode de Monte-Carlo par chaînes de Markov à sauts réversibles (RJMCMC) est un algorithme d'échantillonage dérivé de la Méthode de Monte-Carlo par chaînes de Markov et considérée comme une extension de l'algorithme de Metropolis-Hastings.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Algorithme de Metropolis-Hastings à sauts réversibles · Voir plus »

Anglais

vignette Langlais (prononcé) est une langue indo-européenne germanique originaire d'Angleterre qui tire ses racines de langues du nord de l'Europe (terre d'origine des Angles, des Saxons et des Frisons) dont le vocabulaire a été enrichi et la syntaxe et la grammaire modifiées par le français anglo-normandLe français anglo-normand est la forme insulaire du normand., apporté par les Normands, puis par le français avec les Plantagenêt. La langue anglaise est ainsi composée d'environ 29 % de mots d'origine normande et française et plus des deux tiers de son vocabulaire proviennent du français ou du latin. L'anglais est également très influencé par les langues romanes, en particulier par l'utilisation de l'alphabet latin ainsi que les chiffres arabes. Langue officielle de facto du Royaume-Uni, de l'Irlande et d'autres îles de l'archipel britannique (Île de Man, îles anglo-normandes), l'anglais est la langue maternelle de tout ou partie de la population, et suivant les cas, la langue ou une des langues officielles de plusieurs pays, totalement ou partiellement issus des anciennes colonies britanniques de peuplement, dont les États-Unis, le Canada, l'Australie et la Nouvelle-Zélande, que l'on réunit sous l'appellation de « monde anglo-saxon », bien qu'il n'existe pas de définition universelle de cette expression. Il est également langue officielle ou langue d'échange dans de très nombreux pays issus de l'ancien Empire britannique, même en l'absence de population d'origine anglo-saxonne significative (Cameroun, Kenya, Nigeria, Hong Kong, Inde, Pakistan, Singapour, etc.). Beaucoup de pays dont l'anglais est la langue officielle sont réunis au sein du Commonwealth (bien que pour certains, il ne soit pas l'unique langue officielle). C'est également l'une des vingt-quatre langues officielles de l'Union européenne et l'une des six langues officielles et des deux langues de travail — avec le français — de l'Organisation des Nations unies (ONU). L'anglais est la langue la plus parlée au monde; en tant que langue maternelle, il se classe troisième, après le chinois (mandarin) et l'espagnol. Considérée par beaucoup comme étant la langue internationale prédominante, elle est la langue la plus souvent enseignée en tant que langue étrangère à travers le monde. Elle est également la langue la plus utilisée sur Internet.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Anglais · Voir plus »

Apprentissage automatique

L'apprentissage automatique.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Apprentissage automatique · Voir plus »

Échantillon (statistiques)

Une représentation visuelle de la sélection d'un échantillon aléatoire simple. En statistique, un échantillon est un ensemble d'individus représentatifs d'une population.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Échantillon (statistiques) · Voir plus »

Échantillonnage de Gibbs

L' est une méthode MCMC.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Échantillonnage de Gibbs · Voir plus »

Échantillonnage préférentiel

L'échantillonnage préférentiel, en anglais importance sampling, est une méthode de réduction de la variance qui peut être utilisée dans la méthode de Monte-Carlo.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Échantillonnage préférentiel · Voir plus »

Biologie de systèmes

La biologie de systèmes est l'étude des interactions et du comportement des composants des entités biologiques, y compris les molécules, les cellules, les organes et les organismes.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Biologie de systèmes · Voir plus »

Chaîne de Markov

Exemple élémentaire de chaîne de Markov, à deux états ''A'' et ''E''. Les flèches indiquent les probabilités de transition d'un état à un autre. En mathématiques, une chaîne de Markov est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Chaîne de Markov · Voir plus »

Cycle cellulaire

eucaryote (car présence de la mitose) Le cycle cellulaire est l'ensemble des étapes qui constituent et délimitent la vie d'une cellule.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Cycle cellulaire · Voir plus »

Dérivée seconde

La dérivée seconde est la dérivée de la dérivée d'une fonction, lorsqu'elle est définie.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Dérivée seconde · Voir plus »

Dynamique moléculaire

La dynamique moléculaire est une technique de simulation numérique permettant de modéliser l'évolution d'un système de particules au cours du temps.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Dynamique moléculaire · Voir plus »

Générateur de nombres aléatoires

Un générateur de nombres aléatoires, random number generator (RNG) en anglais, est un dispositif capable de produire une suite de nombres pour lesquels il n'existe aucun lien calculable entre un nombre et ses prédécesseurs, de façon que cette séquence puisse être appelée « suite de nombres aléatoires ».

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Générateur de nombres aléatoires · Voir plus »

Inférence bayésienne

Illustration comparant les approches fréquentiste et bayésienne (Christophe Michel, 2018). L’inférence bayésienne est une méthode d'inférence statistique par laquelle on calcule les probabilités de diverses causes hypothétiques à partir de l'observation d'événements connus.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Inférence bayésienne · Voir plus »

Loi de probabilité

400px En théorie des probabilités et en statistique, une loi de probabilité décrit le comportement aléatoire d'un phénomène dépendant du hasard.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Loi de probabilité · Voir plus »

Marche aléatoire

En mathématiques, en économie et en physique théorique, une marche aléatoire est un modèle mathématique d'un système possédant une dynamique discrète composée d'une succession de pas aléatoires, ou effectués « au hasard ».

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Marche aléatoire · Voir plus »

Maximum de vraisemblance

En statistique, l'estimateur du maximum de vraisemblance est un estimateur statistique utilisé pour inférer les paramètres de la loi de probabilité d'un échantillon donné en recherchant les valeurs des paramètres maximisant la fonction de vraisemblance.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Maximum de vraisemblance · Voir plus »

Méthode de la transformée inverse

La méthode de la transformée inverse est une méthode permettant d'échantillonner une variable aléatoire de loi donnée à partir de l'expression de sa fonction de répartition et d'une variable uniforme sur.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Méthode de la transformée inverse · Voir plus »

Méthode de Monte-Carlo

Une méthode de Monte-Carlo, ou méthode Monte-Carlo, est une méthode algorithmique visant à calculer une valeur numérique approchée en utilisant des procédés aléatoires, c'est-à-dire des techniques probabilistes.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Méthode de Monte-Carlo · Voir plus »

Méthode de rejet

La méthode du rejet est une méthode utilisée dans le domaine des probabilités.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Méthode de rejet · Voir plus »

Méthode de surrelaxation successive

En analyse numérique, la méthode de surrelaxation successive (en anglais: Successive Overrelaxation Method, abrégée en SOR) est une variante de la méthode de Gauss-Seidel pour résoudre un système d'équations linéaires.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Méthode de surrelaxation successive · Voir plus »

Modèle de Markov caché

Un modèle de Markov caché (MMC, terme et définition normalisés par l’ISO/CÉI) — (HMM)—, ou plus correctement (mais non employé) automate de Markov à états cachés, est un modèle statistique dans lequel le système modélisé est supposé être un processus markovien de paramètres inconnus.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Modèle de Markov caché · Voir plus »

Monte Carlo Hamiltonien

En physique computationnelle et en statistiques, l' algorithme de Monte Carlo hamiltonien (également connu sous le nom de Monte Carlo hybride), est une méthode de Monte Carlo par chaîne de Markov dont l'objectif est d'obtenir une séquence d'échantillons aléatoires qui convergent selon une distribution de probabilité cible, typiquement difficile à échantillonner directement.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Monte Carlo Hamiltonien · Voir plus »

Nombre d'Avogadro

Portrait d'Amedeo Avogadro. Le nombre d'Avogadro (ou constante d'AvogadroUn nombre est sans dimension, alors qu'une constante peut en avoir une, ce qui est le cas du « nombre d'Avogadro » dans le cadre du Système international d'unités (il s'exprime en): le terme « constante d'Avogadro » est moins usité, mais aujourd'hui plus correct.) est, en physique et en chimie, le nombre d’entités (atomes, molécules, ions ou particules en général) qui se trouvent dans une mole de matière.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Nombre d'Avogadro · Voir plus »

Paul Langevin

Paul Langevin, né le à et mort le à, est un physicien, philosophe des sciences, pédagogue et homme politique français.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Paul Langevin · Voir plus »

Physique statistique

La physique statistique a pour but d'expliquer le comportement et l'évolution de systèmes physiques comportant un grand nombre de particules (on parle de systèmes macroscopiques), à partir des caractéristiques de leurs constituants microscopiques (les particules).

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Physique statistique · Voir plus »

Probabilité stationnaire d'une chaîne de Markov

La probabilité stationnaire \pi.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Probabilité stationnaire d'une chaîne de Markov · Voir plus »

Processus ergodique

Un est un processus stochastique pour lequel les statistiques peuvent être approchées par l'étude d'une seule réalisation suffisamment longue.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Processus ergodique · Voir plus »

Réseau bayésien

En informatique et en statistique, un réseau bayésien est un modèle graphique probabiliste représentant un ensemble de variables aléatoires sous la forme d'un graphe orienté acyclique.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Réseau bayésien · Voir plus »

Réseau bayésien dynamique

Réseau bayésien dynamique de 3 variables. Un réseau bayésien dynamique ou temporel (souvent noté RBD, ou DBN pour Dynamic Bayesian Network) est un modèle statistique et stochastique qui étend la notion de réseau bayésien.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Réseau bayésien dynamique · Voir plus »

Série temporelle

Exemple de visualisation de données montrant une tendances à moyen et long terme au réchauffement, à partir des séries temporelles de températures par pays (ici regroupés par continents, du nord au sud) pour les années 1901 à 2018. Une série temporelle, ou série chronologique, est une suite de valeurs numériques représentant l'évolution d'une quantité spécifique au cours du temps.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Série temporelle · Voir plus »

Springer Science+Business Media

Springer Science+Business Media ou Springer (anc. Springer Verlag) est un groupe éditorial et de presse spécialisée d'origine allemande.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Springer Science+Business Media · Voir plus »

Théorie des probabilités

La théorie des probabilités en mathématiques est l'étude des phénomènes caractérisés par le hasard et l'incertitude.

Nouveau!!: Méthode de Monte-Carlo par chaînes de Markov et Théorie des probabilités · Voir plus »

Redirections ici:

MCMC, Markov chain Monte Carlo, Monte Carlo par Chaînes de Markov, Monte carlo markov chain, Méthode MCMC.

SortantEntrants
Hey! Nous sommes sur Facebook maintenant! »