Logo
Unionpédia
Communication
Disponible sur Google Play
Nouveau! Téléchargez Unionpédia sur votre appareil Android™!
Gratuit
Accès plus rapide que le navigateur!
 

Chaîne de Markov

Indice Chaîne de Markov

Exemple élémentaire de chaîne de Markov, à deux états ''A'' et ''E''. Les flèches indiquent les probabilités de transition d'un état à un autre. En mathématiques, une chaîne de Markov est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret.

86 relations: Akiva Yaglom, Algorithme de Viterbi, Alignement de séquences, American Mathematical Society, Andreï Kolmogorov, Andreï Markov (mathématicien), Anglais, Équation maîtresse, Bio-informatique, Bruit rose, Claude Shannon, Codage arithmétique, Codage entropique, Codon, Compression de données, Couverture de Markov, Disponibilité, Distribution quasi-stationnaire, Entropie de Shannon, Eukaryota, Fiabilité, Fonction caractéristique (théorie des ensembles), Fonction propre, Formule des probabilités totales, Gène, Génome, Google, Graphe d'une chaîne de Markov et classification des états, Hermann (maison d'édition), Histogramme, Hypothèse ergodique, Images des mathématiques, Intelligence artificielle, Loi forte des grands nombres, Marche aléatoire, Mark Kac, Martingale, Mathématiques, Matrice (mathématiques), Matrice d'adjacence, Matrice stochastique, Méthode de Monte-Carlo, Méthode de Monte-Carlo par chaînes de Markov, Modèle de Markov caché, Modèle des urnes d'Ehrenfest, Mouvement brownien, Nombre harmonique, Nucléotide, Optimisation combinatoire, Page web, ..., PageRank, Paul Ehrenfest, Physique, Physique statistique, Point fixe, Presque sûrement, Probabilité conditionnelle, Problème du collectionneur de vignettes, Processus de Bernoulli, Processus de décision markovien, Processus de décision markovien partiellement observable, Processus de Markov, Processus de Markov à temps continu, Processus stochastique, Propriété de Markov, Protéine, Reconnaissance de formes, Relation d'équivalence, Relation d'ordre, Sûreté de fonctionnement, Statistique, Système dynamique mesuré, Systèmes techniques, Tatiana Afanassieva, Temps d'arrêt, Théorème de Perron-Frobenius, Théorie de l'information, Théorie des files d'attente, Théorie ergodique, Université Nice-Sophia-Antipolis, Valeur propre (synthèse), Variable aléatoire, WIMS, 1906, 1936, 1948. Développer l'indice (36 plus) »

Akiva Yaglom

Akiva Moiseïevitch Yaglom (Акива Моисеевич Яглом), né le à Kharkiv (Ukraine) et mort le à Boston (États-Unis), était un physicien, mathématicien, statisticien et météorologiste soviétique.

Nouveau!!: Chaîne de Markov et Akiva Yaglom · Voir plus »

Algorithme de Viterbi

L'algorithme de Viterbi, d'Andrew Viterbi, permet de corriger, dans une certaine mesure, les erreurs survenues lors d'une transmission à travers un canal bruité.

Nouveau!!: Chaîne de Markov et Algorithme de Viterbi · Voir plus »

Alignement de séquences

En bio-informatique, l'alignement de séquences (ou alignement séquentiel) est une manière de représenter deux ou plusieurs séquences de macromolécules biologiques (ADN, ARN ou protéines) les unes sous les autres, de manière à en faire ressortir les régions homologues ou similaires.

Nouveau!!: Chaîne de Markov et Alignement de séquences · Voir plus »

American Mathematical Society

L' est une association professionnelle américaine de mathématiciens professionnels, dédiée aux intérêts de la recherche et de l’enseignement des mathématiques, ce qu’elle fait sous forme de différentes publications et conférences, et de prix décernés à des mathématiciens.

Nouveau!!: Chaîne de Markov et American Mathematical Society · Voir plus »

Andreï Kolmogorov

Andreï Nikolaïevitch Kolmogorov (à Tambov – à Moscou) est un mathématicien russe et soviétique qui a apporté des contributions significatives en mathématiques, notamment en théorie des probabilités, topologie, turbulence, mécanique classique, logique intuitionniste, théorie algorithmique de l'information et en analyse de la complexité des algorithmes.

Nouveau!!: Chaîne de Markov et Andreï Kolmogorov · Voir plus »

Andreï Markov (mathématicien)

Andreï Andreïevitch Markov (en Андрей Андреевич Марков) (1856-1922) est un mathématicien russe.

Nouveau!!: Chaîne de Markov et Andreï Markov (mathématicien) · Voir plus »

Anglais

vignette Langlais (prononcé) est une langue indo-européenne germanique originaire d'Angleterre qui tire ses racines de langues du nord de l'Europe (terre d'origine des Angles, des Saxons et des Frisons) dont le vocabulaire a été enrichi et la syntaxe et la grammaire modifiées par le français anglo-normandLe français anglo-normand est la forme insulaire du normand., apporté par les Normands, puis par le français avec les Plantagenêt. La langue anglaise est ainsi composée d'environ 29 % de mots d'origine normande et française et plus des deux tiers de son vocabulaire proviennent du français ou du latin. L'anglais est également très influencé par les langues romanes, en particulier par l'utilisation de l'alphabet latin ainsi que les chiffres arabes. Langue officielle de facto du Royaume-Uni, de l'Irlande et d'autres îles de l'archipel britannique (Île de Man, îles anglo-normandes), l'anglais est la langue maternelle de tout ou partie de la population, et suivant les cas, la langue ou une des langues officielles de plusieurs pays, totalement ou partiellement issus des anciennes colonies britanniques de peuplement, dont les États-Unis, le Canada, l'Australie et la Nouvelle-Zélande, que l'on réunit sous l'appellation de « monde anglo-saxon », bien qu'il n'existe pas de définition universelle de cette expression. Il est également langue officielle ou langue d'échange dans de très nombreux pays issus de l'ancien Empire britannique, même en l'absence de population d'origine anglo-saxonne significative (Cameroun, Kenya, Nigeria, Hong Kong, Inde, Pakistan, Singapour, etc.). Beaucoup de pays dont l'anglais est la langue officielle sont réunis au sein du Commonwealth (bien que pour certains, il ne soit pas l'unique langue officielle). C'est également l'une des vingt-quatre langues officielles de l'Union européenne et l'une des six langues officielles et des deux langues de travail — avec le français — de l'Organisation des Nations unies (ONU). L'anglais est la langue la plus parlée au monde; en tant que langue maternelle, il se classe troisième, après le chinois (mandarin) et l'espagnol. Considérée par beaucoup comme étant la langue internationale prédominante, elle est la langue la plus souvent enseignée en tant que langue étrangère à travers le monde. Elle est également la langue la plus utilisée sur Internet.

Nouveau!!: Chaîne de Markov et Anglais · Voir plus »

Équation maîtresse

En physique, une équation maîtresse est une équation différentielle décrivant l'évolution temporelle d'un système.

Nouveau!!: Chaîne de Markov et Équation maîtresse · Voir plus »

Bio-informatique

La bioinformatique (ou bio-informatique), est un champ de recherche multidisciplinaire de la biotechnologie où travaillent de concert biologistes, médecins, informaticiens, mathématiciens, physiciens et bioinformaticiens, dans le but de résoudre un problème scientifique posé par la biologie.

Nouveau!!: Chaîne de Markov et Bio-informatique · Voir plus »

Bruit rose

Le bruit rose est un signal aléatoire dont la densité spectrale est constante par bande d'octave.

Nouveau!!: Chaîne de Markov et Bruit rose · Voir plus »

Claude Shannon

Claude Elwood Shannon (né le à Petoskey (Michigan) et mort le à Medford (Massachusetts)) est un ingénieur en génie électrique et mathématicien américain.

Nouveau!!: Chaîne de Markov et Claude Shannon · Voir plus »

Codage arithmétique

Le codage arithmétique est un codage entropique utilisé en compression de données sans perte.

Nouveau!!: Chaîne de Markov et Codage arithmétique · Voir plus »

Codage entropique

Le codage entropique (ou codage statistique à longueur variable) est une méthode de codage de source sans pertes, dont le but est de transformer la représentation d'une source de données pour sa compression ou sa transmission sur un canal de communication.

Nouveau!!: Chaîne de Markov et Codage entropique · Voir plus »

Codon

Un codon est une séquence de trois nucléotides sur un acide ribonucléique messager (ARNm) spécifiant l'un des vingt-deux acides aminés protéinogènes dont la succession sur l'ARN messager détermine la structure primaire de la protéine à synthétiser.

Nouveau!!: Chaîne de Markov et Codon · Voir plus »

Compression de données

La compression de données ou codage de source est l'opération informatique consistant à transformer une suite de bits A en une suite de bits B plus courte pouvant restituer les mêmes informations, ou des informations voisines, en utilisant un algorithme de décompression.

Nouveau!!: Chaîne de Markov et Compression de données · Voir plus »

Couverture de Markov

En apprentissage automatique, la couverture de Markov pour un nœud A d'un réseau bayésien est l'ensemble des nœuds \partial A composés des parents de A, de ses enfants et des parents de ses enfants.

Nouveau!!: Chaîne de Markov et Couverture de Markov · Voir plus »

Disponibilité

La disponibilité est le rapport entre la durée de fonctionnement et la durée disponible pour le fonctionnement. Dans le domaine de l'ingénierie de fiabilité, la disponibilité d'un équipement ou d'un système est une mesure de performance obtenue en divisant la durée pendant laquelle ledit équipement ou système est opérationnel par la durée totale pendant laquelle on aurait souhaité qu'il le soit.

Nouveau!!: Chaîne de Markov et Disponibilité · Voir plus »

Distribution quasi-stationnaire

Une distribution quasi-stationnaire est une distribution mathématique qui décrit le comportement d'une chaîne de Markov absorbante avant que l'absorption n'ait lieu.

Nouveau!!: Chaîne de Markov et Distribution quasi-stationnaire · Voir plus »

Entropie de Shannon

En théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou fournie par une source d'information.

Nouveau!!: Chaîne de Markov et Entropie de Shannon · Voir plus »

Eukaryota

Les eucaryotes (Eukaryota) sont un domaine regroupant tous les organismes, unicellulaires ou multicellulaires, qui se caractérisent par la présence d'un noyau et généralement d'organites spécialisés dans la respiration, en particulier mitochondries chez les aérobies mais aussi hydrogénosomes chez certains anaérobies.

Nouveau!!: Chaîne de Markov et Eukaryota · Voir plus »

Fiabilité

La fiabilité est l'étude des défaillances des systèmes — essentiellement des produits manufacturés (mécanique, électronique, génie civil…) —, et en particulier d'un point de vue statistique.

Nouveau!!: Chaîne de Markov et Fiabilité · Voir plus »

Fonction caractéristique (théorie des ensembles)

En mathématiques, une fonction caractéristique, ou fonction indicatrice, est une fonction définie sur un ensemble E qui explicite l’appartenance ou non à un sous-ensemble F de E de tout élément de E. Formellement, la fonction caractéristique d’un sous-ensemble F d’un ensemble E est une fonction: \begin \chi_F: E & \longrightarrow & \ \\ x & \longmapsto & \left\.

Nouveau!!: Chaîne de Markov et Fonction caractéristique (théorie des ensembles) · Voir plus »

Fonction propre

En théorie spectrale, une fonction propre f d'un opérateur linéaire \mathcal A sur un espace fonctionnel est un vecteur propre de l'opérateur linéaire.

Nouveau!!: Chaîne de Markov et Fonction propre · Voir plus »

Formule des probabilités totales

événement B s'obtient en sommant les probabilités des chemins conduisant à la réalisation de B. En théorie des probabilités, la formule des probabilités totales est un théorème qui permet de calculer la probabilité d'un événement en le décomposant suivant un système exhaustif d'événements.

Nouveau!!: Chaîne de Markov et Formule des probabilités totales · Voir plus »

Gène

Un gène, du grec ancien (« génération, naissance, origine »), est, en biologie, une séquence discrète et héritable de nucléotides dont l'expression affecte les caractères d'un organisme.

Nouveau!!: Chaîne de Markov et Gène · Voir plus »

Génome

Le génome (//), ou plus rarement génôme, est l'ensemble du matériel génétique d'une espèce codé dans son acide désoxyribonucléique (ADN), à l'exception de certains virus dont le génome est constitué d'acide ribonucléique (ARN).

Nouveau!!: Chaîne de Markov et Génome · Voir plus »

Google

Google LLC Prononciation en anglais américain retranscrite selon la norme API.

Nouveau!!: Chaîne de Markov et Google · Voir plus »

Graphe d'une chaîne de Markov et classification des états

Le graphe d'une chaîne de Markov et la classification des états sont des notions de la théorie des graphes utilisées en calcul des probabilités.

Nouveau!!: Chaîne de Markov et Graphe d'une chaîne de Markov et classification des états · Voir plus »

Hermann (maison d'édition)

Hermann Édition Sciences et Arts est une maison d'édition fondée en 1876, spécialisée dans la publication d'ouvrages traitant des sciences et des arts.

Nouveau!!: Chaîne de Markov et Hermann (maison d'édition) · Voir plus »

Histogramme

Exemple d'histogramme. Échantillon de 100 valeurs générées pour une distribution normale N(0,1). En statistique, un histogramme est une représentation graphique permettant de représenter la répartition empirique d'une variable aléatoire ou d'une série statistique en la représentant avec des colonnes correspondant chacune à une classe et dont l'aire est proportionnelle à l'effectif de la classe.

Nouveau!!: Chaîne de Markov et Histogramme · Voir plus »

Hypothèse ergodique

L'hypothèse ergodique, ou hypothèse d'ergodicité, est une hypothèse fondamentale de la physique statistique.

Nouveau!!: Chaîne de Markov et Hypothèse ergodique · Voir plus »

Images des mathématiques

Images des mathématiques (ou Images des maths) est un site web français édité par le CNRS et consacré à la vulgarisation en mathématiques.

Nouveau!!: Chaîne de Markov et Images des mathématiques · Voir plus »

Intelligence artificielle

assistants personnels intelligents sont l'une des applications concrètes de l'intelligence artificielle dans les années 2010. L'intelligence artificielle (IA) est un ensemble de théories et de techniques visant à réaliser des machines capables de simuler l'intelligence humaine.

Nouveau!!: Chaîne de Markov et Intelligence artificielle · Voir plus »

Loi forte des grands nombres

Une loi forte des grands nombres est une loi mathématique selon laquelle la moyenne des n premiers termes d'une suite de variables aléatoires converge presque sûrement vers une constante (non aléatoire), lorsque n tend vers l'infini.

Nouveau!!: Chaîne de Markov et Loi forte des grands nombres · Voir plus »

Marche aléatoire

En mathématiques, en économie et en physique théorique, une marche aléatoire est un modèle mathématique d'un système possédant une dynamique discrète composée d'une succession de pas aléatoires, ou effectués « au hasard ».

Nouveau!!: Chaîne de Markov et Marche aléatoire · Voir plus »

Mark Kac

Mark Kac ou parfois Marek Kac (prononcé katz), né le à Kremenets (Empire Russe) et mort le à Los Angeles, est un mathématicien américain d'origine polonaise, spécialiste de la théorie des probabilités.

Nouveau!!: Chaîne de Markov et Mark Kac · Voir plus »

Martingale

Une martingale est une stratégie de mises aux jeux de hasard qui tient compte des coups précédents (mises et résultats).

Nouveau!!: Chaîne de Markov et Martingale · Voir plus »

Mathématiques

Les mathématiques (ou la mathématique) sont un ensemble de connaissances abstraites résultant de raisonnements logiques appliqués à des objets divers tels que les ensembles mathématiques, les nombres, les formes, les structures, les transformations; ainsi qu'aux relations et opérations mathématiques qui existent entre ces objets.

Nouveau!!: Chaîne de Markov et Mathématiques · Voir plus »

Matrice (mathématiques)

upright.

Nouveau!!: Chaîne de Markov et Matrice (mathématiques) · Voir plus »

Matrice d'adjacence

En mathématiques, en théorie des graphes, en informatique, une matrice d'adjacence pour un graphe fini à sommets est une matrice de dimension dont l'élément non diagonal est le nombre d'arêtes liant le sommet au sommet.

Nouveau!!: Chaîne de Markov et Matrice d'adjacence · Voir plus »

Matrice stochastique

En mathématiques, une matrice stochastique (aussi appelée matrice de Markov) est une matrice carrée (finie ou infinie) dont chaque élément est un réel positif et dont la somme des éléments de chaque ligne vaut 1.

Nouveau!!: Chaîne de Markov et Matrice stochastique · Voir plus »

Méthode de Monte-Carlo

Une méthode de Monte-Carlo, ou méthode Monte-Carlo, est une méthode algorithmique visant à calculer une valeur numérique approchée en utilisant des procédés aléatoires, c'est-à-dire des techniques probabilistes.

Nouveau!!: Chaîne de Markov et Méthode de Monte-Carlo · Voir plus »

Méthode de Monte-Carlo par chaînes de Markov

Les méthodes de Monte-Carlo par chaînes de Markov, ou méthodes MCMC pour Markov chain Monte Carlo en anglais, sont une classe de méthodes d'échantillonnage à partir de distributions de probabilité.

Nouveau!!: Chaîne de Markov et Méthode de Monte-Carlo par chaînes de Markov · Voir plus »

Modèle de Markov caché

Un modèle de Markov caché (MMC, terme et définition normalisés par l’ISO/CÉI) — (HMM)—, ou plus correctement (mais non employé) automate de Markov à états cachés, est un modèle statistique dans lequel le système modélisé est supposé être un processus markovien de paramètres inconnus.

Nouveau!!: Chaîne de Markov et Modèle de Markov caché · Voir plus »

Modèle des urnes d'Ehrenfest

Le modèle des urnes est un modèle stochastique introduit en 1907 par les époux Ehrenfest pour illustrer certains des « paradoxes » apparus dans les fondements de la mécanique statistique naissante.

Nouveau!!: Chaîne de Markov et Modèle des urnes d'Ehrenfest · Voir plus »

Mouvement brownien

Simulation de mouvement brownien pour cinq particules (jaunes) qui entrent en collision avec un lot de 800 particules. Les cinq chemins bleus représentent leur trajet aléatoire dans le fluide. Le mouvement brownien, ou processus de Wiener, est une description mathématique du mouvement aléatoire d'une « grosse » particule immergée dans un liquide et qui n'est soumise à aucune autre interaction que des chocs avec les « petites » molécules du fluide environnant.

Nouveau!!: Chaîne de Markov et Mouvement brownien · Voir plus »

Nombre harmonique

En mathématiques, le -ième nombre harmonique est la somme des inverses des premiers entiers naturels non nuls: Ce nombre rationnel est aussi égal à fois l'inverse de la moyenne harmonique de ces entiers, ainsi qu'à la -ième somme partielle de la série harmonique.

Nouveau!!: Chaîne de Markov et Nombre harmonique · Voir plus »

Nucléotide

Un nucléotide est une molécule organique qui est composée d'une base nucléique (ou base azotée), d'un ose à cinq atomes de carbone, dit pentose, dont l'association forme un nucléoside, et enfin de un à trois groupes phosphate.

Nouveau!!: Chaîne de Markov et Nucléotide · Voir plus »

Optimisation combinatoire

L’optimisation combinatoire, (sous-ensemble à nombre de solutions finies de l'optimisation discrète), est une branche de l'optimisation en mathématiques appliquées et en informatique, également liée à la recherche opérationnelle, l'algorithmique et la théorie de la complexité.

Nouveau!!: Chaîne de Markov et Optimisation combinatoire · Voir plus »

Page web

Capture d'écran montrant la présente page web en 2020. La page web, ou page Web.

Nouveau!!: Chaîne de Markov et Page web · Voir plus »

PageRank

Illustration du PageRank. Le PageRankAntonomase du nom de marque inventé par Larry Page, cofondateur de Google, composé des mots anglais page (« page ») et rank (« rang »).

Nouveau!!: Chaîne de Markov et PageRank · Voir plus »

Paul Ehrenfest

Paul Ehrenfest, né le à Vienne et mort le à Amsterdam, est un physicien théoricien autrichien.

Nouveau!!: Chaîne de Markov et Paul Ehrenfest · Voir plus »

Physique

La physique est la science qui essaie de comprendre, de modéliser et d'expliquer les phénomènes naturels de l'Univers.

Nouveau!!: Chaîne de Markov et Physique · Voir plus »

Physique statistique

La physique statistique a pour but d'expliquer le comportement et l'évolution de systèmes physiques comportant un grand nombre de particules (on parle de systèmes macroscopiques), à partir des caractéristiques de leurs constituants microscopiques (les particules).

Nouveau!!: Chaîne de Markov et Physique statistique · Voir plus »

Point fixe

En mathématiques, pour une application d'un ensemble dans lui-même, un élément de est un point fixe de si.

Nouveau!!: Chaîne de Markov et Point fixe · Voir plus »

Presque sûrement

Illustration du concept: l'évènement où la fléchette atteint ''exactement'' le point central de la cible est de probabilité 0. Autrement dit, l'évènement où la fléchette n'atteint pas le point central de la cible est presque sûr. En théorie des probabilités, un évènement est dit presque sûr s'il a une probabilité de un.

Nouveau!!: Chaîne de Markov et Presque sûrement · Voir plus »

Probabilité conditionnelle

320x320px En théorie des probabilités, une probabilité conditionnelle est la probabilité d'un événement sachant qu'un autre événement a eu lieu.

Nouveau!!: Chaîne de Markov et Probabilité conditionnelle · Voir plus »

Problème du collectionneur de vignettes

''E''(''T'') de paquets de céréales à acheter pour les posséder toutes (axe horizontal). Le problème du collectionneur de vignettes ou du collectionneur de coupons (CCP) est un problème de probabilités et de combinatoire qui consiste à estimer le nombre de paquets de céréales à acheter pour collectionner une série complète de vignettes, à raison d'une vignette offerte dans chaque paquet.

Nouveau!!: Chaîne de Markov et Problème du collectionneur de vignettes · Voir plus »

Processus de Bernoulli

En probabilités et en statistiques, un processus de Bernoulli est un processus stochastique discret qui consiste en une suite de variables aléatoires indépendantes qui prennent leurs valeurs parmi deux symboles.

Nouveau!!: Chaîne de Markov et Processus de Bernoulli · Voir plus »

Processus de décision markovien

En théorie de la décision et de la théorie des probabilités, un processus de décision markovien (en anglais, MDP) est un modèle stochastique où un agent prend des décisions et où les résultats de ses actions sont aléatoires.

Nouveau!!: Chaîne de Markov et Processus de décision markovien · Voir plus »

Processus de décision markovien partiellement observable

En théorie de la décision et de la théorie des probabilités, un processus de décision markovien partiellement observable (POMDP pour partially observable Markov decision process) est une généralisation d'un processus de décision markoviens (MDP pour Markov decision process).

Nouveau!!: Chaîne de Markov et Processus de décision markovien partiellement observable · Voir plus »

Processus de Markov

En mathématiques, un processus de Markov est un processus stochastique possédant la propriété de Markov.

Nouveau!!: Chaîne de Markov et Processus de Markov · Voir plus »

Processus de Markov à temps continu

En théorie des probabilités, un processus de Markov à temps continu, ou chaîne de Markov à temps continu est une variante à temps continu du processus de Markov.

Nouveau!!: Chaîne de Markov et Processus de Markov à temps continu · Voir plus »

Processus stochastique

Un processus ou processus aléatoire (voir Calcul stochastique) ou fonction aléatoire (voir Probabilité) représente une évolution, discrète ou à temps continu, d'une variable aléatoire.

Nouveau!!: Chaîne de Markov et Processus stochastique · Voir plus »

Propriété de Markov

Exemple de processus stochastique vérifiant la propriété de Markov: un mouvement Brownien (ici représenté en 3D) d'une particule dont la position à un instant t+1 ne dépend que de la position précédente à l'instant t. En probabilité, un processus stochastique vérifie la propriété de Markov si et seulement si la distribution conditionnelle de probabilité des états futurs, étant donnés les états passés et l'état présent, ne dépend en fait que de l'état présent et non pas des états passés (absence de « mémoire »).

Nouveau!!: Chaîne de Markov et Propriété de Markov · Voir plus »

Protéine

groupes prosthétiques caractéristiques de cette protéine. acides aminés. Les protéines sont des macromolécules biologiques présentes dans toutes les cellules vivantes.

Nouveau!!: Chaîne de Markov et Protéine · Voir plus »

Reconnaissance de formes

Reconnaissance de forme à partir de modélisation en 3D La reconnaissance de formes (ou parfois reconnaissance de motifs) est un ensemble de techniques et méthodes visant à identifier des régularités informatiques à partir de données brutes afin de prendre une décision dépendant de la catégorie attribuée à ce motif.

Nouveau!!: Chaîne de Markov et Reconnaissance de formes · Voir plus »

Relation d'équivalence

En mathématiques, une relation d'équivalence permet, dans un ensemble, de mettre en relation des éléments qui sont similaires par une certaine propriété.

Nouveau!!: Chaîne de Markov et Relation d'équivalence · Voir plus »

Relation d'ordre

Une relation d'ordre dans un ensemble est une relation binaire dans cet ensemble qui permet de comparer ses éléments de manière cohérente.

Nouveau!!: Chaîne de Markov et Relation d'ordre · Voir plus »

Sûreté de fonctionnement

La sûreté de fonctionnement est l'aptitude d'un système à remplir une ou plusieurs fonctions requises dans des conditions données.

Nouveau!!: Chaîne de Markov et Sûreté de fonctionnement · Voir plus »

Statistique

La statistique est la discipline qui étudie des phénomènes à travers la collecte de données, leur traitement, leur analyse, l'interprétation des résultats et leur présentation afin de rendre ces données compréhensibles par tous.

Nouveau!!: Chaîne de Markov et Statistique · Voir plus »

Système dynamique mesuré

Un système dynamique mesuré est un objet mathématique, représentant un espace de phases muni d'une loi d'évolution, particulièrement étudié en théorie ergodique.

Nouveau!!: Chaîne de Markov et Système dynamique mesuré · Voir plus »

Systèmes techniques

Depuis des décennies, l'homme est contraint de produire toujours plus, en raison de ses impératifs de domination des marchés.

Nouveau!!: Chaîne de Markov et Systèmes techniques · Voir plus »

Tatiana Afanassieva

Tatiana Alekseïevna Afanassieva (en Татьяна Алексеевна Афанасьева (également connue sous le nom Tatiana Ehrenfest-Afanaseva), née à Kiev le – morte à Leyde le) est une mathématicienne russo-néerlandaise.

Nouveau!!: Chaîne de Markov et Tatiana Afanassieva · Voir plus »

Temps d'arrêt

Temps d'impact et temps d'arrêt de trois échantillons de mouvement brownien. En théorie des probabilités, en particulier dans l'étude des processus stochastiques, un temps d'arrêt (également appelé temps d'arrêt optionnel, et correspondant à un temps de Markov ou moment de Markov défini.) est une variable aléatoire dont la valeur est interprétée comme le moment auquel le comportement d'un processus stochastique donné présente un certain intérêt.

Nouveau!!: Chaîne de Markov et Temps d'arrêt · Voir plus »

Théorème de Perron-Frobenius

En algèbre linéaire et en théorie des graphes, le théorème de Perron-Frobenius, démontré par Oskar Perron et Ferdinand Georg Frobenius, a d'importantes applications en théorie des probabilités (chaînes de Markov), en théorie des systèmes dynamiques, en économie (analyse entrée-sortie), en théorie des graphes, en dynamique des populations et dans l'aspect mathématique du calcul des pagerank de Google.

Nouveau!!: Chaîne de Markov et Théorème de Perron-Frobenius · Voir plus »

Théorie de l'information

La théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître.

Nouveau!!: Chaîne de Markov et Théorie de l'information · Voir plus »

Théorie des files d'attente

Ici Agner Krarup Erlang, ingénieur et mathématicien Danois ayant travaillé sur la théorie des files d'attente. La théorie des files d'attente est une théorie mathématique relevant du domaine des probabilités, qui étudie les solutions optimales de gestion des files d’attente, ou queues.

Nouveau!!: Chaîne de Markov et Théorie des files d'attente · Voir plus »

Théorie ergodique

Flux d'un ensemble statistique dans le potentiel x**6 + 4*x**3 - 5*x**2 - 4*x. Sur de longues périodes, il devient tourbillonnant et semble devenir une distribution lisse et stable. Cependant, cette stabilité est un artefact de la pixellisation (la structure réelle est trop fine pour être perçue). Cette animation est inspirée d'une discussion de Gibbs dans son wikisource de 1902 : Elementary Principles in Statistical Mechanics, Chapter XII, p. 143: « Tendance d'un ensemble de systèmes isolés vers un état d'équilibre statistique ». Une version quantique de ceci peut être trouvée à File:Hamiltonian flow quantum.webm La théorie ergodique est une branche des mathématiques née de l'étude de l'hypothèse ergodique formulée par le physicien Ludwig Boltzmann en 1871 pour sa théorie cinétique des gaz.

Nouveau!!: Chaîne de Markov et Théorie ergodique · Voir plus »

Université Nice-Sophia-Antipolis

L’université Nice-Sophia-Antipolis (UNS, anciennement UNSA) est une université française pluridisciplinaire, créée en 1965 et dissoute fin 2019 au sein de l'Université Côte d'Azur.

Nouveau!!: Chaîne de Markov et Université Nice-Sophia-Antipolis · Voir plus »

Valeur propre (synthèse)

Les notions de vecteur propre, de valeur propre, et de sous-espace propre s'appliquent à des endomorphismes (ou opérateurs linéaires), c'est-à-dire des applications linéaires d'un espace vectoriel dans lui-même.

Nouveau!!: Chaîne de Markov et Valeur propre (synthèse) · Voir plus »

Variable aléatoire

La valeur d’un dé après un lancer est une variable aléatoire comprise entre 1 et 6. En théorie des probabilités, une variable aléatoire est une variable dont la valeur est déterminée après la réalisation d’un phénomène, expérience ou événement, aléatoire.

Nouveau!!: Chaîne de Markov et Variable aléatoire · Voir plus »

WIMS

Wims (acronyme de Web Interactive Multipurpose Server) est un serveur éducatif et une plateforme d'apprentissage en ligne.

Nouveau!!: Chaîne de Markov et WIMS · Voir plus »

1906

L'année 1906 est une année commune qui commence un lundi.

Nouveau!!: Chaîne de Markov et 1906 · Voir plus »

1936

L'année 1936 est une année bissextile qui commence un mercredi.

Nouveau!!: Chaîne de Markov et 1936 · Voir plus »

1948

L'année 1948 est une année bissextile qui commence un jeudi.

Nouveau!!: Chaîne de Markov et 1948 · Voir plus »

Redirections ici:

Chaine de Markov, Chaîne De Markov, Chaîne de Markov à espace d'états discret, Chaîne de markov, Chaîne markovienne, Chaînes de Markov.

SortantEntrants
Hey! Nous sommes sur Facebook maintenant! »