Logo
Unionpédia
Communication
Disponible sur Google Play
Nouveau! Téléchargez Unionpédia sur votre appareil Android™!
Gratuit
Accès plus rapide que le navigateur!
 

Algorithme du gradient

Indice Algorithme du gradient

Lalgorithme du gradient, aussi appelé algorithme de descente de gradient, désigne un algorithme d'optimisation différentiable.

43 relations: Algorithme à directions de descente, Algorithme à régions de confiance, Algorithme du gradient stochastique, Algorithme proximal (optimisation), Algorithmique, Analyse vectorielle, Augustin Louis Cauchy, École nationale supérieure de techniques avancées, Claude Lemaréchal, Comptes rendus hebdomadaires des séances de l'Académie des sciences, Conditionnement (analyse numérique), Dérivation automatique, Dérivée directionnelle, Différentielle, Dimitri Bertsekas, Direction de descente, Endomorphisme autoadjoint, Espace de Hilbert, Espace euclidien, Flot (mathématiques), Fonction convexe, Fonction de Rosenbrock, Fonction quadratique, Fonction trigonométrique, Gradient, Inégalité de Cauchy-Schwarz, Itération, Ligne de niveau, Matrice définie positive, Matrice hessienne, Méthode d'Euler, Méthode de Broyden-Fletcher-Goldfarb-Shanno, Méthode de Newton, Méthode du gradient conjugué, Nombre réel, Norme (mathématiques), Optimisation (mathématiques), Orthogonalité, Produit scalaire, Recherche linéaire (optimisation), René Gateaux, Variété riemannienne, Vecteur.

Algorithme à directions de descente

Un algorithme à directions de descente est un algorithme d'optimisation différentiable (l'optimisation dont il est question ici est une branche des mathématiques), destiné à minimiser une fonction réelle différentiable définie sur un espace euclidien (par exemple, \mathbb^n, l'espace des n-uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien.

Nouveau!!: Algorithme du gradient et Algorithme à directions de descente · Voir plus »

Algorithme à régions de confiance

Un algorithme à régions de confiance est un algorithme d'optimisation différentiable (l'optimisation dont il est question ici est une branche des mathématiques), destiné à minimiser une fonction réelle définie sur un espace euclidien (par exemple, \mathbb^n, l'espace des n-uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien.

Nouveau!!: Algorithme du gradient et Algorithme à régions de confiance · Voir plus »

Algorithme du gradient stochastique

L'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables.

Nouveau!!: Algorithme du gradient et Algorithme du gradient stochastique · Voir plus »

Algorithme proximal (optimisation)

En analyse numérique et plus précisément en optimisation mathématique, l'algorithme proximal (ou algorithme du point proximal) est un algorithme itératif de calcul d'un minimum d'une fonction convexe semi-continue inférieurement propre.

Nouveau!!: Algorithme du gradient et Algorithme proximal (optimisation) · Voir plus »

Algorithmique

Organigramme de programmation représentant l'algorithme d'Euclide. Lalgorithmique est l'étude et la production de règles et techniques qui sont impliquées dans la définition et la conception d'algorithmes, c'est-à-dire de processus systématiques de résolution d'un problème permettant de décrire précisément des étapes pour résoudre un problème algorithmique.

Nouveau!!: Algorithme du gradient et Algorithmique · Voir plus »

Analyse vectorielle

L'analyse vectorielle est une branche des mathématiques qui étudie les champs de scalaires et de vecteurs suffisamment réguliers des espaces euclidiens, c'est-à-dire les applications différentiables d'un ouvert d'un espace euclidien à valeurs respectivement dans \R et dans.

Nouveau!!: Algorithme du gradient et Analyse vectorielle · Voir plus »

Augustin Louis Cauchy

Augustin Louis, baron Cauchy, né à Paris le et mort à Sceaux le, est un mathématicien français, membre de l’Académie des sciences et professeur à l’École polytechnique.

Nouveau!!: Algorithme du gradient et Augustin Louis Cauchy · Voir plus »

École nationale supérieure de techniques avancées

LÉcole nationale supérieure de techniques avancées, de son nom de marque ENSTA Paris (anciennement ENSTA ParisTech), est l'une des françaises accréditées au à délivrer un diplôme d'ingénieur.

Nouveau!!: Algorithme du gradient et École nationale supérieure de techniques avancées · Voir plus »

Claude Lemaréchal

Claude Lemaréchal est un mathématicien appliqué français, et ancien directeur de recherche à l'Institut national de recherche en informatique et en automatique (INRIA) près de Grenoble.

Nouveau!!: Algorithme du gradient et Claude Lemaréchal · Voir plus »

Comptes rendus hebdomadaires des séances de l'Académie des sciences

Les Comptes rendus hebdomadaires des séances de l’Académie des sciences (abrégés en C. R. Acad. Sci. Paris ou CRAS) est une revue scientifique publiée par l’Académie des sciences française.

Nouveau!!: Algorithme du gradient et Comptes rendus hebdomadaires des séances de l'Académie des sciences · Voir plus »

Conditionnement (analyse numérique)

En analyse numérique, une discipline des mathématiques, le conditionnement mesure la dépendance de la solution d'un problème numérique par rapport aux données du problème, ceci afin de contrôler la validité d'une solution calculée par rapport à ces données.

Nouveau!!: Algorithme du gradient et Conditionnement (analyse numérique) · Voir plus »

Dérivation automatique

En mathématique et en calcul formel, la dérivation automatique (DA), également appelé dérivation algorithmique, dérivation formelle, ou auto-dérivation est un ensemble de techniques d'évaluation de la dérivée d'une fonction par un programme informatique.

Nouveau!!: Algorithme du gradient et Dérivation automatique · Voir plus »

Dérivée directionnelle

En analyse mathématique, la notion de dérivée directionnelle est fondamentale; elle permet de quantifier la variation locale d'une fonction dépendant de plusieurs variables, en un point donné et le long d'une direction donnée dans l'espace de ces variables.

Nouveau!!: Algorithme du gradient et Dérivée directionnelle · Voir plus »

Différentielle

En analyse fonctionnelle et vectorielle, on appelle différentielle d'ordre 1 d'une fonction en un point a (ou dérivée de cette fonction au point a) la partie linéaire de l'accroissement de cette fonction entre a et a + h lorsque h tend vers 0.

Nouveau!!: Algorithme du gradient et Différentielle · Voir plus »

Dimitri Bertsekas

Dimitri Panteli Bertsekas est un mathématicien appliqué, ingénieur électricien et informaticien grec, il est professeur au département de génie électrique et informatique de la School of Engineering du Massachusetts Institute of Technology (MIT) à Cambridge.

Nouveau!!: Algorithme du gradient et Dimitri Bertsekas · Voir plus »

Direction de descente

En optimisation différentiable, qui est une discipline d'analyse numérique en mathématiques étudiant en particulier les algorithmes minimisant des fonctions différentiables sur des ensembles, une direction de descente est une direction le long de laquelle la fonction à minimiser a une dérivée directionnelle strictement négative.

Nouveau!!: Algorithme du gradient et Direction de descente · Voir plus »

Endomorphisme autoadjoint

En mathématiques et plus précisément en algèbre linéaire, un endomorphisme autoadjoint ou opérateur hermitien est un endomorphisme d'espace de Hilbert qui est son propre adjoint (sur un espace de Hilbert réel on dit aussi endomorphisme symétrique).

Nouveau!!: Algorithme du gradient et Endomorphisme autoadjoint · Voir plus »

Espace de Hilbert

Une photographie de David Hilbert (1862 - 1943) qui a donné son nom aux espaces dont il est question dans cet article. En mathématiques, un espace de Hilbert est un espace vectoriel réel (resp. complexe) muni d'un produit scalaire euclidien (resp. hermitien), qui permet de mesurer des longueurs et des angles et de définir une orthogonalité.

Nouveau!!: Algorithme du gradient et Espace de Hilbert · Voir plus »

Espace euclidien

En mathématiques, un espace euclidien est un objet algébrique permettant de généraliser de façon naturelle la géométrie traditionnelle développée par Euclide, dans ses Éléments.

Nouveau!!: Algorithme du gradient et Espace euclidien · Voir plus »

Flot (mathématiques)

Le flot, coulée ou encore courant est, en mathématiques, un concept fondamental utilisé en géométrie différentielle.

Nouveau!!: Algorithme du gradient et Flot (mathématiques) · Voir plus »

Fonction convexe

Fonction convexe. En mathématiques, une fonction réelle d'une variable réelle est dite convexe.

Nouveau!!: Algorithme du gradient et Fonction convexe · Voir plus »

Fonction de Rosenbrock

La fonction de Rosenbrock est une fonction non convexe de deux variables utilisée comme test pour des problèmes d'optimisation mathématique.

Nouveau!!: Algorithme du gradient et Fonction de Rosenbrock · Voir plus »

Fonction quadratique

En mathématiques, une fonction quadratique est une fonction de plusieurs variables polynomiale de degré 2.

Nouveau!!: Algorithme du gradient et Fonction quadratique · Voir plus »

Fonction trigonométrique

Toutes les valeurs des fonctions trigonométriques d'un angle ''θ'' peuvent être représentées géométriquement. En mathématiques, les fonctions trigonométriques permettent de relier les longueurs des côtés d'un triangle en fonction de la mesure des angles aux sommets.

Nouveau!!: Algorithme du gradient et Fonction trigonométrique · Voir plus »

Gradient

Chaque champ scalaire est représenté par un dégradé (blanc.

Nouveau!!: Algorithme du gradient et Gradient · Voir plus »

Inégalité de Cauchy-Schwarz

En mathématiques, l'inégalité de Cauchy-Schwarz (ICS), aussi appelée inégalité de Schwarz, ou encore inégalité de Cauchy-Bouniakovski-Schwarz, se rencontre dans de nombreux domaines tels que l'algèbre linéaire, l'analyse avec les séries et en intégration.

Nouveau!!: Algorithme du gradient et Inégalité de Cauchy-Schwarz · Voir plus »

Itération

En mathématiques, une itération désigne l'action de répéter un processus.

Nouveau!!: Algorithme du gradient et Itération · Voir plus »

Ligne de niveau

Soit f une fonction à valeurs réelles, une ligne de niveau est un ensemble.

Nouveau!!: Algorithme du gradient et Ligne de niveau · Voir plus »

Matrice définie positive

En algèbre linéaire, une matrice définie positive est une matrice positive inversible.

Nouveau!!: Algorithme du gradient et Matrice définie positive · Voir plus »

Matrice hessienne

En mathématiques, la matrice hessienne (ou simplement le hessien ou la hessienne) d'une fonction numérique f est la matrice carrée, notée H(f), de ses dérivées partielles secondes.

Nouveau!!: Algorithme du gradient et Matrice hessienne · Voir plus »

Méthode d'Euler

En mathématiques, la méthode d'Euler, nommée ainsi en l'honneur du mathématicien Leonhard Euler (1707 — 1783), est une procédure numérique pour résoudre par approximation des équations différentielles du premier ordre avec une condition initiale.

Nouveau!!: Algorithme du gradient et Méthode d'Euler · Voir plus »

Méthode de Broyden-Fletcher-Goldfarb-Shanno

En mathématiques, la méthode de Broyden-Fletcher-Goldfarb-Shanno (BFGS) est une méthode permettant de résoudre un problème d'optimisation non linéaire sans contraintes.

Nouveau!!: Algorithme du gradient et Méthode de Broyden-Fletcher-Goldfarb-Shanno · Voir plus »

Méthode de Newton

Une itération de la méthode de Newton. En analyse numérique, la méthode de Newton ou méthode de Newton-Raphson est, dans son application la plus simple, un algorithme efficace pour trouver numériquement une approximation précise d'un zéro (ou racine) d'une fonction réelle d'une variable réelle.

Nouveau!!: Algorithme du gradient et Méthode de Newton · Voir plus »

Méthode du gradient conjugué

Illustration de la méthode du gradient conjugué. En analyse numérique, la méthode du gradient conjugué est un algorithme pour résoudre des systèmes d'équations linéaires dont la matrice est symétrique définie positive.

Nouveau!!: Algorithme du gradient et Méthode du gradient conjugué · Voir plus »

Nombre réel

En mathématiques, un nombre réel est un nombre qui peut être représenté par une partie entièreCette partie entière par troncature, désignant les chiffres « à gauche de la virgule » ne correspond pas forcément à la partie entière par défaut: dans le cas d’un nombre réel négatif comme, la partie entière par défaut vaut.

Nouveau!!: Algorithme du gradient et Nombre réel · Voir plus »

Norme (mathématiques)

En géométrie, la norme est une extension de la valeur absolue des nombres aux vecteurs.

Nouveau!!: Algorithme du gradient et Norme (mathématiques) · Voir plus »

Optimisation (mathématiques)

L'optimisation est une branche des mathématiques cherchant à modéliser, à analyser et à résoudre analytiquement ou numériquement les problèmes qui consistent à minimiser ou maximiser une fonction sur un ensemble.

Nouveau!!: Algorithme du gradient et Optimisation (mathématiques) · Voir plus »

Orthogonalité

En géométrie classique, l'orthogonalité est une propriété liée à l'existence d'un angle droit (orthos.

Nouveau!!: Algorithme du gradient et Orthogonalité · Voir plus »

Produit scalaire

En mathématiques, et plus précisément en algèbre et en géométrie vectorielle, le produit scalaire est une opération algébrique s'ajoutant aux lois s'appliquant aux vecteurs.

Nouveau!!: Algorithme du gradient et Produit scalaire · Voir plus »

Recherche linéaire (optimisation)

En optimisation mathématique, la recherche linéaire est l'une des deux approches classiques permettant de forcer la convergence des algorithmes de calcul d'un minimum x_* d'une fonction f:\R^n\to\R, lorsque le premier itéré est éloigné d'un tel minimum.

Nouveau!!: Algorithme du gradient et Recherche linéaire (optimisation) · Voir plus »

René Gateaux

René Gateaux Dans son acte de naissance et dans sa propre signature, René Gateaux s'orthographie sans accent circonflexe contrairement à ce qui est fait dans certaines de ses publications, et surtout dans d'innombrables textes postérieurs.

Nouveau!!: Algorithme du gradient et René Gateaux · Voir plus »

Variété riemannienne

En mathématiques, et plus précisément en géométrie, la variété riemannienne est l'objet de base étudié en géométrie riemannienne.

Nouveau!!: Algorithme du gradient et Variété riemannienne · Voir plus »

Vecteur

Deux vecteurs \overrightarrowu et \overrightarrowv et leur vecteur somme. En mathématiques, un vecteur est un objet généralisant plusieurs notions provenant de la géométrie (couples de points, translations, etc.), de l'algèbre (« solution » d'un système d'équations à plusieurs inconnues), ou de la physique (forces, vitesses, accélérations).

Nouveau!!: Algorithme du gradient et Vecteur · Voir plus »

Redirections ici:

Algorithme de descente, Descente de gradient.

SortantEntrants
Hey! Nous sommes sur Facebook maintenant! »