Logo
Unionpédia
Communication
Disponible sur Google Play
Nouveau! Téléchargez Unionpédia sur votre appareil Android™!
Installer
Accès plus rapide que le navigateur!
 

Complexité en moyenne des algorithmes

Indice Complexité en moyenne des algorithmes

La complexité en moyenne d'un algorithme est la quantité d'une ressource donnée, typiquement le temps, utilisée par l'algorithme lors de son exécution pour traiter une entrée tirée selon une distribution donnée.

17 relations: Algorithme, Algorithme de tri, Analyse de la complexité des algorithmes, Analyse lisse d'algorithme, Belin éditeur, Complexité dans le pire des cas, Complexité de Kolmogorov, Complexité en temps, Cryptographie, Loi de probabilité, Loi uniforme discrète, Luca Trevisan, Théorie de la complexité (informatique théorique), Tri à peigne, Tri fusion, Tri par insertion, Tri rapide.

Algorithme

triangulation). Un algorithme est une suite finie et non ambiguë d'instructions et d’opérations permettant de résoudre une classe de problèmes.

Nouveau!!: Complexité en moyenne des algorithmes et Algorithme · Voir plus »

Algorithme de tri

Tri d'une liste aléatoire à l'aide du tri par fusion. Un algorithme de tri est, en informatique ou en mathématiques, un algorithme qui permet d'organiser une collection d'objets selon une relation d'ordre déterminée.

Nouveau!!: Complexité en moyenne des algorithmes et Algorithme de tri · Voir plus »

Analyse de la complexité des algorithmes

Représentation d'une recherche linéaire (en violet) face à une recherche binaire (en vert). La complexité algorithmique de la seconde est logarithmique alors que celle de la première est linéaire. L'analyse de la complexité d'un algorithme consiste en l'étude formelle de la quantité de ressources (par exemple de temps ou d'espace) nécessaire à l'exécution de cet algorithme.

Nouveau!!: Complexité en moyenne des algorithmes et Analyse de la complexité des algorithmes · Voir plus »

Analyse lisse d'algorithme

En informatique théorique, l'analyse lisse d'algorithme (smoothed analysis) est une manière de mesurer la complexité d'un algorithme, c'est-à-dire ses performances.

Nouveau!!: Complexité en moyenne des algorithmes et Analyse lisse d'algorithme · Voir plus »

Belin éditeur

Belin éditeur est une maison d'édition française, fondée en 1777 et spécialisée dans les ouvrages universitaires, scolaires et parascolaires.

Nouveau!!: Complexité en moyenne des algorithmes et Belin éditeur · Voir plus »

Complexité dans le pire des cas

En informatique, la complexité dans le pire des cas, ou complexité dans le cas le plus défavorable, mesure la complexité (par exemple en temps ou en espace) d'un algorithme dans le pire des cas d'exécution possibles.

Nouveau!!: Complexité en moyenne des algorithmes et Complexité dans le pire des cas · Voir plus »

Complexité de Kolmogorov

En informatique théorique et en mathématiques, plus précisément en théorie de l'information, la complexité de Kolmogorov, ou complexité aléatoire, ou complexité algorithmique d'un objet — nombre, image numérique, chaîne de caractères — est la taille du plus petit algorithme (dans un certain langage de programmation fixé) qui engendre cet objet.

Nouveau!!: Complexité en moyenne des algorithmes et Complexité de Kolmogorov · Voir plus »

Complexité en temps

En algorithmique, la complexité en temps est une mesure du temps utilisé par un algorithme, exprimé comme fonction de la taille de l'entrée.

Nouveau!!: Complexité en moyenne des algorithmes et Complexité en temps · Voir plus »

Cryptographie

La machine de Lorenz utilisée par les nazis durant la Seconde Guerre mondiale pour chiffrer les communications militaires de haut niveau entre Berlin et les quartiers-généraux des différentes armées. La cryptographie est une des disciplines de la cryptologie s'attachant à protéger des messages (assurant confidentialité, authenticité et intégrité) en s'aidant souvent de secrets ou clés.

Nouveau!!: Complexité en moyenne des algorithmes et Cryptographie · Voir plus »

Loi de probabilité

400px En théorie des probabilités et en statistique, une loi de probabilité décrit le comportement aléatoire d'un phénomène dépendant du hasard.

Nouveau!!: Complexité en moyenne des algorithmes et Loi de probabilité · Voir plus »

Loi uniforme discrète

En théorie des probabilités, une loi discrète uniforme est une loi de probabilité discrète pour laquelle la probabilité de réalisation est identique (équiprobabilité) pour chaque modalité d’un ensemble fini de modalités possibles.

Nouveau!!: Complexité en moyenne des algorithmes et Loi uniforme discrète · Voir plus »

Luca Trevisan

Luca Trevisan est un mathématicien et informaticien italien né le, professeur d'informatique à l'Université de Californie à Berkeley.

Nouveau!!: Complexité en moyenne des algorithmes et Luca Trevisan · Voir plus »

Théorie de la complexité (informatique théorique)

P est la classe des problèmes décidés en temps polynomial par une machine de Turing déterministe. La théorie de la complexité est le domaine des mathématiques, et plus précisément de l'informatique théorique, qui étudie formellement le temps de calcul, l'espace mémoire (et plus marginalement la taille d'un circuit, le nombre de processeurs, l'énergie consommée…) requis par un algorithme pour résoudre un problème algorithmique.

Nouveau!!: Complexité en moyenne des algorithmes et Théorie de la complexité (informatique théorique) · Voir plus »

Tri à peigne

Le comb sort ou tri à peigne ou tri de Dobosiewicz est un algorithme de tri assez simple initialement inventé par Wodzimierz Dobosiewicz en 1980.

Nouveau!!: Complexité en moyenne des algorithmes et Tri à peigne · Voir plus »

Tri fusion

En informatique, le tri fusion, ou tri dichotomique, est un algorithme de tri par comparaison stable.

Nouveau!!: Complexité en moyenne des algorithmes et Tri fusion · Voir plus »

Tri par insertion

En informatique, le tri par insertion est un algorithme de tri classique.

Nouveau!!: Complexité en moyenne des algorithmes et Tri par insertion · Voir plus »

Tri rapide

En informatique, le tri rapide ou tri pivot (en anglais quicksort) est un algorithme de tri inventé par C.A.R. Hoare en 1961 et fondé sur la méthode de conception diviser pour régner.

Nouveau!!: Complexité en moyenne des algorithmes et Tri rapide · Voir plus »

Redirections ici:

Complexité en moyenne.

SortantEntrants
Hey! Nous sommes sur Facebook maintenant! »