Logo
Unionpédia
Communication
Disponible sur Google Play
Nouveau! Téléchargez Unionpédia sur votre appareil Android™!
Gratuit
Accès plus rapide que le navigateur!
 

Parallélisme (informatique)

Indice Parallélisme (informatique)

Blue Gene L cabinet, un des supercalculateurs massivement parallèles les plus rapides des années 2000. En informatique, le parallélisme consiste à mettre en œuvre des architectures d'électronique numérique permettant de traiter des informations de manière simultanée, ainsi que les algorithmes spécialisés pour celles-ci.

178 relations: Accélération (informatique), Ada (langage), Algèbre de processus, Algorithme, Algorithme de parcours en profondeur, Algorithme de tri, Algorithme récursif, Allocation de ressources, Années 1960, Années 1980, Années 2000, Architecture (informatique), Architecture Dataflow, Architecture de von Neumann, Atomicité (informatique), Attente active, Automate cellulaire, Automatisme, Bande passante, Barrière de synchronisation, Berkeley Open Infrastructure for Network Computing, Bibliothèque logicielle, Blue Gene (superordinateur), Bug (informatique), Burroughs Corporation, Bus informatique, C (langage), C Sharp, Calcul (mathématiques), Carl Adam Petri, Carte graphique, Chemin critique, Circuit intégré, Code source, Cohérence (données), Communicating sequential processes, Communication inter-processus, Compatible PC, Control Data 6600, Couplage (informatique), Cray (entreprise), Cryptanalyse, Dîner des philosophes, Digital Equipment Corporation, Diviser pour régner (informatique), Donnée (informatique), Dynamique des fluides, Erlang (langage), Exécution dans le désordre, Exclusion mutuelle, ..., Explicitly parallel instruction computing, Exploration de données, F Sharp, Famine (informatique), File (structure de données), File d'attente de message, Filtre (informatique), Fonction récursive, Fortran, Fréquence d'horloge, Gene Amdahl, Grappe de serveurs, Grec ancien, Grille informatique, Honeywell, IBM, Infographie, Informatique, Instruction informatique, Intel, Intel Pentium, Intelligence artificielle, Interblocage, Interface de programmation, J Sharp, Jean Ichbiah, John L. Hennessy, Langage formel, Language Integrated Query, Leslie Lamport, Logique modale, Loi d'Amdahl, Loi de Gustafson, Loi de Moore, Machine de Turing, Machine virtuelle, MapReduce, Massachusetts Institute of Technology, Mémoire (informatique), Mémoire cache, Mémoire distribuée, Mémoire partagée (communication inter-processus), Mémoire transactionnelle logicielle, Mémoire vive, Méthode de Newton, Méthode itérative, Message Passing Interface, Michael J. Flynn, Microprocesseur multi-cœur, Microsoft .NET, Middleware, Modèle d'acteur, Mode d'adressage, Moniteur (programmation), Mot (architecture informatique), Multics, Multiple instructions on multiple data, Multiple instructions single data, Multiprocesseur, Multitraitement asymétrique, Nombre premier, Non uniform memory access, Occam (langage), OpenMP, Ordinateur, Ordinateur personnel, Ordonnancement dans les systèmes d'exploitation, Overhead, Parallel Virtual Machine, Passage de messages, Pentium 4, Pi, Pi-calcul, Pipeline (architecture des processeurs), Prévision numérique du temps, Problème à N corps, Problème des lecteurs et des rédacteurs, Problème des producteurs et des consommateurs, Processeur, Processeur à jeu d'instructions réduit, Processeur superscalaire, Processeur vectoriel, Processus (informatique), Programmation concurrente, RAID (informatique), Ray tracing, Réentrance, Répartition de charge, Réseau de neurones artificiels, Réseau de Petri, Réseau systolique, Renommage de registres, Roadrunner (supercalculateur), Série (mathématiques), Section critique, Seymour Cray, Signal d'horloge, Simultaneous multithreading, Single instruction multiple data, Single instruction on single data, Situation de compétition, Spinlock, Suite de Fibonacci, Superordinateur, Symmetric multiprocessing, Synchronisation (multitâches), Système d'exploitation, Système de gestion de base de données, Système temps réel, Taxonomie de Flynn, Théorie de la complexité (informatique théorique), Thread (informatique), Thread safety, Threads POSIX, Traitement d'images, Traitement de l'information, Traitement du signal, Transistor, Tri fusion, Tri rapide, Tube anonyme, Unified Parallel C, Variable (informatique), VAX, Verrou (informatique), Very long instruction word, Visual Basic .NET, Yale Patt. Développer l'indice (128 plus) »

Accélération (informatique)

En architecture informatique, l'accélération (speedup en anglais) est une mesure du gain de performance entre deux systèmes traitant le même problème.

Nouveau!!: Parallélisme (informatique) et Accélération (informatique) · Voir plus »

Ada (langage)

Ada est un langage de programmation orienté objet dont les premières versions remontent au début des années 1980.

Nouveau!!: Parallélisme (informatique) et Ada (langage) · Voir plus »

Algèbre de processus

Les algèbres de processus sont une famille de langages formels permettant de modéliser les systèmes (informatiques) concurrents ou distribués.

Nouveau!!: Parallélisme (informatique) et Algèbre de processus · Voir plus »

Algorithme

triangulation). Un algorithme est une suite finie et non ambiguë d'instructions et d’opérations permettant de résoudre une classe de problèmes.

Nouveau!!: Parallélisme (informatique) et Algorithme · Voir plus »

Algorithme de parcours en profondeur

L'algorithme de parcours en profondeur (ou parcours en profondeur, ou DFS, pour) est un algorithme de parcours d'arbre, et plus généralement de parcours de graphe.

Nouveau!!: Parallélisme (informatique) et Algorithme de parcours en profondeur · Voir plus »

Algorithme de tri

Tri d'une liste aléatoire à l'aide du tri par fusion. Un algorithme de tri est, en informatique ou en mathématiques, un algorithme qui permet d'organiser une collection d'objets selon une relation d'ordre déterminée.

Nouveau!!: Parallélisme (informatique) et Algorithme de tri · Voir plus »

Algorithme récursif

Un algorithme récursif est un algorithme qui résout un problème en calculant des solutions d'instances plus petites du même problème.

Nouveau!!: Parallélisme (informatique) et Algorithme récursif · Voir plus »

Allocation de ressources

Dans le contexte de la programmation concurrente, l'allocation de ressources est l'opération permettant d'affecter des ressources à un thread particulier.

Nouveau!!: Parallélisme (informatique) et Allocation de ressources · Voir plus »

Années 1960

Les années 1960 couvrent la période de 1960 à 1969.

Nouveau!!: Parallélisme (informatique) et Années 1960 · Voir plus »

Années 1980

Avênement de l'ordinateur personnel avec l'IBM PC 5150. Légende/Fin Les années 1980 couvrent la période du au.

Nouveau!!: Parallélisme (informatique) et Années 1980 · Voir plus »

Années 2000

Les années 2000 couvrent la période du au.

Nouveau!!: Parallélisme (informatique) et Années 2000 · Voir plus »

Architecture (informatique)

Exemple de diagramme d'architecture En informatique, architecture désigne la structure générale inhérente à un système informatique, l'organisation des différents éléments du système (logiciels et/ou matériels et/ou humains et/ou informations) et des relations entre les éléments.

Nouveau!!: Parallélisme (informatique) et Architecture (informatique) · Voir plus »

Architecture Dataflow

Le dataflow (en flux de données) est une architecture où les données sont des entités actives qui traversent le programme de manière asynchrone, contrairement à l'architecture classique von Neumann, où elles attendent passivement en mémoire pendant que le programme est exécuté séquentiellement suivant le contenu du pointeur de programme (PC).

Nouveau!!: Parallélisme (informatique) et Architecture Dataflow · Voir plus »

Architecture de von Neumann

L’architecture dite architecture de von Neumann est un modèle pour un ordinateur qui utilise une structure de stockage unique pour conserver à la fois les instructions et les données demandées ou produites par le calcul.

Nouveau!!: Parallélisme (informatique) et Architecture de von Neumann · Voir plus »

Atomicité (informatique)

L'atomicité est une propriété utilisée en programmation concurrente pour désigner une opération ou un ensemble d'opérations d'un programme qui s'exécutent entièrement sans pouvoir être interrompues avant la fin de leur déroulement.

Nouveau!!: Parallélisme (informatique) et Atomicité (informatique) · Voir plus »

Attente active

L’attente active, en génie logiciel, ou polling (parfois appelée aussi « scrutation ») est une technique de programmation que les processus utilisent lorsqu'ils vérifient de façon répétée si une condition est vraie, comme l'attente d'une entrée (clavier ou autre) ou encore la libération d'un verrou.

Nouveau!!: Parallélisme (informatique) et Attente active · Voir plus »

Automate cellulaire

À gauche, une règle locale simple: une cellule passe d'un état (i) au suivant (i+1) dans le cycle d'états dès que i+1 est présent dans au moins 3 des 8 cellules voisines. À droite, le résultat (complexe) de l'application répétée de cette règle sur une grille de cellules. Ce type d'automates cellulaires a été découvert par D. Griffeath. Un automate cellulaire consiste en une grille régulière de « cellules » contenant chacune un « état » choisi parmi un ensemble fini et qui peut évoluer au cours du temps.

Nouveau!!: Parallélisme (informatique) et Automate cellulaire · Voir plus »

Automatisme

Un automatisme est un système qui, par le moyen de dispositifs mécaniques, pneumatiques, hydrauliques ou électriques, est capable de remplacer l'être humain pour certaines tâches.

Nouveau!!: Parallélisme (informatique) et Automatisme · Voir plus »

Bande passante

En électronique, la bande passante d'un système est l'intervalle de fréquences dans lequel l'affaiblissement du signal est inférieur à une valeur spécifiée.

Nouveau!!: Parallélisme (informatique) et Bande passante · Voir plus »

Barrière de synchronisation

En programmation concurrente, une barrière de synchronisation permet de garantir qu'un certain nombre de tâches aient passé un point spécifique.

Nouveau!!: Parallélisme (informatique) et Barrière de synchronisation · Voir plus »

Berkeley Open Infrastructure for Network Computing

BOINC, acronyme de Berkeley Open Infrastructure for Network Computing (« infrastructure ouverte de Berkeley dédiée au calcul en réseau ») est une plate-forme de calcul distribué qui permet de gérer des projets de calcul sur la base du volontariat.

Nouveau!!: Parallélisme (informatique) et Berkeley Open Infrastructure for Network Computing · Voir plus »

Bibliothèque logicielle

En informatique, une bibliothèque logicielle est une collection de routines, qui peuvent être déjà compilées et prêtes à être utilisées par des programmes.

Nouveau!!: Parallélisme (informatique) et Bibliothèque logicielle · Voir plus »

Blue Gene (superordinateur)

IBM Blue Gene P. Une des armoires de Blue Gene/L. Blue Gene est une architecture de superordinateurs.

Nouveau!!: Parallélisme (informatique) et Blue Gene (superordinateur) · Voir plus »

Bug (informatique)

MacIntosh d'Apple. En informatique, un bug (prononcé en français: Prononciation en français européen retranscrite phonémiquement selon la norme API.) ou bogueRecommandé en France par la Délégation générale à la langue française et aux langues de France (DGLFLF), au Canada et en Belgique.

Nouveau!!: Parallélisme (informatique) et Bug (informatique) · Voir plus »

Burroughs Corporation

La Burroughs Corporation était l’un des leaders du marché de la bureautique.

Nouveau!!: Parallélisme (informatique) et Burroughs Corporation · Voir plus »

Bus informatique

Un bus informatique est un dispositif de transmission de données partagé entre plusieurs composants d'un système numérique.

Nouveau!!: Parallélisme (informatique) et Bus informatique · Voir plus »

C (langage)

C est un langage de programmation impératif, généraliste et de bas niveau.

Nouveau!!: Parallélisme (informatique) et C (langage) · Voir plus »

C Sharp

C# (C sharp en anglais britannique) est un langage de programmation orientée objet, commercialisé par Microsoft depuis 2002 et destiné à développer sur la plateforme Microsoft.NET, au même titre que d’autres langages liés à cette plateforme (ex. VB.NET, J#, etc.) C# est dérivé du C++ et très proche du Java dont il reprend la syntaxe générale ainsi que les concepts, y ajoutant des notions telles que la surcharge des opérateurs, les et les délégués.

Nouveau!!: Parallélisme (informatique) et C Sharp · Voir plus »

Calcul (mathématiques)

Enfant effectuant un calcul En mathématiques, un calcul est une opération ou un ensemble d'opérations effectuées sur des grandeurs.

Nouveau!!: Parallélisme (informatique) et Calcul (mathématiques) · Voir plus »

Carl Adam Petri

Carl Adam Petri (né le à Leipzig et mort le à Siegburg) est un mathématicien allemand et un informaticien, qui fut professeur honoraire (Ehrenprofessor) de l'Université de Hambourg.

Nouveau!!: Parallélisme (informatique) et Carl Adam Petri · Voir plus »

Carte graphique

Une carte graphique ou carte vidéo (anciennement, par abus de langage, une carte VGA), ou encore un adaptateur graphique, est un périphérique graphique ou carte d'extension d’ordinateur dont le rôle est de produire une image affichable sur un écran.

Nouveau!!: Parallélisme (informatique) et Carte graphique · Voir plus »

Chemin critique

Dans un problème d'ordonnancement en informatique théorique, ou en gestion de projet, un chemin critique désigne la (ou les) liste(s) ordonnée(s) des opérations nécessaires pour obtenir le résultat voulu, dont la durée totale donne la durée du projet.

Nouveau!!: Parallélisme (informatique) et Chemin critique · Voir plus »

Circuit intégré

Le circuit intégré (CI), aussi appelé puce électronique, est un composant électronique, basé sur un semi-conducteur, reproduisant une ou plusieurs fonctions électroniques plus ou moins complexes, intégrant souvent plusieurs types de composants électroniques de base dans un volume réduit (sur une petite plaque), rendant le circuit facile à mettre en œuvre.

Nouveau!!: Parallélisme (informatique) et Circuit intégré · Voir plus »

Code source

fr.

Nouveau!!: Parallélisme (informatique) et Code source · Voir plus »

Cohérence (données)

schéma illustrant le besoin d'un protocole de cohérence de cache En informatique, la cohérence est la capacité pour un système à refléter sur la copie d'une donnée les modifications intervenues sur d'autre copies de cette donnée.

Nouveau!!: Parallélisme (informatique) et Cohérence (données) · Voir plus »

Communicating sequential processes

En programmation concurrente, Communicating sequential processes (CSP) est une algèbre de processus permettant de modéliser l'interaction de systèmes.

Nouveau!!: Parallélisme (informatique) et Communicating sequential processes · Voir plus »

Communication inter-processus

Image montrant un échange de données (avec un communication inter-processus) entre deux unités d'un cloud computing. En informatique, la communication inter-processus (inter-process communication, IPC, en anglais) regroupe un ensemble de mécanismes permettant à des processus concurrents de communiquer.

Nouveau!!: Parallélisme (informatique) et Communication inter-processus · Voir plus »

Compatible PC

Un compatible PC est un ordinateur compatible avec la gamme d'ordinateurs personnels issue de l'IBM PC, apparu en 1981.

Nouveau!!: Parallélisme (informatique) et Compatible PC · Voir plus »

Control Data 6600

Le Control Data 6600 est un super-ordinateur de la société américaine Control Data Corporation, produit à partir de 1964.

Nouveau!!: Parallélisme (informatique) et Control Data 6600 · Voir plus »

Couplage (informatique)

Le couplage est une métrique indiquant le niveau d'interaction entre deux ou plusieurs composants logiciels (fonctions, modules, objets ou applications).

Nouveau!!: Parallélisme (informatique) et Couplage (informatique) · Voir plus »

Cray (entreprise)

Cray est le nom d'une entreprise américaine fondée en 1972 par Seymour Cray, sous le nom de « ».

Nouveau!!: Parallélisme (informatique) et Cray (entreprise) · Voir plus »

Cryptanalyse

La cryptanalyse est la technique qui consiste à déduire un texte en clair d’un texte chiffré sans posséder la clé de chiffrement.

Nouveau!!: Parallélisme (informatique) et Cryptanalyse · Voir plus »

Dîner des philosophes

Le problème du « dîner des philosophes » illustre le partage de ressources dans les systèmes informatique en mettant en scène des philosophes qui doivent se partager des fourchettes pour pouvoir déguster des spaghettis.

Nouveau!!: Parallélisme (informatique) et Dîner des philosophes · Voir plus »

Digital Equipment Corporation

Digital Equipment Corporation (ou Digital ou DEC) était une entreprise de l'industrie informatique fondée en 1957 aux États-Unis.

Nouveau!!: Parallélisme (informatique) et Digital Equipment Corporation · Voir plus »

Diviser pour régner (informatique)

Trois étapes (diviser, régner, combiner) illustrées avec l'algorithme du tri fusion En informatique, diviser pour régner (du latin, divide and conquer en anglais) est une technique algorithmique consistant à.

Nouveau!!: Parallélisme (informatique) et Diviser pour régner (informatique) · Voir plus »

Donnée (informatique)

En informatique, une donnée est la représentation d'une information dans un programme: soit dans le texte du programme (code source), soit en mémoire durant l'exécution.

Nouveau!!: Parallélisme (informatique) et Donnée (informatique) · Voir plus »

Dynamique des fluides

La dynamique des fluides (hydrodynamique ou aérodynamique), est l'étude des mouvements des fluides, qu'ils soient liquides ou gazeux.

Nouveau!!: Parallélisme (informatique) et Dynamique des fluides · Voir plus »

Erlang (langage)

LYME et LYCE sont basés sur '''Erlang''' et offrent des alternatives à LAMP. Erlang est un langage de programmation, supportant plusieurs paradigmes: concurrent, temps réel, distribué.

Nouveau!!: Parallélisme (informatique) et Erlang (langage) · Voir plus »

Exécution dans le désordre

L'exécution dans le désordre (en anglais) consiste à réorganiser l'ordre dans lequel les instructions vont s'exécuter dans le processeur.

Nouveau!!: Parallélisme (informatique) et Exécution dans le désordre · Voir plus »

Exclusion mutuelle

Un Mutex (anglais: Mutual exclusion, Exclusion mutuelle) est une primitive de synchronisation utilisée en programmation informatique pour éviter que des ressources partagées d'un système ne soient utilisées en même temps.

Nouveau!!: Parallélisme (informatique) et Exclusion mutuelle · Voir plus »

Explicitly parallel instruction computing

EPIC (explicitly parallel instruction computing, littéralement informatique à instruction explicitement parallèle) est un type d'architecture de microprocesseurs, utilisé entre autres dans les DSP et par Intel pour les microprocesseurs Itanium et Itanium 2.

Nouveau!!: Parallélisme (informatique) et Explicitly parallel instruction computing · Voir plus »

Exploration de données

L’exploration de donnéesTerme recommandé au Canada par l'OQLF, et en France par la DGLFLF (Journal officiel du 27 février 2003) et par FranceTerme, connue aussi sous l'expression de fouille de données, forage de données, prospection de données,, ou encore extraction de connaissances à partir de données, a pour objet l’extraction d'un savoir ou d'une connaissance à partir de grandes quantités de données, par des méthodes automatiques ou semi-automatiques.

Nouveau!!: Parallélisme (informatique) et Exploration de données · Voir plus »

F Sharp

F# est un langage de programmation fonctionnel, impératif et orienté objet pour la plate-forme.NET.

Nouveau!!: Parallélisme (informatique) et F Sharp · Voir plus »

Famine (informatique)

La famine est un problème que peut avoir un algorithme d'exclusion mutuelle, lorsqu'un processus est perpétuellement privé des ressources nécessaires afin de terminer son exécution.

Nouveau!!: Parallélisme (informatique) et Famine (informatique) · Voir plus »

File (structure de données)

En informatique, une file dite aussi file d'attente (en anglais queue) est un type abstrait basé sur le principe « premier entré, premier sorti » ou PEPS, désigné en anglais par l'acronyme FIFO: les premiers éléments ajoutés à la file seront les premiers à en être retirés.

Nouveau!!: Parallélisme (informatique) et File (structure de données) · Voir plus »

File d'attente de message

Une file d'attente de message ou simplement file de messages est une technique de programmation utilisée pour la communication interprocessus ou la communication de serveur-à-serveur.

Nouveau!!: Parallélisme (informatique) et File d'attente de message · Voir plus »

Filtre (informatique)

En informatique, un filtre est un programme permettant d'effectuer des transformations sur les flux de données.

Nouveau!!: Parallélisme (informatique) et Filtre (informatique) · Voir plus »

Fonction récursive

En informatique et en mathématiques, le terme fonction récursive ou fonction calculable désigne la classe de fonctions dont les valeurs peuvent être calculées à partir de leurs paramètres par un processus mécanique fini.

Nouveau!!: Parallélisme (informatique) et Fonction récursive · Voir plus »

Fortran

240x240px Simulation en Fortran de l'accrétion autour d'un trou noir (www.bhac.science). Densité à gauche et densité d'énergie magnétique à droite (zoom). Fortran est un langage de programmation généraliste dont le domaine de prédilection est le calcul scientifique et le calcul numérique.

Nouveau!!: Parallélisme (informatique) et Fortran · Voir plus »

Fréquence d'horloge

La fréquence d'horloge d'un circuit numérique synchrone est la fréquence de son signal d'horloge (nombre de cycles par seconde).

Nouveau!!: Parallélisme (informatique) et Fréquence d'horloge · Voir plus »

Gene Amdahl

Gene Myron Amdahl, né le à Flandreau (Dakota du Sud), et mort le à Palo Alto (Californie), d'une pneumonie, est un informaticien et un entrepreneur américain, principalement connu pour son travail sur l'architecture des ordinateurs centraux.

Nouveau!!: Parallélisme (informatique) et Gene Amdahl · Voir plus »

Grappe de serveurs

On parle de grappe de serveurs, de cluster, de groupement de serveurs ou de ferme de calcul (computer cluster en anglais) pour désigner des techniques consistant à regrouper plusieurs ordinateurs indépendants appelés nœuds (node en anglais), afin de permettre une gestion globale et de dépasser les limitations d'un ordinateur pour.

Nouveau!!: Parallélisme (informatique) et Grappe de serveurs · Voir plus »

Grec ancien

Le grec ancien est l’étape historique de la langue grecque qui s'étend du au Principale langue parlée et écrite en Grèce antique, elle devient le vecteur de la littérature grecque antique qui produit de nombreuses œuvres littéraires et scientifiques à l'influence durable, dont l’Iliade et l’Odyssée attribuées dans l'Antiquité au poète légendaire Homère.

Nouveau!!: Parallélisme (informatique) et Grec ancien · Voir plus »

Grille informatique

Une grille informatique (en anglais) est une infrastructure virtuelle constituée d'un ensemble de ressources informatiques potentiellement partagées, distribuées, hétérogènes, délocalisées et autonomes.

Nouveau!!: Parallélisme (informatique) et Grille informatique · Voir plus »

Honeywell

FMS de marque Honeywell dans un Boeing 767-300. Honeywell International Inc. est une société américaine fondée en 1906.

Nouveau!!: Parallélisme (informatique) et Honeywell · Voir plus »

IBM

International Business Machines Corporation, connue sous le sigle IBM, est une entreprise multinationale américaine présente dans les domaines du matériel informatique, du logiciel et des services informatiques.

Nouveau!!: Parallélisme (informatique) et IBM · Voir plus »

Infographie

L'infographie est le domaine de la création d'images numériques assistée par ordinateur.

Nouveau!!: Parallélisme (informatique) et Infographie · Voir plus »

Informatique

bibliothèque d'Art et d'Archéologie de Genève (2017). L'informatique est un domaine d'activité scientifique, technique, et industriel concernant le traitement automatique de l'information numérique par l'exécution de programmes informatiques hébergés par des dispositifs électriques-électroniques: des systèmes embarqués, des ordinateurs, des robots, des automates Ces champs d'application peuvent être séparés en deux branches.

Nouveau!!: Parallélisme (informatique) et Informatique · Voir plus »

Instruction informatique

Une instruction informatique désigne une étape dans un programme informatique.

Nouveau!!: Parallélisme (informatique) et Instruction informatique · Voir plus »

Intel

Intel Corporation est une entreprise américaine fondée en 1968 par Gordon Moore, Robert Noyce et Andrew Grove.

Nouveau!!: Parallélisme (informatique) et Intel · Voir plus »

Intel Pentium

LIntel Pentium est le microprocesseur de de la famille Intel x86.

Nouveau!!: Parallélisme (informatique) et Intel Pentium · Voir plus »

Intelligence artificielle

assistants personnels intelligents sont l'une des applications concrètes de l'intelligence artificielle dans les années 2010. L'intelligence artificielle (IA) est un ensemble de théories et de techniques visant à réaliser des machines capables de simuler l'intelligence humaine.

Nouveau!!: Parallélisme (informatique) et Intelligence artificielle · Voir plus »

Interblocage

Exemple d'interblocage: le processus ''P1'' utilise la ressource ''R2'' qui est attendue par le processus ''P2'' qui utilise la ressource ''R1'', attendue par ''P1''. Un interblocage (ou étreinte fatale, deadlock en anglais) est un phénomène qui peut survenir en programmation concurrente.

Nouveau!!: Parallélisme (informatique) et Interblocage · Voir plus »

Interface de programmation

routine appelant une base de données dans une interface de programmation. En informatique, une interface de programmation d’application ou interface de programmation applicative, souvent désignée par le terme API pour « » en anglais, est un ensemble normalisé de classes, de méthodes, de fonctions et de constantes qui sert de façade par laquelle un logiciel offre des services à d'autres logiciels.

Nouveau!!: Parallélisme (informatique) et Interface de programmation · Voir plus »

J Sharp

J# (prononcé J-Dièse ou J-Sharp en anglais) est un dérivé non officiel de Java créé par Microsoft (Microsoft n'ayant plus le droit de créer des produits officiellement en rapport avec Java), issu de J++, et permettant de créer des applications pour l'environnement d'exécution.NET.

Nouveau!!: Parallélisme (informatique) et J Sharp · Voir plus »

Jean Ichbiah

Jean David Ichbiah est un ingénieur français né le à Paris et mort le à Boston.

Nouveau!!: Parallélisme (informatique) et Jean Ichbiah · Voir plus »

John L. Hennessy

John Leroy Hennessy est un informaticien américain né le.

Nouveau!!: Parallélisme (informatique) et John L. Hennessy · Voir plus »

Langage formel

Un langage formel, en mathématiques, en informatique et en linguistique, est un ensemble de mots.

Nouveau!!: Parallélisme (informatique) et Langage formel · Voir plus »

Language Integrated Query

Language Integrated Query (« requête intégrée au langage », aussi connu sous le nom de LINQ) est un composant du framework.NET de Microsoft qui ajoute des capacités d'interrogation sur des données aux langages.NET en utilisant une syntaxe proche de celle de SQL.

Nouveau!!: Parallélisme (informatique) et Language Integrated Query · Voir plus »

Leslie Lamport

Leslie B. Lamport, né le à New York, est un chercheur en informatique américain, spécialiste de l'algorithmique répartie.

Nouveau!!: Parallélisme (informatique) et Leslie Lamport · Voir plus »

Logique modale

En logique mathématique, une logique modale est un type de logique formelle qui étend la logique propositionnelle, la logique du premier ordre ou la logique d'ordre supérieur avec des modalités.

Nouveau!!: Parallélisme (informatique) et Logique modale · Voir plus »

Loi d'Amdahl

En architecture informatique, la loi d'Amdahl donne l'accélération théorique en latence de l'exécution d'une tâche à charge d'exécution constante que l'on peut attendre d'un système dont on améliore les ressources.

Nouveau!!: Parallélisme (informatique) et Loi d'Amdahl · Voir plus »

Loi de Gustafson

En architecture informatique, la loi de Gustafson donne l'accélération théorique en latence de l'exécution d'une tâche à temps d'exécution constant que l'on peut attendre d'un système dont on améliore les ressources.

Nouveau!!: Parallélisme (informatique) et Loi de Gustafson · Voir plus »

Loi de Moore

mois. Les lois de Moore sont des lois empiriques qui ont trait à l'évolution de la puissance de calcul des ordinateurs et de la complexité du matériel informatique.

Nouveau!!: Parallélisme (informatique) et Loi de Moore · Voir plus »

Machine de Turing

En informatique théorique, une machine de Turing est un modèle abstrait du fonctionnement des appareils mécaniques de calcul, tel un ordinateur.

Nouveau!!: Parallélisme (informatique) et Machine de Turing · Voir plus »

Machine virtuelle

Palm. En informatique, une machine virtuelle (anglais virtual machine, abr. VM) est d'un appareil informatique créée par un logiciel d'émulation ou instanciée sur un hyperviseur.

Nouveau!!: Parallélisme (informatique) et Machine virtuelle · Voir plus »

MapReduce

MapReduce est un patron de conception de développement informatique, inventé par Google, dans lequel sont effectués des calculs parallèles, et souvent distribués, de données potentiellement très volumineuses, typiquement supérieures en taille à un téraoctet.

Nouveau!!: Parallélisme (informatique) et MapReduce · Voir plus »

Massachusetts Institute of Technology

Le grand dôme du MIT. Le Massachusetts Institute of Technology (MIT), en français Institut de technologie du Massachusetts, est un institut de recherche américain et une université, spécialisé dans les domaines de la science et de la technologie.

Nouveau!!: Parallélisme (informatique) et Massachusetts Institute of Technology · Voir plus »

Mémoire (informatique)

En informatique, la mémoire est un dispositif électronique numérique qui sert à stocker des données.

Nouveau!!: Parallélisme (informatique) et Mémoire (informatique) · Voir plus »

Mémoire cache

Une mémoire cache ou antémémoire est, en informatique, une mémoire qui enregistre temporairement des copies de données provenant d'une source, afin de diminuer le temps d'un accès ultérieur (en lecture) d'un matériel informatique (en général, un processeur) à ces données.

Nouveau!!: Parallélisme (informatique) et Mémoire cache · Voir plus »

Mémoire distribuée

Exemple de mémoire distribuée sur trois systèmes La mémoire d'un système informatique multiprocesseur est dite distribuée lorsque la mémoire est répartie en plusieurs nœuds, chaque portion n'étant accessible qu'à certains processeurs.

Nouveau!!: Parallélisme (informatique) et Mémoire distribuée · Voir plus »

Mémoire partagée (communication inter-processus)

Dans un contexte de la programmation concurrente, le partage de mémoire est un moyen de partager des données entre différents processus: une même zone de la mémoire vive est accédée par plusieurs processus.

Nouveau!!: Parallélisme (informatique) et Mémoire partagée (communication inter-processus) · Voir plus »

Mémoire transactionnelle logicielle

En informatique, la mémoire transactionnelle logicielle, en anglais software transactional memory (STM), est un mécanisme de contrôle de concurrence analogue aux transactions de base de données pour contrôler l'accès à la mémoire partagée dans la programmation concurrente.

Nouveau!!: Parallélisme (informatique) et Mémoire transactionnelle logicielle · Voir plus »

Mémoire vive

La mémoire vive, parfois abrégée avec l'acronyme anglais RAM (random-access memory), est la mémoire informatique dans laquelle peuvent être enregistrées les informations traitées par un appareil informatique.

Nouveau!!: Parallélisme (informatique) et Mémoire vive · Voir plus »

Méthode de Newton

Une itération de la méthode de Newton. En analyse numérique, la méthode de Newton ou méthode de Newton-Raphson est, dans son application la plus simple, un algorithme efficace pour trouver numériquement une approximation précise d'un zéro (ou racine) d'une fonction réelle d'une variable réelle.

Nouveau!!: Parallélisme (informatique) et Méthode de Newton · Voir plus »

Méthode itérative

En analyse numérique, une méthode itérative est un procédé algorithmique utilisé pour résoudre un problème, par exemple la recherche d’une solution d’un système d'équations ou d’un problème d’optimisation.

Nouveau!!: Parallélisme (informatique) et Méthode itérative · Voir plus »

Message Passing Interface

(MPI) est un outil pour le calcul scientifique à haute performance qui permet d'utiliser plusieurs ordinateurs.

Nouveau!!: Parallélisme (informatique) et Message Passing Interface · Voir plus »

Michael J. Flynn

Michael J. Flynn (né le) est un professeur émérite américain à l'Université Stanford.

Nouveau!!: Parallélisme (informatique) et Michael J. Flynn · Voir plus »

Microprocesseur multi-cœur

Un processeur quad-core AMD Opteron. L’Intel Core 2 Duo E6300 est un processeur double cœur. Un microprocesseur multi-cœur (multi-core en anglais) est un microprocesseur possédant plusieurs cœurs physiques fonctionnant simultanément.

Nouveau!!: Parallélisme (informatique) et Microprocesseur multi-cœur · Voir plus »

Microsoft .NET

Microsoft.NET ou simplement.NET (prononcé « dot net ») est le nom donné à un ensemble de produits et de technologies informatiques de l'entreprise Microsoft pour rendre des applications facilement portables sur Internet.

Nouveau!!: Parallélisme (informatique) et Microsoft .NET · Voir plus »

Middleware

En architecture informatique, un (anglicisme) ou intergiciel est un logiciel tiers qui crée un réseau d'échange d'informations entre différentes applications informatiques.

Nouveau!!: Parallélisme (informatique) et Middleware · Voir plus »

Modèle d'acteur

En informatique, le modèle d'acteur est un modèle mathématique qui considère des acteurs comme les seules fonctions primitives nécessaires pour la programmation concurrente.

Nouveau!!: Parallélisme (informatique) et Modèle d'acteur · Voir plus »

Mode d'adressage

Les modes d'adressage sont un aspect de l'architecture des processeurs et de leurs jeux d'instructions.

Nouveau!!: Parallélisme (informatique) et Mode d'adressage · Voir plus »

Moniteur (programmation)

Un moniteur est une approche pour synchroniser deux ou plusieurs tâches qui utilisent des ressources partagées, habituellement des appareils séparés (imprimantes) ou des ensembles de variables.

Nouveau!!: Parallélisme (informatique) et Moniteur (programmation) · Voir plus »

Mot (architecture informatique)

En architecture informatique, un mot est une unité de base manipulée par un microprocesseur.

Nouveau!!: Parallélisme (informatique) et Mot (architecture informatique) · Voir plus »

Multics

Multics (acronyme de) est le nom d'un système d'exploitation en temps partagé.

Nouveau!!: Parallélisme (informatique) et Multics · Voir plus »

Multiple instructions on multiple data

Principe du mode MIMD Multiple Instructions multiple data ou MIMD un des quatre modes de fonctionnement défini par la taxonomie de Flynn et désigne les machines multi-processeurs où chaque processeur exécute son code de manière asynchrone et indépendante.

Nouveau!!: Parallélisme (informatique) et Multiple instructions on multiple data · Voir plus »

Multiple instructions single data

Multiple instructions single data (ou MISD) est une des quatre catégories d'architecture définies par la taxinomie de Flynn et désigne un mode de fonctionnement des ordinateurs dotés de plusieurs unités arithmétiques et logiques fonctionnant en parallèle.

Nouveau!!: Parallélisme (informatique) et Multiple instructions single data · Voir plus »

Multiprocesseur

vignette Un ordinateur multiprocesseur est doté de plusieurs processeurs, et est donc une forme d'architecture parallèle.

Nouveau!!: Parallélisme (informatique) et Multiprocesseur · Voir plus »

Multitraitement asymétrique

Les processeurs multicœurs asymétriques ont souvent des mémoires séparées par type de cœurs. On parle de multitraitement asymétrique (en anglais, asymmetric multiprocessing ou AMP ou ASMP) dans le cas d'une architecture multiprocesseur où tous les processeurs ne sont pas traités de la même façon par le système d'exploitation.

Nouveau!!: Parallélisme (informatique) et Multitraitement asymétrique · Voir plus »

Nombre premier

Entiers naturels de zéro à cent. Les nombres premiers sont marqués en rouge. 7 est premier car il admet exactement deux diviseurs positifs distincts. Un nombre premier est un entier naturel qui admet exactement deux diviseurs distincts entiers et positifs.

Nouveau!!: Parallélisme (informatique) et Nombre premier · Voir plus »

Non uniform memory access

En informatique, un système NUMA (pour non uniform memory access ou non uniform memory architecture, signifiant respectivement accès mémoire non uniforme et architecture mémoire non uniforme) est un système multiprocesseur dans lequel les zones mémoire sont séparées et placées en différents endroits (et sur différents bus).

Nouveau!!: Parallélisme (informatique) et Non uniform memory access · Voir plus »

Occam (langage)

Le langage de programmation Occam est un langage de programmation adapté à l'architecture parallèle, apparu en 1983.

Nouveau!!: Parallélisme (informatique) et Occam (langage) · Voir plus »

OpenMP

() est une interface de programmation pour le calcul parallèle sur architecture à mémoire partagée.

Nouveau!!: Parallélisme (informatique) et OpenMP · Voir plus »

Ordinateur

Un ordinateur est un système de traitement de l'information programmable tel que défini par Alan Turing et qui fonctionne par la lecture séquentielle d'un ensemble d'instructions, organisées en programmes, qui lui font exécuter des opérations logiques et arithmétiques.

Nouveau!!: Parallélisme (informatique) et Ordinateur · Voir plus »

Ordinateur personnel

L'ordinateur personnel (en anglais: personal computer ou PC) se confond aujourd'hui avec le micro-ordinateur ou ordinateur individuel: c'est un ordinateur destiné à l'usage d'une personne, de prix accessible et dont les dimensions sont assez réduites pour tenir sur un bureau.

Nouveau!!: Parallélisme (informatique) et Ordinateur personnel · Voir plus »

Ordonnancement dans les systèmes d'exploitation

Dans les systèmes d'exploitation, l’ordonnanceur est le composant du noyau du système d'exploitation choisissant l'ordre d'exécution des processus sur les processeurs d'un ordinateur.

Nouveau!!: Parallélisme (informatique) et Ordonnancement dans les systèmes d'exploitation · Voir plus »

Overhead

* Un overhead est un coup au badminton.

Nouveau!!: Parallélisme (informatique) et Overhead · Voir plus »

Parallel Virtual Machine

Parallel Virtual Machine (PVM) est un ensemble de bibliothèques logicielles et outils libres de communication (langages C et Fortran) pour machines parallèles et réseau d'ordinateurs (locaux ou distants, éventuellement hétérogènes).

Nouveau!!: Parallélisme (informatique) et Parallel Virtual Machine · Voir plus »

Passage de messages

Le modèle de passage de messages (message passing en anglais) est un modèle de communication entre ordinateurs ou entre processus à l'intérieur d'un même ordinateur.

Nouveau!!: Parallélisme (informatique) et Passage de messages · Voir plus »

Pentium 4

Le Pentium 4, produit par Intel, est un microprocesseur x86 de septième génération inaugurant la microarchitecture NetBurst.

Nouveau!!: Parallélisme (informatique) et Pentium 4 · Voir plus »

Pi

π. (pi), appelé parfois constante d’ArchimèdePi est appelé parfois la constante d’Archimède en raison de la contribution d'Archimède au calcul de l'aire d'un disque ou d'une sphère, et parce qu'il a été le premier à donner une méthode d'encadrement de la valeur numérique de Pi.

Nouveau!!: Parallélisme (informatique) et Pi · Voir plus »

Pi-calcul

Le Pi-calcul (ou π-calcul) est un langage de programmation théorique inventé par Robin Milner.

Nouveau!!: Parallélisme (informatique) et Pi-calcul · Voir plus »

Pipeline (architecture des processeurs)

Plan d'un pipeline générique à trois étapes En microarchitecture, un (ou chaîne de traitement), est l'élément d'un processeur dans lequel l'exécution des instructions est découpée en plusieurs étapes.

Nouveau!!: Parallélisme (informatique) et Pipeline (architecture des processeurs) · Voir plus »

Prévision numérique du temps

La prévision numérique du temps (PNT) est une application de la météorologie et de l'informatique.

Nouveau!!: Parallélisme (informatique) et Prévision numérique du temps · Voir plus »

Problème à N corps

Modélisation du mouvement de trois particules, montrant le caractère chaotique de leurs trajectoires. Le problème à N corps est un problème de mécanique céleste consistant à déterminer les trajectoires d'un ensemble de N corps s'attirant mutuellement; plus précisément, il s'agit de résoudre les équations du mouvement de Newton pour N corps interagissant gravitationnellement, connaissant leurs masses ainsi que leurs positions et vitesses initiales.

Nouveau!!: Parallélisme (informatique) et Problème à N corps · Voir plus »

Problème des lecteurs et des rédacteurs

Le problème des lecteurs et des rédacteurs est un problème classique en théorie informatique, qui permet de modéliser les accès à des bases de données.

Nouveau!!: Parallélisme (informatique) et Problème des lecteurs et des rédacteurs · Voir plus »

Problème des producteurs et des consommateurs

Le problème des producteurs et des consommateurs est un exemple informatique de synchronisation de ressources, qui peut s'envisager dans différents contextes de programmation concurrente, notamment en environnement multi-thread.

Nouveau!!: Parallélisme (informatique) et Problème des producteurs et des consommateurs · Voir plus »

Processeur

Processeur intel-core i7-12700KF Un processeur (ou unité centrale de calcul, UCC; en anglais central processing unit, CPU) est un composant présent dans de nombreux dispositifs électroniques qui exécute les instructions machine des programmes informatiques.

Nouveau!!: Parallélisme (informatique) et Processeur · Voir plus »

Processeur à jeu d'instructions réduit

Un processeur à jeu d'instructions réduit (en anglais RISC pour Reduced instruction set computer) est un type d'architecture de processeur qui se caractérise par un jeu d'instructions visant la rapidité d'exécution grâce à la facilité de décodage et d'exécution en pipeline des instructions machine.

Nouveau!!: Parallélisme (informatique) et Processeur à jeu d'instructions réduit · Voir plus »

Processeur superscalaire

Un processeur est dit superscalaire s'il est capable d'exécuter plusieurs instructions simultanément parmi une suite d'instructions.

Nouveau!!: Parallélisme (informatique) et Processeur superscalaire · Voir plus »

Processeur vectoriel

Cray-1. Un processeur vectoriel est un processeur possédant diverses fonctionnalités architecturales lui permettant d'améliorer l’exécution de programmes utilisant massivement des tableaux, des matrices, et qui permet de profiter du parallélisme inhérent à l'usage de ces derniers.

Nouveau!!: Parallélisme (informatique) et Processeur vectoriel · Voir plus »

Processus (informatique)

Un processus (en anglais, process), en informatique, est un programme en cours d'exécution par un ordinateur.

Nouveau!!: Parallélisme (informatique) et Processus (informatique) · Voir plus »

Programmation concurrente

La programmation concurrente est un paradigme de programmation tenant compte, dans un programme, de l'existence de plusieurs piles sémantiques qui peuvent être appelées threads, processus ou tâches.

Nouveau!!: Parallélisme (informatique) et Programmation concurrente · Voir plus »

RAID (informatique)

Schéma de principe d'une grappe de disques en RAID 5 Le RAID est un ensemble de techniques de virtualisation du stockage permettant de répartir des données sur plusieurs disques durs afin d'améliorer soit les performances, soit la sécurité ou la tolérance aux pannes de l'ensemble du ou des systèmes.

Nouveau!!: Parallélisme (informatique) et RAID (informatique) · Voir plus »

Ray tracing

Exemple d'image de synthèse montrant la réfraction dans cinq milieux différents: dans l'air, dans le liquide bleu, dans le liquide rouge, dans le verre et dans le tube de plastique (les images sont déformées par le changement d'indice optique). Le lancer de rayons.

Nouveau!!: Parallélisme (informatique) et Ray tracing · Voir plus »

Réentrance

En informatique, la réentrance est la propriété pour une fonction d'être utilisable simultanément par plusieurs tâches utilisatrices.

Nouveau!!: Parallélisme (informatique) et Réentrance · Voir plus »

Répartition de charge

serveurs accédés par 4 postes clients, ici le switch et le répartiteur sont deux points de panne potentiels, aucun des deux n'est doublé.En informatique, la répartition de charge désigne le processus de répartition d’un ensemble de tâches sur un ensemble de ressources, dans le but d’en rendre le traitement global plus efficace.

Nouveau!!: Parallélisme (informatique) et Répartition de charge · Voir plus »

Réseau de neurones artificiels

Un réseau de neurones artificiels.

Nouveau!!: Parallélisme (informatique) et Réseau de neurones artificiels · Voir plus »

Réseau de Petri

Un réseau de Petri (aussi connu comme un réseau de Place/Transition ou réseau de P/T) est un modèle mathématique servant à représenter divers systèmes (informatiques, industriels…) travaillant sur des variables discrètes.

Nouveau!!: Parallélisme (informatique) et Réseau de Petri · Voir plus »

Réseau systolique

Dans les architectures informatiques parallèles, un réseau systolique est un réseau homogène d'unités de traitement de données (DPU) étroitement couplées appelées cellules ou nœuds.

Nouveau!!: Parallélisme (informatique) et Réseau systolique · Voir plus »

Renommage de registres

En architecture des ordinateurs, on appelle renommage de registres le fait qu'une microarchitecture alloue dynamiquement les registres architecturaux à un ensemble plus vaste de registres physiques au cours de l'exécution d'un programme.

Nouveau!!: Parallélisme (informatique) et Renommage de registres · Voir plus »

Roadrunner (supercalculateur)

Roadrunner est le premier supercalculateur américain à avoir officiellement dépassé la puissance de 1 pétaFLOPS (soit 1015 opérations flottantes par seconde).

Nouveau!!: Parallélisme (informatique) et Roadrunner (supercalculateur) · Voir plus »

Série (mathématiques)

Animation qui explique pourquoi la série \frac12 + \frac14 + \frac18 + \frac116 + \frac132 + \cdots vaut 1. Le nombre π peut être défini comme la somme de la série de terme \tfraca_n10^noù a_n est la n-ième décimale de π. En mathématiques, une série est grosso modo une somme infinie.

Nouveau!!: Parallélisme (informatique) et Série (mathématiques) · Voir plus »

Section critique

En programmation concurrente, une section critique est une portion de code dans laquelle il doit être garanti qu'il n'y aura jamais plus d'un thread simultanément.

Nouveau!!: Parallélisme (informatique) et Section critique · Voir plus »

Seymour Cray

Seymour Roger Cray, né le à Chippewa Falls dans le Wisconsin et mort le, est un ingénieur américain.

Nouveau!!: Parallélisme (informatique) et Seymour Cray · Voir plus »

Signal d'horloge

Un signal d'horloge est typiquement un signal carré. Un signal d'horloge est produit par un générateur d'horloge, ici dans un ordinateur de bureau, constitué d'une puce (à droite) et d'un résonateur (à gauche). Connecteur PS/2: le signal d'horloge se trouve sur les broches 5 et 6, respectivement pour la souris et le clavier. Un signal d’horloge est, en électronique, et particulièrement en électronique numérique, un signal électrique oscillant qui rythme les actions d'un circuit.

Nouveau!!: Parallélisme (informatique) et Signal d'horloge · Voir plus »

Simultaneous multithreading

Le simultaneous multithreading (SMT) est une technique informatique datant des années 1960.

Nouveau!!: Parallélisme (informatique) et Simultaneous multithreading · Voir plus »

Single instruction multiple data

(signifiant en anglais: « instruction unique, données multiples »), ou SIMD, est une des quatre catégories d'architecture définies par la taxonomie de Flynn en 1966 et désigne un mode de fonctionnement des ordinateurs dotés de capacités de parallélisme.

Nouveau!!: Parallélisme (informatique) et Single instruction multiple data · Voir plus »

Single instruction on single data

Représentation de l’architecture SISD ou encore single instruction on single data est un terme désignant une architecture matérielle dans laquelle un seul processeur exécute un seul flot d'instruction sur des données résidant dans une seule mémoire.

Nouveau!!: Parallélisme (informatique) et Single instruction on single data · Voir plus »

Situation de compétition

Une situation de compétition (ou situation de concurrence, accès concurrent, concurrence critique, course critique, séquencement critique; race condition en anglais, littéralement « situation de course »), est une situation caractérisée par un résultat différent selon l'ordre dans lequel agissent les acteurs du système.

Nouveau!!: Parallélisme (informatique) et Situation de compétition · Voir plus »

Spinlock

En programmation informatique et plus particulièrement en programmation concurrente, le spinlock ou verrou tournant est un mécanisme simple de synchronisation basé sur l'attente active.

Nouveau!!: Parallélisme (informatique) et Spinlock · Voir plus »

Suite de Fibonacci

Une juxtaposition de carrés dont les côtés ont pour longueur des nombres successifs de la suite de Fibonacci: 1, 1, 2, 3, 5, 8, 13 et 21. En mathématiques, la suite de Fibonacci est une suite de nombres entiers dans laquelle chaque nombre est la somme des deux nombres qui le précèdent.

Nouveau!!: Parallélisme (informatique) et Suite de Fibonacci · Voir plus »

Superordinateur

consulté le.

Nouveau!!: Parallélisme (informatique) et Superordinateur · Voir plus »

Symmetric multiprocessing

Un multiprocesseur symétrique (à mémoire partagée), ou symmetric shared memory multiprocessor (SMP), est une architecture parallèle qui consiste à multiplier les processeurs identiques au sein d'un ordinateur, de manière à augmenter la puissance de calcul, tout en conservant une unique mémoire.

Nouveau!!: Parallélisme (informatique) et Symmetric multiprocessing · Voir plus »

Synchronisation (multitâches)

En programmation concurrente, la synchronisation se réfère à deux concepts distincts mais liés: la synchronisation de processus et la synchronisation de données.

Nouveau!!: Parallélisme (informatique) et Synchronisation (multitâches) · Voir plus »

Système d'exploitation

En informatique, un système d'exploitation (souvent appelé OS — de l'anglais — ou parfois SE — en français) est un ensemble de programmes qui dirige l'utilisation des ressources d'un ordinateur par des logiciels applicatifs.

Nouveau!!: Parallélisme (informatique) et Système d'exploitation · Voir plus »

Système de gestion de base de données

Un (abr. SGBD) est un logiciel système servant à stocker, à manipuler ou gérer, et à partager des données dans une base de données, en garantissant la qualité, la pérennité et la confidentialité des informations, tout en cachant la complexité des opérations.

Nouveau!!: Parallélisme (informatique) et Système de gestion de base de données · Voir plus »

Système temps réel

En informatique, on parle d'un système temps réel lorsque ce système est capable de contrôler (ou piloter) un procédé physique à une vitesse adaptée à l'évolution du procédé contrôlé.

Nouveau!!: Parallélisme (informatique) et Système temps réel · Voir plus »

Taxonomie de Flynn

La taxonomie de Flynn est une classification des architectures d'ordinateur, proposée par Michael Flynn en 1966.

Nouveau!!: Parallélisme (informatique) et Taxonomie de Flynn · Voir plus »

Théorie de la complexité (informatique théorique)

P est la classe des problèmes décidés en temps polynomial par une machine de Turing déterministe. La théorie de la complexité est le domaine des mathématiques, et plus précisément de l'informatique théorique, qui étudie formellement le temps de calcul, l'espace mémoire (et plus marginalement la taille d'un circuit, le nombre de processeurs, l'énergie consommée…) requis par un algorithme pour résoudre un problème algorithmique.

Nouveau!!: Parallélisme (informatique) et Théorie de la complexité (informatique théorique) · Voir plus »

Thread (informatique)

threads''. Un ou fil (traduction normalisés par ISO/CEI 2382-7:2000 (autres appellations connues: processus léger, fil d'exécution, fil d'instruction, processus allégé, filet d'exécutionLarousse référence: dictionnaire de l'informatique, sous la direction de Pierre Morvan, 1996, exétron, tâche, voire unité d'exécution ou unité de traitement) est similaire à un processus car tous deux représentent l'exécution d'un ensemble d'instructions du langage machine d'un processeur. Du point de vue de l'utilisateur, ces exécutions semblent se dérouler en parallèle. Toutefois, là où chaque processus possède sa propre mémoire virtuelle, les d'un même processus se partagent sa mémoire virtuelle. En revanche, tous les possèdent leur propre pile d'exécution.

Nouveau!!: Parallélisme (informatique) et Thread (informatique) · Voir plus »

Thread safety

La thread safety d'un code (qu'on appelle alors « code thread-safe ») est la propriété de celui-ci associée au fait qu'il est capable de fonctionner correctement lorsqu'il est exécuté simultanément au sein du même espace d'adressage par plusieurs threads.

Nouveau!!: Parallélisme (informatique) et Thread safety · Voir plus »

Threads POSIX

Les threads POSIX, souvent appelés pthreads, sont un sous-standard de la norme POSIX décrivant une interface de programmation permettant de gérer des threads.

Nouveau!!: Parallélisme (informatique) et Threads POSIX · Voir plus »

Traitement d'images

Le traitement d'images est une discipline de l'informatique et des mathématiques appliquées qui étudie les images numériques et leurs transformations, dans le but d'améliorer leur qualité ou d'en extraire de l'information.

Nouveau!!: Parallélisme (informatique) et Traitement d'images · Voir plus »

Traitement de l'information

Le traitement de l'information est le processus de changement de l'information de toute manière détectable par un observateur.

Nouveau!!: Parallélisme (informatique) et Traitement de l'information · Voir plus »

Traitement du signal

Le traitement du signal est la discipline qui développe et étudie les techniques de traitement, d'analyse et d' des.

Nouveau!!: Parallélisme (informatique) et Traitement du signal · Voir plus »

Transistor

Quelques modèles de transistors. Le transistor est un composant électronique à semi-conducteur permettant de contrôler ou d'amplifier des tensions et des courants électriques.

Nouveau!!: Parallélisme (informatique) et Transistor · Voir plus »

Tri fusion

En informatique, le tri fusion, ou tri dichotomique, est un algorithme de tri par comparaison stable.

Nouveau!!: Parallélisme (informatique) et Tri fusion · Voir plus »

Tri rapide

En informatique, le tri rapide ou tri pivot (en anglais quicksort) est un algorithme de tri inventé par C.A.R. Hoare en 1961 et fondé sur la méthode de conception diviser pour régner.

Nouveau!!: Parallélisme (informatique) et Tri rapide · Voir plus »

Tube anonyme

En génie logiciel, un tube anonyme ou canal de communication est un des mécanismes de gestion de flux de données appelé tube.

Nouveau!!: Parallélisme (informatique) et Tube anonyme · Voir plus »

Unified Parallel C

Unified Parallel C (UPC) est une extension du langage de programmation C conçue pour les calculs hautes-performances sur des supercalculateurs parallèles, y compris les architectures à espace d'adressage global (SMP et NUMA) et celles à mémoire distribuée (clusters).

Nouveau!!: Parallélisme (informatique) et Unified Parallel C · Voir plus »

Variable (informatique)

En informatique, les variables sont des symboles qui associent un nom (l'identifiant) à une valeur.

Nouveau!!: Parallélisme (informatique) et Variable (informatique) · Voir plus »

VAX

Logo du Digital VAX 11. La famille d'ordinateurs VAX-11 (ou simplement VAX) conçue au sein de la société Digital Equipment Corporation (DEC) par Gordon Bell, Bill Demmer, Richie Lary, Steve Rothman et Bill Strecker à partir de 1975 connut un très grand succès.

Nouveau!!: Parallélisme (informatique) et VAX · Voir plus »

Verrou (informatique)

Un verrou informatique permet de s'assurer qu'une seule personne, ou un seul processus accède à une ressource à un instant donné.

Nouveau!!: Parallélisme (informatique) et Verrou (informatique) · Voir plus »

Very long instruction word

VLIW, initiales de en anglais, traduit littéralement par « mot d'instruction très long », dénote une famille d'ordinateurs dotés d'un processeur à mot d'instruction très long (couramment supérieur à 128 bits).

Nouveau!!: Parallélisme (informatique) et Very long instruction word · Voir plus »

Visual Basic .NET

Visual Basic.NET est un langage de programmation à la syntaxe similaire à celle de Visual Basic 6.

Nouveau!!: Parallélisme (informatique) et Visual Basic .NET · Voir plus »

Yale Patt

Yale Nance Patt, né le, est un professeur américain de génie électrique et informatique à l'Université du Texas à Austin.

Nouveau!!: Parallélisme (informatique) et Yale Patt · Voir plus »

Redirections ici:

Algorithme parallèle, Calcul Parallèle, Calcul parallele, Calcul parallèle, Exécution parallèle, Machine parallèle, Machines parallèles, Massivement parallèle, Parallelisation, Parallelisme (informatique), Parallèlisme (informatique), Parallélisation, Parallélisme au niveau des instructions, Programmation parallèle, Système parallèle.

SortantEntrants
Hey! Nous sommes sur Facebook maintenant! »