Définition - Que signifie Compute Unified Device Architecture (CUDA)?
L'architecture de périphérique unifiée de calcul est une architecture de calcul parallèle utile pour la prise en charge d'applications qui nécessitent des quantités importantes de traitement parallèle. Il est souvent attribué à la société Nvidia et abrégé CUDA.
Definir Tech explique l'architecture de périphérique unifiée de calcul (CUDA)
Dans un modèle d'architecture de périphérique unifiée de calcul, l'exécution des noyaux de calcul repose sur un traitement parallèle et un jeu d'instructions virtuelles fourni par un processeur multicœur, souvent un GPU.
L'idée est que certaines tâches dites «extrêmement parallèles» comme le rendu de graphiques 3D sophistiqués nécessitent une approche multicœur. Tout d'abord, les fabricants de puces ont commencé à créer des modèles quad-core et d'autres modèles qui introduisaient un simple traitement parallèle.
Mais spécifiquement dans le développement des GPU, les ingénieurs ont proposé des conceptions dotées d'un traitement multicœur très puissant, en raison du nombre de petits cœurs intégrés dans une seule puce. Cela a conduit à CUDA et à des architectures similaires qui aident vraiment à prendre en charge un traitement parallèle robuste et dynamique. Certains d'entre eux utilisent des bibliothèques de bas niveau et des jeux d'instructions limités pour rendre la conception multicœur efficace.