Titre: Parallélisme
Auteurs: Eric Goubault
Ecole: CEA, Thalès
Résumé:
Modèle de programmation – un peu de vocabulaire
- la carte graphique=”GPU” ou “device” est utilisé comme “co- processeur” de calcul pour le processeur de la machine hôte, le PC typiquement ou “host” ou “CPU’
- la mémoire du CPU est distincte de celle du GPU mais on peut faire des recopies de l’un vers l’autre (couteux) une fonction calculée sur le device est appelée “kernel” (noyau)
- le kernel est dupliqué sur le GPU comme un ensemble de threads cet ensemble de threads est organisé de façon logique en une “grid”
- chaque clone du kernel connait sa position dans la grid et peut calculer la fonction définie par le kernel sur différentes données
- cette grid est mappée physiquement sur l’architecture de la carte au “runtime”
Extrait du sommaire:
1 CUDA et architecture NVIDIA
2 L’abstraction logique de l’architecture proposée par CUDA
3 C versus JAVA…
4 API CUDA
5 Un exemple: addition de matrices
6 Revenons `a l’architecture…pour optimiser…
7 Un exemple: transposition de matrices
8 Pour aller plus loin…
Obtenir le fichier PDF: Parallélisme