Programmation parallèle à grande échelle sur GPU pour les grandes masses de données
Responsable : Lokman Abbas Turki
Objectif : Ce cours introduit la programmation CUDA et présente des éléments d’optimisation mémoire et algorithmique pour le calcul massivement parallèle sur cartes graphiques
Prérequis : Notions fondamentales de probabilités et programmation C
Thèmes abordés :
- Le streaming multiprocessor et son interprétation en termes de blocks et de threads
- L’utilisation de la mémoire globale, shared, registres et constante pour une simulation Monte Carlo
- Locked, mapped memory & concurrency
- Batch computing et applications : tri fusion, algèbre linéaire, EDP
- Utilisation GPU pour un problème de deep learning
Ressources : Moodle