Programmation parallèle à grande échelle sur GPU pour les grandes masses de données

Responsable : Lokman Abbas Turki

Objectif : Ce cours introduit la programmation CUDA et présente des éléments d’optimisation mémoire et algorithmique pour le calcul massivement parallèle sur cartes graphiques

Prérequis : Notions fondamentales de probabilités et programmation C

Thèmes abordés :

  • Le streaming multiprocessor et son interprétation en termes de blocks et de threads
  • L’utilisation de la mémoire globale, shared, registres et constante pour une simulation Monte Carlo
  • Locked, mapped memory & concurrency
  • Batch computing et applications : tri fusion, algèbre linéaire, EDP
  • Utilisation GPU pour un problème de deep learning

Ressources : Moodle