Découvrez comment accélérer vos calculs en intelligence artificielle grâce au HPC et aux GPU multiples. Cette formation allie théorie et pratique pour optimiser vos modèles avec PyTorch.
Contenu de la formation
- Introduction à CUDA et à l’architecture GPU
- Programmation avec un seul GPU
- Chargement et gestion des données
- Programmation multi-GPU : Data Parallelism & parallélisme de modèles
- Communication inter-GPU et synchronisation
- Profiling et bonnes pratiques
- Évaluation des performances et speedup selon différents paramètres
- Étude de cas pratique
Public visé
- Toute personne intéressée par l’accélération GPU de calculs IA
- Développeurs et chercheurs souhaitant exploiter le parallélisme pour le Deep Learning
Prérequis
- Connaissances en Python et PyTorch
- Bases en calcul haute performance (HPC)
- Compréhension des concepts fondamentaux en machine learning
Pourquoi participer ?
- Apprenez à exploiter plusieurs GPU pour vos projets IA
- Formation pratique et orientée performance
- Évaluez vos modèles avec des metrics réelles et speedup mesurés