Packt

Accelerate Model Training with PyTorch 2.X

il reste 6 jours ! Acquérir des compétences de haut niveau avec Coursera Plus pour 199 $ (régulièrement 399 $). Économisez maintenant.

Ce cours n'est pas disponible en Français (France)

Nous sommes actuellement en train de le traduire dans plus de langues.
Packt

Accelerate Model Training with PyTorch 2.X

Inclus avec Coursera Plus

Obtenez un aperçu d'un sujet et apprenez les principes fondamentaux.
niveau Débutant

Expérience recommandée

8 heures à compléter
Planning flexible
Apprenez à votre propre rythme
Obtenez un aperçu d'un sujet et apprenez les principes fondamentaux.
niveau Débutant

Expérience recommandée

8 heures à compléter
Planning flexible
Apprenez à votre propre rythme

Ce que vous apprendrez

  • Optimize model training using PyTorch and performance tuning techniques.

  • Leverage specialized libraries to enhance CPU-based training.

  • Build efficient data pipelines to improve GPU utilization.

Compétences que vous acquerrez

  • Catégorie : Hardware Architecture
  • Catégorie : PyTorch (Machine Learning Library)
  • Catégorie : LLM Application
  • Catégorie : Scalability
  • Catégorie : Machine Learning
  • Catégorie : Distributed Computing
  • Catégorie : Data Pipelines
  • Catégorie : MLOps (Machine Learning Operations)
  • Catégorie : Computer Architecture
  • Catégorie : Model Deployment
  • Catégorie : Performance Tuning
  • Catégorie : Deep Learning
  • Catégorie : AI Workflows

Détails à connaître

Certificat partageable

Ajouter à votre profil LinkedIn

Récemment mis à jour !

janvier 2026

Évaluations

11 devoirs

Enseigné en Anglais

Découvrez comment les employés des entreprises prestigieuses maîtrisent des compétences recherchées

 logos de Petrobras, TATA, Danone, Capgemini, P&G et L'Oreal

Il y a 11 modules dans ce cours

In this section, we explore the training process of neural networks, analyze factors contributing to computational burden, and evaluate elements influencing training time.

Inclus

2 vidéos3 lectures1 devoir

In this section, we explore techniques to accelerate model training by modifying the software stack and scaling resources. Key concepts include vertical and horizontal scaling, application and environment layer optimizations, and practical strategies for improving efficiency.

Inclus

1 vidéo3 lectures1 devoir

In this section, we explore the PyTorch 2.0 Compile API to accelerate deep learning model training, focusing on graph mode benefits, API usage, and workflow components for performance optimization.

Inclus

1 vidéo3 lectures1 devoir

In this section, we explore using OpenMP for multithreading and IPEX to optimize PyTorch on Intel CPUs, enhancing performance through specialized libraries.

Inclus

1 vidéo3 lectures1 devoir

In this section, we explore building efficient data pipelines to prevent training bottlenecks. Key concepts include configuring workers, optimizing GPU memory transfer, and ensuring continuous data flow for ML model training.

Inclus

1 vidéo2 lectures1 devoir

In this section, we explore model simplification through pruning and compression techniques to improve efficiency without sacrificing performance, using the Microsoft NNI toolkit for practical implementation.

Inclus

1 vidéo3 lectures1 devoir

In this section, we explore mixed precision strategies to optimize model training efficiency by reducing computational and memory demands without sacrificing accuracy, focusing on PyTorch implementation and hardware utilization.

Inclus

1 vidéo3 lectures1 devoir

In this section, we explore distributed training principles, parallel strategies, and PyTorch implementation to enhance model training efficiency through resource distribution.

Inclus

1 vidéo4 lectures1 devoir

In this section, we explore distributed training on multiple CPUs, focusing on benefits, implementation, and using Intel oneCCL for efficient communication in resource-constrained environments.

Inclus

1 vidéo3 lectures1 devoir

In this section, we explore multi-GPU training strategies, analyze interconnection topologies, and configure NCCL for efficient distributed deep learning operations.

Inclus

1 vidéo4 lectures1 devoir

In this section, we explore distributed training on computing clusters, focusing on Open MPI and NCCL for efficient communication and resource management across multiple machines.

Inclus

1 vidéo4 lectures1 devoir

Instructeur

Packt - Course Instructors
Packt
1 365 Cours 361 750 apprenants

Offert par

Packt

En savoir plus sur Machine Learning

Pour quelles raisons les étudiants sur Coursera nous choisissent-ils pour leur carrière ?

Felipe M.

Étudiant(e) depuis 2018
’Pouvoir suivre des cours à mon rythme à été une expérience extraordinaire. Je peux apprendre chaque fois que mon emploi du temps me le permet et en fonction de mon humeur.’

Jennifer J.

Étudiant(e) depuis 2020
’J'ai directement appliqué les concepts et les compétences que j'ai appris de mes cours à un nouveau projet passionnant au travail.’

Larry W.

Étudiant(e) depuis 2021
’Lorsque j'ai besoin de cours sur des sujets que mon université ne propose pas, Coursera est l'un des meilleurs endroits où se rendre.’

Chaitanya A.

’Apprendre, ce n'est pas seulement s'améliorer dans son travail : c'est bien plus que cela. Coursera me permet d'apprendre sans limites.’

Foire Aux Questions