This is a hands-on, guided project on optimizing your TensorFlow models for inference with NVIDIA's TensorRT. By the end of this 1.5 hour long project, you will be able to optimize Tensorflow models using the TensorFlow integration of NVIDIA's TensorRT (TF-TRT), use TF-TRT to optimize several deep learning models at FP32, FP16, and INT8 precision, and observe how tuning TF-TRT parameters affects performance and inference throughput.

Optimize TensorFlow Models For Deployment with TensorRT
Économisez sur les compétences qui vous font briller avec 40 % de réduction sur 3 mois de Coursera Plus. Économisez maintenant

Optimize TensorFlow Models For Deployment with TensorRT

Instructeur : Snehan Kekre
6 041 déjà inscrits
Inclus avec
(77 avis)
Expérience recommandée
Ce que vous apprendrez
Optimize Tensorflow models using TensorRT (TF-TRT)
Use TF-TRT to optimize several deep learning models at FP32, FP16, and INT8 precision
Observe how tuning TF-TRT parameters affects performance and inference throughput
Compétences que vous pratiquerez
- Catégorie : Performance Tuning
- Catégorie : Deep Learning
- Catégorie : Model Optimization
Outils que vous utiliserez
- Catégorie : Keras (Neural Network Library)
- Catégorie : Model Deployment
- Catégorie : Tensorflow
- Catégorie : Python Programming
Détails à connaître

Ajouter à votre profil LinkedIn
Disponible uniquement sur ordinateur
Découvrez comment les employés des entreprises prestigieuses maîtrisent des compétences recherchées

Apprendre, pratiquer et appliquer des compétences prêtes à l’emploi en moins de 2 heures
- Bénéficiez d’une formation par des experts du secteur
- Gagnez en expérience pratique en effectuant des tâches professionnelles du monde réel
- Renforcez votre confiance en utilisant les outils et technologies les plus récents

À propos de ce Projet Guidé
Apprendrez étape par étape
Votre enseignant(e) vous guidera étape par étape, grâce à une vidéo en écran partagé sur votre espace de travail :
Introduction and Project Overview
Setup your TensorFlow and TensorRT Runtime
Load the Data and Pre-trained InceptionV3 Model
Create batched Input
Load the TensorFlow SavedModel
Get Baseline for Prediction Throughput and Accuracy
Convert a TensorFlow saved model into a TF-TRT Float32 Graph
Benchmark TF-TRT Float32
Convert to TF-TRT Float16 and Benchmark
Converting to TF-TRT INT8
Expérience recommandée
It is assumed that are competent in Python programming and have prior experience with building deep learning models with TensorFlow and its Keras API
7 images de projet
Instructeur

Offert par
Méthode d’apprentissage
Apprentissage pratique basé sur les compétences
Mettez en pratique de nouvelles compétences en effectuant des tâches professionnelles.
Conseils d’experts
Suivez les vidéos pré-enregistrées d’experts à l’aide d’une interface unique, divisée en deux.
Aucun téléchargement ou installation requis(e)
Accédez aux outils et aux ressources dont vous avez besoin dans un espace de travail cloud préconfiguré.
Disponible uniquement sur ordinateur de bureau
Ce Projet Guidé est conçu pour les ordinateurs portables ou de bureau disposant d’une connexion internet fiable, et non pour les appareils mobiles.
Pour quelles raisons les étudiants sur Coursera nous choisissent-ils pour leur carrière ?

Felipe M.

Jennifer J.

Larry W.

Chaitanya A.
Avis des étudiants
- 5 stars
67,53 %
- 4 stars
20,77 %
- 3 stars
5,19 %
- 2 stars
3,89 %
- 1 star
2,59 %
Affichage de 3 sur 77
Révisé le 24 mai 2023
A lot has changed, float32 and float16 are now not faster than normal tensorflow. But but it is really good pipeline for model optimizing.
Révisé le 3 juin 2021
Great workshop, all the concepts were very well explained.
Révisé le 14 mars 2022
The first to introduce such a rare and important topic.
Vous aimerez peut-être aussi
Statut : Essai gratuit
Statut : Essai gratuit
Statut : Essai gratuitDeepLearning.AI
Statut : Essai gratuitDeepLearning.AI




