"This intermediate-level course takes you beyond AI theory into the practical world of Natural Language Processing (NLP) powered by Transformer architectures. You’ll trace the evolution of language models—from traditional statistical methods and recurrent networks to attention-based systems like BERT, GPT, and T5—through engaging demos and real-world case studies.



Expérience recommandée
Ce que vous apprendrez
Master Transformer architectures and attention mechanisms driving modern NLP.
Fine-tune pretrained models using Hugging Face for real-world NLP tasks.
Build, evaluate, and deploy end-to-end NLP workflows with confidence.
Apply Transformers to tasks like summarization, translation, and sentiment.
Compétences que vous acquerrez
- Catégorie : Performance Tuning
- Catégorie : Artificial Neural Networks
Détails à connaître

Ajouter à votre profil LinkedIn
novembre 2025
20 devoirs
Découvrez comment les employés des entreprises prestigieuses maîtrisent des compétences recherchées

Il y a 4 modules dans ce cours
Explore how Natural Language Processing evolved from rule-based and sequential models to attention-driven architectures. Learn tokenization, embeddings, and self-attention concepts through visual demos and hands-on mini-projects that build a strong foundation for understanding Transformers.
Inclus
13 vidéos7 lectures5 devoirs1 sujet de discussion1 laboratoire non noté1 plugin
Dive into the anatomy of major Transformer families like BERT, GPT, and T5. Learn how different pretraining objectives — such as Masked Language Modeling and Causal Language Modeling — shape model capabilities, and practice running inference and fine-tuning tasks using Hugging Face Transformers.
Inclus
12 vidéos5 lectures5 devoirs1 laboratoire non noté
Build and train NLP models end-to-end using Hugging Face pipelines, Datasets, and the Trainer API. Explore dataset preparation, hyperparameter tuning, evaluation metrics, and model deployment to the Hugging Face Hub while learning best practices for debugging and performance monitoring.
Inclus
12 vidéos4 lectures5 devoirs
Apply Transformer models to real-world NLP problems like summarization, question answering, and semantic similarity. Learn optimization techniques such as distillation and quantization, then design and present a capstone NLP project that integrates fine-tuning, evaluation, and deployment workflows.
Inclus
13 vidéos3 lectures5 devoirs
Instructeur

Offert par
Pour quelles raisons les étudiants sur Coursera nous choisissent-ils pour leur carrière ?





Ouvrez de nouvelles portes avec Coursera Plus
Accès illimité à 10,000+ cours de niveau international, projets pratiques et programmes de certification prêts à l'emploi - tous inclus dans votre abonnement.
Faites progresser votre carrière avec un diplôme en ligne
Obtenez un diplôme auprès d’universités de renommée mondiale - 100 % en ligne
Rejoignez plus de 3 400 entreprises mondiales qui ont choisi Coursera pour les affaires
Améliorez les compétences de vos employés pour exceller dans l’économie numérique
Foire Aux Questions
Mid-level professionals, data scientists, and developers seeking hands-on experience with NLP and AI models.
Basic Python and familiarity with data science libraries like NumPy or pandas are recommended.
You’ll primarily use Hugging Face Transformers, Datasets, and Inference APIs, along with Jupyter and Colab.
Plus de questions
Aide financière disponible,

