Coursera
Build & Adapt LLM Models with Confidence

Profitez d'une croissance illimitée avec un an de Coursera Plus pour 199 $ (régulièrement 399 $). Économisez maintenant.

Ce cours n'est pas disponible en Français (France)

Nous sommes actuellement en train de le traduire dans plus de langues.
Coursera

Build & Adapt LLM Models with Confidence

Starweaver
 Ashraf S. A. AlMadhoun

Instructeurs : Starweaver

Inclus avec Coursera Plus

Obtenez un aperçu d'un sujet et apprenez les principes fondamentaux.
niveau Intermédiaire

Expérience recommandée

4 heures à compléter
Planning flexible
Apprenez à votre propre rythme
Obtenez un aperçu d'un sujet et apprenez les principes fondamentaux.
niveau Intermédiaire

Expérience recommandée

4 heures à compléter
Planning flexible
Apprenez à votre propre rythme

Ce que vous apprendrez

  • Analyze LLM architectures and foundation models for specific use cases.

  • Implement fine-tuning techniques using industry-standard tools and frameworks.

  • Deploy LLM models in production environments with security and optimization.

Compétences que vous acquerrez

  • Catégorie : Prompt Engineering
  • Catégorie : Artificial Intelligence
  • Catégorie : Performance Tuning
  • Catégorie : AI Security
  • Catégorie : Scalability
  • Catégorie : Model Deployment
  • Catégorie : Application Security
  • Catégorie : MLOps (Machine Learning Operations)
  • Catégorie : Cloud Deployment
  • Catégorie : Applied Machine Learning
  • Catégorie : API Design
  • Catégorie : Hugging Face
  • Catégorie : Transfer Learning
  • Catégorie : System Monitoring
  • Catégorie : Model Evaluation
  • Catégorie : LLM Application
  • Catégorie : Large Language Modeling

Détails à connaître

Certificat partageable

Ajouter à votre profil LinkedIn

Récemment mis à jour !

décembre 2025

Enseigné en Anglais

Découvrez comment les employés des entreprises prestigieuses maîtrisent des compétences recherchées

 logos de Petrobras, TATA, Danone, Capgemini, P&G et L'Oreal

Élaborez votre expertise du sujet

Ce cours fait partie de la Spécialisation Build Next-Gen LLM Apps with LangChain & LangGraph
Lorsque vous vous inscrivez à ce cours, vous êtes également inscrit(e) à cette Spécialisation.
  • Apprenez de nouveaux concepts auprès d'experts du secteur
  • Acquérez une compréhension de base d'un sujet ou d'un outil
  • Développez des compétences professionnelles avec des projets pratiques
  • Obtenez un certificat professionnel partageable

Il y a 3 modules dans ce cours

This module introduces learners to the foundational concepts of large language model architectures and their practical applications. Learners will explore the core transformer architecture, examining the trade-offs between encoder-only, decoder-only, and encoder-decoder models. They will develop expertise in evaluating model families like GPT, BERT, and T5 against specific business requirements, considering factors such as domain relevance, latency constraints, context length needs, and computational costs. By the end of this module, learners will confidently select and justify the most appropriate LLM architecture for real-world enterprise scenarios.

Inclus

4 vidéos2 lectures1 évaluation par les pairs

This module focuses on mastering parameter-efficient fine-tuning techniques to adapt pre-trained LLMs for specialized domains and tasks. Learners will explore advanced methods like LoRA (Low-Rank Adaptation) and other parameter-efficient approaches that dramatically reduce computational requirements while maintaining model performance. Through hands-on experience with industry-standard frameworks like Hugging Face Transformers, learners will master the complete fine-tuning workflow: from data preparation and preprocessing to training configuration, evaluation metrics, and deployment optimization. The module emphasizes practical skills for building domain-adapted models that achieve enterprise-grade performance while balancing accuracy, efficiency, and cost-effectiveness.

Inclus

3 vidéos1 lecture1 évaluation par les pairs

This module explores the full deployment pipeline for LLM applications with a focus on scalability, performance, and security. Learners will design serving architectures using APIs and streaming endpoints, integrate enterprise data, and apply retrieval with FAISS. Optimization practices such as caching, load balancing, and autoscaling are introduced to ensure efficiency at scale. Security is emphasized through OWASP guidelines, strong authentication, and defenses against prompt injection attacks. Finally, learners implement monitoring and alerting systems to maintain reliability, compliance, and trust in production environments.

Inclus

4 vidéos1 lecture1 devoir2 évaluations par les pairs

Obtenez un certificat professionnel

Ajoutez ce titre à votre profil LinkedIn, à votre curriculum vitae ou à votre CV. Partagez-le sur les médias sociaux et dans votre évaluation des performances.

Instructeurs

Starweaver
Coursera
463 Cours912 050 apprenants

Offert par

Coursera

Pour quelles raisons les étudiants sur Coursera nous choisissent-ils pour leur carrière ?

Felipe M.
Étudiant(e) depuis 2018
’Pouvoir suivre des cours à mon rythme à été une expérience extraordinaire. Je peux apprendre chaque fois que mon emploi du temps me le permet et en fonction de mon humeur.’
Jennifer J.
Étudiant(e) depuis 2020
’J'ai directement appliqué les concepts et les compétences que j'ai appris de mes cours à un nouveau projet passionnant au travail.’
Larry W.
Étudiant(e) depuis 2021
’Lorsque j'ai besoin de cours sur des sujets que mon université ne propose pas, Coursera est l'un des meilleurs endroits où se rendre.’
Chaitanya A.
’Apprendre, ce n'est pas seulement s'améliorer dans son travail : c'est bien plus que cela. Coursera me permet d'apprendre sans limites.’

Foire Aux Questions

¹ Certains travaux de ce cours sont notés par l'IA. Pour ces travaux, vos Données internes seront utilisées conformément à Notification de confidentialité de Coursera.