Coursera
Build & Adapt LLM Models with Confidence

Genießen Sie unbegrenztes Wachstum mit einem Jahr Coursera Plus für 199 $ (regulär 399 $). Jetzt sparen.

kurs ist nicht verfügbar in Deutsch (Deutschland)

Wir übersetzen es in weitere Sprachen.
Coursera

Build & Adapt LLM Models with Confidence

Starweaver
 Ashraf S. A. AlMadhoun

Dozenten: Starweaver

Bei Coursera Plus enthalten

Verschaffen Sie sich einen Einblick in ein Thema und lernen Sie die Grundlagen.
Stufe Mittel

Empfohlene Erfahrung

4 Stunden zu vervollständigen
Flexibler Zeitplan
In Ihrem eigenen Lerntempo lernen
Verschaffen Sie sich einen Einblick in ein Thema und lernen Sie die Grundlagen.
Stufe Mittel

Empfohlene Erfahrung

4 Stunden zu vervollständigen
Flexibler Zeitplan
In Ihrem eigenen Lerntempo lernen

Was Sie lernen werden

  • Analyze LLM architectures and foundation models for specific use cases.

  • Implement fine-tuning techniques using industry-standard tools and frameworks.

  • Deploy LLM models in production environments with security and optimization.

Kompetenzen, die Sie erwerben

  • Kategorie: Model Deployment
  • Kategorie: Transfer Learning
  • Kategorie: Application Security
  • Kategorie: Prompt Engineering
  • Kategorie: Model Evaluation
  • Kategorie: Scalability
  • Kategorie: Cloud Deployment
  • Kategorie: Large Language Modeling
  • Kategorie: MLOps (Machine Learning Operations)
  • Kategorie: API Design
  • Kategorie: LLM Application
  • Kategorie: System Monitoring
  • Kategorie: AI Security
  • Kategorie: Applied Machine Learning
  • Kategorie: Artificial Intelligence
  • Kategorie: Hugging Face
  • Kategorie: Performance Tuning

Wichtige Details

Zertifikat zur Vorlage

Zu Ihrem LinkedIn-Profil hinzufügen

Kürzlich aktualisiert!

Dezember 2025

Bewertungen

1 Zuweisung¹

KI-bewertet siehe Haftungsausschluss
Unterrichtet in Englisch

Erfahren Sie, wie Mitarbeiter führender Unternehmen gefragte Kompetenzen erwerben.

 Logos von Petrobras, TATA, Danone, Capgemini, P&G und L'Oreal

Erweitern Sie Ihre Fachkenntnisse

Dieser Kurs ist Teil der Spezialisierung Spezialisierung für Build Next-Gen LLM Apps with LangChain & LangGraph
Wenn Sie sich für diesen Kurs anmelden, werden Sie auch für diese Spezialisierung angemeldet.
  • Lernen Sie neue Konzepte von Branchenexperten
  • Gewinnen Sie ein Grundverständnis bestimmter Themen oder Tools
  • Erwerben Sie berufsrelevante Kompetenzen durch praktische Projekte
  • Erwerben Sie ein Berufszertifikat zur Vorlage

In diesem Kurs gibt es 3 Module

This module introduces learners to the foundational concepts of large language model architectures and their practical applications. Learners will explore the core transformer architecture, examining the trade-offs between encoder-only, decoder-only, and encoder-decoder models. They will develop expertise in evaluating model families like GPT, BERT, and T5 against specific business requirements, considering factors such as domain relevance, latency constraints, context length needs, and computational costs. By the end of this module, learners will confidently select and justify the most appropriate LLM architecture for real-world enterprise scenarios.

Das ist alles enthalten

4 Videos2 Lektüren1 peer review

This module focuses on mastering parameter-efficient fine-tuning techniques to adapt pre-trained LLMs for specialized domains and tasks. Learners will explore advanced methods like LoRA (Low-Rank Adaptation) and other parameter-efficient approaches that dramatically reduce computational requirements while maintaining model performance. Through hands-on experience with industry-standard frameworks like Hugging Face Transformers, learners will master the complete fine-tuning workflow: from data preparation and preprocessing to training configuration, evaluation metrics, and deployment optimization. The module emphasizes practical skills for building domain-adapted models that achieve enterprise-grade performance while balancing accuracy, efficiency, and cost-effectiveness.

Das ist alles enthalten

3 Videos1 Lektüre1 peer review

This module explores the full deployment pipeline for LLM applications with a focus on scalability, performance, and security. Learners will design serving architectures using APIs and streaming endpoints, integrate enterprise data, and apply retrieval with FAISS. Optimization practices such as caching, load balancing, and autoscaling are introduced to ensure efficiency at scale. Security is emphasized through OWASP guidelines, strong authentication, and defenses against prompt injection attacks. Finally, learners implement monitoring and alerting systems to maintain reliability, compliance, and trust in production environments.

Das ist alles enthalten

4 Videos1 Lektüre1 Aufgabe2 peer reviews

Erwerben Sie ein Karrierezertifikat.

Fügen Sie dieses Zeugnis Ihrem LinkedIn-Profil, Lebenslauf oder CV hinzu. Teilen Sie sie in Social Media und in Ihrer Leistungsbeurteilung.

Dozenten

Starweaver
Coursera
463 Kurse912.050 Lernende

von

Coursera

Mehr von Machine Learning entdecken

Warum entscheiden sich Menschen für Coursera für ihre Karriere?

Felipe M.
Lernender seit 2018
„Es ist eine großartige Erfahrung, in meinem eigenen Tempo zu lernen. Ich kann lernen, wenn ich Zeit und Nerven dazu habe.“
Jennifer J.
Lernender seit 2020
„Bei einem spannenden neuen Projekt konnte ich die neuen Kenntnisse und Kompetenzen aus den Kursen direkt bei der Arbeit anwenden.“
Larry W.
Lernender seit 2021
„Wenn mir Kurse zu Themen fehlen, die meine Universität nicht anbietet, ist Coursera mit die beste Alternative.“
Chaitanya A.
„Man lernt nicht nur, um bei der Arbeit besser zu werden. Es geht noch um viel mehr. Bei Coursera kann ich ohne Grenzen lernen.“

Häufig gestellte Fragen

¹ Einige Aufgaben in diesem Kurs werden mit AI bewertet. Für diese Aufgaben werden Ihre Daten in Übereinstimmung mit Datenschutzhinweis von Courseraverwendet.