University of Colorado Boulder
Deep Learning für die Verarbeitung natürlicher Sprache

Erwerben Sie mit Coursera Plus für 199 $ (regulär 399 $) das nächste Level. Jetzt sparen.

University of Colorado Boulder

Deep Learning für die Verarbeitung natürlicher Sprache

Bei Coursera Plus enthalten

Verschaffen Sie sich einen Einblick in ein Thema und lernen Sie die Grundlagen.
Stufe Mittel

Empfohlene Erfahrung

2 Wochen zu vervollständigen
unter 10 Stunden pro Woche
Flexibler Zeitplan
In Ihrem eigenen Lerntempo lernen
Auf einen Abschluss hinarbeiten
Verschaffen Sie sich einen Einblick in ein Thema und lernen Sie die Grundlagen.
Stufe Mittel

Empfohlene Erfahrung

2 Wochen zu vervollständigen
unter 10 Stunden pro Woche
Flexibler Zeitplan
In Ihrem eigenen Lerntempo lernen
Auf einen Abschluss hinarbeiten

Was Sie lernen werden

  • Definieren Sie Feedforward-Netzwerke, rekurrente neuronale Netze, Aufmerksamkeit und Transformers.

  • Implementierung und Training von Feedforward-Netzwerken, rekurrenten neuronalen Netzen, Attention und Transformers.

  • Beschreiben Sie die Idee hinter Transfer Learning und häufig verwendete Algorithmen für Transfer Learning.

  • Entwurf und Implementierung eigener Netzwerkarchitekturen für die Verarbeitung natürlicher Sprache.

Kompetenzen, die Sie erwerben

  • Kategorie: Lernen übertragen
  • Kategorie: Rekurrente Neuronale Netze (RNNs)
  • Kategorie: Modell Bewertung
  • Kategorie: Deep Learning
  • Kategorie: Prompt Engineering
  • Kategorie: Einbettungen
  • Kategorie: Künstliche neuronale Netze
  • Kategorie: PyTorch (Bibliothek für Maschinelles Lernen)
  • Kategorie: Netzwerk Architektur
  • Kategorie: Modellierung großer Sprachen
  • Kategorie: Verarbeitung natürlicher Sprache

Wichtige Details

Zertifikat zur Vorlage

Zu Ihrem LinkedIn-Profil hinzufügen

Bewertungen

17 Aufgaben

Unterrichtet in Englisch

Erfahren Sie, wie Mitarbeiter führender Unternehmen gefragte Kompetenzen erwerben.

 Logos von Petrobras, TATA, Danone, Capgemini, P&G und L'Oreal

In diesem Kurs gibt es 4 Module

In dieser ersten Woche werden die grundlegenden Konzepte von Feedforward- und rekurrenten neuronalen Netzen (RNNs) vorgestellt, wobei der Schwerpunkt auf deren Architekturen, mathematischen Grundlagen und Anwendungen in der Verarbeitung natürlicher Sprache (NLP) liegt. Wir beginnen mit einer Untersuchung von Feedforward-Netzwerken und ihrer Rolle bei der Einbettung von Sätzen und der Sentimentanalyse. Anschließend gehen wir zu RNNs über und behandeln Techniken zur Sequenzmodellierung wie LSTMs, GRUs und bidirektionale RNNs sowie deren Implementierung in Python. Schließlich werden Sie Trainingstechniken untersuchen und praktische Erfahrungen mit der Optimierung neuronaler Sprachmodelle sammeln.

Das ist alles enthalten

15 Videos7 Lektüren5 Aufgaben1 Programmieraufgabe1 Unbewertetes Labor

In dieser Woche befassen wir uns mit Sequenz-zu-Sequenz-Modellen in der Verarbeitung natürlicher Sprache (NLP), beginnend mit Architekturen auf der Grundlage rekurrenter neuronaler Netze (RNN) und der Einführung von Aufmerksamkeitsmechanismen für verbessertes Alignment bei Aufgaben wie der maschinellen Übersetzung. Das Modul behandelt auch bewährte Verfahren für das Training neuronaler Netze, einschließlich Regularisierung, Optimierungsstrategien und effizientes Training von Modellen. Am Ende der Woche werden Sie praktische Erfahrungen mit der Implementierung und dem Training von Sequenz-zu-Sequenz-Modellen sammeln.

Das ist alles enthalten

10 Videos1 Lektüre4 Aufgaben1 Programmieraufgabe

In dieser Woche werden Techniken des Transfer Learning in NLP untersucht, wobei der Schwerpunkt auf Pretraining, Finetuning und mehrsprachigen Modellen liegt. Sie werden zunächst die Rolle von vortrainierten Sprachmodellen wie GPT, GPT-2 und BERT und deren Herausforderungen untersuchen. Anschließend werden wir uns mit Multitask-Training und Datenerweiterung befassen und dabei Strategien wie die gemeinsame Nutzung von Parametern und die Verlustgewichtung zur Verbesserung der Modellgeneralisierung über verschiedene Aufgaben hinweg hervorheben. Schließlich werden Sie in das sprachübergreifende Transfer Learning eintauchen und Methoden wie Translate-Train vs. Translate-Test sowie Zero-Shot, One-Shot und Few-Shot Learning für mehrsprachiges NLP erkunden.

Das ist alles enthalten

17 Videos4 Aufgaben1 Programmieraufgabe

In dieser letzten Woche werden große Sprachmodelle (LLMs) vorgestellt und es wird gezeigt, wie sie durch Techniken wie Prompt Engineering, kontextbezogenes Lernen und parameter-effizientes Finetuning effektiv genutzt werden können. Sie werden Sprach- und Sichtmodelle untersuchen und verstehen, wie multimodale Architekturen über Text hinausgehen und visuelle und andere Datenmodalitäten integrieren. Wir werden auch nicht-funktionale Eigenschaften von LLMs untersuchen, einschließlich Herausforderungen wie Halluzinationen, Fairness, Ressourceneffizienz, Datenschutz und Interpretierbarkeit.

Das ist alles enthalten

12 Videos4 Aufgaben1 Programmieraufgabe

Auf einen Abschluss hinarbeiten

Dieses Kurs ist Teil des/der folgenden Studiengangs/Studiengänge, die von University of Colorado Boulderangeboten werden. Wenn Sie zugelassen werden und sich immatrikulieren, können Ihre abgeschlossenen Kurse auf Ihren Studienabschluss angerechnet werden und Ihre Fortschritte können mit Ihnen übertragen werden.¹

 

Dozent

Katharina von der Wense
University of Colorado Boulder
1 Kurs1.084 Lernende

von

Mehr von Algorithmen entdecken

Warum entscheiden sich Menschen für Coursera für ihre Karriere?

Felipe M.
Lernender seit 2018
„Es ist eine großartige Erfahrung, in meinem eigenen Tempo zu lernen. Ich kann lernen, wenn ich Zeit und Nerven dazu habe.“
Jennifer J.
Lernender seit 2020
„Bei einem spannenden neuen Projekt konnte ich die neuen Kenntnisse und Kompetenzen aus den Kursen direkt bei der Arbeit anwenden.“
Larry W.
Lernender seit 2021
„Wenn mir Kurse zu Themen fehlen, die meine Universität nicht anbietet, ist Coursera mit die beste Alternative.“
Chaitanya A.
„Man lernt nicht nur, um bei der Arbeit besser zu werden. Es geht noch um viel mehr. Bei Coursera kann ich ohne Grenzen lernen.“

Häufig gestellte Fragen