DieVerarbeitung natürlicher Sprache (Natural Language Processing, NLP) ist ein Teilgebiet der Linguistik, der Informatik und der künstlichen Intelligenz, das Algorithmen zur Interpretation und Manipulation menschlicher Sprache verwendet.
Diese Technologie ist einer der am weitesten verbreiteten Bereiche des maschinellen Lernens und ist entscheidend für die effektive Analyse großer Mengen unstrukturierter, textlastiger Daten. Mit der zunehmenden Verbreitung von KI steigt auch die Nachfrage nach Fachleuten, die in der Lage sind, Modelle zu erstellen, die Sprache analysieren, kontextbezogene Muster aufdecken und Erkenntnisse aus Text und Audio gewinnen.
Am Ende dieser Specializations werden Sie in der Lage sein, NLP-Anwendungen zu entwickeln, die Fragen beantworten und Stimmungsanalysen durchführen, Tools für die Übersetzung von Sprachen und die Zusammenfassung von Text erstellen und sogar Chatbots entwickeln. Diese und andere NLP-Anwendungen werden bei der bevorstehenden Umstellung auf eine KI-gestützte Zukunft an vorderster Front stehen.
Diese Specialization wird von zwei Experten für NLP, maschinelles Lernen und Deep Learning entwickelt und unterrichtet. Younes Bensouda Mourri ist Dozent für KI an der Stanford University, der auch an der Entwicklung der Deep Learning Specialization beteiligt war. Łukasz Kaiser ist Staff Research Scientist bei Google Brain und Mitautor von Tensorflow, den Bibliotheken Tensor2Tensor und Trax sowie dem Transformer Paper.
Praktisches Lernprojekt
In dieser Specialization lernen Sie die Grundlagen des maschinellen Lernens und die modernsten Deep Learning-Techniken kennen, die Sie benötigen, um hochmoderne NLP-Systeme zu entwickeln:
- Verwenden Sie logistische Regression, naive Bayes und Wortvektoren, um Stimmungsanalysen zu implementieren, Analogien zu vervollständigen, Wörter zu übersetzen und ortsabhängiges Hashing zur Annäherung an die nächsten Nachbarn zu verwenden.
- Verwenden Sie dynamische Programmierung, versteckte Markov-Modelle und Worteinbettungen, um falsch geschriebene Wörter automatisch zu korrigieren, Teilsätze automatisch zu vervollständigen und Part-of-Speech-Tags für Wörter zu identifizieren.
- Verwenden Sie dichte und rekurrente neuronale Netze, LSTMs, GRUs und Siamesische Netze in TensorFlow und Trax, um fortgeschrittene Sentiment-Analysen, Texterzeugung, Named-Entity-Erkennung und die Identifizierung doppelter Fragen durchzuführen.
- Verwenden Sie Encoder-Decoder, Kausalanalyse und Self-Attention, um fortgeschrittene maschinelle Übersetzungen vollständiger Sätze, Textzusammenfassungen, Fragenbeantwortung und den Aufbau von Chatbots durchzuführen. Lernen Sie T5, BERT, Transformer, Reformer und mehr mit 🤗 Transformers!