MENUMENU
MENUMENU

Deep Learning (DLBDBDL01)

Kursnummer:

DLBDBDL01

Kursname:

Deep Learning

Gesamtstunden:

150 h

ECTS Punkte:

5 ECTS

Kurstyp: Pflicht

Kursangebot: WS, SS

Course Duration: Minimaldauer 1 Semester

Zugangsvoraussetzungen:

keine

Kurskoordinator(en) / Dozenten / Lektoren:

Siehe aktuelle Liste der Tutoren im Learning Management System

Bezüge zu anderen Modulen:

Siehe Modulbeschreibung

Beschreibung des Kurses:

Dank jüngster technologischer Fortschritte können nun einige Konzepte und Methoden aus der künstlichen Intelligenz praktisch angewendet werden. Ein wesentliches Konzept, das von diesem Fortschritt betroffen ist, sind neuronale Netze. Dank schneller und günstiger GPUs einerseits sowie frei verfügbarer und gut dokumentierter Frameworks andererseits werden neuronale Netze heute zur Lösung sehr vieler unterschiedlicher Probleme eingesetzt, von der Mustererkennung in Text und Bild bis zur automatisierten Beurteilung von Versicherungsschäden. In diesem Kurs werden die Studierenden in die Grundlagen dieser Technologie eingeführt und dazu befähigt, sie an einfachen Beispielen anzuwenden.

Kursziele:

Nach erfolgreichem Abschluss des Kurses des Kurses sind die Studierenden in der Lage,

  • Konzepte des Deep Learning in den Kontext maschinelles Lernen und künstliche Intelligenz einzuordnen.
  • verschiedene Regressionsarten abzugrenzen und insbesondere die Umsetzung der logistischen Regression mit Perzeptronen zu erläutern.
  • den Aufbau und die Funktionsweise einfacher neuronaler Netze zu erläutern.
  • Konzepte und Zusammenhänge im Zusammenhang mit dem Trainieren von neuronalen Netzen zu erläutern und in Teilen zu implementieren.
  • verschiedene Deep Learning-Frameworks abzugrenzen.
  • neuronale Netze mithilfe eines Deep Learning-Frameworks zu implementieren, zu trainieren und zu optimieren.
  • den Aufbau und die Funktionsweise von Convolutional Neural Networks zu verstehen und sie mithilfe eines Deep Learning-Frameworks trainieren zu können.

Lehrmethoden:

Die Lehrmaterialien enthalten Skripte, Video-Vorlesungen, Übungen, Podcasts, (Online-) Tutorien und Fallstudien. Sie sind so strukturiert, dass Studierende sie in freier Ortswahl und zeitlich unabhängig bearbeiten können.

Inhalte des Kurses:

1. Einführung

1.1 Künstliche Intelligenz

1.2 Maschinelles Lernen

1.3 Deep Learning

1.4 Deep Learning Frameworks

2. Einführung in Neuronale Netze

2.1 Lineare Regression

2.2 Logistische Regression

2.3 Perzeptronen

2.4 Arten von Perzeptronen

3. Neuronale Netze trainieren

3.1 Mittlerer quadratischer Fehler

3.2 Gradientenverfahren

3.3 Mehrlagiges Perzeptron

3.4 Backpropagation

3.5 Backpropagation implementieren

4. Einstieg in Deep Learning-Frameworks

4.1 Überblick

4.2 Erste Schritte mit Tensorflow

4.3 Grundlegende Konzepte

4.4 Mathematische Funktionen

5. Klassifikation und Optimierung

5.1 Linearer Klassifizierer

5.2 Kostenfunktionen

5.3 Parameterkonfiguration und Kreuzvalidierung

5.4 Stochastic Gradient Descent

5.5 Mini-Batching

5.6 Epochs

6. Mehrlagige Neuronale Netze

6.1 Einführung und Motiviation

6.2 Aufbau und Mathematik

6.3 Implementierung mit Tensorflow

6.4 Bestehende Modelle anpassen

6.5 Überanpassung und Lösungsansätze

7. Convolutional Neural Networks

7.1 Motivation und Einsatzgebiete

7.2 Aufbau

7.3 CNNs für Textanalyse

7.4 CNNs für Bildanalyse

Literatur:

  • Alpaydin, E. (2008): Maschinelles Lernen. Oldenbourg Wissenschaftsverlag, München. ISBN 978-3486581140
  • Géron, A. (2017): Praxiseinstieg Machine Learning mit Scikit-Learn und TensorFlow: Konzepte, Tools und Techniken für intelligente Systeme. O'Reilly. ISBN 978-3960090618.
  • Rashid, T. (2017): Neuronale Netze selbst programmieren: Ein verständlicher Einstieg mit Python. O'Reilly. ISBN: 978-3960090434
  • Russel, S. (2012): Künstliche Intelligenz – Ein moderner Ansatz. Pearson, Hallbergmoos. ISBN 978-3868940985
  • Zhang, Y./Wallace, B. (2016): A Sensitivity Analysis of (and Practitioners' Guide to) Convolutional Neural Networks for Sentence Classification. In: Proceedings of the Eighth International Joint Conference on Natural Language Processing, IJCNLP 2017. Asian Federation of Natural Language Processing Taipei, Taiwan.

Prüfungszugangsvoraussetzung:

  • Kursabhängig: Begleitende Online-Lernkontrolle (max. 15 Minuten je Lektion, bestanden / nicht bestanden)
  • Kursevaluation

Prüfungsleistung:

Klausur, 90 Min.

Zeitaufwand Studierende (in Std.): 150

Selbststudium (in Std.): 90
Selbstüberprüfung (in Std.): 30
Tutorien (in Std.): 30