Beschreibung des Workshops (F1-T2-I)

Optimierungsverfahren und Regularisierungstechniken für Maschinelles Lernen

Termin:
Freitag 02.07.2021, 08:30 bis 12:00 Uhr
Dauer:
180 Minuten
Teilnehmerzahl:
maximal 30 Teilnehmer
Anwendungsfeld:
Fokus 1: Grundlagen des Maschinellen Lernens
Inhaltliche Einsatzmöglichkeiten:
Foundations
Einordnung Anforderungsniveau:
User
Interaktive Beteiligung

Kurzbeschreibung

Das Training neuronaler Netzwerke (supervised learning) hat zwei Ziele: Die Reduktion des Trainings­fehlers (Performance auf den Trainings­daten) sowie die Reduktion des Generalisierungs­fehlers (Performance für Input außerhalb der Trainings­daten). In diesem Workshop beschäftigen wir uns mit beiden Zielen. Dafür besprechen wir zunächst verschiedene Optimierungs­verfahren die für das Training benutzt werden, und diskutieren anschließend Regularisierungs­techniken, die sogenanntes overfitting vermeiden sollen.

Der Workshop beinhaltet eine interaktive Komponente. Dafür sind Grundkenntnisse in Python erforderlich.

Dr. Sebastian Götschel
Institut für Mathematik

Literatur zum Thema

Ruder S., An Overview of Gradient Descent Optimization Algorithms. arXiv, Jan. 2016.

Ruder S., An Overview of Gradient Descent Optimization Algorithms. Blogeintrag, Jan. 2016.