Skip to main content

Modul: Advanced Machine Learning

Du lernst komplexere und weiterführende Machine Learning Algorithmen & Ansätze kennen und erfährst, wie du mit den häufigsten in der Praxis auftretenden Problemen im Datenbestand umgehen kannst.

Eckdaten

ECTS-Punkte
3
Nächster Start
Frühlingssemester 2025
Dauer
4 Unterrichtstage
Unterrichtstage
jeweils Freitag
Unterrichtssprache
Deutsch
Ort
FHNW Campus Brugg-Windisch
Preis
CHF 1800.–

Machine Learning versammelt ein breites Feld von Methoden und Algorithmen. Im CAS Data Science werden die grundlegenden Konzepte eingeführt und am Beispiel von Standard-Algorithmen im Detail betrachtet und angewendet. Dieses Modul vermittelt methodische Erweiterungen, Beispiele dafür sind:

  • Clustering: Wir analysieren verschiedene Cluster-Algorithmen, diskutieren die Vor- und Nachteile und verschiedene Anwendungsgebiete.
  • Regression: Techniken aus dem letzten Jahr werden wiederholt und weitere Einblicke gewährt.
  • Model Selection revisited: RandomSearch, Cross Validation-Varianten
  • AutoML: Frameworks werden vorgestellt, die Modell-Selektion und Hyperparameter-Fine-Tuning für den Anwender wegabstrahieren.

Neben den methodischen Erweiterungen werden auch zusätzliche Konzepte eingeführt, z.B. Ensemble-Learning: Als Ensemble-Learning werden Verfahren bezeichnet, mehrere (einfache) Modelle miteinander zu kombinieren. Dies führt in der Praxis häufig zu besseren Resultaten, als wenn ein einzelnes Modell verwendet wird. Auf der Data Science Competition Plattform Kaggle kommen diese Ensemble-Modelle deshalb fast immer zum Einsatz. In diesem Modul lernst du verschiedene Ensemble-Learning-Verfahren wie Bagging, Boosting oder Stacking kennen, so dass du die dahinterliegenden Konzepte verstehst und nachvollziehen kannst, welchen Mehrwert die unterschiedlichen Ansätze bringen.

Relevantes Machine Learning-Praxiswissen besteht jedoch keineswegs nur aus Algorithmen, sondern beinhaltet auch den vertrauten Umgang mit im Alltag häufig anzutreffenden Problemen im Datenbestand. Eines dieser Probleme ist beispielsweise die Abhängigkeit der Daten untereinander. Wird dies nicht erkannt und im Training gebührend berücksichtigt, resultieren Algorithmen, die auf Trainingsdaten zu gute Resultate liefern und nicht oder nur schlecht auf neue Daten generalisieren. Oftmals treten auch Unsicherheiten im Umgang mit fehlenden Werten auf. Mittlerweile gibt es eine grosse Auswahl an Methoden dieser Problematik zu begegnen. Wann welche Methode vielversprechend ist und wie sie eingesetzt werden lernst du ebenfalls in diesem Modul. Nebenher werden auch andere Herausforderungen, wie beispielsweise Class Imbalance diskutiert.

Weitere Informationen

Administratives

Downloads & weitere Informationen

Programm-Reglement Weiterbildung Data Science

Diese Seite teilen: