Übungen

Auf dieser Seite sind die Übungen im Crashkurs für maschinelles Lernen aufgeführt.

Für den Großteil der Programmierübungen wird das Kalifornien-Dataset verwendet.

Programmierübungen werden direkt in Ihrem Browser über die Colaboratory-Plattform ausgeführt (keine Einrichtung erforderlich!). Colaboratory wird in den meisten gängigen Browsern unterstützt und mit den Desktopversionen von Chrome und Firefox gründlich getestet. Wenn Sie die Übungen lieber herunterladen und offline ausführen möchten, finden Sie in dieser Anleitung Informationen zum Einrichten einer lokalen Umgebung.

Alle

Im März 2020 begann dieser Kurs, mit tf.keras codierte Programmierübungen zu verwenden. Wenn Sie lieber die älteren Estimators-Programmierübungen verwenden möchten, finden Sie diese auf GitHub.

Framing

Ab in ML

Verlust reduzieren

Erste Schritte mit TensorFlow

Trainings- und Test-Datasets

Validierung

Funktionsverknüpfungen

Regelmäßigkeit für Einfachheit

Klassifizierung

Gleichmäßigkeit bei räumlicher Trennung

Einführung in neuronale Netze

neuronale Netze trainieren

Neurale Netze mit mehreren Klassen

Fairness

Statisches und dynamisches Training im Vergleich

Statische und dynamische Inferenz

Datenabhängigkeiten

Programmieren

Im März 2020 begann dieser Kurs, mit tf.keras codierte Programmierübungen zu verwenden. Wenn Sie lieber die älteren Estimators-Programmierübungen verwenden möchten, finden Sie diese auf GitHub.

Framing

Ab in ML

Verlust reduzieren

Erste Schritte mit TensorFlow

Trainings- und Test-Datasets

Validierung

Funktionsverknüpfungen

Regelmäßigkeit für Einfachheit

Klassifizierung

Gleichmäßigkeit bei räumlicher Trennung

Einführung in neuronale Netze

neuronale Netze trainieren

Neurale Netze mit mehreren Klassen

Fairness

Statisches und dynamisches Training im Vergleich

Statische und dynamische Inferenz

Datenabhängigkeiten

Wissenstest

Im März 2020 begann dieser Kurs, mit tf.keras codierte Programmierübungen zu verwenden. Wenn Sie lieber die älteren Estimators-Programmierübungen verwenden möchten, finden Sie diese auf GitHub.

Framing

Ab in ML

Verlust reduzieren

Erste Schritte mit TensorFlow

Trainings- und Test-Datasets

Validierung

Funktionsverknüpfungen

Regelmäßigkeit für Einfachheit

Klassifizierung

Gleichmäßigkeit bei räumlicher Trennung

Einführung in neuronale Netze

neuronale Netze trainieren

Neurale Netze mit mehreren Klassen

Fairness

Statisches und dynamisches Training im Vergleich

Statische und dynamische Inferenz

Datenabhängigkeiten

Spielplatz

Im März 2020 begann dieser Kurs, mit tf.keras codierte Programmierübungen zu verwenden. Wenn Sie lieber die älteren Estimators-Programmierübungen verwenden möchten, finden Sie diese auf GitHub.

Framing

Ab in ML

Verlust reduzieren

Erste Schritte mit TensorFlow

Trainings- und Test-Datasets

Validierung

Funktionsverknüpfungen

Regelmäßigkeit für Einfachheit

Klassifizierung

Gleichmäßigkeit bei räumlicher Trennung

Einführung in neuronale Netze

neuronale Netze trainieren

Neurale Netze mit mehreren Klassen

Fairness

Statisches und dynamisches Training im Vergleich

Statische und dynamische Inferenz

Datenabhängigkeiten