ML-Praktikum: Bildklassifizierung

Vortrainierte Modelle nutzen

Das Trainieren eines faltenden neuronalen Netzwerks zum Ausführen von Bildklassifizierungsaufgaben erfordert in der Regel eine sehr große Menge an Trainingsdaten und kann sehr zeitaufwendig sein, Tage oder sogar Wochen in Anspruch nehmen. Aber was wäre, wenn Sie vorhandene Bildmodelle, die anhand riesiger Datasets, z. B. über Tensor-Slim, trainiert wurden, nutzen und für Ihre eigenen Klassifizierungsaufgaben anpassen könnten?

Eine gängige Technik zur Nutzung vortrainierter Modelle ist die Extraktion von Merkmalen: das Abrufen von Zwischendarstellungen, die vom vortrainierten Modell erstellt wurden, und das anschließende Einspeisen dieser Darstellungen in ein neues Modell als Eingabe. Wenn Sie beispielsweise ein Bildklassifizierungsmodell trainieren, um verschiedene Arten von Gemüse zu unterscheiden, können Sie Trainingsbilder von Karotten und Sellerie in ein vortrainiertes Modell einspeisen und die Merkmale dann aus der endgültigen Faltungsebene extrahieren. So werden alle Informationen erfasst, die das Modell über die Bilder gelernt hat: übergeordnete Merkmale, Formen, Formen, Formen, Formen sowie Um die Leistung bei der Verwendung der Feature-Extraktion mit einem vortrainierten Modell zu steigern, richten die Entwickler oft die Feinabstimmungder Gewichtungsparameter ein, die auf die extrahierten Features angewendet werden.

Eine ausführlichere Erläuterung der Feature-Extraktion und Feinabstimmung bei der Verwendung von vortrainierten Modellen finden Sie in der folgenden Übung.