Am 3. Juni 2020 haben wir einige Änderungen an ML Kit for Firebase vorgenommen, um die APIs auf dem Gerät von den cloudbasierten APIs zu unterscheiden. Die aktuellen APIs sind jetzt in folgende zwei Produkte unterteilt:
Das neue Produkt ML Kit enthält alle APIs auf dem Gerät.
Firebase Machine Learning, das sich auf cloudbasierte APIs und Bereitstellung benutzerdefinierter Modelle konzentriert.
Durch diese Änderung wird es auch einfacher, ML Kit in deine App zu integrieren, wenn du nur eine geräteinterne Lösung benötigst. In diesem Dokument wird erläutert, wie Sie Ihre App vom Firebase ML Kit SDK zum neuen ML Kit SDK migrieren.
Was ändert sich?
Basis-APIs auf dem Gerät
Die folgenden APIs wurden auf das neue eigenständige ML Kit SDK umgestellt.
- Barcode-Scan
- Gesichtserkennung
- Bildbeschriftung
- Objekterkennung und -tracking
- Texterkennung
- Sprach-ID
- Intelligente Antwort
- Übersetzen
- AutoML Vision Edge-Inferenz-API
Die vorhandenen On-Device-Basis-APIs im ML Kit for Firebase SDK wurden verworfen und erhalten keine Updates mehr.
Wenn Sie diese APIs derzeit in Ihrer App verwenden, migrieren Sie bitte zum neuen ML Kit SDK. Folgen Sie dazu der ML Kit-Migrationsanleitung für Android und der ML Kit-Migrationsanleitung für iOS.
APIs für benutzerdefinierte Modelle
Für das Herunterladen von Modellen, die in Firebase gehostet werden, wird der benutzerdefinierte Modelldownload weiterhin über das Firebase ML SDK angeboten. Das SDK ruft das neueste verfügbare Modell ab und übergibt es an die separate TensorFlow Lite-Laufzeit zur Inferenz.
Der vorhandene Interpreter von benutzerdefinierten Modellen im ML Kit for Firebase SDK wurde verworfen und erhält keine Updates mehr. Wir empfehlen, die TensorFlow Lite-Laufzeit direkt für die Inferenz zu verwenden. Wenn Sie nur benutzerdefinierte Modelle für Bildlabels, Objekterkennungs- und Tracking-APIs verwenden möchten, können Sie jetzt benutzerdefinierte Modelle in diesen APIs direkt in ML Kit verwenden.
Eine ausführliche Anleitung finden Sie in den Migrationsanleitungen für Android und für iOS.
Was hat sich nicht geändert?
Cloudbasierte APIs und Dienste werden weiterhin mit Firebase ML angeboten:
Die cloudbasierten APIs für Bildlabels, Texterkennung und Sehenswürdigkeitenerkennung sind weiterhin über das Firebase ML SDK verfügbar.
Firebase ML bietet weiterhin die Modellbereitstellung
Häufig gestellte Fragen
Warum diese Änderung?
Wir nehmen diese Änderung vor, um klarzustellen, welche Lösungen das Produkt bietet. Durch diese Änderung liegt der Schwerpunkt des neuen ML Kit SDK vollständig auf dem maschinellen Lernen auf dem Gerät, bei dem die gesamte Datenverarbeitung auf dem Gerät erfolgt und Entwicklern kostenlos zur Verfügung steht. Die Cloud-Dienste, die zuvor Teil von Firebase ML Kit waren, bleiben über Firebase ML verfügbar und können mit den ML Kit APIs parallel verwendet werden.
Bei On-Device-APIs vereinfacht das neue ML Kit SDK Entwicklern die Integration von ML Kit in ihre App. In Zukunft müssen Sie dem Projekt nur noch Abhängigkeiten hinzufügen und dann die API verwenden. Sie müssen kein Firebase-Projekt einrichten, um nur On-Device-APIs zu verwenden.
Was passiert mit meinen Modellen, die mit Firebase gehostet werden?
Ihre Modelle werden weiterhin wie zuvor über Firebase Machine Learning bereitgestellt. Diese Funktionalität hat sich nicht geändert. Im Folgenden sind einige Verbesserungen aufgeführt:
Sie können Ihre Modelle jetzt mithilfe der Python oder Node SDKs programmatisch in Firebase bereitstellen.
Sie können das Firebase ML SDK jetzt in Verbindung mit der TensorFlow Lite-Laufzeit verwenden. Das Firebase SDK lädt das Modell auf das Gerät herunter und die TensorFlow Lite-Laufzeit führt die Inferenz aus. So können Sie ganz einfach die von Ihnen bevorzugte Laufzeitumgebung auswählen, einschließlich eines benutzerdefinierten Builds.
Welche Vorteile bietet die Migration zum neuen ML Kit SDK?
Durch die Migration zum neuen SDK profitieren Ihre Anwendungen von den neuesten Fehlerkorrekturen und Verbesserungen der On-Device-APIs. Hier sind einige Änderungen am ersten Release:
Mit den neuen benutzerdefinierten Bildlabels und benutzerdefinierten Objekterkennungs- und Tracking-APIs können Sie ganz einfach benutzerdefinierte Bildklassifizierungsmodelle in Ihre Anwendungen einbinden und in Echtzeit interaktive Nutzerumgebungen erstellen.
Die Unterstützung des Android Jetpack-Lebenszyklus wird allen APIs hinzugefügt. Sie können jetzt
addObserver
verwenden, um die Initiierung und Löschung von ML Kit APIs automatisch zu verwalten, wenn die App die Bildschirmdrehung oder -schließung vom Nutzer/System durchläuft. Dies vereinfacht die Einbindung in CameraX.
Eine vollständige Liste der neuesten Änderungen finden Sie in den Versionshinweisen zum ML Kit SDK.
Ich verwende ML Kit for Firebase. Wann muss ich migrieren?
Das hängt davon ab, welche ML Kit for Firebase APIs Sie derzeit in Ihrer App verwenden.
Die On-Device-Basis-APIs im ML Kit for Firebase SDK funktionieren auf absehbare Zeit weiterhin. Wenn Sie den Wechsel zum neuen ML Kit SDK jedoch verzögern, profitieren Sie nicht von neuen Funktionen und Updates. Wenn Sie andere Komponenten in Ihrer Anwendung aktualisieren, besteht das Risiko, dass Abhängigkeiten auftreten. Dies kann passieren, wenn einige Ihrer direkten oder indirekten Abhängigkeiten neuer sind als die, die vom alten ML Kit for Firebase SDK erwartet wurden. Beispiele für Bibliotheken, für die dies möglich ist, sind OkHttp und firebase-common.
Wenn Sie Cloud APIs über das ML Kit for Firebase SDK verwenden, ist derzeit keine Änderung erforderlich.
Wenn Sie die benutzerdefinierte Modellbereitstellung verwenden, empfehlen wir ein Upgrade auf die neueste Version, mit der Inferenzen direkt in der TensorFlow Lite-Laufzeit ausgeführt werden können.