ML Kit bietet zwei optimierte SDKs für die Erkennung von Posen.
| SDK-Name | PoseDetection | PoseDetectionAccurate |
|---|---|---|
| Implementierung | Assets für den Basisdetektor werden zur Build-Zeit statisch mit Ihrer App verknüpft. | Assets für den genauen Detektor werden zur Build-Zeit statisch mit Ihrer App verknüpft. |
| App-Größe | Bis zu 29,6 MB | Bis zu 33,2 MB |
| Leistung | iPhone X: ~45FPS | iPhone X: ~29FPS |
Jetzt ausprobieren
- Probieren Sie die Beispiel-App aus, um ein Anwendungsbeispiel für diese API zu sehen.
Hinweis
Fügen Sie Ihrem Podfile die folgenden ML Kit-Pods hinzu:
# If you want to use the base implementation: pod 'GoogleMLKit/PoseDetection', '8.0.0' # If you want to use the accurate implementation: pod 'GoogleMLKit/PoseDetectionAccurate', '8.0.0'Nachdem Sie die Pods Ihres Projekts installiert oder aktualisiert haben, öffnen Sie Ihr Xcode-Projekt mit der Datei
xcworkspace. ML Kit wird in Xcode Version 13.2.1 oder höher unterstützt.
1. Instanz von PoseDetector erstellen
Wenn Sie eine Pose in einem Bild erkennen möchten, erstellen Sie zuerst eine Instanz von PoseDetector und geben Sie optional die Detektoreinstellungen an.
Optionen für PoseDetector
Erkennungsmodus
Der PoseDetector funktioniert in zwei Erkennungsmodi. Wählen Sie den Modus aus, der zu Ihrem Anwendungsfall passt.
stream(Standard)- Der Pose-Detektor erkennt zuerst die auffälligste Person im Bild und führt dann die Pose-Erkennung aus. In nachfolgenden Frames wird der Schritt zur Personenerkennung nur ausgeführt, wenn die Person verdeckt ist oder nicht mehr mit hoher Zuverlässigkeit erkannt wird. Der Pose-Detektor versucht, die auffälligste Person zu verfolgen und ihre Pose bei jeder Inferenz zurückzugeben. Dadurch wird die Latenz verringert und die Erkennung reibungsloser. Verwenden Sie diesen Modus, wenn Sie Posen in einem Videostream erkennen möchten.
singleImage- Der Pose-Detektor erkennt eine Person und führt dann die Pose-Erkennung aus. Der Schritt zur Personenerkennung wird für jedes Bild ausgeführt. Daher ist die Latenz höher und es gibt keine Personenverfolgung. Verwenden Sie diesen Modus, wenn Sie die Pose-Erkennung für statische Bilder verwenden oder keine Verfolgung gewünscht ist.
Geben Sie die Optionen für den Pose-Detektor an:
Swift
// Base pose detector with streaming, when depending on the PoseDetection SDK let options = PoseDetectorOptions() options.detectorMode = .stream // Accurate pose detector on static images, when depending on the // PoseDetectionAccurate SDK let options = AccuratePoseDetectorOptions() options.detectorMode = .singleImage
Objective-C
// Base pose detector with streaming, when depending on the PoseDetection SDK MLKPoseDetectorOptions *options = [[MLKPoseDetectorOptions alloc] init]; options.detectorMode = MLKPoseDetectorModeStream; // Accurate pose detector on static images, when depending on the // PoseDetectionAccurate SDK MLKAccuratePoseDetectorOptions *options = [[MLKAccuratePoseDetectorOptions alloc] init]; options.detectorMode = MLKPoseDetectorModeSingleImage;
Rufen Sie schließlich eine Instanz von PoseDetector ab. Übergeben Sie die von Ihnen angegebenen Optionen:
Swift
let poseDetector = PoseDetector.poseDetector(options: options)
Objective-C
MLKPoseDetector *poseDetector = [MLKPoseDetector poseDetectorWithOptions:options];
2. Eingabebild vorbereiten
Wenn Sie Posen erkennen möchten, führen Sie für jedes Bild oder jeden Frame des Videos die folgenden Schritte aus.
Wenn Sie den Stream-Modus aktiviert haben, müssen Sie VisionImage-Objekte aus CMSampleBuffers erstellen.
Erstellen Sie ein VisionImage-Objekt mit einem UIImage oder einem
CMSampleBuffer.
Wenn Sie ein UIImage verwenden, gehen Sie so vor:
- Erstellen Sie ein
VisionImage-Objekt mit demUIImage. Geben Sie die richtige.orientationan.Swift
let image = VisionImage(image: UIImage) visionImage.orientation = image.imageOrientation
Objective-C
MLKVisionImage *visionImage = [[MLKVisionImage alloc] initWithImage:image]; visionImage.orientation = image.imageOrientation;
Wenn Sie ein CMSampleBuffer verwenden, gehen Sie so vor:
-
Geben Sie die Ausrichtung der Bilddaten im
CMSampleBufferan.So rufen Sie die Bildausrichtung ab:
Swift
func imageOrientation( deviceOrientation: UIDeviceOrientation, cameraPosition: AVCaptureDevice.Position ) -> UIImage.Orientation { switch deviceOrientation { case .portrait: return cameraPosition == .front ? .leftMirrored : .right case .landscapeLeft: return cameraPosition == .front ? .downMirrored : .up case .portraitUpsideDown: return cameraPosition == .front ? .rightMirrored : .left case .landscapeRight: return cameraPosition == .front ? .upMirrored : .down case .faceDown, .faceUp, .unknown: return .up } }
Objective-C
- (UIImageOrientation) imageOrientationFromDeviceOrientation:(UIDeviceOrientation)deviceOrientation cameraPosition:(AVCaptureDevicePosition)cameraPosition { switch (deviceOrientation) { case UIDeviceOrientationPortrait: return cameraPosition == AVCaptureDevicePositionFront ? UIImageOrientationLeftMirrored : UIImageOrientationRight; case UIDeviceOrientationLandscapeLeft: return cameraPosition == AVCaptureDevicePositionFront ? UIImageOrientationDownMirrored : UIImageOrientationUp; case UIDeviceOrientationPortraitUpsideDown: return cameraPosition == AVCaptureDevicePositionFront ? UIImageOrientationRightMirrored : UIImageOrientationLeft; case UIDeviceOrientationLandscapeRight: return cameraPosition == AVCaptureDevicePositionFront ? UIImageOrientationUpMirrored : UIImageOrientationDown; case UIDeviceOrientationUnknown: case UIDeviceOrientationFaceUp: case UIDeviceOrientationFaceDown: return UIImageOrientationUp; } }
- Erstellen Sie ein
VisionImage-Objekt mit demCMSampleBuffer-Objekt und der Ausrichtung:Swift
let image = VisionImage(buffer: sampleBuffer) image.orientation = imageOrientation( deviceOrientation: UIDevice.current.orientation, cameraPosition: cameraPosition)
Objective-C
MLKVisionImage *image = [[MLKVisionImage alloc] initWithBuffer:sampleBuffer]; image.orientation = [self imageOrientationFromDeviceOrientation:UIDevice.currentDevice.orientation cameraPosition:cameraPosition];
3. Bild verarbeiten
Übergeben Sie das VisionImage an eine der Bildverarbeitungsfunktionen des Pose-Detektors. Sie können entweder die asynchrone Methode process(image:) oder die synchrone Methode results() verwenden.
So erkennen Sie Objekte synchron:
Swift
var results: [Pose] do { results = try poseDetector.results(in: image) } catch let error { print("Failed to detect pose with error: \(error.localizedDescription).") return } guard let detectedPoses = results, !detectedPoses.isEmpty else { print("Pose detector returned no results.") return } // Success. Get pose landmarks here.
Objective-C
NSError *error; NSArray*poses = [poseDetector resultsInImage:image error:&error]; if (error != nil) { // Error. return; } if (poses.count == 0) { // No pose detected. return; } // Success. Get pose landmarks here.
So erkennen Sie Objekte asynchron:
Swift
poseDetector.process(image) { detectedPoses, error in guard error == nil else { // Error. return } guard !detectedPoses.isEmpty else { // No pose detected. return } // Success. Get pose landmarks here. }
Objective-C
[poseDetector processImage:image completion:^(NSArray* _Nullable poses, NSError * _Nullable error) { if (error != nil) { // Error. return; } if (poses.count == 0) { // No pose detected. return; } // Success. Get pose landmarks here. }];
4. Informationen zur erkannten Pose abrufen
Wenn eine Person im Bild erkannt wird, übergibt die Pose-Erkennungs-API entweder ein Array von Pose-Objekten an den Completion-Handler oder gibt das Array zurück, je nachdem, ob Sie die asynchrone oder synchrone Methode aufgerufen haben.
Wenn die Person nicht vollständig im Bild war, weist das Modell den fehlenden Landmarken Koordinaten außerhalb des Rahmens zu und gibt ihnen niedrige `InFrameConfidence`-Werte.
Wenn keine Person erkannt wurde, ist das Array leer.
Swift
for pose in detectedPoses { let leftAnkleLandmark = pose.landmark(ofType: .leftAnkle) if leftAnkleLandmark.inFrameLikelihood > 0.5 { let position = leftAnkleLandmark.position } }
Objective-C
for (MLKPose *pose in detectedPoses) { MLKPoseLandmark *leftAnkleLandmark = [pose landmarkOfType:MLKPoseLandmarkTypeLeftAnkle]; if (leftAnkleLandmark.inFrameLikelihood > 0.5) { MLKVision3DPoint *position = leftAnkleLandmark.position; } }
Tipps zur Leistungsverbesserung
Die Qualität Ihrer Ergebnisse hängt von der Qualität des Eingabebilds ab:
- Damit ML Kit Posen genau erkennen kann, sollte die Person im Bild durch ausreichend Pixeldaten dargestellt werden. Für eine optimale Leistung sollte das Motiv mindestens 256 × 256 Pixel groß sein.
- Wenn Sie Posen in einer Echtzeitanwendung erkennen, sollten Sie auch die Gesamtabmessungen der Eingabebilder berücksichtigen. Kleinere Bilder können schneller verarbeitet werden. Um die Latenz zu verringern, nehmen Sie Bilder mit niedrigeren Auflösungen auf. Beachten Sie jedoch die oben genannten Anforderungen an die Auflösung und sorgen Sie dafür, dass das Motiv so viel wie möglich vom Bild einnimmt.
- Eine schlechte Bildschärfe kann sich auch auf die Genauigkeit auswirken. Wenn Sie keine akzeptablen Ergebnisse erhalten, bitten Sie den Nutzer, das Bild noch einmal aufzunehmen.
Wenn Sie die Pose-Erkennung in einer Echtzeitanwendung verwenden möchten, folgen Sie diesen Richtlinien, um die besten Frameraten zu erzielen:
- Verwenden Sie das Basis-SDK PoseDetection und den Erkennungsmodus
stream. - Sie können Bilder mit einer niedrigeren Auflösung aufnehmen. Beachten Sie jedoch auch die Anforderungen an die Bildabmessungen dieser API.
- Verwenden Sie für die Verarbeitung von Videoframes die synchrone API
results(in:)des Detektors. Rufen Sie diese Methode über die Funktion AVCaptureVideoDataOutputSampleBufferDelegate's captureOutput(_, didOutput:from:) auf, um synchron Ergebnisse aus dem angegebenen Videoframe abzurufen. Setzen Sie AVCaptureVideoDataOutputs alwaysDiscardsLateVideoFrames immer auf „true“, um Aufrufe an den Detektor zu drosseln. Wenn ein neuer Videoframe verfügbar wird, während der Detektor ausgeführt wird, wird er verworfen. - Wenn Sie die Ausgabe des Detektors verwenden, um Grafiken auf das Eingabebild zu legen, rufen Sie zuerst das Ergebnis von ML Kit ab und rendern Sie dann das Bild und die Überlagerung in einem Schritt. So rendern Sie die Anzeigeoberfläche nur einmal für jeden verarbeiteten Eingabeframe. Ein Beispiel finden Sie in den previewOverlayView und MLKDetectionOverlayView in der Showcase-Beispiel-App.
Nächste Schritte
- Informationen zum Verwenden von Pose-Landmarken zum Klassifizieren von Posen finden Sie unter Tipps zur Pose-Klassifizierung.
- Ein Anwendungsbeispiel für diese API finden Sie im ML Kit-Schnellstartbeispiel auf GitHub.