Google setzt sich für die Förderung der Rassengerechtigkeit für schwarze Gemeinschaften ein. Siehe wie.

Grundsätzliche Konzepte

Bevor Sie in ARCore eintauchen, ist es hilfreich, einige grundlegende Konzepte zu verstehen. Zusammen veranschaulichen diese Konzepte, wie ARCore Erlebnisse ermöglicht, die virtuelle Inhalte so erscheinen lassen, als ob sie auf realen Oberflächen ruhen oder an realen Orten angebracht werden.

Bewegungsverfolgung

Wie Ihr Telefon bewegt sich durch die Welt, nutzt Arcore einen Prozess namens Simultaneous Localization and Mapping oder SLAM, zu verstehen , wo das Telefon in der Welt um sie herum ist relativ. ARCORE erkennt visuell unterschiedliche Merkmale in den erfassten Kamerabildmerkmalspunkte genannt und verwendet diese Punkte seine Lageänderung zu berechnen. Die visuelle Information wird mit Trägheitsmessungen kombiniert von der IMU des Geräts der Pose (Position und Orientierung) der Kamera relativ zu der Welt im Laufe der Zeit zu schätzen.

Durch die Ausrichtung der Pose der virtuellen Kamera, die Ihre 3D-Inhalte rendert, mit der Pose der Kamera des Geräts, die von ARCore bereitgestellt wird, können Entwickler virtuelle Inhalte aus der richtigen Perspektive rendern. Das gerenderte virtuelle Bild kann dem von der Kamera des Geräts erhaltenen Bild überlagert werden, so dass es so aussieht, als ob der virtuelle Inhalt Teil der realen Welt wäre.

Umweltverständnis

ARCore verbessert ständig sein Verständnis der realen Umgebung, indem es Feature-Punkte und -Ebenen erkennt.

Arcore sucht Cluster von Merkmalspunkten , die auf gemeinsamen horizontalen oder vertikalen Flächen zu liegen scheinen, wie Tische oder Wände, und macht diese als geometrischen Ebenen zu Ihrer App Oberflächen. ARCore kann auch die Grenze jeder geometrischen Ebene bestimmen und diese Informationen Ihrer App zur Verfügung stellen. Sie können diese Informationen verwenden, um virtuelle Objekte auf ebenen Oberflächen zu platzieren.

Da ARCore Feature-Punkte verwendet, um Ebenen zu erkennen, werden flache Oberflächen ohne Textur, wie z. B. eine weiße Wand, möglicherweise nicht richtig erkannt.

Tiefes Verständnis

ARCORE können Tiefenkarten erstellen, Bilder , die Daten über den Abstand zwischen den Flächen von einem gegebenen Punkt enthält, von einem der Haupt RGB - Kamera unterstützten Geräts . Sie können die von einer Tiefenkarte bereitgestellten Informationen verwenden, um immersive und realistische Benutzererfahrungen zu ermöglichen, z. B. virtuelle Objekte genau mit beobachteten Oberflächen kollidieren zu lassen oder sie vor oder hinter realen Objekten erscheinen zu lassen.

Lichteinschätzung

ARCore kann Informationen über die Beleuchtung seiner Umgebung erkennen und Ihnen die durchschnittliche Intensität und Farbkorrektur eines bestimmten Kamerabildes liefern. Mit diesen Informationen können Sie Ihre virtuellen Objekte unter den gleichen Bedingungen wie die Umgebung beleuchten, was den Realismus erhöht.

Benutzerinteraktion

ARCore verwendet Hit-Tests, um eine (x, y)-Koordinate entsprechend dem Bildschirm des Telefons zu nehmen (durch Tippen oder eine andere Interaktion, die Ihre App unterstützen soll) und projiziert einen Strahl in die Sicht der Kamera auf die Welt, wobei alle geometrischen Ebenen zurückgegeben werden oder Feature-Punkte, die der Strahl schneidet, zusammen mit der Pose dieses Schnittpunkts im Weltraum. Dies ermöglicht es Benutzern, Objekte in der Umgebung auszuwählen oder anderweitig mit ihnen zu interagieren.

Orientierte Punkte

Mit orientierten Punkten können Sie virtuelle Objekte auf schrägen Oberflächen platzieren. Wenn Sie einen Treffertest durchführen, der einen Feature-Punkt zurückgibt, untersucht ARCore nahe gelegene Feature-Punkte und versucht anhand dieser den Winkel der Oberfläche am gegebenen Feature-Punkt zu schätzen. ARCore gibt dann eine Pose zurück, die diesen Winkel berücksichtigt.

Da ARCore Cluster von Feature-Punkten verwendet, um den Winkel der Oberfläche zu erkennen, werden Oberflächen ohne Textur, wie z. B. eine weiße Wand, möglicherweise nicht richtig erkannt.

Anker und Trackables

Posen können sich ändern, wenn ARCore sein Verständnis seiner eigenen Position und seiner Umgebung verbessert. Wenn Sie ein virtuelles Objekt platzieren möchten, müssen Sie einen Anker definieren , um sicherzustellen , dass Arcore die Position des Objekts über die Zeit verfolgt. Oft Sie einen Anker erstellen , die auf der Pose auf Basis von einer Trefferüberprüfung ergab, wie sie in die Interaktion mit dem Benutzer .

Die Tatsache, dass sich Posen ändern können, bedeutet, dass ARCore die Position von Umgebungsobjekten wie geometrischen Ebenen und Feature-Punkten im Laufe der Zeit aktualisieren kann. Flugzeuge und Punkte sind eine spezielle Art von Objekt einer verfolgbaren genannt. Wie der Name schon sagt, handelt es sich um Objekte, die ARCore im Laufe der Zeit verfolgt. Sie können virtuelle Objekte an bestimmten Trackables verankern, um sicherzustellen, dass die Beziehung zwischen Ihrem virtuellen Objekt und dem Trackable stabil bleibt, auch wenn sich das Gerät bewegt. Das bedeutet, dass, wenn Sie eine virtuelle Android-Figur auf Ihrem Schreibtisch platzieren und ARCore später die Pose der mit dem Schreibtisch verbundenen geometrischen Ebene anpasst, die Android-Figur immer noch auf dem Tisch zu bleiben scheint.

Erweiterte Bilder

Augmented Images ist eine Funktion, mit der Sie AR-Apps erstellen können, die auf bestimmte 2D-Bilder wie Produktverpackungen oder Filmplakate reagieren können. Benutzer können AR-Erlebnisse auslösen, wenn sie die Kamera ihres Telefons auf bestimmte Bilder richten – zum Beispiel könnten sie die Kamera ihres Telefons auf ein Filmplakat richten und eine Figur herausspringen lassen und eine Szene nachspielen.

ARCore verfolgt auch bewegte Bilder, wie zum Beispiel eine Werbetafel an der Seite eines fahrenden Busses.

Bilder können offline zu einer Bilddatenbank zusammengestellt werden oder einzelne Bilder können in Echtzeit vom Gerät aus hinzugefügt werden. Nach der Registrierung erkennt ARCore diese Bilder, die Grenzen der Bilder und gibt eine entsprechende Pose zurück.

Teilen

Mit der ARCore Cloud Anchor API können Sie kollaborative oder Multiplayer-Apps für Android- und iOS-Geräte erstellen.

Bei Cloud Anchors sendet ein Gerät einen Anker und nahe gelegene Feature-Punkte zum Hosten in die Cloud. Diese Anker können mit anderen Benutzern auf Android- oder iOS-Geräten in derselben Umgebung geteilt werden. Dadurch können Apps dieselben 3D-Objekte rendern, die mit diesen Ankern verbunden sind, sodass Benutzer gleichzeitig dieselbe AR-Erfahrung haben.

Mehr erfahren

Beginnen Sie mit der Umsetzung dieser Konzepte, indem Sie AR-Erlebnisse auf der Plattform Ihrer Wahl aufbauen.