ユーザーのデバイスには、カメラ(通常は前面と背面の両方)や、加速度計などのさまざまなセンサーが搭載されています。これらのセンサーは、現実世界を解釈するためのデータを AR
アプリに提供します。カメラ自体に深度センサーが搭載されている場合、検出したターゲットの範囲、寸法、その他の有用なデータを特定できます。
AR アプリでは、最適なパフォーマンスを実現するようにカメラを設定します。また、カメラの画像メタデータ、フレーム
バッファリング、共有カメラ アクセスを使用して、パフォーマンスを調整することもできます。上記のガイドでは、各プラットフォームの AR
カメラ機能について説明しています。
[[["わかりやすい","easyToUnderstand","thumb-up"],["問題の解決に役立った","solvedMyProblem","thumb-up"],["その他","otherUp","thumb-up"]],[["必要な情報がない","missingTheInformationINeed","thumb-down"],["複雑すぎる / 手順が多すぎる","tooComplicatedTooManySteps","thumb-down"],["最新ではない","outOfDate","thumb-down"],["翻訳に関する問題","translationIssue","thumb-down"],["サンプル / コードに問題がある","samplesCodeIssue","thumb-down"],["その他","otherDown","thumb-down"]],["最終更新日 2026-05-13 UTC。"],[],["AR applications can utilize device camera data and sensors. Key actions include configuring camera settings for optimal AR performance, accessing camera image metadata, buffering camera frames, and sharing camera access. These functionalities are detailed in platform-specific guides for Android (Kotlin/Java), Android NDK (C), Unity (AR Foundation), and Unreal Engine. Camera capabilities include detecting range, dimensions, and other data about real-world targets, which helps to interpret the real world.\n"]]