このガイドでは、以下の方法について説明します。
- Augmented Faces と連携する開発環境をセットアップする
- 検出された顔に 2D テクスチャを適用し、3D オブジェクトを貼り付ける
前提条件
- Xcode バージョン 13.0 以降
- Cocoapods 1.4.0 以降(Cocoapods を使用している場合)
- iOS 12.0 以降を搭載した ARKit 対応の Apple デバイス (デプロイ ターゲットが iOS 12.0 以降であることが必要です)
拡張顔の使用
以下の手順では、Augmented Faces サンプルアプリを使用して、AR 機能を持つアプリを構成、構築するための重要なタスクについて説明します。
Augmented Faces サンプルアプリを入手する
- GitHub から最新の ARCore SDK for iOS のクローンを作成するかダウンロードして、サンプルアプリのコードを取得します。
- ターミナルまたは Finder ウィンドウを開き、SDK をクローンまたはダウンロードしたフォルダに移動します。
- サンプルアプリのコードは
/Examples/AugmentedFacesExample
にあります。
実行 pod install
AugmentedFacesSample アプリには、必要な ARCore SDK と iOS のバージョンが事前構成された Podfile が付属しています。これらの依存関係をインストールするには:
- ターミナル ウィンドウを開き、Xcode プロジェクトが存在するフォルダから
pod install
を実行します。これにより、後でアプリのビルドと実行に使用する*.xcworkspace
ファイルが生成されます。
アプリをビルドして実行する
- Xcode でプロジェクトの
.xcworkspace
(.xcodeproj
ではない)ファイルを開きます。 - ターゲットの全般設定を開き、バンドル ID を変更します。
- Cmd+R キーを押すか、[実行] をクリックします。拡張顔の操作には、シミュレータではなく実機を使用します。デバイスを USB で開発マシンに接続する必要があります。
サンプルアプリを試す
.xcworkspace
ファイルからサンプルアプリをビルドして実行し、デバイスで起動します。- プロンプトが表示されたら、アプリにカメラへのアクセスを許可します。その後、ARCore はカメラに映っている顔の検出を開始します。現時点では、一度に顔が検出されるのは 1 回のみです。
- カメラがユーザーのほうを向いていることを確認します。
次のステップ
- サンプルアプリのコードや、独自のアプリで Augmented Faces を操作する方法について詳しくは、iOS 向け AR のデベロッパー ガイドをご覧ください。
- ARCore iOS API リファレンスを確認します。
- iOS で拡張顔機能を使用する方法については、次の動画をご覧ください。