ML Kit は、Google の機械学習の専門知識を、便利で使いやすいパッケージでモバイル デベロッパーに提供します。デバイス上で実行するために最適化されたソリューションで、iOS アプリや Android アプリの利便性、パーソナライズ、利便性を高めることができます。
ML Kit の処理はデバイス上で行われます。これにより、カメラ入力の処理などのリアルタイムのユースケースが高速化され、実現できます。また、オフライン時にも使用でき、デバイスに残しておく必要がある画像やテキストの処理にも使用できます。
Google 独自のモバイル エクスペリエンスに活用されている機械学習テクノロジーを活用してください。
最高水準の機械学習モデルと高度な処理パイプラインを組み合わせて、使いやすい API を提供することで、アプリで優れたユースケースを実現します。

Vision API

画像にラベルを付けて画像にラベルを付け、バーコード、テキスト、顔、オブジェクトを検出する API。
バーコードをスキャンして処理します。ほとんどの標準的な 1D 形式と 2D 形式に対応しています。
顔や顔のランドマークを検出します。
近距離画像での顔メッシュ情報を検出します。
画像からテキストを認識して抽出します。
物体、場所、活動、動物の種類、商品などを識別します。汎用の基本モデルを使用するか、TensorFlow Lite カスタム モデルを使用してユースケースに合わせて調整します。
ライブカメラ フィード内の 1 つ以上のオブジェクトをリアルタイムでローカライズして追跡します。
タッチ スクリーンなどのデジタル サーフェス上で手書きの文字や手書き文字を認識します。300 以上の言語、絵文字、基本的な図形を認識します。
人体の位置をリアルタイムで検出します。
背景とシーン内の背景を切り離し、重要なものに焦点を当てます。

Natural Language API

58 言語間の翻訳を識別して翻訳し、返信を提案する自然言語処理 API。
数個のテキストで構成されたテキスト文字列の言語を特定します。
58 言語間のテキストをデバイス上で翻訳。
テキストの会話で返信の候補を生成します。
エンティティ(住所、日時、電話番号など)を検出して特定し、そのエンティティに基づいて操作を行う。15 言語に対応しています。