Google AI エッジ

モバイル、ウェブ、組み込みアプリケーション向けのオンデバイス AI

生成 AI、デバイス上で実行

MediaPipe LLM 推論 API

LLM を完全にデバイス上で実行し、テキストの生成、自然言語形式での情報の取得、ドキュメントの要約などの幅広いタスクを実行できます。この API は、複数のテキストからテキストへの大規模言語モデルの組み込みサポートを提供するため、最新のオンデバイス生成 AI モデルをアプリとプロダクトに適用できます。詳細

Torch Generative API

PyTorch で高性能 LLM を作成し、TensorFlow Lite(TFLite)ランタイムを使用してデバイス上で実行できるように変換します。詳細

Gemini Nano

Android AICore により、デバイス上のタスクで最も効率的な Gemini モデルにアクセスできます。Chrome で近日提供予定です。

エッジデバイスに ML をデプロイする理由

スピードメーター アイコン

レイテンシ

サーバーのラウンド トリップをスキップして、簡単で高速なリアルタイムのメディア処理を実現します。

鍵アイコン

プライバシー

機密データがデバイスから送信されることなく、ローカルで推論を実行します。

お金がありません

費用

オンデバイスのコンピューティング リソースを使用して、サーバー費用を節約します。

Wi-Fi に接続されていません

オフラインでの利用

ネットワークに接続していなくても問題ありません。