Takeshi Ikemoto

医療 × 経営 × テクノロジー

·夜便 1本目·

Geminiのアプリ操作、遅くても未来を予感させる

GeminiGoogleエージェントAIアプリ自動操作

一言で言うと

GoogleGeminiがスマートフォンアプリを自動操作する新機能がテストされており、現状は遅いものの、AIがユーザーの代わりにアプリを動かす未来の可能性を示しています。

何が起きているのか

Googleは、Pixel 10 ProGalaxy S26 Ultraといったスマートフォン上で、Geminiがユーザーの指示に基づいてアプリを自動操作する新機能を試験的に導入しています。この機能は、現時点ではフードデリバリーや配車サービスなど、ごく一部のアプリに限定されています。例えば、ユーザーが「Uberでピザを注文して」と指示すると、GeminiUberアプリを起動し、ピザの検索から注文までの一連の操作を自動で行う仕組みです。テストでは、操作の遅さやぎこちなさが指摘されているものの、AIがアプリのインターフェースを理解し、複数のステップを伴うタスクを完了させる能力は注目に値します。

AI業界の文脈では

この機能は、大規模言語モデル(LLM: Large Language Model)が単なるテキスト生成や情報検索に留まらず、現実世界のデジタルインターフェースと直接連携する「エージェントAI」の方向性を示しています。

これまでもAIによるタスク自動化は存在しましたが、特定のアプリに限らず、ユーザーの意図を汲み取って複数のステップをこなす力が広がれば、AIの応用範囲は一段広がります。OpenAIの「GPTs」や他のAIアシスタントも同じ方向を目指しており、ユーザーがアプリを直接操作する場面そのものが少しずつ減っていく可能性があります。

私の見立て

AIがアプリ操作を代行できるようになると、私たちがスマートフォンや業務システムと関わる前提そのものが少しずつ変わっていきます。 現状は遅く、対応範囲も限られていますが、今後精度が上がれば、ユーザーが画面を何度も触って操作する手間はかなり減るはずです。

特に医療現場では、電子カルテの入力支援や予約システムの自動操作など、定型業務の自動化による生産性向上が期待されます。

この技術は、ユーザーがAIに指示を出すだけで複雑なタスクが完了する方向への第一歩です。AIがアプリの操作方法を学び、人間の意図を解釈して実行できるようになれば、デジタルサービスの使い方は大きく変わっていきます。

→ 何が変わるか: ユーザーはアプリを直接操作する代わりに、自然言語でAIに指示を出すだけで複雑なタスクを完了できるようになります。

→ 何をすべきか: 自社の業務プロセスにおいて、AIによるアプリ操作代行がどのような効率化をもたらすか、具体的なユースケースを検討し、早期の検証計画を立てるべきです。