
今や新しいAIガジェットが発表されるたびにその話題で持ちきりになりますよね。
去年は「Humane AIpin」が注目され、今年は「Rabbit R1」。人々が求める完成形にはまだ至ってませんが、ある意味なぜこんな使いにくそうなハードウェアがこれほど注目されるのか。
今回は、進化するSiriなど含めてAIガジェットの未来についてのお話です。
スマホの方がAIガジェットより良い?
今あるAIガジェット(AIアシスタントと呼ばれる種類のモノ)は、私たちが持っているスマートフォンの方がよっぽど高性能でパワフルと思う方も多いかもしれません。
というのも、それらAIガジェットがすべて、スマートフォンユーザーなら誰もが共感できる「イライラポイント」を解消してくれると期待するから。だから自動車メーカーは車にChatGPTを搭載しようとするし、Humaneは700ドル(約10万5000円)のAIpinが売れると考えていたのでしょう。
その「イライラポイント」とは、スマホに搭載されている音声アシスタントのこと。
もう10年以上も前から使われているのに、今でも本当にイライラさせられることが多いですよね。でも、たとえこれらのAIガジェットが「より優れた音声アシスタント」を提供できたとしても、結局は失敗する可能性が高いと思っています。なぜかはまた後ほど説明します。
AndroidでもiPhoneでも共通しますが、音声アシスタントに何かを頼もうとしても、中々うまくいきません。例えば「この曲を再生して」とか「リマインダーを追加して」と頼んでも、何度もやり直さなければならなかったり、全く関係ないことをしてしまったり…。
でもChatGPTのような大規模言語モデルを使ったことがある人なら、その魔法のような体験を知っているはず。たとえ少し間違いを混ぜることがあっても、自分が言ったことをちゃんと理解して、合理的な答えを返してくれるのです。
ChatGPTの魔法とAIガジェットの限界
最近TikTokで見た動画では、ある人が「なぜ国ごとにお金が違うの?」という質問をしていました。AppleやGoogleの音声アシスタントでは、こんな質問を理解することさえ難しいでしょう。でも、ChatGPTなら、まさにその人が知りたかったことを理解していました。
「お金の違いは、その通貨の価値によるものなんだよ」といった具合に的確に答えてくれます。私自身も試してみました。同じ質問をSiriに投げかけたところ、ほとんどの場合、何も反応しませんでした。そしてGoogleアシスタントも同様に期待外れでした。

大規模言語モデルは、不完全で中途半端な、時には支離滅裂な質問でさえ、きちんと理解して有用な答えを返してくれます。それに比べるとHomePod(Apple開発のスマートスピーカー)に特定の曲を再生させるためには、まるで呪文のように正確なフレーズを唱えなければなりません。そ
して、うまくいく確率はせいぜい50%といったところでしょう。
何度「スパイダーバース」のサウンドトラックを再生しようとして失敗したことか…。私の子どもたちでさえ、特定の曲を再生するにはアルバムタイトルの一部を省いたり、アーティスト名を変な発音で言ったりしなければならないことを理解しています。
ChatGPTのような賢いAIが搭載されたレトロなデザインのハンドヘルドデバイス…。それだけ聞けば夢のようですが、結局これらのAIガジェットは失敗する運命にあると思います。
その理由は、AIが十分に賢くないからではなく、また、ハードウェアがかっこよくないからでもありません。問題はAppleが自社の音声アシスタントをChatGPTのように賢くしてしまえば、すべての問題が解決してしまうからです。HumaneのAIpinを例にしましょう。
Appleの元エンジニアたちが開発したおしゃれなハードウェアで、あちこちで広告を見かけます。
Humaneは、このAIpinを最終的にはスマホの代わりにしたいと考えているようです。例えばAIpinから直接テキストメッセージを送れるとか。でもそれは現実的には見えません。例えば映画館や静かな場所でメッセージを送りたいとき、AIpinは音声入力が基本なので、そんなところで声を出せず役に立ちません。でもスマホならこっそりテキストを打てますよね。
また駐車場で駐車料金を払うとき、Rabbit R1のようなデバイスでは専用アプリを事前にインストールしておく必要があります。でもスマホならその場でアプリをダウンロードして、すぐに支払いができます。つまり今のスタイルのままではスマホに勝つことはできないのです。
AIガジェットとスマホの戦い
Rabbit R1はアプリの操作をアシスタントに任せることで、より簡単で迅速な体験を提供します。でも、結局のところ、これらのAIガジェットが狙っているのは「音声アシスタント」の問題点でしょう。
もしiPhoneに搭載されている音声アシスタントが、あなたのリクエストを(仮にそれが言語として不完全な中途半端な命令でも)正しく理解して、意図通りの操作をしてくれるようになれば、わざわざ別のガジェットを持つ必要なんてなくなります。

さらに、もし「スマホの使用時間を減らしたい」という目的があったとしても、それを実現できるデバイスは既に存在します。それが「Apple Watch」です。
多くの人が感じてるかもしれませんが、Apple WatchはすべてのAIガジェットを駆逐する「キラーアクセサリー」になる可能性を秘めてると思います。しかも、AppleがSiriに大規模言語モデルを統合すれば、その力はさらに増すでしょう。
Appleは内部でAIツール、特に大規模言語モデル(LLM)を開発していることが知られていますし、Googleは自社の音声アシスタントにBardというLLMを導入予定です。MicrosoftもWindowsのキーボードに「Copilot」キーを追加しようとしています。これはChatGPTを搭載したアシスタントです。
そして2024年のWWDCでAppleがiOS18を発表し、Siriは遂に大規模言語モデルをベースにしたものへと進化しました。このアップデートでSiriの理解力や応答が一気に上がり、それまでの使いづらさを大幅に改善する結果になってます。
これにより対話型のAIガジェットの存在意義は薄れる傾向にあり、見た目がカッコいいか、持っていてうれしいかみたいな存在にもなってるかもしれません。
関連)
Rabbit R1レビュー|2万円台で買えるAIアシスタントの実力は?機能や気になるポイントも紹介
AppleのAI戦略と未来の可能性
Appleが本格的に生成AIや大規模言語モデルの分野に乗り出せば、その可能性は無限大でしょう。
Keynoteで箇条書きのメモから自動的にスライドを作成したり、Final Cutで動画の編集時に自動で字幕を付けたり、複数カメラの映像を切り替えたりといったことができると凄いですよね。
実際Final Cutには既に「背景を削除」する機能など、AI的な機能が組み込まれていますし、iPhoneでは写真の被写体を長押しするだけで、背景を除去してコピーできる機能もあります。将来的にはメールやメモ、Pagesなどにも生成AIが統合され、Safariではウェブページの要約機能が搭載されるかもしれません。
個人的には、ショートカットアプリにAIアシスタントが追加されて、理想的な自動化を簡単に作れるようになったら最高だと思います。
Appleさんが実現してくれると、世界も大きく変わりそうですよね。
少しRabbit R1に話を戻してみると、このデバイスはアプリを代わりに操作してくれるますが、私は自分でアプリの画面を確認したいタイプだったりします。例えばAmazonで何かを購入したり、OpenTableでレストランの予約をするとき、自分の目で確認したいんです。(その内、古いタイプの人間と言われそうですけどね(笑))そして念のため、メールに届いた確認メッセージもチェックします。
少し神経質かもしれませんが、Rabbit R1のように裏で全てが処理されると、不安になることがあります。同じことがHumaneのAIpinにも言えます。
AIpinでは頼んだ操作が本当に実行されたかを信じるしかありません。音声で確認してくれるかもしれませんが、もしAIが間違っていたり、想像もしないようなことをしてたら困りますよね。
それでも、私はこういったガジェットを試すのが大好き(笑)。
AIの進化、Siriの進化がどこまで行くのか、ここ数年でAIガジェットの世界もガラッと変わりそうですよね。
コメント