タグ: アップル(Apple)

  • ApplがXcode 26.3で「エージェンティックコーディング」を解禁、ClaudeやCodexと連携しアプリ開発の自律化を実現

    ApplがXcode 26.3で「エージェンティックコーディング」を解禁、ClaudeやCodexと連携しアプリ開発の自律化を実現

    Appleは2026年2月3日、統合開発環境の最新版となる「Xcode 26.3」を発表し、AIエージェントが自律的にアプリ開発を支援する「エージェンティックコーディング(Agentic Coding)」機能に対応したことを発表した。

    今回導入された機能の最大の特徴は、Anthropicの「Claude Agent」やOpenAIの「Codex」といった主要なコーディングエージェントを、「Xcode」のインターフェース内でシームレスに利用できる点にある。

    従来のアシスタント機能とは異なり、エージェンティックコーディングでは、AIがプロジェクトのアーキテクチャを理解した上で、目標達成に必要なタスクを自ら分解し、判断を下しながら作業を進行する。

    具体的には、以下のような高度な操作を自律的に実行する。

    • コンテキストの把握:ファイル構造の確認やドキュメントの検索を行い、現状を把握する。
    • 設定の変更:プロジェクトの設定更新などを自動で行う。
    • 視覚的な検証:Xcodeのプレビュー画面をキャプチャ(視覚認識)し、ビルドごとの変化を確認しながら、修正の反復プロセスを実行する。

    これにより、開発者は複雑な実装作業をAIに委任し、より創造的な設計や課題解決に注力することが可能となる。

    また、「Xcode 26.3」は、AIモデルとアプリケーションをつなぐオープン標準規格「Model Context Protocol(MCP)」に対応している。

    これにより、開発者はAppleが標準でサポートする「Claude」や「Codex」以外にも、MCPに対応した多様なAIエージェントやツールを柔軟に組み込むことができるようになる。

    Appleのワールドワイドデベロッパリレーションズ担当バイスプレジデントであるスーザン・プレスコット氏は、「今回のアップデートが生産性と創造性を高め、開発者がイノベーションに集中できる環境を作る」と強調している。

    単純なコーディングだけでなく、検証や修正といった試行錯誤のプロセスまでAIが担うことで、アプリ開発におけるリードタイム短縮と品質向上が期待される。

    なお、「Xcode 26.3」は、2月3日よりApple Developer Programメンバー向けにリリース候補版の提供が開始されており、近日中にApp Storeを通じて正式にリリースされる予定だ。

  • ダッソー・システムズ、複数の生成AIを組み込んだデジタル環境をApple Vision Proに投影する「3DLive」をリリース

    ダッソー・システムズ、複数の生成AIを組み込んだデジタル環境をApple Vision Proに投影する「3DLive」をリリース

    ダッソー・システムズは、同社の3DEXPERIENCEプラットフォーム上で作成されたバーチャルツインをApple Vision Proに映し出すアプリ「3DLive」をリリースすると発表した。

    「3DLive」は、Appleが提供するゴーグル型のMRヘッドセット「Apple Vision Pro」を、ダッソー・システムズの3DEXPERIENCEプラットフォームに統合することで、現実世界と同様の環境でリアルタイムな視覚化とチームコラボレーションを可能にするアプリだ。

    これは、Apple Vision Proのカメラ、センサー、トラッキングと、複数の生成AIを組み込むことで3Dデータを直感的に扱うことができる3DEXPERIENCEプラットフォームの機能である「3D UNIV+RSES」によって実現されている。

    これにより、モデリング、シミュレーション、製造、トレーニング、配送作業などに活用することができるとしている。

    ダッソー・システムズのコーポレート・ストラテジー&プラットフォーム・トランスフォーメーション担当エグゼクティブ・バイス・プレジデントであるエリサ・プリズナー氏は、「3DEXPERIENCEプラットフォームの採用が幅広く拡大していることから、今回の提携は、独自のバーチャルツインデータセット上で、AIを基盤とした我々の次世代の体験を連携して訓練する3D UNIV+RESの可能性を考慮して、当社のあらゆるお客様企業にとってユニークな価値となるだろう」とコメントしている。

    また、Appleのビジョンプロダクトグループのバイスプレジデントであるマイク・ロックウェル氏は、「Apple Vision Proは、空間コンピューティングでできることの限界を押し広げており、主要産業における人々の働き方を変えている。ダッソー・システムズとの提携により、3DEXPERIENCEプラットフォームに空間コンピューティング機能を追加することができ、エンジニアやデザイナーは、これまでは不可能だった方法で3Dデザインに簡単に実現できるようになる」と述べている。

    関連記事:ダッソー・システムズ、複数の生成AIを組み込みシミュレーションできる「3D UNIV+RSES」を発表

  • TOPPAN、「Apple Vision Pro」向けメタバースモールサービス「メタパ for Vision」を提供

    TOPPAN、「Apple Vision Pro」向けメタバースモールサービス「メタパ for Vision」を提供

    TOPPAN株式会社は、複数のバーチャル店舗を集約したメタバースモールサービス「メタパ」を、2021年12月より提供している。

    そして今回、Apple Inc.が2024年6月28日に日本で発売を開始する空間コンピュータ「Apple Vision Pro」向けアプリとして、「メタパ for Vision」を「App Store」上で提供を開始する。なお第一弾は「テレアサショップMetapa店」で、順次店舗数を拡大させていく。

    利用者が「メタパ for Vision」アプリを起動すると、同一空間に配置された複数の店舗が展開するバーチャル空間「メタパーク」が現れる。

    ミニチュア「メタパーク」では、「テレアサショップMetapa店」を体験でき、テレビ朝日が実際に運営している「テレアサショップ」「EX GARDEN CAFE」を模したバーチャル店舗で、360度のメタバース空間に移動することが可能だ。

    ストア内では、バッグやシューズ、ぬいぐるみなど様々な商品を体験できる。また、手のジェスチャーによって商品を実物大で表示し、そのサイズ感や設置イメージを体感することができるほか、ECサイトに遷移してそのまま商品を購入することも可能だ。

    TOPPAN、「Apple Vision Pro」向けメタバースモールサービス「メタパ for Vision」を提供
    ストア内のイメージ

    今後TOPPANは、現在提供しているモバイル版やウェブ版「メタパ」と連携し、スマートフォン、PC、Apple Vision Proの各デバイス間をつなげ、リアルとバーチャルの融合した体験を提供する予定だ。

    ショッピングに加え、教育や観光、ビジネス、ライフスタイルなど様々な領域に展開し、2025年までに「メタパ」内に50店舗の設置を計画している。

  • チームビューワー、Apple Vision Pro用の共同作業支援アプリを発表

    チームビューワー、Apple Vision Pro用の共同作業支援アプリを発表

    TeamViewer(以下、チームビューワー)は、Apple Inc.が提供している空間コンピュータ「Apple Vision Pro」上で活用する、リアルタイム・アシスタンス・アプリ「TeamViewer Spatial Support」を発表した。

    「TeamViewer Spatial Support」は、Apple Vision Pro上で動作し、3Dビジュアライゼーションとリアルタイム・リモート・アシスタンスを体験することができるアプリだ。

    現場の担当者は、「TeamViewer Spatial Support」がインストールされたApple iPhone 12 Proまたはそれ以上のモデル(iOS 17に対応)を使い、ARKitと内蔵のLiDARスキャナでデバイスの詳細な3Dモデルを読み取ることができる。

    その後、セッション内で、専門家が装着するApple Vision Proに対して、iPhoneで捉えた正確なビジュアルモデルを共有する。専門家は、注釈や3D機能を使って、現場の担当者に指示を出すことが可能だ。

    チームビューワーのプロダクトマネージメント&ソリューションデリバリー担当、シニア・バイス・プレジデントのブライアン・バラード氏は、「リモート・サポートとリモート・アシスタンスはチームビューワーのDNAの一部だ。Apple Vision Proを使用することで、これまで不可能だった新たなレベルの忠実さ、視覚的な深みや詳細を顧客に提供できる。

    これらの没入型機能は、応答時間の短縮やエラーの減少につながる。最終的には、現場の課題と遠隔地の専門知識のギャップを埋めることで、労働力不足の解消と専門知識の伝承にも貢献できる」と述べている。

  • TOPPAN、「Apple Vision Pro」向けの映像体験アプリを提供

    TOPPAN、「Apple Vision Pro」向けの映像体験アプリを提供

    TOPPAN株式会社は、Apple Inc.が2024年2月2日に発売する空間コンピュータ「Apple Vision Pro」向けの、日本文化体験アプリと環境コンテンツアプリを「App Store」で提供開始する。

    Appleの「Apple Vision Pro」は、2つの超高解像度ディスプレイにより、自身がいる空間にデジタルコンテンツが物理的に存在しているかのように映し出すウェアラブルデバイスだ。

    TOPPANは、2013年から日本の自然や文化を伝える超高精細・高品質4K映像コンテンツ「Meet Japan!」の提供を行ってきた。また、ヒーリング効果のある4K映像を家庭用TVや閉鎖的空間に配信する「Natural Window」も2017年から提供している。

    これらの経験を活かし、今回「Apple Vision Pro」向けアプリの開発体制を構築した。そして、「Meet Japan!アプリ」と「Natural Windoアプリ」の2つのアプリを提供開始する。

    「Meet Japan!アプリ」は、TOPPANが撮影した超高精細・高品質4K映像を利用し、歴史的文化財や自然遺産などの映像コンテンツを視聴できるサービスだ。なお、提供開始時は1本の作品が配信され、順次コンテンツを拡充させていく予定だ。

    TOPPAN、「Apple Vision Pro」向けの映像体験アプリを提供
    「Meet Japan!アプリ」利用イメージ

    一方、「Natural Windowアプリ」では、「スローテレビ」のようにゆったりとした自然風景が流れるコンテンツを視聴することができる。同アプリ内には、7種類のシーンが切り替わるコンテンツが搭載されている。

    TOPPAN、「Apple Vision Pro」向けの映像体験アプリを提供
    「Natural Windowアプリ」利用イメージ

    TOPPANは、これらのアプリの提供を通じて日本の魅力を発信し、観光立国実現に向けて2025年までに50コンテンツの提供を目指すとしている。

    また、「Apple Vision Pro」向けアプリの開発や、高精細映像およびVR・ARをはじめとする新たな視覚表現の研究・開発を進め、デジタルコンテンツ領域を更に拡大させる計画だ。

  • Apple、これでもか、という機能満載のARヘッドセット「Vision Pro」発表

    Apple、これでもか、という機能満載のARヘッドセット「Vision Pro」発表

    アップルの開発者向けイベントWWDC23が開催され、ARヘッドセット「Vision Pro」が発表された。

    コントローラを持たず、自分の手で操作でき、実際の空間の中にデジタル表現が可能になるのはARとして当然だが、なんと空間と光を感知することで、現実空間上に浮かぶデジタルオブジェクトに影もつくというから驚きだ。

    Apple、これでもか、という機能満載のARヘッドセット「Vision Pro」発表

    もちろん、ウインドウサイズなどは変更することもできる。

    また、VRとして利用することもできるのだが、その没入感は右サイドに搭載されたクラウンを回すことで調整することができる。

    ビデオ撮影機能もあり、これをつけて日常生活を過ごしていると、ふとした時にすぐ撮影が可能なのだという。これをつけて日常生活をするというのは、ちょっと現実的でない気もするが、子供やペットの可愛い様子をすかさず撮影したいといったニーズにはとても向いているとも言える。

    Vision Proの操作

    ブラウザを使う場合は、まずURLの入力フォームエリアを見つめる。

    視線を定めるとそこにカーソルが動くので、音声でURLを入力すると遷移することができる。これまでのSiriの技術が活きてくる。

    また、ジェスチャーコントロールに対応していて、クリックは親指と人差し指を合わせるだけだ。

    Apple、これでもか、という機能満載のARヘッドセット「Vision Pro」発表
    ジェスチャー操作でさまざまなことができる

    他にも、バーチャルキーボードを利用することもできるので、これ一台でほとんどの操作が可能になるようだ。もちろん、リアルなキーボードやトラックパッドも使用可能ということで、「PCが不要」になる可能性も出てきた。

    Macを近くに置くとゴーグルがスマートスクリーンに変わる。つまり、MacbookなどノートPCを使っていて、補助ディスプレイを利用していた人は、これが不要になる。

    コンテンツとしては、映画鑑賞や3Dムービー、アプリも利用可能で、ゲームに関しては発売時点ではおよそ100タイトルくらいとなるそうだ。

    アバターのような3Dムービーが映画館に行かなくても、楽しめるのは楽しみだ。

    ディズニーのボブ・アイガーCEOが登壇し、ディズニーワールドがやってくる、と述べている。

    ついに、ディズニーというビックコンテンツがメタバースにやってくるということで、キラーコンテンツとなる可能性も高い。

    Apple、これでもか、という機能満載のARヘッドセット「Vision Pro」発表

    テクノロジー

    バッテリーは外付けで2時間連続使用可能、Apple Silicon、M2チップ搭載で、2,300万ピクセルの解像度、音声トレーシング機能で部屋のレイアウトを感知し、最適化してくれる。

    また、Vision Proのために開発された新しいチップとなる、R1チップも発表された。12カメラ、5センサー、6マイクをコントロールするセンサー用チップだ。

    また、高速カメラとLEDをつかって視線トラッキングを行うことができるので、視線で多くの操作が可能となりそうだ。

    Apple Vision Proのセンサー
    Apple Vision Proのセンサー
    Apple Vision Proのセンサー
    内側もさまざまなセンサーが搭載されている

    また、手の動きは下部に搭載されたカメラがトラッキング、部屋のマッピングにはLiDARが行う。

    Visiion ProのOSvisionOSと名付けられている。

    価格は、$3,499(約50万円)ということで、米国以外での発売は来年後半になるということだ。

    スターバックスコーヒーで、Macbookを開けるビジネスマンが増えた時、社会も大きく変わったなと感じたものだが、来年あたりはVision Proをスターバックスコーヒーで被って、作業をしている人を見かけるようになるのかもしれない。

    期待と課題

    今回のスペックを見てみると、ARヘッドセットとしてはかなり高機能で、実際に手に取ってみれる日が楽しみなものだといえる。

    バッテリーの問題はあるものの、ヘッドセットを使ってアイトラッキングでブラウザやアプリを開いたり、コントローラーを持たずに操作できるというあたり、SF映画の世界にまた一歩近づいたとも言える。

    その一方で、コンテンツはどうなるのか?ということも気になる。

    Oculus(現在のMeta)を購入しても、毎日使っているという人は少ないわけだが、その理由が今回のようなデバイスの性能なのか、キラーコンテンツ不在なのか、はたまた、日常的に使うPCの機能として不十分なのか、すべてなのか、難しいところがある。

    例えば、ディズニーワールドがメタバースにやってくるとして、すごく楽しいものであれば子供のいる世帯にはかならず1台あるというものになるかもしれない。

    日常的な作業についてPCを使うより便利であれば、毎日使うデバイスとなるだろう。

    一方で、アプリケーション開発の面で、Unityは対応しているが、Unreal Engineには対応していないという課題もある。

    Fortniteというオンラインゲームは世界で5億人のユーザを持ち、7,000万人の月間アクセスユーザ数があるといわれているが、2020年Apple Storeの手数料が不当に高額であることを問題として、独占禁止法で訴えていた。それ以来、Apple StoreからFortniteは消えている。

    本来であれば、このようなビッグネームのコンテンツがVision Proで初めから利用可能な状態になっているべきだと思うのだが、おそらくそれは叶わない。

    もちろん、Fortniteだけが人気なゲームでもないし、Vision Proに向けた面白いコンテンツが今後登場する可能性も高いが、今回の発表では、Unityは採用するものの、Unreal Engine自体排除する流れにもあり、正直、本当に今時点で最高の体験ができるのだろうか、という疑問を持たざるを得ない。

    年明けの発売となると、もう遅い可能性はあるが、1ユーザとしては、Unreal Engine対応で、Fortniteも遊べるヘッドセットを提供してほしい。

  • Apple Watch、いろんな意味で単独利用が可能なスマートウォッチへ

    Apple Watch、いろんな意味で単独利用が可能なスマートウォッチへ

    私は、Apple Watchはシリーズ1が発売された時から、1、3、5、Ultraと買い替えてきた。

    1は2015年に購入してとってもがっかりした記事を書いていている。何ががっかりしたのかというと、主に「母艦」とも揶揄される、iPhoneがないと何もできない、Bluetoothありきの仕様だったからだ。

    てっきり、少年時代に見た近未来の腕時計がやってきたと思っていたのに、当時、肩透かしを食らった気持ちになったのを覚えている。

    技術的には、こんな小型なガジェットに搭載されるコンピュータは当然低消費電力でないといけないし、できることが多い一方で処理速度も問われる。当然簡単にできないことくらいはわかっていたが、期待が高すぎると残念な気持ちも大きくなるものだ。

    いつになったら、iPhoneなしでいろいろできる、クールなスマートウォッチになるのだろう、と思っていた。

    そして今年、Apple Watch Ultraという、ハイエンド機が出たこともあり、ついに、Apple Watch単体でも小型のスマホのような機能を実現できるようになったのではないかと購入してみた。

    実際に利用してみるとわかるのだが、49mmと画面が大きくなったこともあり、圧倒的に画面操作が楽になった。

    LINEなども文字の入力もできるし、スタンプも押せる。音声入力にも対応しているので、割と長文も打てるようになっている。

    また、念願のGPSの位置測位性能も格段に向上している。

    以前のApple Watchをホノルルマラソンに連れて行って、5km以上の誤差がでていて悲しい気持ちになったことがトラウマになり、個人的にマラソン用はガーミンだった。

    というのも、ながらく、GPSはiPhoneの位置情報を優先していてランニングをした時きちんと距離を測れていなかったからだ。しかし、先日、Ultra、Series8、SEの最新の3モデルについてはiPhoneが近くにあってもApple Watch内蔵のGPSを使用するようになったという発表があった。

    Apple WatchでついにGPSを時計単独で利用可能に
    デュアルバンドGPSで精度が向上し、ついに、Apple WatchのGPSを優先してくれるようになった

    電池の寿命を気にしてGPS機能があまり使えてなかったが、ここに来て改善されたのだ。

    また、Apple Watch UltraとiPhone14 Pro, Pro MaxではデュアルバンドGPS周波数を採用していて、大都市などビルが密集している地域でもよい位置データが取れるようになっていたこともあり、Apple Watch Ultra側の位置情報を優先する仕様に変更したとも思われる。

    ようやく、小型のiPhoneともいうべき、便利さを実現できるようになってきたApple Watch。

    ここまでできると、「セルラーモデルで、iPhoneを忘れても大丈夫」と思えるのではないだろうか。

  • 最新Apple Watchで、以前のデータを簡単に引きついでセットアップする方法

    最新Apple Watchで、以前のデータを簡単に引きついでセットアップする方法

    先日、Apple Watch Ultraを購入した。

    GPSが2系統あり、ダイビングで水深も測れ、ディスプレイも大型化されただけあって電池も長持ちするということで、我慢できなくなったからだ。

    Apple Watchのようなガジェットを購入して、いつも思うことは、「以前の設定を毎回設定し直すのがとても面倒」ということだ。せっかく新しいガジェットを買ったのに、設定に時間をとられることなく一刻も早く使ってみたい。

    そんな、せっかちの方に朗報が。

    今日時点で、最新のiOSのバージョンは16だ。

    実は、iOS16になると、Apple Watchのデータは自動的にバックアップされ、Apple WatchがペアリングされているiPhoneに自動的に保存されるようになる。

    バックアップされる項目は多岐にわたっていて、Bluetoothのペアリング情報、Apple Apyに使用されるクレジットカード情報、Apple Watchのパスコード、メッセージなどだ。

    ちなみに保存場所は、「設定>一般>iPhoneストレージ>Watch」だ。

    これがありがたいことに、新しいApple Watchを購入した時、初期設定を簡単にしてくれる。

    やり方は簡単で、iPhoneでWatchアプリを開く。そして新しいデバイスをペアリングする。そうすると、復元するオプションが表示されるのだ。

    あとは、どのApple Watchのバックアップをもとに設定するかを選んで、「続ける」を押すだけ。

    いろんな設定をしていて使いこなしている人ほどこの機能はありがたい。なんで今までなかったのだろうか。

  • WWDC2020にみるアップル製品の進化と、学ぶべき「デジタル活用」

    WWDC2020にみるアップル製品の進化と、学ぶべき「デジタル活用」

    先日WWDC2020をみて、iOSをはじめとするアップル製品の進化に驚いた人は多いと思われる。

    筆者の場合、今回はOSなどソフトウエア周りのアップデートに関する発表が主であったとはいえ、特に周辺機器まわりの先端技術をいい感じで使っている点に興味を惹かれた。

    おそらく、多くの企業が、現在「デジタル活用」に関して悩んでいることと思われるが、重要なヒントが多く隠されている。

    Apple Pencilは、手書き文字をコピーペースト

    アップルペンシルといえば、iPadでの手書き文字を書くために重宝されている電子ペンだ。

    この電子ペン、これまでも書き味が、本当のペンのようなものであったため、多くの人が驚いたものだが、今回は、書いた文字が手書き文字であるにもかかわらず、選択可能であり、その文字の色を変えたり、コピーペーストできるということに驚いた。

    他にも手書きで書いた矩形や、矢印なども自動できれいにしてくれるという。

    単純に手書き文字を範囲指定で選択でき、色をかえることができるという点について、これまでであれば、ペンの色を変えてから手書きをしていたわけだが、とりあえず黒で文字を書き殴っておいて、あとで重要なところだけ色を変えるということができるようになったのだ。

    そして、コピーペーストについては、コピーした手書き文字を、画像認識で言語解析を行い、文字認識を行った上で、ペーストするツールに文字列として配置する、とい処理が必要になる。

    APPLE WWDC2020
    ©️APPLE

    これは一見簡単に見えて、複雑な処理をやっている。コンピュータの性能も問われるだろう。

    こういった複雑な処理を直感的に実現するのはアップルの御家芸だとも言える。

    AirPods Proは「気が利く」接続が実現

    また、AirPods Proでは、MacやiPad、iPhoneを同時に使う、アップルファンの人にとっては朗報な機能が追加された。

    例えば、Macで音楽を聴きながら作業をしていて、iPhoneで電話がなったとき、iPhoneでもAirPods Proで電話をとりたければ、bluetoothの切り替えを手動で行う必要があった。

    しかし、こんなことを実際に行っていては、間違いなく電話は切れてしまう。

    しかし、新しい機能では、電話を取れば、AirPods Proの接続先は、MacからiPhoneに自動的にうつるというのだ。

    この機能も利用者の直感的な実現してほしい気持ちを現実のものとしている。

    APPLE WWDC2020
    ©️APPLE

    Apple Watchも、つけている人を思いやる機能が追加

    さらに、Apple Watchでは、ランニングのような単調な動作だけでなく、ダンスのような複雑な動作も認識できるようになり、睡眠というテーマに関しても、通常よくあるウエアラブルバンドでは、睡眠中のデータを取得しようとするのだが、Apple Watchでは違う。

    入眠前のルーティーンを設定することで、入眠をスムーズに行うといのだ。

    APPLE WWDC2020
    ©️APPLE

    睡眠中についても、寝ているひとを起こさないような工夫をすることはもちろんのこと、起床時も、隣で寝ているパートナーを起こさないような配慮がされているという。

    3つの周辺機器について、これまでであれば、ペンシルであれば手書きがきれいにできる、イヤホンは音質、ウオッチは生態情報を取得、とシンプルな機能を追求するプロダクトが多かった。

    しかし、今回の発表を見るとわかるように、アップルは利用者の気持ちになってできることを決めている。

    こういった心地よさが実現されることで、ファンが増えているのだとあらためて思い知らされた。

    現在、多くの企業が自社製品や自社サービスに、どうやって最新技術を取り込めばよいかで悩んでいる。しかし、アップルのアプローチを見れば、「デジタル技術の本質を理解する」そして、「利用者の気持ちに寄り添う」という、たった二つの点を大事にしていることがわかるだろう。

    もし、同じ悩みに直面している人がいたら、デジタル技術を本質的に理解する努力と、今一度自分の顧客に寄り添うということについて考えてみて欲しい。

    WWDCレポート動画も公開中

    Youtubeの動画で、この記事以外の様々な変更点についてもわかりやすく解説しているのでみてみてほしい。

    [su_row][su_column size=”1/2″ center=”no” class=””]
    [su_youtube_advanced url=”https://youtu.be/1cxnOd7Ygz8″ width=”200″ height=”200″ controls=”alt” theme=”light”]
    [/su_column]
    [su_column size=”1/2″ center=”no” class=””]
    [su_youtube_advanced url=”https://youtu.be/e5S4i7TVA_g” width=”200″ height=”200″ controls=”alt” theme=”light”]
    [/su_column][/su_row]

  • Apple、Appleマップによるモビリティデータの傾向を示すツールを提供

    Apple、Appleマップによるモビリティデータの傾向を示すツールを提供

    Appleは、新型コロナウイルス感染症拡大防止に向けた活動を支援するため、Appleマップによるモビリティデータの傾向を示すツールを提供する。モビリティデータは、自治体や保健当局に提供され、徒歩や自動車、公共交通機関を利用して移動する量の変化を表示することにより、新たな公共政策の基盤として利用することが可能になる。

    同ツールでは、Appleマップの使用状況を集計したデータを利用し、主要都市および63の国と地域の移動傾向を表示する。Appleマップで経路が検索された回数を数え、収集されているデータと比較することによって、世界各地のデータに反映される。

    利用可能な都市、国、地域は、1日あたりの経路の検索回数の下限など、いくつかの要因に応じて決まるという。

    モビリティデータは現在、特設ページで公開されている。

    Appleマップでは、モビリティデータとユーザーのApple IDとの関連付けは行われず、ユーザーの移動先に関する履歴は保存されないとしている。Appleマップで収集した検索語、経路、交通情報などのデータは、ランダムかつ一時的な識別子に関連付けられ、識別子は頻繁にリセットされるため、Appleがユーザーの移動や検索に関するプロファイルを保有することはないという。