
visionOS 26の最新情報
主な最新のテクノロジーと機能について詳しく解説します。
ボリュメトリック関連のAPI
SwiftUIの新しいボリュメトリック機能により、アプリのイマーシブ感がさらに高まります。既存のレイアウトに追加された奥行き/深度アライメント、レイアウトに応じてオブジェクトを回転させるための新しいツール、多数のSwiftUIモディファイアでの3Dサポートの追加により、従来の2D UIと同じ方法でリッチな3Dレイアウトを作成できるようになりました。UIプレゼンテーションを使用すると、ボリューム内およびボリューム上で、アラート、シート、メニュー、ポップオーバーなどの一時的なコンテンツを有効にできます。動的な境界制限を使用すると、アプリの境界外でのレンダリングが可能になり、アプリと実世界をよりシームレスに融合できます。
人の手の動きに合わせて、オブジェクトをより直感的に回転できるようになりました。また、SwiftUI、RealityKit、クイックルックに関するAPIを使用すれば、この動作をアプリ内のオブジェクトに適用できます。
SwiftUI、RealityKit、ARKitの新しいAPlスイートにより、これらのフレームワークが互いにより深く統合されます。Unified Coordinate Conversion APIを使用すると、シーン間でのビューやエンティティの移動が簡単になります。ビューやARKitアクセサリアンカーの間での移動も簡単です。RealityKitのエンティティとそのアニメーションは監視可能なので、SwiftUIビューで直接使用できます。ジェスチャハンドラをSwiftUIで記述し、それらのジェスチャをRealityKitエンティティに直接アタッチできます。ViewAttachmentComponentにより、RealityKitコードのその他のどの箇所でもインラインでUIを宣言できます。またModel3D
では、モデルで定義された構成を切り替えるなど、より多くのことができるようになりました。
RealityKitが強化され、アプリと実世界をよりシームレスに融合できるようになりました。環境オクルージョンにより、実世界の静的オブジェクトによってバーチャルオブジェクトを隠すことができます。また、新しいMeshInstancesComponentを使用すると、1つのアセットからそれぞれに固有な多数のバリエーションを効率的に描画できます。
近くのユーザーと体験を共有

Vision Proのアプリやオブジェクトを同じ部屋にいるユーザーと共有できるようになり、visionOSでの共有体験の汎用性がさらに高まりました。
追加のコードを記述しなくても、既存のSharePlayアプリは自動的に機能します。ARKitでは共有ワールドアンカーのサポートが追加され、共有コンテンツを部屋に正確に固定できるようになりました。SharePlayセッションでは、アプリやコンテンツを移動したり、サイズ変更したり、周囲の環境にスナップしたりできます。クイックルックを使うと、物理的なオブジェクトと同じように、バーチャルオブジェクトを操作したり、拡大/縮小したり、ユーザー間で手渡したりできます。
visionOS 26ではPersonaが劇的に変化しました。髪、まつげ、顔色などの再現性が向上し、より自然かつリアルに人物を表現できます。
ウィジェットと持続的に表示されるアプリ
表示の永続化

空間コンピューティングの魅力の1つは、デジタルコンテンツと実世界をシームレスに融合できることです。visionOS 26では、アプリやクイックルックコンテンツを物理的な表面に合わせ、所定の位置に「ロック」することで、既存の空間を新しい方法で利用できるようになりました。
ロックされたコンテンツはそのまま維持され、Apple Vision Proを再起動した後も同じ場所に再び表示されます。新しいPersistence APIでは、復元または再利用するコンテンツを指定できます。
ウィジェット

ウィジェットが空間対応になりました。壁やテーブルにスナップしたり、環境に溶け込ませたり、配置した場所に固定したりできます。WidgetKitとSwiftUIを使用してiOS/iPadOS対応のアプリ向けに作成されたウィジェットは、visionOSでも適切に表示されます。ウィジェットビューには、奥行きと次元を利用して、新しいビジュアル処理が自動的に適用されます。何も変更する必要がありません。visionOSアプリ向けのウィジェットでは、ユーザーが近くにいる場合に代替ビューを表示したり、ガラスや紙のテクスチャを採用したりできるため、アプリコンテンツに最適なビューを定義できます。
ゲームと空間アクセサリ

すばやい手の動きが求められるフルイマーシブなアプリやゲーム向けに、visionOSは、追加コードなしで最大90Hzのハンドトラッキングをサポートするようになりました。
新たにメモリ制限の引き上げに対応し、ハイエンドのiPadゲームをVision Proにポーティングできるようになりました。Compositor Servicesは、Metalを活用したイマーシブアプリで、プライバシーに配慮したホバーエフェクトをサポートします。また動的レンダリングの品質により、アプリのレンダリングパフォーマンスをきめ細かく制御して最適化することで、精細なシーンを際立たせることができます。
macOSの空間レンダリングでは、Macのパワーを利用してイマーシブコンテンツをレンダリングし、Vision Proに直接ストリーミングできます。ネイティブのフレームワークで開発する場合、段階的なイマーシブスタイルを使用すると、新しい「ランドスケープ」処理と「ポートレート」処理によって既存のiOSアプリやゲームにさらなる次元をもたらすことができます。動きの激しいゲームの表示に最適です。また、TabletopKitには新しい2つのAPI(CustomEquipmentStateとCustomActions)が導入され、柔軟性と制御性がさらに向上しました。
visionOSは、6方向の自由自在な入力を可能にする空間アクセサリをサポートするようになりました。Sony PlayStation VR2 Senseコントローラは、フルモーションのトラッキングパフォーマンスを利用して、より魅力的なゲームプレイを実現する空間ゲームコントローラです。Logitech Museを使用すると、クリエイターやデザイナーは、アプリに高精度で描画したり、注釈を付けたりできます。visionOSには、Game ControllerフレームワークとARKit全体のAPIが含まれているため、デベロッパはこれらの新しいアクセサリのサポートを追加できます。
Apple Intelligence

visionOS 26では、簡体字中国語、フランス語、ドイツ語、イタリア語、日本語、韓国語、スペイン語など、より多くの言語でApple Intelligenceを利用できます。
新しいFoundation Modelフレームワークにより、アプリは、多くのApple Intelligence機能の中核であるオンデバイスの大規模言語モデルに直接アクセスできます。ガイド付き生成では構造化された出力を生成できます。またツール呼び出しにより、コードで定義したアクションをモデルが自律的に実行できます。
空間Web

visionOS 26では、ユーザーはSafariを使用してより多くの方法で空間コンテンツを表示および操作できるようになりました。ナビゲーションバーから「空間ブラウズ」を選択すると、リーダーモードに対応しているWebサイト上の記事が変換され、不要なものが削除されます。さらに、ユーザーがスクロールすると、空間シーンがインラインで生き生きと表示されます。
HTMLの<model>要素を使用するとWebページに3Dモデルを簡単に埋め込むことができ、ユーザーはその3Dモデルをインラインで表示して操作できるほか、オブジェクトを空間内に実物大で表示することもできます。モデルはページの一部になり、CSSでスタイルを設定したり、JavaScriptで構成したりできます。
HTMLの<video>要素を使用すると、Webページに空間ビデオやイマーシブビデオ(Apple Immersive Videoを含む)を表示できます。
また、新しいデベロッパ向けプレビューである「Web環境」では、HTMLマークアップを使用してカスタムのイマーシブ環境をユーザーに提供できます。
空間メディアコンテンツ

RealityKitの新しいImagePresentationComponentを使用すると、新しい驚くような方法でリアルな写真体験を実現できます。このコンポーネントは、2Dビデオや空間ビデオのコンテンツを、ユーザーが身を乗り出して周囲を見回すことができる3D空間シーンに変換します。
新しいApple Projected Media Profile(APMP)により、visionOSは、キヤノン、GoPro、Insta360の広く使用されているサードパーティ製カメラで撮影された180度/360度/ワイドFoVのメディアをネイティブにサポートするようになりました。APMPコンテンツはアプリやWebサイトに埋め込んで再生することもできます。
新しいBlackMagic URSA Cine ImmersiveカメラとDaVinci Resolveを使用して作成したApple Immersive Videoコンテンツは、アプリで再生したり、SafariでWebから再生したりできます。また、新しいImmersive Media Support(IMS)フレームワークを使用すると、クリエイターの制作パイプラインからApple Immersive Videoコンテンツを作成、処理、共有できます。
Vision Proでコンテンツを収録する際、Reality Composer Proを使用して、セッションあたり3倍のコンテンツをキャプチャできるようになりました。またvisionOS Simulatorは、手元にデバイスがない場合の録画に加えて、4K解像度をサポートするようになりました。
エンタープライズAPI

visionOS向けのエンタープライズAPIにより、センサーへのアクセスとコントロールが向上し、よりパワフルなエンタープライズソリューションや空間体験を創出することができます。visionOS 26向けの新しいAPIを導入することで、エンタープライズアプリに以下の機能を追加できます。
- メインカメラのアクセスを共有スペースに拡張する
- 個々のメインカメラまたは両方のメインカメラのフィードに同時にアクセスする
- 関心のある領域を指定して、高品質で安定したビデオフィードを受信する
- スクリーンショット、画面収録、AirPlay、SharePlayを無効にして、機密性の高いコンテンツを保護する
- ユーザーの位置に合わせてアプリウインドウを自動的に追従させる
- 企業独自のインフラストラクチャを使用して、ローカルでの共有体験を構築する
リソース
アプリやゲームの構築にXcode 26(ベータ版)を使用することで、visionOSの最新機能を活用できます。更新されたドキュメントを読み、WWDC25で紹介された新しいテクノロジーのサンプルコードをお試しください。