View in English

  • メニューを開く メニューを閉じる
  • Apple Developer
検索
検索を終了
  • Apple Developer
  • ニュース
  • 見つける
  • デザイン
  • 開発
  • 配信
  • サポート
  • アカウント
次の内容に検索結果を絞り込む

クイックリンク

5 クイックリンク

ビデオ

メニューを開く メニューを閉じる
  • コレクション
  • トピック
  • すべてのビデオ
  • 利用方法
  • 概要
  • トランスクリプト
  • WWDC25発の注目の最新情報

    Apple Developer Centerクパティーノで開催された新しいセッションのビデオで、WWDC25で発表された主な機能の詳細について確認しましょう。このセッションは、デザイナー、デベロッパ、プロダクトマネージャーなど、チームメンバーの皆さまにご参考いただける内容です。

    関連する章

    • 0:03:10 - Agenda
    • 0:04:03 - The new design system
    • 0:19:16 - Build with the new design
    • 0:39:53 - Machine learning and Apple Intelligence
    • 1:09:03 - What's new in visionOS

    リソース

      • HDビデオ
      • SDビデオ

    関連ビデオ

    WWDC25

    • アプリアイコンの新デザインのご紹介
    • ウィジェットの新機能
    • 新しいデザインによるAppKitアプリの作成
    • 新しいデザインによるSwiftUIアプリの作成
    • 新しいデザインによるUIKitアプリの作成
    • AppleシリコンでのMLXの導入
    • Appleプラットフォームでの機械学習/AIフレームワーク
    • Foundation Modelフレームワークの紹介
    • Liquid Glassの紹介
    • SwiftUIの空間レイアウトの紹介
    • visionOS 26の新機能
    • visionOSでの空間アクセサリ入力の詳細
    • visionOSのビデオ体験の詳細
  • このビデオを検索

    こんにちは ありがとうございます それでは始めましょう クパティーノの Apple Developer Centerへようこそ Appleのテクノロジーエバンジェリスト Leahといいます 今日はWWDCでの重大発表のいくつかを 改めて詳しくご紹介したいと思います ご想像のとおり 内容は多いのですが

    その前にまず この場所について ご紹介したいと思います

    このDeveloper Centerは Apple Parkの一部で 今日のイベントでは この施設の さまざまなエリアでコラボレーションや 交流が行われています

    ここはBig Surといいます 対面プレゼンテーションや スタジオレコーディング ライブ放送などさまざまな 活動ができるように 設計された最先端のスペースです

    またラボやブリーフィングルームのほか 会議室も用意されているため さまざまな催しを行うことができます

    ここは世界中に4か所ある Developer Centerの1つで デザイナーや デベロッパを招いてセッションやラボ ワークショップなどを開催しています Developer Centerに来たことのある方は? いいですね 再度の ご来場ありがとうございます 初めての方も お会いできて嬉しいです

    また現在 オンラインでも 大勢が参加されています ご視聴ありがとうございます

    では 今日のプレゼンテーションの 背景をご説明します 今年のWWDCは 刺激的な発表が目白押しでした そして今回は 全世界28の都市で 重要な最新情報の一部を デベロッパの 皆さんとともにふり返りたいと思います

    WWDCではさまざまなプラットフォームの 最新情報や ベストプラクティスを紹介した 100以上の動画をリリースしました ですのでご想像のとおり 内容は盛りだくさんです

    今日はこれからの2時間で 特に重要な新情報を 再確認していきますので 最新の情報を幅広く 把握していただくことができます それを踏まえて皆さんが 新たなインスピレーションを得たり 動画やドキュメントでより詳しく学ぶ内容を 決めたりしていただければ幸いです

    私のチームも皆 今日を楽しみにしていました まず 始める前に 会場の皆さんに いくつかお知らせがあります まだご存知でなければですが AppleWiFiネットワークでの接続は 1日中ずっとご利用いただけます また デバイスを 充電する必要がある場合は すべての座席のアームレストの 前面下部に電源があります

    また 本日ご視聴の皆様 これらのプレゼンテーションは 皆様向けに特別にご用意したものなので プレゼンテーション中の動画撮影や ライブ配信はご遠慮ください ただイベント中に 写真を撮ることは大歓迎です またイベント終了後にも フォローアップ情報をお送りしますので 見逃しはありません

    では細かい話は終わりにして WWDCの重大発表の数々を 見直していくことにしましょう 新しいデザインシステムや Apple Intelligence、機械学習、 visionOSなどです

    ではいよいよ お待ちかねの時間です 予定を確認しましょう 素晴らしい発表が目白押しです

    まずMajoとCurtが 新しいデザインシステムについて説明します

    次にShashankが 機械学習と Apple Intelligenceに関する最新の 情報をお届けします

    その後に少し休憩を入れて コーヒーを飲んだり ストレッチしたり 他の方と おしゃべりして一息つきましょう 最後にAllanが visionOSの空間コンピューティングの 新機能について説明します その後は会場の皆さんと 親睦会を予定していますので Appleのエンジニアやデザイナーと 軽食やおしゃべりをお楽しみください 楽しいですよ

    では前置きはここまでにして まずMajoに 新しいデザインシステムを 紹介してもらいましょう

    皆さんこんにちは 今日はご参加ありがとうございます エバンジェリズムチームの デザイナーのMajoです 今日は皆さんに新しいデザインシステムの 概要をご紹介します これは皆さんのアプリに 大きな可能性をもたらします

    また後で 同僚のCurtが その実装方法についても 少し詳しく説明します

    WWDC25では Appleソフトウェアの 見た目と使用感に関する 大きな進歩について発表しました

    これは新しい調和のとれたデザイン言語で まとまりがあり適応性が高く 表現力も豊かです

    その影響はアプリアイコンの まったく新しいデザインから コントロールの構造や アプリのレイアウトにまで及びます

    このアップデートにより 複数のプラットフォームで 一貫したデザイン言語を アプリに適用できるようになります この新しい見た目は 新しいSDK用の 再コンパイルを行うとすぐに得られます

    今日はLiquid Glassの 概要を紹介するほか

    システムの主要コンポーネントの 一部のアップデートや

    この新しい見た目と操作感を アプリアイコンに活かす方法を説明します

    今回のアップデートの中心となるのは コントロールやナビゲーション要素向けの まったく新しい適応型マテリアル Liquid Glassです

    この新しいマテリアルは 光をリアルタイムで 動的に曲げ 成形し 集中させます

    このように光を形作ることで コントロールはほぼ透明になりますが 明瞭に見分けることができます

    また同時に このマテリアルは 有機的に動作するため 触れると滑らかに反応する 軽い液体のように感じられます

    その結果 セクション間の移動時には コントロールが 継続的に形を変えるため シームレスに見えます

    メニューを表示すると ボタンがぽんと開き 遷移の動作によって ボタンとそのオプションとの関係が 非常に明確かつ 直接的に示されます

    また同様の目的で コントロールを操作した際に 要素がLiquid Glassの中に引き上げられて その下にある値が 透けて見える場合もあります

    Liquid Glassには2種類あります クリアとレギュラーです

    クリアなLiquid Glassは常に透明なので その下にある豊かなコンテンツが すべて透けて見え ガラスマテリアルと美しく 相互作用します

    この場合は記号やラベルを 読みやすくするため 下にあるコンテンツを暗くする レイヤーが必要になります

    次に レギュラーのLiquid Glassです これが最もよく使われることになります 非常に適応性が高く さまざまな条件下で 読みやすさを確保できます

    レギュラーのLiquid Glassは 背景の明るさや暗さを認識できるため プラッタやその上にある記号も 明るさを切り替えて可視性が保たれます この動作は 「レギュラー」スタイルの使用時に 自動的に発生し ライト/ダークモードとは 無関係に機能します

    独自のブランドイメージを忠実に保ちながら Liquid Glassをアプリに取り入れるには 一般的なシステムコンポーネントを使います

    例えばタブバーは アプリの 上位セクション間を移動するためのものです

    ツールバーは画面単位でアクションをまとめ 操作を容易にするために使います

    シートには単純なコンテンツやアクションを モーダル/非モーダルビューで表示できます

    まずタブバーでは アプリの概要が一目でわかるほか さまざまなセクション間の移動も 可能になっています タブバーは常に表示されているため いつでも簡単にアクセスできます

    タブバーもLiquid Glass用に再設計され アプリのコンテンツ上に浮かんで 操作をガイドするようになりました

    半透明で スクロール時には 最小化したり再展開したり するように設定できるため コンテンツを際立たせつつ 雰囲気も維持できます

    既存のタブバーをアップデートする場合は いくつかの新機能を 活用することができます

    例えば新しい検索タブです これは検索をアプリのあらゆる部分から いつでも簡単に利用できるようにするための 専用のタブです

    またタブバーには ミュージックアプリの ミニプレーヤーのようなアクセサリビューも 表示できます

    これはタブバーの上に 似たような見た目で表示されます スクロール時にタブバーが最小化されると より多くのコンテンツが見えるよう アクセサリビューは一段下に移動します

    アクセサリビューはアプリ全体で 表示されたままになるので 画面固有のアクションには 使用しないでください また アプリの異なる部分の要素を 混在させると 階層が曖昧になり 永続的な要素とインコンテキスト要素の 区別が難しくなる可能性があります

    かわりにそれぞれの要素がサポートする コンテンツの領域内に維持してください

    こうした新機能をタブバーで活用する方法は 後でCurtがご説明します

    次にツールバーです よく使われるコントロールに 簡単にアクセスできるツールバーは 画面の上部または 下部に配置されており ユーザーがナビゲーションにアクセスして 迷わずに操作できるようにします Liquid Glassによってコンテンツが 常に画面の主役になります

    ツールバーのアクションを 一目で理解できるようにするには テキストよりもシンプルで見分けやすい 記号を使いましょう

    新デザインでは 関連コントロールの記号は 同じガラスの背景上にまとめられます

    ただ 編集や選択などのアクションには 記号を使用しないでください そうしたアクションは 記号で簡単には表せないからです

    ツールバーにテキストと記号の 両方のコントロールがある場合は 混乱や取り違えを避けるため それらを分離しておくことを お勧めします

    アプリのツールバーが混雑しているようなら この機会にアクションを単純化し 優先順位を付け グループ化しましょう

    副次的なアクションについては メニューを使います このメニューは省略記号(…)で表されます

    ツールバーをこのように調整することで インターフェイスが期待通りに操作しやすくなります

    Liquid Glassの導入によって 新たな処理機能が必要になりました それが「スクロールエッジエフェクト」です iOSのではコンテンツが Liquid Glassツールバーの下に表示されます ボタンはスクロールエッジエフェクトにより コンテンツの上に鮮明に表示され続けます

    ですのでアプリに 浮動するLiquid Glassの コントロールがある場合は 必ずこのエフェクトを含めてください

    ただしアプリのツールバーに 複数のアクションがある場合は ハードスタイルの使用をお勧めします それによってコンテンツ領域との 分離がより明瞭になり 見やすさが向上します これはiPadOSやmacOSのアプリで よく使用されています

    カラーはコミュニケーションを強化し ブランドを表現することができます ただし 過剰な使用や不適切な場所での使用は 視覚的なノイズと認識される恐れがあります ですのでLiquid Glassを効果的に 着色できる方法と場所を簡単にご紹介します

    まず カラーは控えめに 一貫性をもって使用してください 強調することで本当にメリットがある 重要なアクションにのみ使用し 単にブランドの表現のために 使うことは避けましょう

    例えば 一般的な懸念事項の1つが 色付きの背景をどう管理するかです ツールバーのすべての ガラスボタンに色を付けると コンテンツから注意がそれる恐れがあります

    ブランドのカラーは特に 重要な場所で際立たせましょう コンテンツ領域です このアプローチにより アプリでは ツールバーに注意を集めることなく 独自の個性を 表現できるようになります

    最後に Liquid Glassに着色するときは 内蔵のカラーを使用してください さまざまな色調が用意されており その下にあるコンテンツによって 明度 彩度 色相が変化します 意図した色から大きく 離れることもありません

    また 透明性を下げるなどの アクセシビリティ機能にも適応するため Liquid Glassが白く濁って その下にあるコンテンツを さらに隠すこともあります コントラストを上げると 境界線が追加されて 要素が強調表示されます

    Liquid Glassがどのように アプリの使用感や操作方法を変えるかを いくつかご紹介しましたが もう1つの重要な要素がシートです これは特定の情報を要求したり 単純なタスクを 提示したりするために使われます これもLiquid Glassに対応するよう 入念に再設計されました

    シートはサイズ変更が可能で デテントに基づいて拡大されます デテントとはシートが自然に収まる 特定の高さのことです 最小または中程度の高さの デテントでは 浮かんだガラスのような シートが表示されるようになったため 元のコンテキストを維持することができます

    そして完全に展開された状態では シートが拡大されて ガラス素材はより不透明になるため ユーザーは表示された内容の 確認に集中することができます これをアプリに導入する方法については 後でCurtが詳しく説明します

    使いやすさの観点から シートを使用する際は 複数のデテントをサポートする場合のみ グラバーを表示するようにしてください それでサイズ変更可能なことがわかります また 閉じる操作については 明示的なボタンを表示してください 閉じるジェスチャをサポートする場合でもです

    これらの要素はいずれも 新しいデザインシステムである Liquid Glassに合わせて完全に再設計され Appleデバイスの角と同心的に表示されます これはハードウェアとソフトウェアの さりげない関係を表しています

    ですので皆さんのデザインシステムや 視覚的デザインも Liquid Glassと 調和することが重要です

    例えばデザインシステムで いずれかの角が しっくりこないとしたら おそらくその形状を 同心的に揃える必要があります これは特にカード内のアートワークのような ネストされたコンテナでよく見られ そのせいでぎくしゃくしたり バランスが崩れたりしてしまいます このシステムの優れた点は コンテナとデバイスを 基準とした内径を 自動的に計算して シームレスな統合を実現できることです これも後でCurtが詳しく説明します

    最後に Liquid Glassの調和感と 立体感 そして流動性は Mac、iPad、iPhone、 Watch、CarPlayの全体で アプリのアイコンにも導入されています

    またシステムアイコンも 新しい言語とそのダイナミックな機能を 最大限活用できるように一新されました

    これらは特に アプリアイコン用の Liquid Glass素材を積み重ねて 構成された 真に立体的な デザインとなっています

    この素材はライトモードや ダークモードなど あらゆる外観モードに自動的に適応します またLiquid Glassによるさまざまな 新しい外観モードも導入されました モノクロガラスにはライトモードと ダークモードの 両方があります そして最後に 色合い調整モードも追加されました ダークトーンでは前景に カラーが加えられ ライトトーンでは背景に カラーが注入されます

    こうした表現力豊かで 立体的なアプリアイコンを さまざまな 見た目やプラットフォームで作成するには Icon Composerという新ツールを使います このツールは既存のワークフローや 現在使用している デザインツールと併用することができ これを使えば さまざまな新しい 素材やエフェクトをプレビューしたり 試したりできます

    これで新しいデザインシステムと Liquid Glassの概要をご紹介しました 今日説明した機能はすべて 製品に組み込まれているため アプリでの体験をより自然で イマーシブかつ スムーズなものにできます では次は Curtに 新しいデザインシステムを利用して 真に魅力的なアプリを開発することが いかに簡単かを説明してもらいましょう ありがとうございました Curtです

    ありがとう Majo

    こんにちは ここからCurtが説明します Developer Relationsチームの テクノロジーエバンジェリストです 今日はアプリに新しいデザインを導入する 方法をご説明したいと思います Majoが話した内容を補足すると同時に 新しいデザインをコードで実現する方法を 実演していきます 主な例としては Landmarksを使用します これはApple Developerの Webサイトにあるサンプルプロジェクトで Mac、iPad、iPhoneで 表示するとこうなります アプリをXcode 26 SDKで コンパイルすると UIが全体的に変わっているのが わかると思います 新機能の多くは 自動的に利用可能になります 今日はそれらを紹介するとともに 体験をさらにカスタマイズするための iOS 26とmacOS Tahoeの 新しいAPIについても少し説明します 例ではすべてSwiftUIを使用しますが UIKitとAppKitにも 同様のAPIがあります まず タブやサイドバーなどの構造的な アプリコンポーネントの変更点を説明し 次にツールバーの 新しい見た目と動作を紹介してから 改良された検索機能についても 説明します

    その後 コントロールがLiquid Glassによってどう変わるかを紹介し 最後に 独自のカスタムUI要素に Liquid Glassを取り入れる方法を 説明したいと思います また締めくくりに iPadOS 26の 重要な変更点もいくつか紹介します

    まずアプリの構造についてです

    アプリの構造とは ユーザーがアプリを 操作する手段のことで タブ、サイドバー、シートなどを意味します これらはすべて 新デザインに 合わせて改良されました サイドバーを使うと 多数のルートカテゴリからなる 階層構造の中を移動できます 今回 macOS TahoeでもiPadOS 26でも サイドバーはコンテンツ上に浮かぶ Liquid Glassになりました どちらでも動作は同じですが Macについて詳しく説明します Landmarksアプリでは コンテンツ領域のピンクの花と砂が サイドバーに反射しています でもこのヒーローバナーは サイドバーの端で突然終わっています かわりにコンテンツを サイドバーの下に配置できれば Liquid Glassが バナーの美しい色を さらに引き立てられるようになります

    これは新しいbackgroundExtensionEffect 修飾子を使えば簡単です それでコンテンツが切り詰められることなく セーフエリアの外側にビューが拡張されます ではサイドバーを一旦消して その背後にあるものをお見せします 画像は実際 ミラーリングされて ぼやけており 画像のトーンがサイドバーの 下まで拡張されて そのコンテンツはすべて見えています

    タブビューでは一貫した 最上位のナビゲーションが可能で これは少数の主要セクションを 表示するのに最適です 通常は5つ以下です

    新デザインでは iPhoneのタブバーは コンテンツ上に浮かんで表示され 設定によってスクロール時には 最小化することができます

    これを行うには単に tabBarMinimizeBehavior修飾子を 既存のTabViewに追加するだけです onScrollDown引数を使用すると タブバーは下へのスクロール時に最小化され 上にスクロールすると再度展開されます

    またMajoが言ったように タブバーの上にも ビューを追加できるようになりました これはミュージックアプリの 再生ビューのように 常に 手元に置いておきたいビューに使用できます

    タブバーの上にビューを配置するには tabViewBottomAccessory修飾子を使います これもタブバーの 折り畳み動作によって残される スペースを活用します

    折り畳みに反応するには

    tabViewBottomAccessoryPlacementを 環境から読み取り アクセサリがタブバー領域に折り畳まれたら アクセサリのコンテンツを調整します

    タブやサイドバーと同様に 新しいデザインではシートも 自動的に強化されます Landmarksアプリでは 新しいコレクションを作成すると オプションのシートが表示されます iOS 26では 中程度の高さのシートには デフォルトで Liquid Glassの背景が付きます 高さを下げると 下端が画面の丸い角に 合わせて収められます 完全な高さのシートに移行するときは Liquid Glassの背景が 徐々に遷移して 不透明になり 画面の端に固定されます

    シートはボタンから 直接モーフィングされます これはLandmarksアプリで シートを表示するための既存のコードです シートを表示するための ボタンがあり sheet修飾子がシートの コンテンツを定義しています ここで画面からコンテンツを 3ステップでモーフィングしてみます ステップ1では シートとボタンを 関連付けるための名前空間を導入します ステップ2ではボタンを 遷移のソースとしてマークします ステップ3では シートのコンテンツに ズームトランジションを設定します 結果はこうなります

    その他にも ポップオーバーやアラート メニューなども Liquid Glassの コントロールからスムーズに現れ 注意をアクションから コンテンツに引き付けます この動作は自動的に行われます 新しいデザインでは ダイアログも それを開くボタンから 自動的にモーフィングされます 単にconfirmationDialog修飾子を ソースボタンに追加するだけです

    次はツールバーです

    新しいデザインでは ツールバー項目はアプリの画面上に浮かぶ Liquid Glass表面に表示されます 各項目はその下のコンテンツに合わせて 自動的にグループ化されます

    LandmarksアプリをXcode 26で コンパイルした際 カスタムのツールバー項目は システムのボタンとは別に グループ化されます

    Landmarksでは「お気に入り」と 「コレクションに追加」は関連アクションです

    そこで新しいToolbarSpacer APIで 間隔をfixed(固定)にして それらを1つのグループにします これでグループ内のアクションが 関連し合っており リンクの共有やインスペクタの切り替えなど 他のアクションは異なる動作を することが明確になります

    ToolbarSpacerでは ツールバー項目間の間隔を 柔軟に拡張することもできます メールアプリではこの手法を利用して フィルタ項目を先頭揃えにし 検索項目と作成項目を 末尾揃えにしています

    この新しいツールバーレイアウトは Mac、iPad、iPhoneで利用できます 新しいデザインでは ツールバーも若干変更されています 新デザインではモノクロパレットが 使われる場所が増えており ツールバーもその1つです それによって視覚的なノイズが減り アプリのコンテンツが強調されて 読みやすくなります

    tint修飾子で色付けしたアイコンや 特徴的なボタンスタイルもありますが Majoが言ったように カラーの使用は控えめにしましょう CTAや次のステップなどの 意味を示すために使用し 単なる視覚効果やブランド表示のための 使用は避けてください

    新デザインでは「スクロールエッジ エフェクト」で バーの表示が保たれます これはコンテンツが バーの下を通るときに適用される 微妙なぼかしとフェードの効果です

    アプリでバー項目の背後に余分な背景や 暗くする効果を設定している場合は この効果に干渉するため 必ず削除してください

    このカレンダーアプリのように 浮遊する要素が多く 密度の高いUIの場合は scrollEdgeEffectStyle修飾子を使用し 効果のシャープネスを調整するために hardエッジスタイルを渡します

    ツールバーについては以上です 次は検索について説明します 新しいデザインでは2つの 主な検索パターンが採用されています 1つ目はツールバーでの検索です iPhoneではこの検索フィールドは 画面の下部にあり 簡単に操作できます iPadとMacではツールバーの 上部末端に表示されます 2つ目は検索を マルチタブアプリ内の 専用タブとして扱うことです この両方のパターンの構築方法を説明します Landmarksアプリでは 検索をツールバー上に配置しました この配置は 検索によってアプリの すべて または少なくとも大半の コンテンツを見つけられるときに 選択します

    検索フィールドは独自の Liquid Glass表面に表示されます タップするとフォーカスが当たり キーボードが表示されます

    Landmarksでこのバリアントを取得するため 既存のNavigationSplitViewに searchable修飾子を追加しました

    ここで修飾子を宣言することは 検索がビューの1つの列だけでなく ビュー全体に適用されることを示します

    iPhoneではこのバリアントが 自動的に適応し 検索フィールドが 画面の下部に表示されます

    デバイスのサイズや その他の要因によっては このフィールドが最小化されて ボタンに なることもあります その例がこのメールアプリです

    それをタップすると キーボードの上に完全な幅の 検索フィールドが表示されます 例えば検索がアプリの 主要な要素ではないなどの理由で この最小化の動作を 明示的に選択する場合は 新しいsearchToolbarBehavior 修飾子を使用します

    タブアプリでの検索は多くの場合 専用の検索タブで行います

    このパターンはAppleのあらゆる プラットフォームのアプリが採用しています Majoが言ったヘルスアプリもです

    アプリでこれを行うには 検索の役割を持つタブを追加し searchable修飾子を TabView上に配置します これで ユーザーがこのタブを選択すると そこに検索フィールドが開き 検索タブの内容が表示されるようになります ここで閲覧履歴に基づく おすすめを確認して利用したり 検索フィールドをタップしてキーボードを 表示し 特定の用語を検索したりできます

    MacとiPadでは ユーザーが検索タブを選択すると 検索フィールドがアプリのおすすめ コンテンツの上部中央に表示されます

    こうした検索パターンにより アプリの検索操作の 柔軟性が向上し 制御もしやすくなります

    新しいデザインでは プラットフォームを問わず ボタン、 スライダ、メニューなどのコントロールの 見た目と操作性が一新されました Liquid Glassの効果に加えて Appleのすべてのプラットフォームで コントロールに統一感が出たため ユーザーはデバイスを切り替えても 慣れた方法でアプリを操作できます

    境界線付きのボタンはデフォルトで カプセル形状になり 新しいデザインの 曲線的な角を継承しています ただし1つの例外として macOS上の小型から中型のコントロールは 多くが丸みを帯びた長方形のままで 水平方向の密度が維持されています

    buttonBorderShape修飾子を使うと あらゆる サイズのコントロールの形状を調整できます

    新しいデザインでは 各プラットフォームの コントロールのサイズもより統一されました

    macOS上のコントロールの大半は 若干背が高くなったため コントロールのラベルの周囲に 少し余裕が生まれ クリックできる部分の大きさが広がりました 複雑なインスペクタなどの 高密度なレイアウトが 存在している場合は controlSize修飾子を使って より小さいサイズを要求します

    新デザインでは コントロールの サイズや形状がプラットフォーム間で 標準化されただけでなく 新しいglassとglassProminentの ボタンスタイルを使えば あらゆるボタンに Liquid Glassを適用できます

    またスライダの機能も macOS、iOS、iPadOSのすべてで 統一されます どのプラットフォームでも スライダは目盛り付きの 離散値をサポートします また 任意の開始点も 設定できるようになりました これはユーザーが値を 中央のデフォルト値から上下に 調整できる場合に便利です 例えばお気に入りのPodcastアプリで 速度を上げたり下げたりする場合などです

    iOSとmacOSでは メニューのデザインも新しくなり macOSでは新しくメニューの先端に アイコンが表示されるようになりました メニューを作成する際はいつも ラベルか 他の標準的なコントロールイニシャライザを 使用します 同じAPIを使えばiOSとmacOSで 同じ結果を生成できるようになりました

    コントロールが新しくなっただけでなく 新しいデザインに合わせてコントロールを 更新する新しいAPIも追加されました

    システムコントロールの多くは角が コンテナの中に収まっています それはmacOS上のルートウインドウでも iPhoneのベゼルでも同じです

    Majoも言っていたように これは角の同心性と呼ばれます このアニメーションいいですね

    コンテナとの同心性を自動的に維持する ビューを構築するには concentric rectangle形状を使用します それにはcontainerConcentric設定を rectangleのcornerパラメータに 渡します この形状は 画面やウインドウの形状を問わず 自動的にそのコンテナに 適合します

    新しいデザインを活かすための最良の方法は 標準的なコントロール、アプリ構造、 検索の配置、ツールバーを 使用することです

    ただしアプリによっては少し カスタマイズが必要な場合もあります 次に アプリ用にカスタムのLiquid Glass 要素を作成する方法を説明します マップはこのユースケースの好例で カスタムのLiquid Glassコントロールが マップのコンテンツ上に浮かんでいます 同様のカスタムのLiquid Glassバッジを Landmarksアプリで ユーザーが訪れた場所に表示してみます まずLiquid Glassエフェクトを使用した カスタムのバッジビューを作成します

    カスタムビューにLiquid Glassを 追加するには glassEffect修飾子を使用します デフォルトのglassEffect修飾子は コンテンツをカプセル形状の中に配置し その下にLiquid Glass素材を置き 上にはハイライト効果を加えます

    ガラス素材の中のテキストには 自動的に鮮やかな色が使われ この色はカラフルな背景の上で読みやすさを 保てるよう 自動的に変化します

    ガラス素材の形状をカスタマイズするには 修飾子で形状を指定します

    特に重要なビューの場合は ガラスに色付けを施します ツールバーボタンと同様に この色は意味を示すために使用し 単なる 視覚効果のためには使わないでください

    ガラス素材の中のテキストと同様に この色付けにも鮮やかな色が使用され その背後のコンテンツに合わせて変化します

    iOSでカスタムコントロールやコンテナに インタラクティブな要素を含める場合は glassEffectにinteractive修飾子を 追加します

    この修飾子を使用すると Liquid Glassは ツールバーのボタンや スライダの操作に反応して 拡大縮小したり 弾んだり光ったりします

    カスタムのバッジができたので 複数のバッジをまとめて お互いに反応し 溶け合うようにしてみます

    複数のLiquid Glass要素を 組み合わせるには GlassEffectContainerを使用します このグループ化は 視覚的な正確さと パフォーマンスの確保に不可欠です Liquid Glass素材は 光を反射して屈折させ 近くのコンテンツの色を拾います これは周囲のコンテンツを サンプリングすることで行われます

    GlassEffectContainerを使用すると 隣接する複数の要素が サンプリング領域を共有できるため 干渉を避けることができます 共有サンプリング領域を使用すると サンプリングパスが最小限に抑えられるため これはパフォーマンスの面でも重要です

    GlassEffectContainersは サンプリングを制御するだけでなく モーフィング効果も有効にします Landmarksアプリでは GlassEffectContainerを使って バッジをグループ化しています コンテナ内では 状態が展開されたときに 多数のバッジラベルが表示されます また状態のオン/オフを切り替える バッジトグルも用意しています このボタンをタップしてバッジを展開すると このスムーズで美しい モーフィングアニメーションが表示されます

    GlassEffectContainerができたら あとはわずか3ステップで このアニメーションを作成できます まずステップ1で ラベルをレンダリングし Liquid Glassを使用してトグルします

    ステップ2では ローカル名前空間を導入します そしてステップ3では glassEffectID修飾子を使って ラベルとトグルをその名前空間に関連付け これらが関連していることを システムに伝えます

    ボタンをもう一度タップすると バッジがスムーズに ボタンに再吸収されます

    Liquid Glassエフェクトを利用すると アプリの真にユニークな機能を 美しく引き立てることができます では新しいデザインで利用できる機能と 可能なカスタマイズについて まとめたところで 次にiPadOS 26に加えられた その他いくつかの変更を見ていきましょう

    iPadOS 26にはiPadをよりパワフルかつ 多機能にするための変更が加えられました その1つが新しいウインドウシステムです ウインドウは新しい方法で サイズ変更できるようになりました サイズ変更に対応するすべてのアプリでは visionOSと同様 右下隅にハンドルが 表示されるようになりました これをドラッグするとアプリの画面が縮小し 壁紙の上に浮かぶウインドウになります

    これまではウインドウのサイズ変更を 阻止できたため そうなっている iPadアプリもあるかもしれませんが それはiPadOS 26では非推奨です iPadOS 26の次のメジャーリリース以降は すべてのiPadOSアプリが サイズ変更に対応しなければなりません

    サイズ変更に加えて iPadOS 26では新しい マルチタスキングの方法も導入されました マルチタスキングについては 1つ重要な点を念頭に置く必要があります マルチタスキングの際 中核となるのは シーンです 各シーンはアプリのインターフェイスの 1つのインスタンスを表します 例えばメールアプリでは 個々の メールボックスのウインドウを開けるため 整理が簡単です

    開いたメールボックスはそれぞれ 独自のシーンで表示されます

    SwiftUIベースのアプリは自動的に シーンに対応します UIKitベースのアプリでは シーンはiOS 13で導入されて以来 オプションになっています 今後はこれが必須になります これはiPadOSだけでなく iPhoneやMac Catalystでも同じです iOS 26の次の メジャーリリースからは シーンに対応するアプリだけが動作します

    重要な違いの1つは 複数のシーンに対応することが 推奨されるものの 唯一の要件はシーンベースの ライフサイクルの採用だということです

    アプリをシーン対応にする方法については 優れたオンラインガイドが存在します

    サイズ変更や マルチタスキングをサポートすることは ユーザーがアプリをより柔軟に 操作できるようにするための良い方法です ですのでこれは iPadアプリの柔軟性を高め プラットフォーム上で真にその価値を 発揮させる絶好の機会です

    Majoと私も 同僚たち全員も この新時代のAppleデザインを皆さんと 共有できることを嬉しく思っています 皆さんがLiquid Glassで どんなものを作られるか とても楽しみです

    では次は 同僚のShashankに Apple Intelligenceの最新情報を 伝えてもらいます ありがとう

    ありがとうございます

    こんにちは Shashankといいます AIMLテクニカル エバンジェリストです 今日はWWDC 25で発表した 機械学習と Apple Intelligenceに関する 最新情報を 簡単にご紹介します またこうした新機能を活用して 独自のアプリを 一層スマートにする方法も紹介します

    ポイントは3つです まず オペレーティングシステムに 直接組み込まれている インテリジェンス機能と それをシステムフレームワークから 活用する方法を紹介します 次に システム全体でアプリを より深く統合する方法を説明します 最後に デバイス上で実行する カスタム機械学習モデルの最適化と展開に AppleのツールやAPIが どう役立つかを説明します

    では全体像から始めましょう 機械学習とApple Intelligenceは Appleオペレーティングシステム全体の 多くの内蔵アプリや機能の 中核をなすものです 当社では昨年 生成インテリジェンスをAppleの オペレーティングシステムの中核に Apple Intelligenceを強化する 基盤モデルとともに導入しました それによって作文ツールやジェン文字 Image Playgroundなどが システムに直接組み込まれたため ユーザーがそれらの機能を アプリに直接組み込めるようになりました 例えば アプリでシステムの テキストコントロールを使用する場合は 自動的にジェン文字がサポートされます また 新しいAPIを使うと テキストのどこにでもジェン文字を 表示させることができます

    Image Playgroundでは ChatGPTを使用して画像を生成し 油絵やベクターアートなどの 新しいスタイルを試すことができます Image Playgroundのフレームワークでは Image Playgroundシートを アプリ内に直接表示したり Image Creator APIを使用して画像を プログラムで作成したりできます

    テキストビューの表示に標準の UIフレームワークを使用するアプリは すでに作文ツールに対応済みです 作文ツールを使用すると 文章を改善するための書き直しや 校正 要約といった作業を すべて1箇所で行えます そしてこれらのツールには さらに多くの機能が追加されています iOS、iPadOS、macOS 26では 作文ツールによる提案を フォローアップできるようになりました 書き直しの後に 文章をもう少し 温かく会話調で励ますような 表現にするよう頼んだりもできます

    作文ツールは テキストを選択した場所に 表示されますが テキストが多いアプリの場合は ツールバーボタンを追加することで さらに見つけやすくなります

    同様に コンテキストメニューにも 作文ツールの項目が 自動的に追加されます カスタムメニューを使う場合や 項目の順序を変えたい場合は APIを使用して標準的な項目を取得し 任意の場所に配置することができます WWDC 25ではさらに Apple Intelligenceでサポートされる 言語の範囲を拡大しました

    皆さんの多くはApple Intelligenceの 機能の基盤となる言語モデルに アクセスすることに関心を示されていますが 今回 そのモデルにも 直接アクセスいただけるようになりました それには Foundation Model フレームワークを使います Foundation Modelフレームワークでは 便利でパワフルな Swift APIを介して Apple Intelligenceの基盤と同じ オンデバイスの大規模言語モデルに 直接アクセスできます そして高度な新機能を アプリに直接組み込むことができます これを利用して既存の機能を強化すれば パーソナライズされた検索候補を 表示することもできますし

    まったく新しい体験を 生み出すこともできます 例えば旅行中 旅行アプリで臨機応変に カスタム旅程表を生成したりもできるのです

    またこれを利用して ゲーム内のキャラクターのセリフを すべてデバイス上で生成することもできます

    面白いですよね

    このフレームワークは完全に デバイス上にあるため ユーザーのデータは非公開に保たれます どこにも送信する必要はありません

    こうしたAI機能はすぐに利用でき オフラインでも動作します アカウントの設定も APIキーの管理も不要で すぐに利用できます

    そして何より 何回リクエストを行っても 皆さんやユーザーにコストは発生しません

    そして最も重要なのは すべてが オペレーティングシステムに内蔵なので アプリのサイズに影響がないことです

    これはmacOS、iOS、 iPadOS、visionOSで利用できます また Apple Intelligenceに対応している すべてのハードウェアと言語で動作します ではフレームワークとその仕組みについて 詳しく見てみましょう Foundation Modelフレームワークでは 30億のパラメータを含む モデルにアクセスできます これはデバイススケールモデルで コンテンツの生成、要約、分類、 複数ターンの会話などという オンデバイスのユースケース用に 最適化されています ただし世界知識の活用や 高度な推論タスクには向いていません それらのタスクには通常 サーバスケール LLMを引き続き使用することになります その仕組みを見てみましょう

    Foundation Modelフレームワークを使うと デバイス上の 大規模言語モデル(LLM)に プロンプトを送信できます するとモデルはプロンプトについて推論し テキストを生成します

    例えば 夜子供に読み聞かせる キツネの物語を作るように頼むとします モデルはそれに応じて 独創的な物語を詳しく作り上げます これはシステム全体で 作文ツールなどの機能を支えている 汎用モデルと同じモデルです では検索のパーソナライズの例に戻り それを Foundation Modelフレームワークで 実装する方法を見てみましょう

    モデルへのプロンプトには 3行のコードが必要です

    まず フレームワークをインポートします 次に 言語モデルのセッションを作成します そしてプロンプトをモデルに送ります プロンプトは自分で送っても ユーザーに任せても構いません ユーザーの入力に応じて 動的にプロンプトを生成することもできます プロンプトを入力すると 応答が表示されます 言語モデルがデフォルトで生成するのは ここに見られるような 構造化されていない自然言語出力です これは人間には読みやすいですが アプリのカスタムビューに マッピングするのは難しい場合があります このためFoundation Modelフレームワーク には Guided Generation機能があります 仕組みはこうです

    まず structで 出力の形式を指定します

    SearchSuggestionsは検索候補の文字列の リストを保持する単純なstructです これでこのリストはビューへのマッピングが ずっと簡単になりましたが まだ準備はできていません

    このstructに Generableマクロを適用します Generableはモデルに Swift型を使って構造化データを 生成させるための簡単な方法です 次にGuideを指定します

    Guideでは関連づけられた型の 説明を入力し 制約値を指定できます この例では4つの検索語句を 文字列のリストとして生成します これを 生成引数を使用して モデルに渡すことができます これで出力は提案文字列のリストになり ビューに簡単にマッピングできます

    Guided Generationでは モデルに生成させる内容 つまり 文字列、数値、配列、 または自分で定義した カスタムのデータ構造の どれを出力させるかを制御できます Guided Generationでは 制約付きデコードという手法で 構造の正確さが根本的に保証されます Guided Generationによって プロンプトがよりシンプルになり フォーマットに関する指示を行うかわりに 望む動作に焦点を 当てられるようになります これらはすべて モデルの精度と パフォーマンスの向上にも役立ちます

    プロンプトで入力する データに加えて モデルにはトレーニングデータから得た 独自の基本知識があります ただしモデルはOSに組み込まれているため その知識は時間的に固定されています 例えば今 クパティーノの 屋外の天気について 尋ねた場合 モデルがその情報を知る方法はありません このフレームワークはリアルタイムデータや 動的データが必要な状況に対応するため ツール呼び出しをサポートしています

    例えば ツール呼び出しを使うと

    テキスト生成だけでなく アクションも実行することができます ツールを使用して モデルに 天気やカレンダーイベントなどという ライブデータや個人データへの アクセス権を付与するのです また情報源を引用しておけば ユーザーが事実を確認することもできます さらにツールは アプリ内やシステム上のほか 現実世界で実際の アクションを起こすこともできます では次に こうした基盤モデルの まったく新しい機能を利用して アプリを どのように強化できるか見ていきましょう

    例えば 日記アプリなら 基盤モデルは 日記に関する 一般的な提案を 表示するかわりに 過去のエントリや カレンダーイベントに基づいて 個人的な提案を行うことができます また すべてがデバイス上で行われるため 健康情報などの機密データの プライバシーも保たれます

    または 支出管理アプリなら 面倒な手動入力はもう必要ありません 基盤モデルがあれば アプリはテキストから直接 支出データの詳細を取得できます また さらに一歩進めて それをVisionフレームワークと組み合わせ データをレシートの写真や スクリーンショットから抽出したり デバイス上で直接処理したりもできます

    また生産性アプリなら 内容の多いメモを即座に 書き直してわかりやすくしたり 会議の議事録を要約して 実用的な箇条書きにまとめたりできます それによって時間を大幅に節約し 本当に 重要な業務に集中できるようになります

    また音声認識と組み合わせれば 基盤モデルを利用したアプリでは 自然言語検索が可能になります 例えば「3LDKでペット可の 賃貸物件を探して」と言ったりできます するとアプリは その音声から詳細を抽出し ツール呼び出しを利用して シンプルで自然かつ高速な検索を行います

    これらはほんの一例にすぎず こうした機能を使えば 他にもさまざまなアプリが作れます

    このモデルは コンテンツの生成、要約、入力の分析など 多くの一般的な言語タスクに利用できます

    皆さんのうち 機械学習の上級者の方で 特殊なユースケースがある場合は アダプタトレーニングツールキットで独自の カスタムアダプタをトレーニングできます ただし これには大きな責任が 伴いますので注意してください モデルは継続的に改善されていくため 後で再トレーニングが必要になるからです 詳細については デベロッパWebサイトでご確認ください

    実際に試してみる準備ができたら まずXcodeの新しいプレイグラウンド 機能から始めることをおすすめします

    これは#Playgroundマクロを 追加するだけです プロジェクト内の任意のコードファイルで #Playgroundを使用して プロンプトの記述を開始します モデルの応答は SwiftUIのプレビューと同様に 右側のキャンバスにすぐに表示されます この例では 構造化されていない応答と Guided Generationによる 応答の両方が表示されています プレイグラウンドはFoundation Model フレームワークを試すのに最適な方法です さまざまなプロンプトを試して ユースケースに最適なものを 見つけることをおすすめします プレイグラウンドでは イテレーションも高速です

    まとめると Appleの基盤モデルは オンデバイスモデルであり ポケットに収まるように特別に 最適化され圧縮されています サイズが小さいため 世間的な知識の量は限られているので ツール呼び出しで 実社会のデータを取り込むことができます プレイグラウンド機能を使うと この例で見たように プロンプトの評価やテストを簡単に 行うことができます また基盤モデルを使用して アプリを構築するときはぜひ フィードバックアシスタントを通じて ご感想をお寄せください それがモデルやAPIの改善に役立ちます

    これがFoundation Model フレームワークです 皆さんがこれを使ってどんな素晴らしい アプリを構築されるか とても楽しみです

    基盤モデルの他にも パワフルな機械学習APIが 多数用意されています

    それぞれが特定の分野向けになっており Visionは画像やビデオを 理解するためのもので Natural Languageは テキストを操作するもの Translationは多言語のテキスト用で Sound Analysisは 音のカテゴリを識別するもの Speechは音声に含まれる言葉を 書き起こすためのものです

    まずVisionです Visionにはさまざまな種類の 画像分析のための 30を超えるAPIがあり そして今日 新たに2つが加わります 構造化された文書を理解するための新しい RecognizeDocumentsRequest APIと 汚れたレンズで撮影された写真を 識別するための DetectCameraLensSmudgeRequest APIです これを少し詳しく見ていきましょう

    Visionは今年 テキスト認識の機能を強化しています テキストの行を読むだけでなく ドキュメントの認識も可能になりました ドキュメント構造もグループ化できるため ドキュメントの処理や 理解が容易になります 例えば 手書きの 申し込みフォームがある場合 その名前や連絡先の詳細を手動で 入力するかわりに Visionがその表を直接渡します また行やセルは自動的に グループ化されるため データの解析に費やす時間が短縮されます いいですよね

    そして今年の新しいAPIです これによってカメラのレンズの 汚れも検出されるため ユーザーが確実に鮮明で高品質な 画像を撮影できるようになります

    例えば 文書をスキャンした人が 誤ってレンズを指で 汚してしまったとします

    すると結果的に 処理が困難な ぼやけた画像が生成されます

    汚れ検出APIはこれを検出します そのためユーザーにレンズの掃除や 写真の撮り直しを促すことができ 常に高品質の画像が得られるようになります ではVisionフレームワークの次に Speechフレームワークを見ていきましょう

    今年導入された新しい Speech Analyzer APIは わずか数行のコードで使用できる 完全に オンデバイスの音声テキスト変換APIです この新しいモデルはこれまで以上に 高速で柔軟性があります SpeechAnalyzerモデルは すでにメモやボイスメモのほか ジャーナルなどの機能を強化しています SpeechAnalyzerに加えて SpeechTranscriberもアップデートされ 幅広いユースケースをサポートする まったく新しいモデルが加わりました 今回私たちは 会議中の録音のように 一部の話者が マイクの近くにいないことがある長い会話を サポートできるモデルを 開発したいと考えていました

    また ライブでの文字起こしも 可能にしたいと思っていましたが それには 低いレイテンシーが必要で 同時に正確さや 読みやすさを犠牲にすることなく 発話のプライバシーも守る必要がありました この新しいオンデバイスモデルは そのすべてを実現します

    皆さんも同じユースケースを 独自のアプリでサポートできます

    特に良い点は モデルの調達や管理を 自分で行う必要がないことです アセットは必要に応じてダウンロードされ システムストレージに保管されるため アプリサイズやメモリが肥大することはなく 改善が加えられるたびに 自動的に更新されます SpeechTranscriberは 現在これらの言語での書き起こしが可能で 今後はさらに増える予定です

    以上がプラットフォーム インテリジェンスのまとめになります

    では アプリにシステムの機能を組み込む ための その他の方法を見てみましょう

    App Intentを使うと アプリの 主要な機能を各デバイス間で 統合できます

    App Intentフレームワークでは アプリを開いていないときでも アプリの機能を簡単に見つけ 利用することができます これはアプリのアクションやコンテンツと システム環境を深く結びつけます 便利なのは Visual Intelligence、 ショートカット、Spotlightなどの場所に アプリの機能が表示されることです App Intentは 単なるフレームワークではなく アプリのリーチをシステム全体に広げます まずVisual Intelligenceから見てましょう Visual Intelligenceは Apple Intelligenceを基盤としており 周囲のものを調べるのに役立ちます iOS 18で初めて導入され カメラを向けると外出先で 見つけたカフェや素敵な スニーカーについて調べることができます iOS 26では これがiPhoneの スクリーンショットでも機能するようになり 画面上の好きなものについて 検索したりアクションを 起こしたりできるようになりました

    例えば どこかの名所の スクリーンショットを撮ったとします そして画像検索を実行すると 検索パネルが表示されます

    その結果をどのアプリで表示するかを選択し

    タップしてアプリを開くと 関連するページが表示されます

    必要な情報が表示されない場合は さらに結果を表示するボタンをタップします

    そしてアプリを検索ビューで開きます アプリに画像検索の機能がある場合は Visual Intelligenceと 統合することで ユーザーがアプリを開いていなくても アプリのコンテンツを 見つけ出して利用できるという 強力な機能がもたらされます この統合により アプリの検索機能が システムレベルにまで拡張され 現実世界のオブジェクトや画像から アプリ内の関連する 情報やアクションに シームレスに移動できます

    例えば ショッピングアプリでは アプリを開いて 画像検索に進み 検索を始めますが Visual Intelligenceなら ソーシャルメディアで気に入ったバッグや ドレスのスクリーンショットを撮れば すぐにアプリ検索を開始できます 手間が減るため より自然に手順を進めることができます

    次に ショートカットです ショートカットは 繰り返しのタスクを自動化し さまざまなアプリの機能を 結びつけることができます 今年はショートカットに Apple Intelligenceのパワーを導入しました それがインテリジェントアクション機能です App Intentにより アプリのアクションをショートカットと 組み合わせることができるため 強力な カスタムのワークフローを構築できます 注目の機能の1つが 「モデルを使用」アクションです Apple Intelligenceモデルを利用して 応答を取得すると それがショートカットに送られます テキストの受け渡しやデータの書式設定は 単語をいくつか書くだけで実行できます プライベートクラウドコンピューティングの 大規模なサーバベースモデルを選択して プライバシーを保護しつつ 複雑なリクエストを処理することも オンデバイスのモデルを利用して ネットワーク接続なしでリクエストを処理 することもできます

    また幅広い知識や専門知識を活用したければ ChatGPTを選択することもできます

    この「モデルを使用」アクションも Image Playgroundや作文ツールなどと並ぶ iOS 26の新しい数多くの インテリジェントアクションの1つです

    また 他のユースケースとして 例えばモデルを使って 旅行中の イベント予定をフィルタリングしたり

    Web上のコンテンツを要約して 「今日の一言」を確認したりもできます

    「モデルを使用」アクションを活用するには まずApp Intentを通じて アプリの機能を公開します それにより ユーザーがモデル駆動の ショートカットにアプリを直接統合できます ショートカットを使用すると ユーザーは モデルの出力タイプをリッチテキスト、 リスト、辞書などから明示的に選択できます デベロッパはApp Intentが これらの出力タイプを受け取れることを 確認しておく必要があります ユーザーはアプリからコンテンツを モデルに渡すことができますので App Intentフレームワークでコンテンツを アプリエンティティとして定義しておきます そうすれば モデルはアプリからのデータで 推論を行うことができます この統合により 「モデルを使用」 アクションは アプリのリーチを 広げるための強力なツールになります

    まとめると App Intentはアプリを システム全体に統合するのに役立ちます これを利用すると 画像検索を Visual Intelligenceに導入したり アプリのコンテンツを ショートカットに公開したり MacのSpotlightからアプリのアクションを 直接実行できるようにしたりできます

    これで システムに組み込みの MLとAIを活用した機能を 利用する方法について説明しました

    次に モデルをデバイスに導入する方法と それに伴うさまざまな 考慮事項について見ていきます これは少し複雑に思われるかもしれませんが Core MLを使えば簡単になります 必要なのは Core ML形式の 機械学習モデルだけです このモデルアセットには モデルの入力、出力、および そのアーキテクチャの説明と 学習されたパラメータ(重み)が 含まれています

    数多くのモデルが公開されているため さまざまな選択肢があります 例えば オーディオならWhisper 画像生成ならStable Diffusion 言語処理ならMistralなどです これらはすべてAppleデバイス用に 最適化されています

    入手する場合は Hugging FaceのAppleのページから またはdeveloper.apple.comから 直接ダウンロードできます これらのモデルはすべて Appleシリコン専用に最適化されており MLパッケージ形式で提供されるため Xcodeプロジェクトに 簡単に統合できます 使い方はこうです

    モデルをダウンロードしたら Xcodeにドラッグ&ドロップするだけで 開始できます Xcodeはモデルを認識するだけでなく モデルの入力と出力に基づいて モデルとやり取りするための Swiftコードも生成します またXcodeでは モデルをインポートした後 すべてのメタデータが表示されるため モデルの構造と機能について 把握することができます

    計算負荷の高いモデルを使用する場合は アプリで優れたユーザー体験を 実現するために モデルの予測性能が 望ましいレイテンシの 確保に十分であることを確認してください Xcodeでは数回クリックするだけで パフォーマンスレポートを生成し ロード時間、

    デバイス上での完了時間、

    そして予測レイテンシ つまり モデルから応答を得るのに かかった時間を確認できます

    また モデルがNeural Engineで サポートされるかどうかも確認し パフォーマンスとレイテンシのさらなる 改善を図ることもできます では 必要なモデルがCore ML形式で 提供されていない場合はどうでしょうか

    例えば自分やそのデータサイエンスチームが PyTorchなどのフレームワークを使用して 独自のニーズに合わせてカスタムモデルを トレーニングし調整しているとします モデルのパフォーマンスに満足できたら それをアプリに統合しますが その際に Core ML Toolsを利用します これはオープンソースのPython パッケージで PyTorchなどのさまざまな オープンソースフレームワークのモデルを 最適化し Core MLと互換性のある形式に 変換するためのAPIが含まれています

    最後に AI研究の最前線にいる方なら Appleシリコンのパワーを フルに活用することで 最新の研究モデルを利用して カスタムソリューションを試作できます 最先端の動向に 遅れずについていくためには 大規模なモデルを実行し 独自のアーキテクチャを調整し オープンMLコミュニティと協力して 学習を続ける必要があります Appleではこの最前線を追究するのに役立つ 高度なツールとリソースをご用意しています

    MLXはAppleシリコン専用に構築された オープンソースのMLフレームワークです これは基本的な数値計算から Appleデバイス上での 大規模な最先端の 機械学習モデルの実行まで 幅広い用途に使用できる柔軟なツールです MLXを利用すると 大規模言語モデルでテキストを生成したり 最新のモデルで画像やオーディオのほか 動画も生成したりできます また機械学習モデルのトレーニングや 微調整、カスタマイズを Mac上で直接行うこともできます

    MLXでは Mac上で1行のコマンドライン 呼び出しを行うだけで Mistralのような 大規模言語モデルに対して 最先端のML推論を実行できます 例えばここでは LLMを使用した クイックソートアルゴリズムの Swiftコードが生成されています

    こうしたモデルをMLXで利用できるように するための オープンソースコミュニティの 努力のおかげで MLXを利用すれば 常に最先端の研究と 歩調を合わせておくことができます

    MLXソフトウェアは皆オープンソースで パーミッシブMITライセンスを使用します コアソフトウェアはGitHubで入手可能で PythonとSwiftのAPIを使用して構築された 構築されたサンプルやパッケージもあります Hugging Faceにも活発なMLXのモデル クリエイターのコミュニティがあります 最新モデルの多くはすでに Hugging Face組織である MLXコミュニティで公開されており 新しいモデルがほぼ毎日 アップロードされています

    MLXに加えて PyTorchやJAXなどの 他のフレームワークも使用する場合は それらもAppleシリコン上で Metal APIを使って高速化することができます つまり 使い慣れたお気に入りのツールを そのまま利用して さまざまなモデルを試し そのモデルを アプリで使用する準備ができたら Core MLを使用してデプロイできるのです

    以上が機械学習と Apple Intelligenceの新機能です 個々のニーズや 機械学習の利用経験に基づいて プロジェクトに最適なフレームワークや ツールを選んでください 例えばLLMのファインチューニングや Vision Pro用の コンピュータビジョンの最適化 MLを活用したAPIの利用など 何でも可能です

    そしてすべてがAppleシリコン向けに 最適化されているため 機械学習やAIワークロードを 効率的かつパワフルに実行できます

    この機会にぜひ Appleプラットフォームで アプリにMLやAIを導入してみてください 基盤モデルを試し Xcode Playgroundsを活用して Visual Intelligenceに画像検索を追加し どんなことができるか試してみてください 皆さんがどんな作品を作られるか 心から楽しみにしています それでは 今日はご参加いただき ありがとうございました

    ではLeah お願いします

    ああ もう基盤モデルの新しい使い方の アイデアが浮かんできました ではもう一度 Allanを迎えて visionOSの最新情報を 紹介してもらいましょう

    ありがとうございます

    皆さんお元気ですか 素晴らしい 今日は お越しいただきありがとうございます そしてオンラインの皆さんも ご視聴ありがとうございます Allan Schafferです Developer Relationsの テクノロジーエバンジェリストです 今日は皆さんに visionOS 26の詳細と WWDCの 最新情報をお伝えしたいと思います 先月開催されたばかりのWWDCでは visionOSに 大きなアップデートがありました 今年はvisionOSに関する ビデオが14本あり いずれも空間コンピューティングに関する 最新情報を 詳しく説明しています Compositor Servicesで Metalを使用する方法や SwiftUIのアップデート、RealityKitの 機能強化、 サードパーティ製の アクセサリ、新しいビデオテクノロジーなど 本当に盛りだくさんの内容なので これから30分ですべてをご紹介するのは 難しいため 今日は要点をいくつかにまとめたうえで 最も重要な最新情報を お伝えしたいと思います ではそれを念頭に まずvisionOS 26に関する 今日のトピックについて説明します まず SwiftUIのボリュメトリック機能を いくつか説明します これはアプリのイマーシブ感を ぐっと高める機能です また 新しいシステム機能も紹介します 例えばApple Intelligenceのほか アプリのコンテンツを室内に 永続的に残せる新しい方法もあります また ボタン入力と触覚フィードバックを より細かく 制御するための新しいインタラクションや アクセサリのサポートもあります その後 イマーシブ型メディアに関する 最新情報を少しお伝えします Vision Pro向けに最適化された 新しいビデオフォーマットもあります

    また今年は 共有やコラボレーションに 関する新機能も数多く追加されました そして最後に エンタープライズアプリの 開発に携わっている皆さんのために エンタープライズAPIの 新機能についてお話しします では SwiftUIに導入された ボリュメトリック機能から見ていきましょう

    皆さんもお聞きになられたことが あると思いますが 念のため繰り返すと Vision Pro用の優れたアプリを開発し Appleのネイティブツールとテクノロジーを 活用するための最良の方法は SwiftUIを使うことです SwiftUIでは 3Dアプリを新しい方法で構築し イマーシブ感をさらに高めることが できるようになりました 今回 SwiftUIと visionOS 26に追加された 主な新機能の1つは コンテンツの レイアウトに関するものです そして非常におなじみの SwiftUIのレイアウトツールや ビューモディファイアの多くに 本格的な3D対応機能が追加されたため ビューに奥行きとZ座標を加え それらを操作することが可能になりました ですのでSwiftUIで2Dアプリを 開発することに慣れていれば おそらくすでに慣れ親しんだ方法で 非常に豊かな 3Dレイアウトを 作成できるようになりました

    特に紹介したいのが 新しいdepthAlignmentと rotation3DLayoutの2つです まず depthAlignmentから始めます これを使うと 一般的な3Dレイアウトの 構成をとても簡単に処理できます 例えばここでは depthAlignmentを frontに設定して 3Dモデルを含むボリュームの前面に 名前ラベルを 自動的に配置しています 非常に簡単です

    そしてもう1つ追加されたのが rotation3DLayout修飾子です ここで見てほしいのは 真ん中の飛行機の モデルが楽に回転できるように 一番上の飛行機が移動していることです 実際にここでrotation3DLayoutが 行っているのは レイアウトシステム内のジオメトリを 回転させることです そしてその情報を ビューに返しますので アプリはそれに反応する ことができます

    他にもいくつかの新機能を簡単に紹介すると プレゼンテーション機能では この登山コース上のコンテンツカードの ような一時的なコンテンツを 有効にできます そしてこれらはボリューム内に 表示するほか 装飾ボリュームとしても 表示できるようになりました これはメニュー、ツールチップ、 アラート、シート、ポップオーバーなどで 行うことができます また プレゼンテーションは3Dコンテンツを 透過し 隠れているときでも 表示されたままにできるため どのような状況でも 良好な見た目を維持できます

    またもう1つの機能ですが ウインドウやボリュームは通常 共有スペース内で アプリのUIやそのコンテンツの コンテナとして機能します でも Dynamic Bounds Restrictionsという新機能を使うと ここに見える雲のように アプリのコンテンツ要素を ウインドウやボリュームの枠から はみ出させて表示することができるため コンテンツの臨場感を さらに高めることができます

    そして次に ああ これは私の手ではありませんが ジェスチャやオブジェクト操作の機能も 導入しやすくなっています 仮想コンテンツとのインタラクションは とにかく自然に感じられることと 現実世界を忠実に 再現していることが重要です 今ではオブジェクトはこのように 単純な手の動きで操作することができ 片手または両手で向きを変えたり 両手でつまんで引っ張ることで 伸ばして大きくしたり 一方の手から反対の手に オブジェクトを渡したりもできます 今はこの機能も 組み込み済みのため 複雑なジェスチャの 処理機能を実装する必要はありません

    この動作をアプリのオブジェクトに 適用するには オブジェクトが カスタムビューか RealityKitエンティティかによって SwiftUIまたはRealityKitを使用します SwiftUIなら操作可能な ビューモディファイアを使用し RealityKitなら ManipulationComponentを追加します またもう1つ QuickLook3Dビューを 使用する場合は 組み込み済みのため 無料で利用できます

    ところで RealityKitといえば SwiftUI、RealityKit、 そしてARKitの 連携が強化されており 特にSwiftUIコードからのRealityKitの 操作を単純化するため 多くの改良が行われました 例えば RealityKitの エンティティとそのアニメーションが 観測可能になったため SwiftUIビューでの変化が 追跡しやすくなりました また 座標変換APIも改良されたほか SwiftUIでジェスチャ ハンドラを記述して そのジェスチャをRealityKit エンティティに直接アタッチできます そしてModel3Dの機能も追加され アニメーションを再生したり USDバリアントを読み込んだり モデルのさまざまな構成を 切り替えたりもできるようになりました

    ちなみに今ここで 新しいAPIを紹介するために 使っているサンプルは Canyon Crosserというアプリで developer.apple.comから ダウンロードできます

    では次は システムの機能について お話ししたいと思います つい先ほど Shashankが Appleのあらゆる オペレーティングシステムにおける Apple Intelligenceと 機械学習のさまざまな進歩について ご説明しましたが そうした機能は visionOSにとっても重要な要素です

    visionOSにおける機械学習の 最も重要な変更点の1つは 特別なエンタイトルメントなしでも Neural Engineにアクセスできる APIが提供されるようになったことです これは大きな変化です これにより CPUやGPUだけを 使用するかわりに Neural Engineを 介してデバイス上で 独自のモデルを実行できるようになります

    それと同時に 新しい Foundation Modelフレームワークが visionOSにも導入されたため Apple Intelligenceの あらゆる機能の中核となっている 大規模な言語モデルなどに 直接アクセスできるようになりました これはAppleの他のプラットフォームと 同じフレームワークなので デバイス上のLLMに直接プロンプトを 入力し Guided Generationによる 構造化された出力を得ることができます またモデルへのツール呼び出しを利用すれば そのモデルでデータを取得したり コードの定義などのさまざまなアクションを 実行したりできます

    さらに新しい音声テキスト変換APIを iOSやmacOSだけでなく visionOSにも導入しました SpeechAnalyzerというものです これはすでにシステム全体で利用されており ライブキャプションやFaceTimeのほか メモアプリでの音声の文字起こしにも 使われていますが 今後はさらに皆さんのアプリにも 導入できるようになりました またそれに加えて 新しい音声テキスト変換モデルもあります SpeechTranscriberというもので Shashankが少しお話ししましたが 高速かつ柔軟なので メディアからのキャプション生成などの 作業に最適です そしてもちろん すべてが完全に デバイス上で動作します

    では次に ウィジェットについてお話ししましょう ウィジェットは軽量なアプリ拡張機能で 天気予報やカレンダーイベントなどの 情報をひと目で確認できます ウィジェットは単にひと目でわかる パーソナライズされた 関連性の高い情報を表示することを 目的としており それによってユーザーは アプリを開かなくても 状況に応じた情報を画面上で確認できます 空間プラットフォームであるvisionOSでは ウィジェットがまったく新しい形を とることができ 3次元の立体的なオブジェクトになって 周囲の環境に自然に 溶け込みます その外観の多くの要素は カスタマイズして 空間にしっくりと馴染むよう 調整することができます

    またウィジェットは 壁、棚、机、 カウンターなどの水平面または 垂直面上に配置できるように なりました そしてその場所に固定されたまま セッションをまたいで持続します ですので 一度部屋を出てまた戻ってきたり デバイスを取り外してから 後でまた装着し直したりしても ウィジェットは空間の一部として 同じ位置に留まります

    なおウィジェットには複数のサイズの テンプレートがありますが visionOSではそれらのサイズが 現実世界の寸法になるため 部屋の中で非常に現実的な 存在感を放ちます ですからウィジェットを使う予定なら それをどこに配置するか つまり 壁に取り付けるのかや 机の上に置くのかといったことを よく検討して それに応じた サイズを選択する必要があります

    visionOSのもう1つの ユニークな機能が近接認識です これはウィジェットを見る人物が どれだけ離れているかに基づいて 外観や レイアウトを調整できることを意味します 例えば ここにある スポーツウィジェットでは 近づくにつれて より詳しい情報が表示されます

    ちなみに 良いお知らせとして ご自分のiPhoneアプリや iPadアプリですでに ウィジェットを使用している方は すでに好スタートを切っています アプリが互換モードで実行されていれば ウィジェットはvisionOSに引き継がれ 自動的に新しい 空間の特性に適応するからです

    さて visionOSの新しいシステム機能を いくつか紹介しましたので 次に インタラクションの話に 移りたいと思います ご存知のように Vision Proでは 手と目が主要な入力の手段になりますが visionOSは完全に 目が見ている場所と 直感的な手の動きに 基づいてインターフェイスを 操作できるように構築されています ちなみにvisionOS 26では ハンドトラッキングが改良され 速度が以前の3倍の 90ヘルツになりました これによってアプリやゲームの 応答性がさらに高まります これにコードは必要ありません すでに組み込み済みなので 自動的にこの速度になります

    またWebコンテンツやアプリ内を 視線だけでナビゲートできる 新しい機能も追加しました それが「Look to Scroll」です これは手によるスクロールと 並行して機能する 非常に軽量なインタラクション機能であり SwiftUIやUIKitのAPIを使用すれば アプリにも導入することができます

    またvisionOSでは Bluetoothキーボードや トラックパッドもサポートされているため ユースケースに適した入力方法を選べます また場合によっては ゲームコントローラも利用できます ジョイスティックやボタンや 十字キーが必要な場合もあるでしょうし コントローラ入力に依存して作成した ゲームを他のプラットフォームから 持ち込む場合もあるでしょう

    visionOS 26に追加された もう1つのオプションが 空間アクセサリです これによって6方向の自由度のトラッキング、 触覚ボタン、触覚フィードバックなどによる より細かい制御が可能になります また Game Controller フレームワークでは 2種類の新しい 空間アクセサリがサポートされました

    1つ目が SonyのPlayStation VR2 Senseコントローラです これはもちろん 高性能ゲームやその他の 完全なイマーシブ体験に最適です ボタン、ジョイスティック、 トリガーがありますが 最も重要なのは ワールド空間での位置と向きを 6方向の自由度でトラッキングできることです

    もう1つの新しいアクセサリが Logitech Museで これは描画やスカルプティングなどの 精密な作業に最適です 4つのセンサーが搭載されており 先端とサイドボタンによる可変入力に加え 触覚フィードバックも実現されています 一例を上げると これはSpatial Inc.社の Spatial Analogです これはUSDモデルやその他の 3Dアセットと連携する 共同作業向けの デザインツールで ここではMuseを使って この仮想の椅子の寸法に 注釈を加えています

    ここで活かされているのは アクセサリから得られる データの豊富さです 位置と回転は実際 Vision Proに搭載されたオンボード カメラと アクセサリに組み込まれた センサーの組み合わせを利用して 追跡されます さらにARKitにより どの手がアクセサリを持っているかや アクセサリがワールド空間内で 移動する際の速度 そして その回転運動などに関する 追加のデータにもアクセスできます

    また空間アクセサリは 触覚フィードバックにも対応できます これは常に 優れたフィードバックメカニズムであり インタラクションが とてもリアルに感じられます

    そしてもう1つ注目してほしいのが RealityKitの アンカーエンティティを使用すると 仮想コンテンツをアクセサリ自体に 固定できるということです 例えばゲームで ユーザーが動き回る間にも ゲームの要素をコントローラのグリップに 固定しておくことができます その好例がこちらです Resolution GamesのPickleProですが ユーザーがピックルボールを プレイしています ここでは仮想のラケットが コントローラのグリップに固定されており ボールも同様です 非常にうまく機能しており 位置のトラッキングも 非常に正確です

    これが空間アクセサリです 空間アクセサリをサポートすることで ユーザーが入力をより細かく 制御できるようになります また触覚フィードバックを提供すれば プレイヤーや他の人々がこうした 仮想インタラクションを 感じられるようになります これらはすべて RealityKitやARKitに加えて Game Controllerフレームワークでも サポートされています

    では次に イマーシブ型メディアの話をしましょう まず写真の話から始めたいと思います visionOSでは写真などの2D画像を 新しい方法で表示できるようになりました これは空間シーンと呼ばれています 空間シーンは実際の 奥行きを備えた3D画像で このような2D画像から生成されます 写真の立体的なジオラマ版に モーションパララックス効果が施されるため 見る人が空間シーンに対して頭を動かすと それにつれて空間シーンの奥行きが 強調されて見えます

    これはZillowによる 空間シーンの応用例です これらは不動産業者が撮影した 普通の写真ですが これを見るとこの効果が 写真やWeb上の画像のほか 古いポラロイド写真などあらゆる画像に 適用可能なことがわかります この効果によって画像が 本当に立体的な 奥行きを感じさせるものになっています これが1つ目の空間シーンです

    次に ビデオを見てみると Vision Proは幅広いメディア形式を 包括的にサポートしています 例えば2Dビデオ、 3D立体映画、 空間ビデオ、 Apple Immersive Videoのほか visionOS 26では新たに 180度、360度、広視野角のビデオという 3種類の メディア形式のサポートが 追加されました こうした幅広いサポートによりイマーシブ型 メディアについては非常に包括的な オプションから選択できるように なっています そしてそれは デベロッパにとってはアプリでさまざまな フォーマットを利用し さまざまな体験を 実現できることを意味します

    それをサポートし 皆さんの開発をサポートするために Appleでは新しいQuickTime ムービープロファイルを導入しました それがApple Projected Media Profile(APMP)です APMPはビデオファイルに含まれる メタデータを使用して それがどの種類の メディアかを特定し そのコンテンツをどの投影方式で再生 すべきかを ビデオプレーヤーに指示します この概念を説明するために 1つ例をお見せしましょう この左側にあるのが アクションカメラで撮影した 広視野角メディアです

    ええと フレームの静止画像を見ると 広い視野を得るために使われた 魚眼レンズによる ある程度の歪みが見て取れます ではこの2つを動かしてみましょう

    右側ではAPMPによってメディアフレーム ワークがビデオを曲面上に投影しており 見る人の視点はアクションの中心に 配置されています また曲面はカメラの レンズプロファイルと一致するため 実質的に魚眼効果が補正されます そのためVision Proの中では 見ているユーザーには 直線がまっすぐに見えるだけでなく 画像の端の部分でも直線は平坦に見えます

    このようにAPMPには多くの用途があり それをサポートするために今回 180度、360度、広視野角のビデオを キャプチャする多数のカメラから APMPへの自動変換機能を追加しました Canon、 GoPros、Insta360などです

    また180度および360度のコンテンツは すでに数多く出回っているため macOS上のAV変換 コマンドラインツールをアップデートして 180度および360度のコンテンツの APMP変換をサポートしました

    では少し話を戻して Apple Immersive Videoの話を したいと思います Apple Immersive Videoは Apple Vision Pro向けに 設計されたフォーマットで 180度の 3D/8Kビデオと空間オーディオを使って イマーシブ感の高い視聴体験を 生み出します visionOS 26ではApple Immersive Videoをデベロッパやコンテンツ クリエイターに公開することになりました

    コンテンツクリエイターにとっての パイプラインはこのようになります Apple Immersive Videoの動画は Black Magicの URSA Cine Immersiveカメラで 撮影できます これは素晴らしいカメラです そして DaVinci Resolveを使って 編集やグレーディングを行います プレビューと検証は App Storeで 公開されている新しいApple Immersive Videoユーティリティを使って実行できます その後は作成するものによって 異なりますが 例えば ストリーミング配信を行うなら Compressorでセグメントを作成し HTTP Live Streamingを使用して 動画を配信することができます

    そしてProアプリのデベロッパが Apple Immersive Videoで使用できる 独自のツールを作成する場合 macOSと visionOSには Immersive Media Supportという新しいフレームワークがあり Appleのイマーシブコンテンツを プログラムで読み書きすることができます また 便利なサンプルコードとして 「Authoring Apple Immersive Video」も 用意されています

    これらすべてが 皆さんのアプリでの ビデオの再生に役立つことを 期待しています Apple Immersive Videoは visionOS 26でRealityKit、 AVKit、クイックルック、WebKitなど Appleのあらゆるメディア再生 フレームワークで再生できますので 皆さんが構築している あらゆる種類のアプリに 統合することができます

    以上 イマーシブ型メディアについて説明しました まず2D写真にリアルな奥行きと パララックス効果を加える空間シーンと 次に 新しい自動変換ツールである APMPプロファイルをご紹介しました そしてクリエイターやProアプリの デベロッパの皆さんに Apple Immersive Videoを使えば 究極の映画のような体験を 視聴者に届けられることをお伝えしました

    では次は 共有と共同作業に関連した 新機能についてお話しします 空間コンピューティングの基盤の1つは 人々をつなぐ機能になりますが それを実現する方法の1つが 空間Personaです 空間Personaは Vision Proを装着しているときの 皆さんの空間的実体であり それによって他の人達は あなたの表情や手の動きを リアルタイムで見ることができます そしてvisionOS 26では 空間Personaがベータ版でなくなり 髪、顔色、表情、表現などさまざまな点で 多くの改良が加えられました

    また visionOS 26では SharePlayとFaceTimeが拡張され Nearby Window Sharingという 新しい機能が追加されました この機能を使うと 同じ物理的空間にいる 人々がアプリケーションを共有して 一緒に 操作できるようになります このアプリはDefenderellaです Rock Paper Realityが制作した 対戦型のタワーディフェンスゲームで ユーザーがいる空間の中で 生き生きと動き出します 近くにいる人達と一緒に遊ぶのは とても楽しいですよね

    こうした体験はすべて 新しい方法で アプリを共有することが基盤になっています 今回 すべてのウインドウで ウインドウバーの横に この共有ウインドウを開く 共有ボタンが配置されたため それをタップすると 近くにいる人が表示され 簡単に共有を始めることができます

    そして誰かが共有を始めると システムによって アプリは常にそこにいる全員に対して 同じ場所に同じサイズで表示されます アプリが常に全員と一緒に その空間にあるので みんなで話し合ったり 何かを指さしたり アプリをまるでその室内にある 物理オブジェクトのように操作したり さらにはコンテンツをお互いに 手渡し合ったりもできます

    参加者は誰でも 共有ウインドウを操作できるため ウインドウを移動したり サイズを変更したり 共有している現実世界の環境内で 壁やその他の表面に取り付けたり することもできます そして誰かがDigital Crownを長押しして 再センタリングすると アプリは全員にとって 見やすい位置に戻ります そして例えば 誰かが何かを指さしたりして その結果 仮想ウインドウが 隠れてしまった場合は コンテンツがフェードアウトして その人の姿は他の人から 見えたままになります

    また例えば家具アプリなら みんなで共有している環境の 状態を維持しながら それぞれにコンテンツを 配置させることもできます これは共有ワールドアンカーという 機能を使って行われます 例えば アプリで室内に仮想の家具を配置する場合 そのアプリはすべての参加者から見て 同じ場所に表示されます

    さらに この共有環境は 同じ室内にいる人たちだけの ものなわけではなく リモートの参加者を FaceTimeを介して招待することも可能で その人達がVision Proを使用していれば 皆が空間Personaとして表示されます

    またもう一つ付け加えるなら Apple Vision Proは 全体的なAppleのエコシステムの一部なので デバイスをまたいだ共同作業も 非常に簡単になっています その一例をお見せします これはResolution Gamesによる Demeoという協力型ダンジョンクローラーで グループでプレイすると とても楽しいゲームです ご覧の通り ここではプレイヤーの一人が Vision Proを使って イマーシブ体験を楽しんでおり 友人たちはiPadとMacから参加して 一緒にゲームをプレイしています

    素晴らしい体験ですね これで SharePlayと Nearby Window Sharingの 新機能について簡単に説明しました アプリにSharePlayを 導入するときのコツとして まず体験は必ずその場にいる参加者と リモートの参加者の両方を意識して デザインするようにしましょう また アプリは空間Personaを 念頭に置いて構築し 人々が複数のAppleプラットフォームを またいで交流できる体験を 考えてみてください

    では 私の最後のセクションです Appleでは昨年 visionOS向けに初の エンタープライズAPI群を導入しました 例えばメインカメラへのアクセスや バーコードスキャンのほか 追加的な処理性能などがありますが それ以降もチームでは エンタープライズデベロッパに より多くの機能を提供するため 熱心に取り組んできました ですのでここで エンタープライズデベロッパの皆さん向けの visionOS 26の新機能を いくつかご紹介します 1つ言及しておきたいのは これらの機能は非常に深いレベルの デバイスアクセスを提供するため APIへのアクセスはエンタイトルメントと デベロッパアカウントに紐付けられた ライセンスによって管理されます では まずは カメラアクセスの拡張から 見ていきましょう 従来 アクセス権のある エンタープライズアプリは メインカメラの左側 つまり左目用の ビデオフィードに アクセスすることができましたが 今回このアクセスを拡張して 左か右 あるいは両方のカメラの ステレオ処理と分析が可能になりました ご存じの方もいると思いますが これはARKitの カメラフレームプロバイダAPIです ちなみに先ほど アプリがNeural Engineに アクセスできるようになったと お話ししましたが これらをすべて組み合わせれば カメラフィードを独自の 機械学習モデルに通して処理し それを Neural Engine上で 実行することができます

    また visionOS 26では 現実世界のビューの内で 特定の領域を選択し その領域だけの映像を 独自のウインドウに表示できる 新機能が導入されました これは新しいSwiftUIビューで CameraRegionViewと呼ばれています これがその一例です ここでキャプチャしたい左下の領域に ウインドウを配置します この圧力計の部分です そして他の作業をしながらこのウインドウを チェックすることもでき 場合によってはこのビデオ映像を リモートの参加者と共有することもできます

    ところで共有といえば 先ほどSharePlayのNearby Window Sharingについて紹介しましたが 企業によっては現在 FaceTimeや SharePlayを 利用していない場合もあります カスタムの ネットワーク接続やその他の要件が あるかもしれないので そうした企業のため ARKitに 同じ物理空間にいる人々が共通の 座標空間を共有できるようにするための 新しいAPIを導入しました Shared Coordinate Space Providerと いうもので これにより 複数の参加者が 座標系を揃えて 共同作業のデータを交換し ローカルネットワークを介して ワールドアンカーを 交換できるようになります これはプロジェクトでの共同作業に うってつけです

    次はWindow Follow Modeです 例えば何かのタスクに取り組んでいて 動き回らないといけないときに 同時にダッシュボードに目を光らせたり 一連の指示書や 修理手順書、 トレーニング指示書などを 参照する必要が あるとします

    このモードでは ウインドウを選択すると 場所から場所へと移動するときに そのウインドウがずっとついてくるため そうした作業が可能になります ちなみにこれを行うときに 歩く必要はなく 動き回るだけで ウインドウがついてきます

    そして最後の項目は データプライバシーに関するものです 多くのエンタープライズアプリは 財務データや患者の記録などの 機密情報を処理しており そうした情報が記録されたり 誰かが画面共有を始めたときに 表示されたりすることは望ましくありません 今回 スクリーンショットや 画面ミラーリングなどの際にアプリで ビューの内容を 非表示にできるようになりました これはcontentCaptureProtectedビューを 使用します これはSwiftUIの ビューモディファイアです これでコンテンツは デバイスを装着している人には 完全に見えているものの スクリーンキャプチャや録画のほか ミラーリングビューその他の 共有ビューには表示されなくなります

    こうした機能がすべてAppleの エンタープライズAPIに加わったことで 一層パワフルなエンタープライズ ソリューションや 社内アプリでの 空間エクスペリエンスを 生み出せるようになりました

    私からは以上です 今日はvisionOS 26に搭載された 新しい機能の一部を ご紹介しました 改めて 今日は多くのことを説明しましたが どれも非常に簡単な概要を お話ししただけで もっとはるかに多くの機能や APIが用意されています 多くはセッションビデオで 紹介されていますので ぜひWWDCのビデオをご確認ください また今年は 新しいvisionOSの サンプルコードをたくさん公開しました すべてdeveloper.apple.comで ダウンロードすることができます それではこれで終わります Leah お願いします ありがとう

    ありがとう

    visionOSには素晴らしい 新機能が盛りだくさんですね 今日はお時間を割いて WWDCの重大発表のおさらいに ご参加くださりありがとうございます 色々見てきましたが まず 新しいデザインシステムの概要と アプリでLiquid Glassを 効果的に使用して iOS 26やmacOS Tahoeに なじませる方法を紹介しました また SwiftUI、UIKit、AppKitなどの ネイティブUIフレームワークで アプリを構築することで 新しいデザインを 活かすことが容易になり 明瞭な インターフェイスとプラットフォーム間の 一貫性を実現できる理由も説明しました

    次にApple Intelligenceの 最新情報も紹介しました まず作文ツールや Image Playgroundなどの AIを活用した機能から利用を始め オンデバイスの基盤モデルを活用しながら App Intentで アプリのリーチを広げたり さらにAppleシリコンのパワーを 独自のモデルで活用したりもできます

    そして最後に visionOS 26について説明しました SwiftUIの新しいボリュメトリック機能は アプリのイマーシブ感をさらに高めますし SharePlayを使って新しい方法で コラボ体験を生み出したり イマーシブ型メディア形式を利用して 素晴らしい視聴体験を創造したり 空間アクセサリを使ってApple Vision Proを制御したりもできます 今日最初にお話ししたように これらのトピックは 氷山の一角にすぎません 本日取り上げたトピックについて 詳しく知りたい場合も 取り上げる機会がなかったトピックについて 調べたい場合も Apple Developer Webサイトには 豊富なドキュメント、ビデオ、 サンプルコードが用意されています

    後ほど 本日お話しした すべてのトピックに関する リソースへのリンクを Eメールでお送りしますので さらに深く掘り下げてみてください また Worldwide Developer Relationsチームでは この夏から秋にかけて皆さんと交流し こうした新しいシステムやテクノロジーを アプリに導入できるよう お手伝いすることを とても楽しみにしています 今後またお目にかかれる機会の 詳細については 「Appleに相談」や「Hello Developer」 のニュースレターか DeveloperアプリとWebサイトを ご覧ください そしてオンラインの皆さんも ご参加ありがとうございました ここDeveloper Centerでも オンラインでも またお目にかかれれば幸いです そして今日会場にいらっしゃる皆さんは ロビーでAppleのエンジニアや デザイナーと一緒に 軽食や会話をお楽しみください ご参加ありがとうございました 皆さんの次の作品を楽しみにしています

Developer Footer

  • ビデオ
  • Meet With Apple
  • WWDC25発の注目の最新情報
  • メニューを開く メニューを閉じる
    • iOS
    • iPadOS
    • macOS
    • tvOS
    • visionOS
    • watchOS
    Open Menu Close Menu
    • Swift
    • SwiftUI
    • Swift Playground
    • TestFlight
    • Xcode
    • Xcode Cloud
    • SF Symbols
    メニューを開く メニューを閉じる
    • アクセシビリティ
    • アクセサリ
    • App Extension
    • App Store
    • オーディオとビデオ(英語)
    • 拡張現実
    • デザイン
    • 配信
    • 教育
    • フォント(英語)
    • ゲーム
    • ヘルスケアとフィットネス
    • アプリ内課金
    • ローカリゼーション
    • マップと位置情報
    • 機械学習とAI
    • オープンソース(英語)
    • セキュリティ
    • SafariとWeb(英語)
    メニューを開く メニューを閉じる
    • 英語ドキュメント(完全版)
    • 日本語ドキュメント(一部トピック)
    • チュートリアル
    • ダウンロード(英語)
    • フォーラム(英語)
    • ビデオ
    Open Menu Close Menu
    • サポートドキュメント
    • お問い合わせ
    • バグ報告
    • システム状況(英語)
    メニューを開く メニューを閉じる
    • Apple Developer
    • App Store Connect
    • Certificates, IDs, & Profiles(英語)
    • フィードバックアシスタント
    メニューを開く メニューを閉じる
    • Apple Developer Program
    • Apple Developer Enterprise Program
    • App Store Small Business Program
    • MFi Program(英語)
    • News Partner Program(英語)
    • Video Partner Program(英語)
    • セキュリティ報奨金プログラム(英語)
    • Security Research Device Program(英語)
    Open Menu Close Menu
    • Appleに相談
    • Apple Developer Center
    • App Store Awards(英語)
    • Apple Design Awards
    • Apple Developer Academy(英語)
    • WWDC
    Apple Developerアプリを入手する
    Copyright © 2025 Apple Inc. All rights reserved.
    利用規約 プライバシーポリシー 契約とガイドライン