Appleデベロッパ向けの最新情報
Appleプラットフォームの最新SDKで利用できる主要テクノロジーとエキサイティングな機能について紹介します。
Appleプラットフォームの最新SDKで利用できる主要テクノロジーとエキサイティングな機能について紹介します。
Apple Intelligenceは、iPhone、iPad、Macの中核にパワフルな生成モデルをもたらすパーソナルインテリジェンスシステムです。ユーザーのコミュニケーションや仕事、自己表現に役立つ、驚くような新機能を備えています。
Writing Tools(作文ツール)はシステム全体に組み込まれており、文章の書き直し、校正、要約に利用することができます。Image Playground APIにより、遊び心のある楽しい画像をアプリ内で手軽に作成できるようになります。ジェン文字を使用すると、さまざまなシーンにぴったりな絵文字を作成し、新しい方法でコミュニケーションを楽しむことができます。さらに、Siriがアプリに表示されるテキストにアクセスしたり、App Intentによってアプリ内や複数のアプリの間で何百もの新しいアクションを実行したりできるようになります。
予測コード補完機能やより迅速になったプレビューを活用して、アイデアをコーディングで形にしましょう。明示的なモジュールを使用すると、ビルドを強化できます。改善された診断機能やInstrumentsのフレームグラフビューのおかげで、アプリのパフォーマンスをより詳しく把握できます。また、ローカリゼーションカタログが強化され、世界中のさらに多くの人々にアプリを届けることができるようになりました。
Swift 6では、コンパイル時にコードを分析しデータ競合の可能性を診断する新しいオプションの言語モードにより、並列コードをより簡単に正しく記述できるようになりました。今回のリリースでは、並行処理やジェネリクスに関するその他の機能強化が行われているほか、言語サーバプロトコルのサポートも改善されています。
SwiftUIは、Appleプラットフォーム全体でアプリを構築するのに最適な方法です。アプリの見た目や雰囲気をカスタマイズできる新機能のほか、アニメーションやジェスチャを作成する際のUIKitやAppKitとの相互運用性も向上しました。また、新しいテキストアニメーションを活用できるようになったほか、グラフに関数をプロットしたり、visionOSでボリュームやスペースをさらに詳細にコントロールしたりできます。
SwiftDataは、純粋なSwiftコードを使用してアプリのデータをモデル化および永続化するための表現力豊かで軽量なAPIを提供します。新しいAPIでは、カスタムデータストアを構築できるほか、トランザクション履歴、モデルインデックス、複合一意性制約なども利用できます。
Swift用にゼロから設計されたSwift Testingは、表現力豊かなAPIを備えた、テストを簡単に記述できる新しいフレームワークです。Swift Testingでは、#expectなどのマクロを使って複雑な式をキャプチャし、テストが失敗した場合は詳細かつ情報豊かな出力を提供します。Swift Testingには、同じテストを一連の値に対して簡単に実行するパラメータ化や、指定された基準に基づいてテストを選択的に実行するタグ付けなどの機能が搭載されています。結果は簡単に読むことができ、Xcode 16に完全に対応しています。
Apple Intelligenceが提供する新しいオーケストレーション機能とApp Intentの大幅な機能強化により、Siriがアプリ内およびアプリ間で何百もの新しいアクションを実行できるようになります。Transferable API、File Representations、Item Providers、Spotlightのインデックス機能などを使用して、プラットフォームにおけるエンティティの有用性を高めることができます。また、SiriやSpotlightにパワフルな機能を追加できるほか、エラー処理、遅延プロパティ、関連づけされた列挙型のための新しいAPIも利用できます。
Apple Intelligenceにより、SiriKitを採用しているアプリでは、今後Siriに追加される機能強化の恩恵を、追加作業なしで自動的に受けることができます。Siriは、リクエスト処理における回復力が向上しており、ユーザーが言葉に詰まったり、文の途中でリクエストを変更したりした場合でもリクエストを処理できます。また、Siriは、会話のコンテキストを保持しており、ユーザーが直前のリクエストに言及した場合でも理解することができます。
Core MLの機能がアップデートされ、デバイス上でより高速かつ効率的に、機械学習およびAIの高度な生成モデルを最適化して実行できるようになりました。Core ML Toolsは、よりきめ細かい構成可能なWeight Compression技術を備え、大規模言語モデルや拡散モデルをAppleシリコンに導入するのに役立ちます。モデルに複数の関数を保持し、状態を効率的に管理できるようになったことで、大規模言語モデルやアダプタのより柔軟かつ効率的な実行が可能になりました。また、Core MLフレームワークには、多次元配列に対する演算を表現するための効率的かつシンプルで、馴染みのあるAPIを提供する新しいMLTensor型が追加されています。さらに、XcodeのCore MLパフォーマンスレポートがアップデートされており、モデルの各演算のサポート状況や推定コストについて、より詳しい情報が得られます。
初めての空間コンピューティングテンプレートであるオブジェクトトラッキングは、visionOSアプリで現実世界のオブジェクトをトラッキングできるようにデザインされています。Create MLアプリの新しいデータプレビュー機能やCreate ML Componentsの新しいSwift APIを使用して、カスタマイズされたモデルトレーニングワークフローを強化しましょう。これらのAPIを使用すると、時系列モデルをアプリ内で直接作成できます。
新しいTranslationフレームワークでは、アプリ内で様々な言語にテキストを翻訳できます。Vision Framework APIが刷新され、最新のSwift機能を利用できるようになりました。画像の審美的評価と全身のポーズという2つの新しい機能にも対応しています。また、Natural Languageフレームワークでは言語サポートが拡張され、多言語のコンテキストに応じた埋め込みが可能になりました。
RealityKit 4には、iPhone、iPad、Mac、Apple Vision Proに対応する豊富な機能セットが備わっています。Apple Vision Proとともにリリースされた新しいツールであるReality Composer Proを使うと、これらすべてのプラットフォームで空間アプリを開発することができます。
MaterialX、ポータル、パーティクル、その他多数の機能を用いて構築されたシェーダを、4つすべてのプラットフォームのRealityViewで使用できるようになりました。これには、マテリアル、シェーダベースのホバーエフェクト、バーチャルライティングを追加するためのAPIに加え、ブレンドシェイプ、インバースキネマティクス、スケルトンポーズ、アニメーションタイムラインなど、キャラクターのアニメーション機能を拡張する新機能が含まれます。
RealityKit-4では、Metalコンピュートシェーダと連携する、ローレベルのメッシュとテクスチャ向けの新しいAPIにより、レンダリングへのより直接的なアクセスが可能になります。また、Xcodeビューのデバッグで3Dシーンコンテンツの検査がサポートされるようになり、RealityKitコンテンツの検査とデバッグがこれまで以上に簡単になりました。
コントロールセンターやロック画面の新しいコントロールと、アクションボタンを使って、ユーザーが頻繁に行うタスクをアプリからより迅速かつ簡単に実行できるようになりました。コントロールを活用すれば、設定の切り替え、アクションの実行、特定の体験へのディープリンクの作成が可能になります。しかもコントロールは、ほんの数行のコードと新しいControls APIだけで作成できます。
ウィジェットとライブアクティビティは、iOS 18、iPadOS 18、watchOS 11のプラットフォーム全体で共有される機能がさらに増えました。Apple Watchのウィジェットでは、インタラクティブな要素やアニメーションがサポートされるようになりました。また、iPhoneとiPadのウィジェットでは、ウィジェットの特定の部分を強調し、ホーム画面に薄い色が付いている場合でも目立たせることができます。watchOS 11のスマートスタックがさらにスマートになり、ウィジェットに関連性を追加して、最も必要な時にウィジェットを表示させることができます。
Apple Watchのスマートスタックにライブアクティビティが表示されるようになりました。ユーザーはスポーツの試合中のスコアの変化や注文の配達状況など、イベントに関する最新情報をリアルタイムに入手できます。Apple Watchのアプリを開発している場合は、ライブアクティビティからアプリを起動することもできます。
既存または現在開発中のゲームのいずれの場合でも、迅速な配信が可能になります。Game Porting Toolkit 2を使用すれば、高度なゲームをかつてないほど簡単にMac、iPad、iPhoneに展開し、素晴らしい体験をプレイヤーに届けることができます。
Metalにより、Appleプラットフォームでハードウェアアクセラレータを使用するグラフィックスの強化が可能です。グローバルバインディングのサポートやレイトレーシングの拡張機能が追加されたため、ほかのプラットフォームからアプリをスムーズにポーティングできるようになりました。また、Residency(常駐)セットを使って、リソースをすばやく簡単にグループ化し、常駐を管理できます。さらに、統一されたAPIとシェーダビルドプロセスにより、同じコードを使って、これまで以上にシンプルにMac、iPad、iPhoneをターゲットにすることができます。
パスワードの代替であるパスキーは、より安全で使いやすく、フィッシングされる心配がありません。サインインの迅速化、パスワードリセットの回数の減少、サポートコストの削減といったメリットをもたらします。新しい自動パスキーアップグレードAPIを使って、アプリ利用のフローを中断することなく、ユーザーがアプリにサインインした際にパスキーを作成したり、パスキーが保存されたことを通知したりすることができます。
奥行きと空間を最大限に活用でき、共有スペースでほかのアプリと並べて表示でき、より充実した空間体験を提供するアプリを構築しましょう。SwiftUIのシーンモディファイア(修飾子)であるwindowResizability
を使って、ボリュームのサイズを変更できるようになりました。ボリュームのスケールに、固定または動的なスケールを設定できるようになったため、3Dオブジェクトがユーザーから離れた時に一定の大きさに見えるようにするか、遠ざかるにつれて小さく見えるようにするかを選択できます。また、オーナメントをボリュームに対し固定できるようになりました。
この新しいフレームワークでは、カードや駒などのアイテムの操作の処理、配置やレイアウトの設定、ゲームボードの定義を行って、テーブルを中心としたコラボレーション体験を簡単に開発できます。
visionOS向けの新しいAPIにより、センサーへのアクセスとコントロールが向上し、よりパワフルなエンタープライズソリューションや空間体験を創出できます。メインカメラ、バーコードやQRコードの空間的なスキャン、Apple Neural Engineなどを利用できるようになります。
Apple Vision Proの入力がアップデートされ、ユーザーの手をデジタルコンテンツの前と後ろのどちらに表示するかを設定できるようになりました。
シーン認識の精度を高める機能が大幅に強化されました。すべての向きで平面を検出できるほか、ユーザー周囲の表面にオブジェクトを固定できるようになりました。ルームアンカーは、部屋ごとのユーザーの周囲の環境を反映します。また、visionOS向けの新しいObject Tracking APIにより、ユーザーの周囲にある個々のオブジェクトにコンテンツをアタッチできます。
デザインが一新されたタブバーがアプリの一番上に表示されるので、お気に入りのタブに簡単に移動できます。詳細を確認したい場合、サイドバーへの切り替えも可能です。カスタマイズ、メニュー、ドラッグ&ドロップなど、重要なインタラクション要素をこれまで以上に簡単に作成できるようになりました。そのため、より簡素なコードで、より多くの機能を実現できます。
アプリ内で、より高品質になった最新のアニメーションを利用できます。例えば、写真アプリのズームトランジションは、タッチで正確にコントロールできるほか、実行中の中断もでき、アプリの応答性が高まります。
アプリのビジュアルに際立った個性を加え、起動時の体験をブランドとマッチさせましょう。アクションのカスタマイズ、背景の変更、愉快なアニメーションアセットを追加して、ヘッダに生き生きとした表情を与えられます。
アプリのプライマリアクションを定義しておけば、ユーザーはダブルタップするだけでお気に入りの操作を実行できます。
時刻、日付、場所、日課(就寝時間など)といったキューを使用することで、スマートスタックが適切なタイミングでウィジェットに提案を表示できるようになります。AccessoryWidgetGroupテンプレートを使うと、3つの個別のビューと、アプリのさまざまな場所へのディープリンクを提供できます。また、インタラクティブ機能を追加すれば、ユーザーはウィジェットを開いたまま各種のアクションを実行できます。
tvOS向けのAPIがさらに充実したSwiftUIを使用すれば、TVMLKitから移行する際に、馴染みのあるレイアウトやコントロールを簡単に作成することができます(アセットカタログを通じたアクセントカラーの使用など)。SwiftUIは、すべてのAppleプラットフォームでアプリを構築するのに最適な方法で、tvOS 18でリビングでも楽しめるコンテンツを提供するのにも役立ちます。
TestFlightを利用して、アプリ、ゲーム、App Clipのベータ版テストにユーザーを招待し、公開リリース前に貴重なフィードバックを収集できます。
TestFlightの招待にベータ版アプリの説明が追加されたため、テスターになり得るユーザーに対してアプリやゲームの新機能やコンテンツをより効果的に伝えることができます。配信の準備ができた承認済みバージョンがあるアプリやゲームでは、テストへの招待にスクリーンショットやアプリのカテゴリを掲載することもできます。また、ベータ版テストに参加しなかった人がフィードバックを送れるようになったため、不参加の理由を把握することができます。
条件に合うテスターをより簡単に募集して、より有意義なフィードバックを取得できるように、パブリックリンク経由で応募するテスター向けに、デバイスのタイプやOSなどの条件を設定できます。
パブリックリンクがアプリのテスター登録にどの程度役立っているかを、新しいメトリックスで確認することができます。TestFlightアプリで招待を閲覧したテスターの人数と、招待を承諾したテスターの人数を確認できます。パブリックリンクに条件を設定した場合は、その条件を満たさなかったテスターの人数も確認できます。
アプリまたはゲームのプロモーションやアプリ内課金の宣伝を行ったり、サブスクリプション登録者に再登録を促したりするための新しい方法をご確認ください。
ウォレットのパスを効果的にデザインすることで、イベントチケットの管理がさらに便利になります。また、サードパーティのブラウザを使用している多くのユーザーにも優れたApple Pay体験を提供できるほか、新しいAPIを利用してより多くの購入フローにApple Payを導入できます。
機能の発見に焦点を当てたTipKitフレームワークを使うと、アプリで役に立つヒントを簡単に表示できます。ヒントを並べ替えて理想的な順序で機能を見つける、カスタムのTip IDでヒントを再利用する、アプリの外観と雰囲気に合わせる、CloudKitの同期機能を使ってヒントを同期する、といったことが可能です。
MapKitとMapKit JSは、マップをアプリやWebサイトに統合できるパワフルな新しいツールです。
SF Symbols 6では、800を超える新しいシンボルが加わり、注釈ツールがアップデートされています。自在に設定できるアニメーションも新しく追加、または強化され、シンボルの表現力がさらに高まっています。新しいオプションである小刻みな揺れ、回転、呼吸は、既存のシンボルレイヤー構造を活用してカスタムシンボルとの互換性を確保しながら、ユーザー入力に応答し、状態の変化を伝え、進行中のアクティビティを通知します。マジック置換を使用すれば、シンボルを関連するバリエーション間でよりスマートにトランジションさせることができます。また、新しいシンボルの多くは、いくつかの国際的なスクリプトでローカライズされています。
HealthKitがApple Vision Proでも利用できるようになったため、新しい方法でvisionOSの無限のキャンバスを活用した革新的なヘルスケアおよびフィットネス体験を生み出せます。また、メンタルヘルスや心身の健康のための新しいAPIを使用すれば、ユーザーが自分の感情や気分をトラッキングしたり、うつ病や不安症になるリスクを理解したりするのに役立ちます。
iPhoneやiPadに搭載されているアイトラッキングやホバータイピングなどの画期的な機能に加えて、Music Hapticsなどの新しいアクセシビリティAPIを使うと、アプリがこれまで以上にインクルーシブになります。これらの機能強化をDynamic TypeやVoiceOverなどの既存の機能と統合することで、高品質な体験をあらゆる人に届けやすくなります。
また、SwiftUIを使用すれば、誰もが利用できる素晴らしい体験を簡単に構築できます。
エンタープライズ組織や教育機関は、内蔵デバイス管理フレームワークを使用することで、Appleデバイスを大規模に導入、管理、保護できます。Apple Vision Proは、自動デバイス登録によるITチーム向けのゼロタッチ導入に対応しているだけでなく、多数の構成やコマンド、制限を備えた多くの管理コントロールが組み込まれています。
Apple Business ManagerとApple School Managerがアップデートされ、ITチームはより簡単にアクティベーションロックを管理したり、管理対象Apple Accountを採用したりできるようになりました。また、iPhoneやiPad、MacのSafari Extensionも管理できるようになりました。さらに、ソフトウェアアップデート管理でベータ版のアップデートも管理できるようになったため、新しいソフトウェアリリースの早期テストがより簡単になりました。
visionOS向けの新しいAPIにより、センサーへのアクセスとコントロールが向上し、よりパワフルなエンタープライズソリューションや空間体験を創出できます。メインカメラ、バーコードやQRコードの空間的なスキャン、Apple Neural Engineなどを利用できるようになります。
次世代のCarPlayでは、車載システムとiPhoneを連携させて、自動車とiPhoneのメリットを最大限に活かした、統一感のある体験を生み出すことができます。また、各車種の特殊な機能に合わせて、構成やカスタマイズを行うこともできます。
WWDC24で紹介された新しいテクノロジーに関する各種のドキュメントとサンプルコードをご覧ください。
以下のリンクから、最新版(各ベータ版を含む)のAPIの変更内容に関する詳細情報を確認できます。