
Appleデベロッパ向けの最新情報
Appleプラットフォーム向けAppの開発に使用するツールキットであるSDKのiOS 16、 iPadOS 16、 macOS 13、 tvOS 16、watchOS 9向けの最新版で利用可能な主要テクノロジーと注目の機能について説明します。
Appleプラットフォーム向けAppの開発に使用するツールキットであるSDKのiOS 16、 iPadOS 16、 macOS 13、 tvOS 16、watchOS 9向けの最新版で利用可能な主要テクノロジーと注目の機能について説明します。
SwiftUIは、すべてのAppleプラットフォームに向けて魅力的なユーザーインターフェイスを開発するための最新のツールです。使い方をいったん習得すると、あらゆる場面で活用できます。今年のアップデートでは、SwiftUIのパワーと柔軟性がさらに増し、導入もより簡単になりました。新しいステートフルなナビゲーションAPIを使用してAppのナビゲーションをコントロールし、刷新されたカスタムレイアウトを使用してAppに最適なレイアウトを構築し、UICollectionViewの新しいカスタムセルに対応したSwiftUIをUIKit Appでよりシームレスに活用することができます。
WidgetKitでは、SwiftUIを活用して、Apple WatchのコンプリケーションおよびiPhoneのロック画面のウィジェットを作成できるようになったため、ユーザーが一目で確認できることが増えました。iOS 16用とwatchOS 9用のコードをいったん作成すれば、そのインフラストラクチャを既存のホーム画面のウィジェットと共有できます。
今年中にリリースされるiOS 16のアップデートでは、WidgetKitを使用してライブアクティビティを作成できるようになります。ロック画面上で、Appのアクティビティや情報をリアルタイムでユーザーに表示することができます。SwiftUIを使えば、ライブアクティビティの状態の遷移をアニメーションすることも可能です。
App上でのタスクが、音声やタップ操作で簡単に実行できるようになります。App Intentは、アクションを短時間で簡単に構築できるよう設計されたSwift専用の新しいフレームワークで、新しいAppショートカットを構築するために使用できます。Appショートカットを使うためにユーザー設定は必要なく、AppがiOS、iPadOS、watchOSにインストールされると同時に利用可能になり、ショートカットApp、Spotlight、Siriから実行できます。Appショートカットはパラメータと別名に対応しているため、ユーザーはSiriを通してより自然にAppとやり取りできます。
Metalには、低オーバーヘッドのAPI、ハイレベルのシェーディング言語、緊密に統合されたグラフィックスと演算プログラム、GPUのプロファイル/デバッグ用の高度なツールセットが用意されているため、Appleプラットフォームでハードウェアアクセラレーターを使用するグラフィックスの強化が可能です。またMetal 3には、ゲームやプロ向けAppでAppleシリコンのポテンシャルを最大限に発揮するためのパワフルな機能が追加されました。より短時間での高解像度グラフィックスのレンダリング、より高速なリソースの読み込み、GPUを活用した機械学習ネットワークのトレーニングなどが可能になりました。
4Kビデオ対応のARKit 6は、目を見張るような、高解像度の4Kビデオをキャプチャできます。プロフェッショナルな映像編集、映画製作、ソーシャルメディアなどのAppに最適です。ビデオとキャプチャの機能が拡張され、HDRビデオとバックグラウンドでの高解像度の画像キャプチャに対応しました。またARKit 6では、ロケーションアンカーがモントリオール、シドニー、シンガポール、東京などの都市に新たに対応し、モーションキャプチャの機能も強化されています。
ARKitを活用するRoomPlanは、iPhoneやiPadのカメラとLiDARスキャナを使用して部屋の3D見取り図を作成する新しいSwift APIです。見取り図には部屋の寸法や家具の種類などの主な特徴を含めることができます。
Core MLを活用する機能をXcode 14で分析して最適化しましょう。コードを記述することなく、Mac上または接続されているiOSデバイス上で、Core MLモデルのパフォーマンスレポートを生成できるほか、読み込み回数と予測回数の概要や、演算ユニットの使用状況の内訳を確認することができます。Appをプロファイルし、InstrumentsのCore MLテンプレートを使用して、Core ML APIのコールおよびそれに関連するモデルを表示したり、Core ML、 Neural Engine、GPU Instrumentsからの情報を組み合わせて、アクセラレーターのハードウェア上でモデルが実行されたタイミングと箇所を追跡したりできます。さらに、各イベント、各モデル、各サブモデルに対するタイミングデータの集計が要約されます。
Core MLフレームワークは、Float16のI/O機能タイプに対応し、予測用の独自の出力バッファのバッキングを提供するAPIと組み合わせることにより、Core MLモデルのデータ入出力フローの効率をより詳細に制御できるようになります。また負荷分散圧縮に対応し、演算をCPUとNeural Engineに限定できると同時に、メモリ内モデルのインスタンス生成も可能になりました。
Create ML対応Appの評価用UIでは、インタラクティブな方法でモデルの精度を確認できます。主要な指標および具体例との関連性を検証することにより、難しいユースケースやデータコレクションへの追加投資の必要性を把握し、モデルのクオリティを向上させることが可能です。iPhoneカメラからのライブビデオで、モデルの予測をプレビューできます。
Create MLは、tvOS、iOS、iPadOS、macOSでのSwiftフレームワークとして利用可能です。多くの一般的なモデルタイプで利用できるタスク固有のトレーニングAPIに加え、MLの豊富なビルディングブロックと新しいCreate ML Componentsフレームワークとを組み合わせることにより、独自のカスタムモデルとトレーニングパイプラインを定義できるようになりました。
SharePlayを使って、FaceTime内だけでなく、メッセージAppでも体験を直接共有できるようになりました。iOSとiPadOSでは、SharePlay対応のAppがFaceTimeコントロールにも表示されるため、ユーザーはAppで利用できる共有機能をが発見しやすくなります。
新しいShared with YouフレームワークとCollaboration APIを使用することにより、Appが提供するコラボレーション体験をメッセージApp内やFaceTime内に表示させ、ユーザーがメッセージApp内で共有したコンテンツを、App内の新しい「あなたと共有」セクションでハイライトすることが可能です。
macOS 13の 連係カメラを使うと、ユーザーはiPhoneをMac用のカメラとして使うことができます。これは、すべてのAppで自動的に機能しますが、さらに活用することも可能です。新しいAPIにより、カメラ入力の自動切り替え、デスクビューカメラストリームへのアクセス、AVCaptureを使用したiPhoneのカメラ機能(フラッシュモード、高解像度キャプチャ、写真画質の優先順位など)へのアクセスが可能になります。
運転免許証と州発行の身分証明書に対応したAppleウォレットの新機能を統合することにより、App内でユーザーの年齢確認や本人確認を安全に行うことができます。1 Apple Payトランザクションのレシートと注文追跡情報の詳細がウォレットに表示されるようになったため、注文状況の更新を通知できるようになり、カスタマーサービスや注文管理オプションにも簡単にアクセスできるようになります。
「Apple Payで後払い」では、購入金額を均等な4回払いで、6週間にわたり支払うことが可能で、利息や手数料も発生しません。2 この機能はウォレットに内蔵されているため、ユーザーは支払いの金額や状況を簡単に管理できます。
支払い用のAppでは、非接触型のクレジット/デビットカード、Apple Pay、 Apple Watch、およびその他のデジタルウォレットを搭載したスマートフォンによる非接触での支払いがiPhone本体で可能になり、端末やハードウェアも不要です。3
新しいApple PayのマーチャントトークンおよびPayment Request APIのトランザクションタイプを使うことで、自動的および定期的な支払い体験を細かく調整できます。また、1つのApple Pay支払いシートを使用して、複数の支払い先に対して購入金額を指定する機能を追加することも可能です。
車内でよりスマートかつ安全にiPhoneを使用できるCarPlayでは、経路案内、電話、メッセージの送受信、音楽の再生を、運転に集中しながら車載ディスプレイ上で実行できます。運転タスクAppは、運転中の主要なタスクに関するサポートをユーザーに提供します。EV充電Appが統合された給油Appは、給油と充電を管理してスムーズなドライブを可能にします。ナビゲーションAppでは、ドライバーの正面にあるメーターパネルなど、2つ目の場所に地図や詳細な経路案内を表示させることができるようになりました。また、新しいCarPlayシミュレータでは、CarPlay環境を完全に再現できるため、デスクを離れることなくMac上でCarPlay対応Appを開発できます。
iPadOS 16のデスクトップクラスの最新機能は、macOS 13でも同様に利用できます。Mac向けAppのツールバーは自動的に最適化され、ドキュメントベースのAppには、主要な機能(メニューアイテム、ツールバー上で名前を変更する機能など)が追加されました。また、新しいMac Catalyst APIを使用して、マルチウインドウの動作を強化したり、ツールバーにカスタムビューを追加したりできるようになりました。
AppleのソーシャルゲームネットワークであるGame Centerは、つながりがさらに広がるより楽しいゲームを提供します。プレイヤーは、ゲーム内での出来事を確認でき、アクティビティに参加している友達とつながることが可能になりました。
達成項目やLeaderboardのランキングが、より目立つ形でゲームのダッシュボードに表示され、友達のゲーム内アクティビティに関するフィードもダッシュボードに表示されるようになりました。また、友達のGame Centerプロフィールでは、その友達のアクティビティやプロフィールを確認できます。
プレイヤーは、Leaderboardのアクティビティに関するプッシュ通知(他のプレイヤーが自分のスコアよりも高いスコアを獲得した場合など)を受け取ることができるため、ゲームでの最新アクティビティを把握して、ゲームへの関心を維持することができます。
アクセシブルなシングルAppモード環境の作成、Unityゲームへのアクセシビリティ機能の追加、機能豊富でアクセシブルなWeb App開発テクニックを確認しましょう。
ShazamKitを使用すると、Appに音声認識機能を実装できます。署名作成のためのツールやタイムドメタデータを割り当てて返すためのツールを活用できるようになったため、音声の同期体験の構築がこれまで以上に簡単になりました。
Appで、写真や一時停止したビデオフレームからテキストを直接取得できるようになりました。iOS、iPadOS、macOS上のあらゆる画面ビューで、テキストによるインタラクション、翻訳、データ検出、QRコードのスキャンが可能になります。
tvOS向けAppをiOS、iPadOS、watchOS向けAppと統合することにより、Apple TVで新しい体験を作り出すことができます。たとえば、Apple WatchのモーションセンサーのデータをベースにパーソナライズされたワークアウトをApple TVに表示したり、Apple TVでのメディア再生中にリアルタイム情報をiPhoneに表示したり、ゲームのプレイ中に複数の画面を表示したりできます。
ユーザープロファイルをシステムに統合するための機能が向上したため、ユーザーはより簡単にApple TV向けAppを使用できるようになります。共有キーチェーンに保存されている認証情報により、Appを起動するたびにサインインしてプロフィールを選択する必要もありません。
SwiftUIを使用することにより、Appのインターフェイスをカスタマイズして機能をさらに充実させることができます。ボタンのスタイルやエフェクトをカスタマイズしてAppにアクセントを加えたり、タップやタッチなどの標準ジェスチャを活用したり、Focus APIを使用して一貫性のあるインタラクションを実現することができます。
macOS 13のSafari 16でWebサイトやWeb Appを使用しているユーザーに対して、たとえSafariが実行されていない状態でも、通知を送信できます。完全に相互運用可能なWebプッシュの標準ベースの実装は、Push API、Notification API、Service Workersを基盤としています。すでに業界のベストプラクティスに基づいてWebプッシュのコードを作成してある場合は、Safariで自動的に機能します。また、Apple Developer Programのメンバーシップも不要です。
iOS、iPadOS、macOS、tvOS、watchOS向けの最新SDKを含むXcode 14は、以下からダウンロードできます。
以下のリンクから、新規および更新されたドキュメントのリストにアクセスできます。
以下のリンクから、最新版(各ベータ版を含む)のAPIの変更内容に関する詳細情報を確認できます。