iOS SDKの新機能

iPhone、iPad、iPod touch向けのApp構築に使用するツールキットであるiOS SDKで利用できる主なテクノロジーや機能についてご確認ください。リリースされている最新バージョン(各ベータ版リリースを含む)でのAPIの変更点について詳しくは、「iOS & iPadOSリリースノート(英語)」を参照してください。

iOS 14

iOS 14 SDKにより、ユーザーはApp ClipでAppのコアな機能を簡単に見つけられるようになります。SwiftUIには、Appの新たなライフサイクルと、新しいビューレイアウトが導入されました。新しいWidgetKitフレームワークに対応しているため、Appからの情報をiOSのホーム画面に直接表示することができます。機械学習においては、モデルにスタイル変換やアクション識別の機能が追加され、CloudKitベースの展開のためのソリューションが利用可能になりました。追加されたVision APIを活用することで、Appで画像やビデオをより深く分析できます。また、デバイスの周囲の世界とより高精度で融合できるよう、ARKitが進化しました。EメールやWebサイトにマークアップを含めることで、Siriイベントサジェスチョン機能による、イベントの通知が可能になりました。

App Clip

App ClipはAppの軽量版で、Appの機能の一部をユーザーが利用できるようにするものです。App Clipは必要なときにすぐに見つかり、高速で動作し、すばやく起動します。ユーザーは、Safari、マップ、メッセージなど、多くの場所でApp Clipを見つけて起動することができます。実世界の中のQRコードやNFCタグを通じても利用できます。また、App Clipは、ユーザーにAppの完全版をApp Storeからダウンロードする機会も提供してくれます。独自のApp Clipを作成する方法について詳しくは、App Clipに関するドキュメント(英語)を参照してください。

ウィジェット

ウィジェットを使うと、Appからのタイムリーな情報を、iOSのホーム画面で一目ですばやく確認できます。iOS 14では、ウィジェットの体験が刷新されました。Appのウィジェットを複数のサイズで表示できるようになり、ユーザーがカスタマイズすることもできるようになりました。インタラクティブな機能を取り入れたり、適切なタイミングでコンテンツを更新したりすることもできます。ウィジェットの設計について詳しくは、「Human Interface Guidelines(英語)」を参照してください。Appをウィジェットに対応させる方法について詳しくは、WidgetKit(英語)フレームワークに関するドキュメントを参照してください。

SwiftUI

SwiftUIでは、プログレスインジケータやテキストエディタなど、厳選された新しい組み込みのビューを利用できるようになりました。さらに、グリッドやアウトラインといった新しいビューレイアウトにも対応しています。グリッドおよびスタックの新たな遅延バージョンでは、必要な場合にのみ項目が読み込まれます。

Xcode 12以降、App全体の構造や動作をSwiftUIで定義できるようになりました。Appのユーザーインターフェイスを定義するビュー階層を含むシーンからAppを作成しましょう。メニューコマンドの追加、ライフサイクルイベントの処理、システムアクションの実行、すべてのAppを対象としたストレージ管理を行うこともできます。また、AppにWidgetKitを組み込むことにより、ウィジェットを作成して、iOSのホーム画面またはmacOSの通知センターから重要なコンテンツに直接すばやくアクセスすることも可能になります。詳しくは、「Appの構造と動作(英語)」を参照してください。

ARKit

ARKitに加わったロケーションアンカーは、新しくなったAppleマップの高精度な位置情報を活用して、特定の地理的な場所でバックカメラによるAR体験を味わえるようにする機能です。新しいDepth APIを使うと、iPad ProのLiDARスキャナでキャプチャされる、これまで以上に精密な距離と深度の情報にアクセスできるようになります。これらの機能について詳しくは、ARKitフレームワークに関するドキュメントを参照してください。

機械学習

iOS 14に盛り込まれたアップデートは、機械学習Appに新たな機能、柔軟性、セキュリティをもたらします。Core MLに追加されたモデル展開機能では、CloudKitを使ったモデルのホスティングや展開のためのダッシュボードが利用できるため、Appをアップデートしたり、自分でモデルをホスティングしたりしなくても、モデルを簡単にアップデートすることができます。また、Core MLのモデル暗号化機能を利用すると、モデルのセキュリティがさらに高まり、暗号化のプロセスやキーの管理が自動で行われるようになります。Core MLコンバータでは、PyTorchのモデルをCore MLに直接変換することができます。

そして、Create ML Appの新しいStyle Transferテンプレートを使うと、リアルタイムで写真やビデオのスタイルを変換することができ、新しいAction Classificationテンプレートでは、ビデオクリップ内の1人の人物のアクションを識別できます。詳しくは、Core MLおよびCreate MLに関するデベロッパ向けドキュメントを参照してください。

Vision

iOS 14では、ビデオ内での軌道検出、画像やビデオ内での手や体の姿勢の推定、画像やビデオ内での物体の端や特徴をトラッキングする輪郭検出、連続したビデオフレーム間の動きのパターンを判別するオプティカルフローに対応したAPIが、Visionフレームワークに追加されました。これらの機能について詳しくは、Vision(英語)フレームワークに関するドキュメントを参照してください。特に、「スポーツ分析向けに機能豊かなAppを開発する(英語)」で、これらの機能がサンプルAppの中でどのように扱われているかをご確認ください。

Natural Language

Natural Languageフレームワークにも新しいAPIが追加され、任意の文字列のベクトル表現を作成する文章埋め込み、単語のタグ付けによる自然言語識別モデルのトレーニング、特定のドメインに合わせたカスタマイズ、フレームワークの予測を評価する信頼度スコアが利用できるようになりました。詳しくは、Natural Language(英語)フレームワークに関するドキュメントを参照してください。

App Storeのプライバシー情報

プライバシーの保護はiOS全体のユーザー体験における基盤となっており、App Storeで新たに表示されるプライバシー情報により、ユーザーは自分の個人情報がどのように取り扱われるかについてより詳しく把握し、管理できるようになります。iOS 14では、他社が所有するAppやWebサイトでの行動をトラッキングするには、ユーザーの許可を求めることが義務付けられます。今年後半には、プライバシーに対するAppの仕様をユーザーがApp Store上で確認しやすくなります。デベロッパには、App Storeのプロダクトページに掲載されるプライバシーに関する仕様の情報を、App Store Connectに入力することが求められます。

Siriイベントサジェスチョンのマークアップ

Siriイベントサジェスチョン(提案)のマークアップを使って、WebページやEメールでイベントの詳細情報を提供することができます。Siriが旅行の予定、映画、スポーツイベント、ライブ、レストランの予約、ソーシャルイベントを解析し、それに基づいた目的地への車での経路や予定のイベントに向かうためのライドシェアを案内したり、イベント開始の直前におやすみモードを有効にするといった提案を行ったりすることができます。自分のイベントをSiriに統合する方法について詳しくは、「Siriイベントサジェスチョンのマークアップ(英語)」のドキュメントを参照してください。

PencilKit

PencilKitにて、テキストフィールド内に入力した手書きの文字が認識できるようになりました。ユーザーは、ジェスチャーを使って、テキストの選択や削除、単語の結合や分割を行うこともできます。また、Appにデータを検出する機能や、テキストや図形の認識および選択の機能を追加することもできます。詳しくは、PencilKit(英語)フレームワークに関するドキュメントを参照してください。

Accessibility

新しいAccessibility(英語)フレームワークを使うと、状況に合わせて、アクセス可能なコンテンツのサブセットをAppがユーザーに動的に配信できるようにします。

MetricKit

MetricKitに加わった新しい種類のペイロードであるDiagnosticsを使うと、クラッシュやディスク書き込みの例外といったAppの特定の障害を追跡することができます。詳しくは、MetricKit(英語)フレームワークに関するドキュメントを参照してください。

App内課金アイテムのファミリー共有

ファミリー共有を使うと、ユーザーはサブスクリプションや購入アイテムなどを、家族のメンバーとシンプルな方法で共有することができます。iOS 14では、App内課金アイテムとサブスクリプションを家族全体で楽しめるように、ファミリー共有を提供するオプションが選べるようになりました。SKProduct(英語)およびSKPaymentTransactionObserver(英語)を参照して、新しいAPIをご確認ください。

Screen Time

iOS 14には、Webの使用状況データを共有したり、保護者が加える変更を監視したりするためのScreen Time APIが用意されています。詳しくは、Screen Time(英語)フレームワークに関するドキュメントを参照してください。

Uniform Type Identifiers

新しいUniform Type Identifiers(英語)フレームワークを使うと、転送するファイル形式やペーストボードなどのメモリ内のデータを説明したり、ディレクトリ、ボリューム、パッケージなどのリソースを指定したりすることができます。

ファイル圧縮

新しいApple Archive(英語)フレームワークを使うと、iOSでディレクトリ、ファイル、データを高速なマルチスレッド処理で可逆圧縮することができます。