アプリに機械学習モデルを組み込みます。
概要
Core MLを使って、機械言語モデルをアプリに統合します。Core MLはすべてのモデルを統一された方法で扱えます。アプリは、Core ML APIとユーザーデータを使用して、予測の作成、モデルのトレーニングや微調整をすべてユーザーのデバイス上で行います。

モデルは、機械学習のアルゴリズムを一連のトレーニングデータに適用した成果です。モデルを使用して、新しい入力データに基づいて予測を作成します。モデルは、コードで記述するのが難しい、または非現実的な、さまざまなタスクを実現できます。たとえば、写真を分類するモデルや、写真に写っている特定の被写体をピクセルから直接検出するモデルをトレーニングできます。
XcodeにバンドルされているCreate MLアプリを使って、モデルの構築とトレーニングができます。Create MLを使用してトレーニングされたモデルはCore MLのモデル形式であり、アプリで使う準備ができています。別の方法として、ほかのさまざまな機械学習ライブラリを使って作成した後、Core ML Tools(英語)でモデルをCore ML形式に変換できます。デバイス上にモデルを配布した後、そのユーザー固有のデータを使った再トレーニングや微調整を、Core MLを使ってオンデバイスで行うことも可能です。
Core MLは、CPU、GPU、ニューラルエンジンを活用して、オンデバイスのパフォーマンスを最適化しながら、メモリフットプリントと電力消費を最小限に抑えます。ユーザーのデバイスでのみモデルを実行することにより、ネットワーク接続の必要がなくなるため、ユーザーデータのプライバシーが保護され、アプリのレスポンスも改善されます。
Core MLは、特定の用途に対応したフレームワークと機能のための基礎です。Core MLは、画像を分析するVision(英語)、テキストを処理するNatural Language(英語)、オーディオをテキストに変換するSpeech(英語)、何の音かを特定するSoundAnalysis(英語)をサポートします。Core ML自体は、Accelerate(英語)、BNNS(英語)、Metal Performance Shaders(英語)といったローレベルの基盤上に構築されます。
