Core ML
Core MLは、Appleシリコンを活用し、メモリ占有量と電力消費量を最小限に抑えながら、幅広い種類のモデルがオンデバイスでパフォーマンスを発揮できるよう最適化されています。
新機能
Core MLの機能がアップデートされ、デバイス上でより高速かつ効率的に、機械学習およびAIの高度な生成モデルを最適化して実行できるようになりました。Core ML Toolsは、よりきめ細かい構成可能なWeight Compression技術を備え、大規模言語モデルや拡散モデルをAppleシリコンに導入するのに役立ちます。モデルに複数の関数を保持し、状態を効率的に管理できるようになったことで、大規模言語モデルやアダプタのより柔軟かつ効率的な実行が可能になりました。また、Core MLフレームワークには、多次元配列に対する演算を表現するための効率的かつシンプルで、馴染みのあるAPIを提供する新しいMLTensor型が追加されています。さらに、XcodeのCore MLパフォーマンスレポートがアップデートされており、モデルの各演算のサポート状況や推定コストについて、より詳しい情報が得られます。
Core MLのさまざまな機能
モデルの実行をデバイス上で完結
Core MLモデルは完全にユーザーのデバイス上で実行されるため、ネットワーク接続を必要とせず、アプリの応答性を保ちながら、ユーザーデータのプライバシーを保護することができます。
高度な機械学習とAIモデルを実行
Core MLは、高度なモデル圧縮、ステートフルモデル、変換モデル演算の効率的な実行によって生成AIモデルをサポートします。
Core MLへのモデルの変換
TensorFlowやPyTorchなどのライブラリからのモデルを、Core ML Toolsを使って、これまで以上に容易にCore MLに変換できるようになりました。