Core ML
Core ML 针对各种类型模型的设备端性能进行了优化,能够充分利用 Apple 硬件并尽可能地减少内存占用空间和功耗。
新功能
对 Core ML 框架所做的更新提升了模型载入和推理速度。新的异步预测 API 使打造 ML 支持的交互式体验变得更加简单,并且有助于最大限度地提高硬件利用率。使用新的 Core ML 工具优化模块可帮助压缩和优化模型,以便在 Apple 硬件上进行部署。在模型转换期间或者当在 PyTorch 等框架中训练模型时,可以应用权重剪枝 (pruning)、量化 (quantization) 和堆积 (palletization) 工具,以在压缩期间保持准确性。
更深入地体验 Core ML
完全在设备端运行模型
Core ML 模型会严格地仅在用户的设备上运行,因此无需任何网络连接,让你的 App 保持响应灵敏的同时保护用户数据的私密性。
运行先进的神经网络
Core ML 支持最新的模型,例如设计用于理解图像、视频、声音和其他富媒体的先进神经网络。
将模型转换为 Core ML
使用 Core ML 工具可以将来自 TensorFlow 或 PyTorch 等库的模型转换为 Core ML,这种操作比以往更加轻松简单。
在设备端对模型进行个性化设置
App 中内置的模型可以在设备端使用用户数据进行更新,在不侵犯隐私的情况下,帮助确保模型与用户行为保持相关。