在 App 中整合机器学习模型。
概览
利用 Core ML 在 App 中整合机器学习模型。Core ML 为所有模型提供了一种统一的呈现方式。App 可以使用 Core ML API 和用户数据进行预测,以及训练或精调模型,一切都在用户设备上完成。
“模型”是对一组训练数据应用机器学习算法而得到的结果。你使用模型来基于新的输入数据进行预测。有很多依靠编写代码仅能低效甚至很难完成的任务,使用模型能更好地完成。例如,你可以训练模型来归类照片,或者直接根据像素检测照片内的特定对象。
你可以使用 Xcode 内置的 Create ML App 来构建和训练模型。使用 Create ML 训练的模型采用 Core ML 模型格式,并能直接在 App 中使用。另外,也可以使用许多其他机器学习资源库,再使用 Core ML 工具 (英文) 将模型转换成 Core ML 格式。模型下载到用户设备上后,你可以使用 Core ML 在设备端利用用户数据进行重新训练或优化。
Core ML 通过利用 CPU、GPU 和神经网络引擎,同时最大程度地减小内存占用空间和功耗,来优化设备端性能。由于模型严格地在用户设备上,因此无需任何网络连接,这有助于保护用户数据的私密性和 App 的响应速度。
Core ML 是域特定的框架和功能的基础所在。Core ML 支持使用计算机视觉 (英文) 框架分析图像,使用自然语言 (英文) 框架处理文本,使用语音 (英文) 框架将音频转换为文本,以及使用 SoundAnalysis (英文) 来识别音频中的声音。Core ML 本身是基于 Accelerate (英文) 和 BNNS (英文) 等底层语言以及 Metal Performance Shaders (英文) 而构建的。