借助机器学习,打造更智能的 app。

Core ML 是一个新的基础机器学习框架,能用于众多 Apple 的产品,包括 Siri、“相机”和 QuickType。 Core ML 带来了极速的性能和机器学习模型的轻松整合,使您仅用几行代码就能为 app 构建智能化的新功能。

功能概览

Core ML 允许您将众多机器学习模型类别集成到您的 app 中。 它不但有 30 多种层来支持广泛的深度学习,而且还支持诸如树集成, SVM 和广义线性模型等标准模型。 由于它构建在 Metal 和 Accelerate 等低阶技术之上,Core ML 能无缝地利用 CPU 和 GPU 来提供最大化的性能和效率。 您可以在设备上运行机器学习模型,让数据在过程中无需离开准备接受分析的设备。

视觉

您可以轻松地在 app 中构建计算机视觉机器学习功能。 支持的功能包括脸部跟踪和检测,地标,文本检测,矩形检测,条形码检测,对象跟踪和图像配准。

自然语言处理

利用机器学习,Foundation 的自然语言处理 API 拥有语言识别,标记化,词形还原,词性和命名实体识别等功能,能深入地理解文本内容。

开始使用 Core ML。

视频

观看 WWDC 演讲视频,了解如何在您的 app 中应用 Core ML。

参考文档

参考详细的文档资料,学习如何配合最新的 iOS SDK 在您的 app 中使用机器学习。

相关日志

阅读由 Apple 工程师撰写的帖子,了解他们如何在工作中运用机器学习的技术。

查看“Apple Machine Learning Journal”(英文)

利用模型,助您完成

您可利用下列训练好的 Core ML 模型来创建 app,或使用 Core ML Tools 来轻松地将模型转换为 Core ML 格式。

模型

MobileNet

MobileNets 立基于一个流线型的架构之上。这个架构使用深度可分离的卷积,以构建轻量级的深层神经网络。

从 1000 种类别对象 (如树木、动物、食物、汽车及人物等) 中检测出图像中的主体。

SqueezeNet

从 1000 种类别对象 (如树木、动物、食物、汽车及人物等) 中检测出图像中的主体。

SqueezeNet 的整体尺寸仅为 5 MB。它具有能与 AlexNet 媲美的精度水平,更比 AlexNet 的参数低 50 倍。

Places205-GoogLeNet

从 205 种类别 (如机场候机楼、卧房、森林和海岸等) 中检测出图像的场景。

ResNet50

从 1000 种类别对象 (如树木、动物、食物、汽车及人物等) 中检测出图像中的主体。

Inception v3

从 1000 种类别对象 (如树木、动物、食物、汽车及人物等) 中检测出图像中的主体。

VGG16

从 1000 种类别对象 (如树木、动物、食物、汽车及人物等) 中检测出图像中的主体。

模型转换器

Core ML Tools

Core ML Tools 是一个可以用来把模型从机器学习工具箱转换至 Core ML 格式的 python 包。

获取 Core ML Tools (英文)

Apache MXNet

MXNet 助您训练机器学习模型并将其转换为 Core ML 格式。

获取 MXNet 模型转换器 (英文)

TensorFlow

训练 TensorFlow 中的机器学习模型,并轻松将其转换为 Core ML 模型格式。

获取 TensorFlow 转换器 (英文)

构建您的模型

Turi Create

使用 Turi Create 来构建自己的定制机器学习模型。您无需成为机器学习专家,也能在您的 app 中添加推荐、对象检测、图像分类、图像相似性或活动分类功能。

获取 Turi Create (英文)