Core ML
Core ML은 Apple Silicon을 활용하고 메모리 공간 및 전력 소모를 최소화하여 다양한 모델 유형의 온디바이스 성능에 최적화되어 있습니다.
새로운 기능
Core ML 업데이트를 통해 기기에서 고급 생성형 머신 러닝 및 AI 모델을 더 빠르고 효율적으로 최적화 및 실행할 수 있습니다. Core ML 도구는 보다 세분화되고 구성 가능한 가중치 압축 기술을 제공하여 대규모 언어 모델과 확산 모델을 Apple Silicon으로 가져올 수 있도록 지원합니다. 이제 모델이 여러 함수를 보유하고 상태를 효율적으로 관리할 수 있으므로 대규모 언어 모델과 어댑터를 더욱 유연하고 효율적으로 실행할 수 있습니다. Core ML 프레임워크에는 다차원 어레이에서 연산을 표현하기 위한 효율적이고 간단하며 친숙한 API를 제공하는 새로운 MLTensor 유형이 추가되었습니다. 또한 Xcode의 Core ML 성능 보고서가 업데이트되어 모델의 각 작업의 예상 비용 및 지원에 대한 더 많은 정보를 제공합니다.
Core ML을 사용하여 다채로운 경험하기
완전한 온디바이스 실행
Core ML 모델은 엄격하게 사용자의 기기에서만 실행되고 네트워크에 연결할 필요가 없으므로 앱의 반응을 보장하면서 사용자 데이터를 비공개로 유지할 수 있습니다.
고급 머신 러닝 및 AI 모델 실행하기
Core ML은 고급 모델 압축 지원, 스테이트풀 모델 및 효과적인 트랜스포머 모델 구동 실행 등을 통해 생성형 AI 모델을 지원합니다.
Core ML을 사용한 모델 변환
TensorFlow 또는 PyTorch와 같은 라이브러리의 모델을 Core ML 도구를 사용하여 그 어느 때보다 쉽게 Core ML로 변환할 수 있습니다.