머신 러닝 및 AI
-
WWDC24 -
20:03 CPU에서 실시간 ML 추론 지원하기
BNNSGraph를 사용하여 CPU에서 머신 러닝 모델의 실행을 가속하는 방법을 살펴보세요. BNNSGraph를 통해 CPU에서 머신 러닝 모델을 컴파일 및 실행하는 방법과 오디오 또는 신호 처리 모델에 런타임 메모리를 할당하지 않고 단일 스레드로 실행하는 등 실시간 지원을 제공하는 방법을 알아봅니다.
-
17:56 앱 인텐트의 새로운 내용
앱 인텐트 프레임워크의 개선 사항을 알아보고 이를 통해 앱의 기능을 Siri 및 다른 새로운 기능에 노출할 수 있는 방법을 살펴보세요. Transferable API, File Representations, Item Providers, Spotlight Indexing을 활용하여 플랫폼상에서 엔티티의 의미를 강화하는 방법을 살펴봅니다. 이를 통해 Siri 및 단축어 앱에서 강력한 기능을 활용할 수 있게 됩니다. 인텐트를 강화하여 URL 표현이 가능한 엔티티 및 유연한 Scene API를 통해 사용자가 앱을 더 깊이 탐색할 수...
-
11:32 Create ML의 새로운 기능
Create ML의 업데이트 내용을 살펴보세요. 인터랙티브한 데이터 소스 미리보기, visionOS 앱용 물체 추적 모델 빌드를 위한 새로운 템플릿이 포함되었습니다. 새로운 시계열 예측 및 분류 API 등 중요한 프레임워크 개선 사항도 공유합니다.
-
12:24 글쓰기 도구 시작하기
앱에서 글쓰기 도구를 활용하여 텍스트를 교정하고, 다시 작성하고, 변환하는 방법을 알아봅니다. 사용자가 어느 텍스트 뷰에서나 작성한 내용을 다듬을 수 있도록 글쓰기 도구가 앱과 상호작용하는 방식을 자세히 살펴보세요. 텍스트를 가져오고 처리하는 방법과 맞춤형 텍스트 뷰에서 글쓰기 도구를 지원하는 방법을 확인할 수 있습니다.
-
26:02 앱 인텐트로 사용자에게 앱의 핵심 기능 제공하기
인텐트, 엔티티, 쿼리 등 App Intents 프레임워크의 기본 요소와, 이러한 요소를 활용하여 앱의 중요 기능을 적재적소에 노출하는 방법을 살펴보세요. 앱 인텐트를 기반으로 Siri, 제어기 및 위젯, Apple Pencil, 단축어, 동작 버튼 등 다양한 시스템 기능과 앱 간의 긴밀한 통합을 빌드하는 방법을 소개합니다. 코드 및 핵심 기능을 공유하면서 앱 인텐트 통합을 효율적으로 빌드하여 모든 인터페이스에서 탁월한 경험을 제공하는 팁도 함께 확인해 보세요.
-
18:21 Apple GPU에서 머신 러닝 및 AI 모델 학습시키기
PyTorch, JAX, TensorFlow용 Metal을 사용하여 Apple Silicon에서 모델을 학습시키는 방법을 알아보세요. 새로운 어텐션 작업 및 양자화 지원을 활용하여 기기의 트랜스포머 모델 성능을 향상해 보세요.
-
16:49 Vision 프레임워크의 Swift 관련 개선 사항 알아보기
Vision Framework API가 동시성 등의 최신 Swift 기능을 활용하도록 재구성되어, 광범위한 Vision 알고리즘을 더욱 쉽고 빠르게 앱에 통합할 수 있습니다. API 업데이트 사항을 소개하고, 샘플 코드와 모범 사례를 공유합니다. 이 프레임워크의 이점을 활용하고 코딩 업무 부담을 경감해 보세요. 또한 ‘image aesthetics', ‘holistic body pose' 등 새로운 2가지 기능의 데모를 선보입니다.
-
17:33 Apple 플랫폼의 머신 러닝 살펴보기
Apple 플랫폼상의 머신 러닝 프레임워크에 대한 개요를 살펴보세요. 머신 러닝 모델을 처음 구현하는 개발자 또는 머신 러닝 전문가 등 누구나 앱의 요구 사항에 적합한 프레임워크를 선택하는 데 도움이 될 지침을 공유합니다.
-
22:49 잠금 화면 카메라 캡처 경험을 멋지게 빌드하기
LockedCameraCapture API로 캡처 애플리케이션의 중요 정보를 잠금 화면에 바로 가져오는 방법을 확인해 보세요. 해당 API의 기능 및 사용 목적을 살펴보고, 캡처 확장 프로그램을 제작하는 방법을 알아보고, 이러한 확장 프로그램이 기기가 잠겼을 때 어떤 동작을 하는지 확인해 보세요.
-
9:19 시스템 경험을 위한 앱 인텐트 디자인하기
앱 인텐트는 제어기, Spotlight, Siri 등이 제공하는 시스템 경험의 바탕이 됩니다. 앱 인텐트에 가장 적합한 기능을 파악하는 방법과 매개변수를 사용하여 이러한 인텐트에 유연성을 더하는 방법을 알아보세요. 앱 인텐트를 사용하여 사용자가 앱 외부에서 작업할 수 있게 하는 방법을 알아보고, 맥락에 맞는 정보를 표시하기 위해 사용자를 앱 내부로 안내하는 것이 필요한 시점을 예시를 통해 살펴보세요.
-
16:31 Translation API 소개
새로운 Translation 프레임워크로 앱에서 여러 언어 간에 텍스트를 번역하는 방법을 확인해 보세요. 시스템 UI에서 번역문을 빠르게 표시하는 방법, 앱 UI에서 많은 분량의 텍스트를 번역하는 방법을 소개합니다.
-
16:06 DockKit의 새로운 기능
DockKit의 스마트 추적은 피사체간 전환을 더욱 자연스럽게 만들어 줍니다. 이 세션에서는 스마트 추적 기능을 소개하고, 이 기능이 머신 러닝(ML) 모델을 사용하여 피사체를 선택 및 추적하는 방식과 스마트 추적 기능을 앱에서 사용하는 방법을 다룹니다.
-
34:29 HDR로 앱에서 동적 이미지 경험 제공하기
앱에서 HDR 이미지를 읽고 쓰는 방법, HDR 콘텐츠를 처리하는 방법을 알아보세요. 새롭게 지원되는 HDR 이미지 형식과 HDR 이미지를 표시하는 앞선 방식을 소개합니다. HDR 콘텐츠가 사용자 인터페이스와 병존할 수 있게 만드는 방법과 앱에 HDR 이미지 지원을 추가할 때 유의해야 할 점에 대해 설명합니다.
-
30:09 머신 러닝 및 AI 모델을 Apple Silicon으로 가져오기
머신 러닝 및 AI 모델이 Apple Silicon의 강력한 성능을 활용하도록 최적화하는 방법을 확인해 보세요. 모델의 온디바이스 배포를 준비하기 위한 모델 변환 워크플로를 살펴보세요. Apple Silicon과 호환되는 모델 압축 기술을 살펴보고, 모델 배포 워크플로의 어느 단계에서 이러한 기술을 적용할 수 있는지 알아보세요. 아울러 저장 공간 크기, 지연 시간, 전력 사용량 및 정확도 사이의 균형에 대해서도 다룹니다.
-
10:55 Core Spotlight로 시맨틱 검색 지원하기
Core Spotlight를 사용하여 앱에서 시맨틱 검색 결과를 제공하는 방법을 알아보세요. 사용자가 자연어를 사용하여 항목을 검색할 수 있도록 앱의 콘텐츠를 비공개 온디바이스 인덱스에서 사용하는 방법을 확인해 보세요. 인덱싱 활동의 스케줄을 지정하여 앱의 성능을 최적화하는 방법도 공유합니다. 이 세션을 최대한 활용하려면 먼저 Apple Developer 웹사이트의 Core Spotlight 문서를 살펴보는 것이 좋습니다.
-
21:49 앱을 Siri로 가져오기
앱 인텐트를 사용하여 앱의 기능을 Siri에 노출하는 방법을 알아보세요. 현재 사용할 수 있는 인텐트의 종류를 파악하고, 앱의 동작을 시스템에 통합하기 위한 맞춤형 인텐트를 생성하는 방법을 살펴보세요. 또한 제공해야 하는 메타데이터에 대해 알아보고, 엔티티가 Spotlight에서 검색되게 만드는 방법과 온스크린 참조에 어노테이션을 추가하는 방법 등을 알아봅니다.
-
23:48 다양한 캡처에서 일관된 색상 유지하기
Constant Color API에 대해 알아보고, 사용자가 정확한 색상을 파악하는 데 해당 API가 어떤 도움을 줄 수 있는지 살펴보세요. 이 세션에서는 Constant Color API를 적용하는 방법과 Constant Color API가 과학 및 마케팅 분야에서 활용될 수 있는 가능성 그리고 해당 기술을 최대한 활용하는 모범 사례를 소개합니다.
-
17:01 visionOS의 물체 추적 기능 살펴보기
visionOS 앱에서 물체 추적을 사용하여 현실 세계의 객체를 가상 앵커로 바꾸는 방법을 확인해 보세요. 물체 추적을 통해 공간 경험을 만드는 방법을 처음부터 끝까지 자세히 공유합니다. Create ML에서 머신 러닝을 통해 참조 객체를 만들고 Reality Composer Pro, RealityKit 또는 ARKit API에서 대상 객체와 관련된 콘텐츠를 추가하는 방법을 확인해 보세요.
-
18:15 Core ML을 사용하여 머신 러닝 및 AI 모델을 온디바이스로 배포하기
Core ML로 머신 러닝 및 AI 모델을 변환하고 실행할 때 속도와 메모리 성능을 최적화하는 방법을 알아보세요. 모델 표현, 성능 관련 인사이트, 실행, 모델 스티칭 등을 위한 새로운 옵션을 소개합니다. 매력적인 비공개 온디바이스 경험을 만들 때 이러한 옵션들을 함께 사용해 보세요.
-
21:18 visionOS용 엔터프라이즈 API
새로운 visionOS용 엔터프라이즈 API를 활용하여 Apple Vision Pro에서 직원 및 고객의 생산성을 향상하는 공간 경험을 만들어 보세요.
-
25:06 Metal로 머신 러닝 가속하기
Metal Performance Shaders Graph의 새로운 기능을 활용하여 머신 러닝 트랜스포머 모델을 가속하는 방법을 알아보세요. 모델의 컴퓨팅 대역폭 및 품질을 개선하고 새로운 MPSGraph 뷰어에서 모델을 시각화하는 방법도 알아봅니다.
-
-
WWDC23 -
13:47 Vision에서 동물 자세 감지하기
고양이와 개 이미지뿐만 아니라 다른 많은 동물 이미지를 감지해 보세요. Vision을 사용하면 동물의 자세와 관절 하나하나를 실시간으로 감지할 수 있습니다. 카메라 앱으로 동물을 추적하거나 독특한 장식으로 동물 사진 꾸미기 등 흥미로운 기능을 어떻게 활성화하는지 확인해 보세요. 더불어 Vision에서 중요한 여타 개선 사항을 살펴보고 모범 사례를 공유합니다. Vision 프레임워크의 새 기능을 자세히 알고 싶다면 'Vision에서 3D 신체 자세와 Person 세그멘테이션 알아보기' 및 '앱에서 이미지의 피사체 분리하기'...
-
16:50 Create ML에서 향상된 머신 러닝 체험하기
Create ML로 머신 러닝 모델을 더 다양하게 활용하는 방법을 알아보세요. 이미지 이해 기능의 최신 업데이트와 다중 언어 기능을 가진 내장 BERT를 이용한 텍스트 기반의 태스크에 관해 학습해 보세요. 다중 레이블 분류를 이용해 이미지의 내용을 이해하는 모델을 훈련하는 것이 얼마나 쉬워졌는지 확인해 보세요. 또한 인터랙티브 모델 평가와 맞춤형 훈련 데이터 증강을 위한 최신 API에 관한 정보도 알려드립니다. 머신 러닝의 최신 소식을 더 알고 싶으시면 WWDC23 영상 중 '자연어 다중 언어 모델 살펴보기'와 '비동기 예측...
-
19:56 VisionKit의 새로운 기능
VisionKit으로 앱의 이미지에서 피사체를 빠르게 분리하는 방법을 확인해 보고, 시각 자료 찾아보기로 이미지의 콘텐츠를 알아보세요. 라이브 텍스트 상호 작용, 데이터 스캐닝, macOS 앱에 대한 확장된 지원을 위한 VisionKit의 최신 업데이트도 살펴봅니다. VisionKit에 대한 자세한 내용은 WWDC23의 '앱에서 이미지의 피사체 분리하기'에서 확인하세요.
-
18:38 앱에서 이미지의 피사체 분리하기
앱의 배경에서 이미지의 피사체를 쉽게 가져오는 방법을 알아보세요. 주요 피사체를 분리하거나 VisionKit을 사용하여 지정된 지점에서 피사체에 액세스하는 방법을 확인하세요. 또한 Vision을 사용하여 피사체를 분리한 후 이를 Core Image와 같은 하위 프레임워크와 결합하여 재미있는 이미지 효과와 더 복잡한 합성 파이프라인을 만드는 방법도 알려드립니다. VisionKit의 최신 업데이트에 대한 자세한 내용은 'VisionKit의 새로운 기능'을 확인하세요. 이미지의 사람 세그먼테이션에 대한 자세한 내용은 WWDC23의...
-
14:25 Natural Language 다국어 모델 알아보기
다국어를 지원하고 트랜스포머를 기반으로 하는 임베딩을 사용하여 텍스트 분류와 단어 태깅을 위한 사용자 지정 Natural Language 모델을 생성하는 방법을 알아봅니다. 적은 데이터로 모델을 훈련하면서도 서로 다른 세 가지 문자 체계에 속하는 언어 27개를 지원하는 방법을 소개합니다. 이런 임베딩을 사용해 파이토치와 텐서플로에서 훈련된 복잡한 모델을 미세 조정 하는 방법을 살펴보세요. 자연어에 대해 더 자세히 알고 싶다면 WWDC20의 'Natural Language로 앱 향상하기'를 시청하세요.
-
14:38 Vision에서 3D 신체 포즈와 사람 분리 탐색하기
Vision에서 사람 중심 기능을 구축하는 방법을 발견해 보세요. 사람의 신체 포즈를 감지하여 3D 공간에서 개별 관절 위치를 측정하는 법을 알아보세요. 사람 분리 API를 사용해 하나의 이미지에서 4명의 사람을 구분하고 분리하는 방법을 보여줍니다. VIsion의 최신 기능에 대해 더 알아보고 싶다면, WWDC23 'Vision에서 동물 포즈 감지하기' 세션을 확인하세요.
-
17:35 DockKit을 사용해 전동 iPhone 스탠드 통합하기
카메라 앱을 DocKit 호환 전동 스탠드와 결합하여 놀라운 사진과 비디오 경험을 만들 수 있는 방법을 알아 보세요. 앱이 360도 뷰 필드에 걸쳐 라이브 비디오의 대상을 자동 추적하고, 스탠드를 직접 통제해 프레이밍을 맞춤화하며, 모터를 직접 통제하고, 다른 물체를 트래킹하는 자체 추론 모델을 제공할 수 있는지 그 원리를 보여줍니다. 마지막으로, 동적인 디바이스 애니메이션을 통해 감정의 느낌을 만드는 법을 보여드리죠. 이미지 트래킹에 대해 더 많은 기법을 알아보시려면 WWDC23의 'Vision에서 동물 포즈 감지하기'...
-
25:18 기계 학습 모델 압축에 Core ML Tools 활용하기
Core ML Tools를 활용해 앱의 기계 학습 모델 풋프린트를 줄이는 방법을 알아봅니다. 팔레트화와 가지치기, 양자화를 비롯한 기술을 사용해 모델의 크기를 현저하게 줄이면서도 높은 수준의 정확도를 달성하는 방법을 살펴보겠습니다. 훈련 도중 모델을 압축하는 경우와 완전히 훈련된 모델을 압축하는 경우를 비교하고, 앱이 Apple Neural Engine을 최대한 활용해 압축 모델을 훨씬 더 빠르게 실행하는 방법을 소개합니다. Core ML 최적화에 대해 더 자세히 알고 싶다면 WWDC23의 세션인 '비동기 예측으로 Core...
-
21:15 Metal 앱용 기계 학습 최적화하기
Metal의 가속 ML(Machine Learning) 훈련에 대한 최신 개선 사항을 확인하세요. 파이토치와 텐서플로의 업데이트 사항을 살펴보고, JAX용 Metal 가속에 대해 알아보세요. GPU와 Apple Neural Engine을 모두 사용할 때 MPS 그래프가 어떻게 더 빠른 ML 추론을 지원하는지 보여드리고, 동일한 API로 어떻게 코어 ML과 ONNX 모델을 빠르게 통합할 수 있는지 공유합니다. 기계 학습에 Metal을 사용하는 방법에 대한 자세한 내용은 WWDC22의 'Metal로 기계 학습 가속하기'를 확인하세요.
-
23:21 비동기 예측으로 Core ML 통합 개선하기
최신 Core ML 실행 엔진 개선 사항을 활용해 앱의 기계 학습 기능 속도를 높이는 방법을 알아보고, 적극적인 에셋 캐싱이 추론과 모델 로딩 속도를 높이는 데 어떻게 도움이 되는지 알아보세요. 비동기 예측을 위한 최신 옵션 몇 가지를 살펴보고 응답성이 뛰어난 앱을 제작하는 데 도움이 되는 성능과 전체 메모리 사용량의 균형을 맞추기 위한 고려 사항을 논의합니다. 모델의 하드웨어 활용도를 이해하고 극대화하는 데 도움이 되는 API를 살펴보세요. Core ML 모델 사용 최적화에 대한 자세한 내용은 WWDC23의 '기계 학습 모델...
-
7:52 기기 내 음성 인식을 사용자화하기
기본 모델에 어휘를 추가하는 사용자화로 앱의 기기 내 음성 인식을 개선하는 방법을 알아보세요. 기기 내에서 음성 인식이 작동하는 방식과 전사의 예측 가능도가 높아지게 특정 단어와 어구를 부스팅하는 방법, 템플릿 지원을 사용해 사용자 지정 어구의 전체 집합을 빠르게 생성하는 방법을 알려 드리겠습니다. 모두 런타임에서 이뤄지죠. Speech 프레임워크를 더 알아보려면 WWDC19의 '음성 인식 개선 사항' 세션을 확인하세요.
-
-
WWDC22 -
25:31 Create ML 구성 요소 알아보기
Create ML을 이용하면 이미지 분류, 사물 인식, 사운드 분류, 손 동작 분류, 동작 분류, 테이블 형식 데이터 회귀 분석 등을 위한 맞춤형 머신 러닝 모델을 손쉽게 빌드할 수 있습니다. 또한 Create ML 구성 요소 프레임워크를 이용하면 기반 작업을 맞춤화하고 모델을 개선할 수 있습니다. 이러한 작업을 구성하는 특징 추출기, 트랜스포머 및 추정기를 살펴보고, 이러한 기능을 다른 구성 요소 및 사전 처리 단계와 결합하여 이미지 회귀 분석과 같은 개념에 대한 맞춤형 작업을 빌드하는 방법을 살펴보겠습니다. 복잡한 맞춤형...
-
12:11 VisionKit을 통한 컴퓨터 판독 코드 및 텍스트 캡처
VisionKit의 Data Scanner를 소개합니다. 이 프레임워크는 AVCapture와 Vision을 결합하여, 간단한 Swift API를 통해 컴퓨터 판독 코드 및 텍스트의 라이브 캡처를 지원합니다. 바코드 기호와 언어 선택을 지정하여 앱에서 캡처할 수 있는 콘텐츠의 유형을 제어하는 방법을 보여드립니다. 또한 앱에서 지침을 활성화하고 항목 강조 또는 관심 영역을 맞춤화하는 방법에 대해 살펴보며, 앱에서 항목을 감지한 후의 상호 작용을 처리하는 방법을 다룹니다. 정지 이미지 또는 일시 정지된 비디오 프레임을 통한 라이브...
-
16:46 Create ML의 새로운 기능
Create ML의 최신 업데이트를 살펴볼 수 있습니다. 맞춤형 모델이 실제 데이터에서 어떤 성능을 보이는지 이해할 수 있도록 Create ML의 평가 도구의 향상된 기능을 소개합니다. 테스트 데이터의 각 유형의 이미지에 대한 모델 성능을 확인하고 개별 이미지 내의 문제를 식별하여 잘못된 분류, 레이블이 부적절하게 지정된 데이터 및 기타 오류의 문제를 해결하는 방법을 알아보세요. 또한 연속성 카메라를 사용하여 iPhone 및 iPad의 모델을 테스트하는 방법을 라이브 미리 보기로 보여드리고, Create ML 구성 요소...
-
13:25 Create ML 구성 요소를 통한 고급 모델 작성
Create ML 구성 요소를 통해 맞춤형 머신 러닝 모델의 수준을 한 단계 높일 수 있습니다. 비디오나 오디오와 같은 시간적 데이터로 작업하는 방법과 반복적인 사람의 동작 수를 세거나 고급 사운드 분류를 제공하는 모델을 작성하는 방법을 보여드립니다. 또한 새로운 데이터로 모델 학습을 가속화하기 위해 점진적 피팅을 사용하는 것에 관한 모범 사례를 소개합니다. 맞춤형 머신 러닝 모델에 대한 소개는 WWDC22의 ‘Get to know Create ML Components(Create ML 구성 요소 알아보기)'를 시청하시기...
-
23:30 Core ML 사용 최적화
Core ML이 CPU, GPU 및 Neural Engine과 함께 작동하여 기기 내에서 앱의 개인 정보를 보호하는 머신 러닝 경험을 지원하는 방법을 알아보세요. 여러분의 모델 성능을 이해하고 극대화하기 위한 최신 도구를 살펴보겠습니다. 또한 모델 성능 특성을 손쉽게 이해할 수 있도록 보고서를 생성하는 방법을 보여드리고, Core ML Instrument로 모델에 대한 통찰력을 얻는 데 도움을 드리며, 앱에서 Core ML 통합을 더욱 최적화할 수 있는 API의 향상된 기능을 안내합니다. 이 세션을 최대한 활용하려면...
-
19:48 Vision의 새로운 기능
앱에서 텍스트를 인식하고 얼굴 및 얼굴 랜드마크를 탐지하고 광학 흐름을 구현할 수 있는 Vision API의 최신 업데이트에 대해 알아보세요. 비디오 기반 앱의 광학 흐름 기능에 대해 안내하고, 이러한 API를 구동하는 머신 러닝 모델에 대한 수정을 통해 앱을 업데이트하는 방법을 소개하며, Xcode에서 훑어보기 미리보기를 지원하여 Vision 작업을 시각화하는 방법을 살펴보겠습니다. 이 세션을 최대한 활용하려면 WWDC21의 ‘Detect people, faces, and poses using Vision(Vision을...
-
29:51 Metal을 통한 머신 러닝 가속화
Metal을 사용하여 macOS에서 PyTorch 모델 학습을 더 빠르게 진행하는 방법을 확인하세요. TensorFlow 학습 지원에 대한 업데이트를 안내하고, MPS 그래프의 최신 기능 및 작업을 살펴보며, 모든 머신 러닝 요구 사항에 맞는 탁월한 성능을 실현하기 위한 모범 사례를 소개합니다. 머신 러닝과 Metal의 사용에 대한 자세한 내용을 알아보려면 WWDC21의 ‘Accelerate machine learning with Metal Performance Shaders Graph(Metal 성능 셰이더 그래프를 통한...
-
17:19 머신 러닝 개발 경험 살펴보기
우수한 머신 러닝(ML) 기반 경험을 앱에 제공하는 방법을 알아보세요. 모델 검색, 변환, 학습에 대해 안내하고, ML을 위한 팁과 모범 사례를 제공합니다. 또한 ML 과정을 시작할 경우 고려해야 할 사항을 소개하고, 모델 성능을 평가하기 위한 기술을 시연하며, 모델을 조정하여 기기에서 실시간 성능을 확보하는 방법을 알아보겠습니다. 이 세션에서 다루는 기술에 대해 자세히 알아보려면 WWDC22의 ‘Optimize your Core ML usage(Core ML 사용 최적화)'와 ‘Accelerate machine...
-
-
Tech Talks -
15:48 Improve Object Detection models in Create ML
When you train custom Core ML models for object detection in Create ML, you can bring image understanding to your app. Discover how transfer learning allows you to build smaller models with less training data. We'll also take you through some of the advanced parameters in Create ML that help you...
-
23:48 Explore and manipulate data in Swift with TabularData
Discover how you can use the TabularData framework to load, explore, and manipulate unstructured data in Swift — whether you need to pre-process data for a machine learning task or digest data on-the-fly in your app. Learn how this framework can help you handle large datasets, join multiple...
-
25:18 Convert PyTorch models to Core ML
Bring your PyTorch models to Core ML and discover how you can leverage on-device machine learning in your apps. The PyTorch machine learning framework can help you create and train complex neural networks. After you build these models, you can convert them to Core ML and run them entirely...
-
-
WWDC21 -
19:16 Discover built-in sound classification in SoundAnalysis
Explore how you can use the Sound Analysis framework in your app to detect and classify discrete sounds from any audio source — including live sounds from a microphone or from a video or audio file — and identify precisely in a moment where that sound occurs. Learn how the built-in sound...
-
17:58 Detect people, faces, and poses using Vision
Discover the latest updates to the Vision framework to help your apps detect people, faces, and poses. Meet the Person Segmentation API, which helps your app separate people in images from their surroundings, and explore the latest contiguous metrics for tracking pitch, yaw, and the roll of the...
-
36:34 포용적 디자인을 위한 프로세스
소프트웨어를 사용하는 모든 사용자에게 놀라운 경험을 선사할 수 있는 포용적인 앱을 제공하는 방법을 소개합니다. 다양한 팀을 구성 및 장려하는 모범 사례를 살펴보고 포용성이 디자인 및 개발 프로세스의 모든 단계에 어떤 영향을 미치는지 살펴봅니다.
-
32:44 강한 인상을 남기는 디자인
사용자가 앱에 온보딩하도록 유도하기 위해 인상적인 대화형 경험을 만드는 방법을 알아보세요. 인상적인 디자인 사례를 살펴보면서 사용자가 앱에서 제공하는 다양한 매력을 한눈에 파악할 수 있도록 재미있고 모험적인 경험을 구현하는 방법을 설명해 드립니다. 또한 이 방법으로 콘텐츠를 맞춤화하고 앱을 쉽게 맞춤화하는 방법도 보여드립니다.
-
16:49 Create ML 프레임워크로 동적 iOS 앱 구축하기
Create ML 프레임워크를 사용하여 기기에서 Core ML 모델을 완전히 학습시켜 데이터 개인정보를 보호하면서 적응형 및 맞춤형 앱 경험을 제공하는 방법을 알아보세요. 스타일 전송 및 이미지 분류와 같은 이미지 기반 작업, 사용자화 소리 분류와 같은 오디오 작업, 다양한 텍스트 분류, 표 형식 데이터 분류 및 표 형식 회귀 변수를 기반으로 하는 작업을 위해 즉시 생성할 수 있는 모델 유형을 살펴봅니다. 또한 이러한 모델을 통해 더 개성 있고 역동적인 앱을 만드는 방법도 안내해 드립니다. 더 많은 영감을 얻으려면...
-
26:49 Classify hand poses and actions with Create ML
With Create ML, your app's ability to understand the expressiveness of the human hand has never been easier. Discover how you can build off the support for Hand Pose Detection in Vision and train custom Hand Pose and Hand Action classifiers using the Create ML app and framework. Learn how simple...
-
19:12 Extract document data using Vision
Discover how Vision can provide expert image recognition and analysis in your app to extract information from documents, recognize text in multiple languages, and identify barcodes. We'll explore the latest updates to Text Recognition and Barcode Detection, show you how to bring all these tools...
-
14:22 Use Accelerate to improve performance and incorporate encrypted archives
The Accelerate framework helps you make large-scale mathematical computations and image calculations that are optimized for high-performance, low-energy consumption. Explore the latest updates to Accelerate and its Basic Neural Network Subroutines library, including additional layers, activation...
-
24:30 Tune your Core ML models
Bring the power of machine learning directly to your apps with Core ML. Discover how you can take advantage of the CPU, GPU, and Neural Engine to provide maximum performance while remaining on device and protecting privacy. Explore MLShapedArray, which makes it easy to work with multi-dimensional...
-
29:12 Accelerate machine learning with Metal Performance Shaders Graph
Metal Performance Shaders Graph is a compute engine that helps you build, compile, and execute customized multidimensional graphs for linear algebra, machine learning, computer vision, and image processing. Discover how MPSGraph can accelerate the popular TensorFlow platform through a Metal...
-
-
WWDC20 -
24:42 Use model deployment and security with Core ML
Discover how to deploy Core ML models outside of your app binary, giving you greater flexibility and control when bringing machine learning features to your app. And learn how Core ML Model Deployment enables you to deliver revised models to your app without requiring an app update. We'll also...
-
24:21 Detect Body and Hand Pose with Vision
Explore how the Vision framework can help your app detect body and hand poses in photos and video. With pose detection, your app can analyze the poses, movements, and gestures of people to offer new video editing possibilities, or to perform action classification when paired with an action...
-
26:06 Build an Action Classifier with Create ML
Discover how to build Action Classification models in Create ML. With a custom action classifier, your app can recognize and understand body movements in real-time from videos or through a camera. We'll show you how to use samples to easily train a Core ML model to identify human actions like...
-
36:27 Action & Vision 앱 알아보기
이제 머신 러닝을 활용하는 피트니스 또는 스포츠 코칭 앱을 쉽게 만들 수 있으며, 이를 보여드리기 위해 직접 제작했습니다. Create ML의 물체 인식 및 동작 분류와 Vision 프레임워크의 새로운 신체 자세 추정, 궤적 감지, 윤곽 감지 기능을 사용하여 Action & Vision 앱을 디자인한 방법을 알아보세요. 설정부터 분석 및 의견까지 게임플레이 또는 훈련을 위한 몰입형 응용 프로그램을 제작하는 방법을 살펴보고 완전한 샘플 프로젝트를 활용하여 Xcode에서 따라 해 보세요. 이 세션을 최대한 활용하려면 Vision...
-
24:35 Explore Computer Vision APIs
Learn how to bring Computer Vision intelligence to your app when you combine the power of Core Image, Vision, and Core ML. Go beyond machine learning alone and gain a deeper understanding of images and video. Discover new APIs in Core Image and Vision to bring Computer Vision to your application...
-
11:48 Build Image and Video Style Transfer models in Create ML
Bring stylized effects to your photos and videos with Style Transfer in Create ML. Discover how you can train models in minutes that make it easy to bring creative visual features to your app. Learn about the training process and the options you have for controlling the results. And we'll explore...
-
41:04 Make apps smarter with Natural Language
Explore how you can leverage the Natural Language framework to better analyze and understand text. Learn how to draw meaning from text using the framework's built-in word and sentence embeddings, and how to create your own custom embeddings for specific needs. We'll show you how to use samples...
-
31:16 Get models on device using Core ML Converters
With Core ML you can bring incredible machine learning models to your app and run them entirely on-device. And when you use Core ML Converters, you can incorporate almost any trained model from TensorFlow or PyTorch and take full advantage of the GPU, CPU, and Neural Engine. Discover everything...
-
39:35 Build customized ML models with the Metal Performance Shaders Graph
Discover the Metal Performance Shaders (MPS) Graph, which extends Metal's Compute capabilities to multi-dimensional Tensors. MPS Graph builds on the highly tuned library of data parallel primitives that are vital to machine learning and leverages the tremendous power of the GPU. Explore how MPS...
-
18:39 Control training in Create ML with Swift
With the Create ML framework you have more power than ever to easily develop models and automate workflows. We'll show you how to explore and interact with your machine learning models while you train them, helping you get a better model quickly. Discover how training control in Create ML can...
-
-
WWDC19 -
14:34 Introducing the Create ML App
Bringing the power of Core ML to your app begins with one challenge. How do you create your model? The new Create ML app provides an intuitive workflow for model creation. See how to train, evaluate, test, and preview your models quickly in this easy-to-use tool. Get started with one of the many...
-
40:38 Core ML 3 Framework
Core ML 3 now enables support for advanced model types that were never before available in on-device machine learning. Learn how model personalization brings amazing personalization opportunities to your app. Gain a deeper understanding of strategies for linking models and improvements to Core ML...
-
14:49 What's New in Machine Learning
Core ML 3 has been greatly expanded to enable even more amazing, on-device machine learning capabilities in your app. Learn about the new Create ML app which makes it easy to build Core ML models for many tasks. Get an overview of model personalization; exciting updates in Vision, Natural...
-
6:10 Advances in Speech Recognition
Speech Recognizer can now be used locally on iOS or macOS devices with no network connection. Learn how you can bring text-to-speech support to your app while maintaining privacy and eliminating the limitations of server-based processing. Speech recognition API has also been enhanced to provide...
-
20:11 Training Sound Classification Models in Create ML
Learn how to quickly and easily create Core ML models capable of classifying the sounds heard in audio files and live audio streams. In addition to providing you the ability to train and evaluate these models, the Create ML app allows you to test the model performance in real-time using the...
-
15:41 Training Object Detection Models in Create ML
Custom Core ML models for Object Detection offer you an opportunity to add some real magic to your app. Learn how the Create ML app in Xcode makes it easy to train and evaluate these models. See how you can test the model performance directly within the app by taking advantage of Continuity...
-
12:05 Training Text Classifiers in Create ML
Create ML now enables you to create models for Natural Language that are built on state-of-the-art techniques. Learn how these models can be easily trained and tested with the Create ML app. Gain insight into the powerful new options for transfer learning, word embeddings, and text catalogs.
-
39:50 Understanding Images in Vision Framework
Learn all about the many advances in the Vision Framework including effortless image classification, image saliency, determining image similarity, and improvements in facial feature detection, and face capture quality scoring. This packed session will show you how easy it is to bring powerful...
-
10:31 Training Recommendation Models in Create ML
Recommendation models for Core ML can enable a very personal experience for the customers using your app. They power suggestions for what music to play or what movie to see in the apps you use every day. Learn how you can easily create a custom Recommendation model from all sorts of data sources...
-
15:01 Building Activity Classification Models in Create ML
Your iPhone and Apple Watch are loaded with a number of powerful sensors including an accelerometer and gyroscope. Activity Classifiers can be trained on data from these sensors to bring some magic to your app, such as knowing when someone is running or swinging a bat. Learn how the Create ML app...
-
39:19 Advances in Natural Language Framework
Natural Language is a framework designed to provide high-performance, on-device APIs for natural language processing tasks across all Apple platforms. Learn about the addition of Sentiment Analysis and Text Catalog support in the framework. Gain a deeper understanding of transfer learning for...
-
29:43 Creating Great Apps Using Core ML and ARKit
Take a journey through the creation of an educational game that brings together Core ML, ARKit, and other app frameworks. Discover opportunities for magical interactions in your app through the power of machine learning. Gain a deeper understanding of approaches to solving challenging computer...
-
38:15 Text Recognition in Vision Framework
Document Camera and Text Recognition features in Vision Framework enable you to extract text data from images. Learn how to leverage this built-in machine learning technology in your app. Gain a deeper understanding of the differences between fast versus accurate processing as well as...
-
57:45 우수한 ML 경험 디자인하기
머신 러닝은 사용자가 말하는 것을 이해하고, 좋아할 만한 것을 제안하며, 새롭고 풍부한 방식으로 자신을 표현할 수 있는 새로운 경험을 가능하게 합니다. 머신 러닝은 일상적인 작업을 자동화하고 상호작용의 정확성과 속도를 개선하여 기존 경험을 개선할 수 있습니다. 앱에 머신 러닝 경험을 통합하는 방법을 알아보고 손쉽게 유용한 사용자 인터페이스를 디자인하는 실용적인 접근 방식을 배워 보세요.
-
41:25 Metal for Machine Learning
Metal Performance Shaders (MPS) includes a highly tuned library of data parallel primitives vital to machine learning and leveraging the tremendous power of the GPU. With iOS 13 and macOS Catalina, MPS improves performance, enables more neural networks, and is now even easier to use. Learn more...
-