스트리밍은 대부분의 브라우저와
Developer 앱에서 사용할 수 있습니다.
-
Platforms State of the Union
Apple 플랫폼에 새롭게 찾아온 변화들을 확인해 보세요.
챕터
- 0:00:21 - Introduction
- 0:01:35 - Apple Intelligence
- 0:09:14 - Generative Tools
- 0:21:10 - Xcode
- 0:23:58 - Swift Assist
- 0:27:44 - Swift
- 0:33:01 - Swift Testing
- 0:35:23 - SwiftUI
- 0:41:58 - RealityKit
- 0:44:17 - iOS
- 0:47:24 - iPadOS
- 0:49:30 - watchOS
- 0:52:11 - macOS
- 0:56:26 - visionOS
- 1:02:15 - Native Experiences
- 1:04:23 - Conclusion
리소스
-
다운로드
♪ ♪
Platforms State of the Union
WWDC 24 Platforms State of the Union에 오신 걸 환영합니다! WWDC는 항상 연중 흥미진진한 행사이며 저희가 준비해온 기능에 대해 기술적인 내용과 자세한 작용법을 나누고 여러분의 앱과 게임에서 실현 가능한 것을 알아보는 시간입니다 시작하기 전에 앞서 여러분의 노력과 헌신에 대해 감사의 말씀을 전하고 싶습니다 여러분이 바로 제작자,설계자,개발자로서 사람들이 매일 사용하는 훌륭한 앱과 게임을 만들어 이들이 배우고 즐기고 일하고 세상을 바꾸는데 공헌하고 있습니다 감사합니다! 저희는 전 세계 여러분과 Apple Developer Centers Developer Academies 여러분이 최초의 공간 컴퓨팅 앱과 게임을 만든 Apple Vision Pro Labs를 통해 여러분과 소통하게 되어 기뻤습니다 그 뿐 아니라 차세대의 개발자들이 Swift Student Challenge를 통해 스마트하고 창의적인 Playground에서 사회적 영향력에서 보안에 이르는 주제를 다루면서 감명을 주었습니다 여러분의 창의력, 열정, 신박한 아이디어에 계속해서 놀라움을 금할 수 없습니다 이렇게 위대하고 흥미진진한 에코시스템을 만들어 주셔서 정말 감사드려요 이제 가장 중요한 개발자 관련 발표에 대해 자세히 볼까요 우선 Apple Intelligence에 관해 Seb의 이야기를 들어보죠
올해는 개발자에게 굉장한 한 해가 될 겁니다 현재 생성형 AI 분야에서 너무나 많은 혁신이 일어나고 있고 오늘은 Apple Intelligence에 있어 중요한 장이 열리는 시점입니다 Apple Intelligence는 개인 지능 시스템으로서 강력한 생성형 모델을 저희 플랫폼에 접목시킵니다 iOS, iPadOS와 macOS는 언어와 이미지를 이해하고 생성하는 강력한 신규 기능을 얻게 되어 사용자의 개인 콘텍스트를 충분히 인지하여 사용자가 동작을 취하도록 돕습니다 이 지능은 시스템 전체의 기능과 앱에 심층적으로 통합되었으며 애초부터 개인정보보호를 염두에 두고 제작되었습니다 신규 기능을 여러분의 앱에 통합하여 가져오는 새로운 방식을 살펴보기 전에 먼저 Apple Intelligence가 어떻게 개발되었는지 그 배경을 살펴보죠 수년 동안, 저희 플랫폼은 온디바이스로 머신 러닝 태스크 실행의 선두를 달려왔으며 Apple Silicon의 역량을 최대한 활용했습니다 저희는 가능한 최대 온디바이스 실행을 하고 싶습니다 지연 시간이 낮고 더 나은 사용자 경험을 제공하니요 물론 이렇게 하면 사용자의 개인 데이터와 활동도 비공개로 보호됩니다 새 생성형 AI 모델은 매우 흥미진진하고 강력하며 로컬로 실행될 수 있는 가능성의 한계를 뛰어넘고 있습니다 Apple Intelligence는 Apple의 온디바이스 파운데이션 모델인 뛰어난 역량을 가진 대규모 언어 모델에서 시작합니다 우리는 최고의 조합을 찾고 있었어요 원하는 경험을 위해 강력하면서도 기기 자체에서 실행 가능할 만큼 작은 것을 찾고 있었죠 파운데이션 모델에서 시작하여 풀어야 할 세 가지 과제가 있었습니다 실행하고자 하는 다수의 태스크와 기능에 적합하도록 전문화하면서 iPhone과 같은 기기에 맞게 작게 만들어야 했고 가능한 최고의 추론 성능과 에너지 효율성을 제공해야 했습니다 첫 번째로 사용한 기법은 미세 조정이었습니다 이를 위해 모델에 여러 훈련 패스를 실행시켜 각 패스가 주어진 태스크를 잘 수행하도록 훈련시켰죠 태스크의 예로는 텍스트 요약, 교정 또는 메일 응답 생성이 있습니다 이러한 과정의 결과로 뚜렷이 다른 모델 세트를 얻게 되며 각 모델은 훈련받은 태스크는 뛰어나게 수행하지만 다른 태스크는 그만큼 잘 수행하지 못합니다 좀 더 효과적인 미세 조정 접근법은 어댑터라고 하는 새 기법을 활용합니다 어댑터는 모델 가중치의 작은 집합으로서 공통의 기본 파운데이션 모델 위에 오버레이됩니다 어댑터는 동적으로 로드 및 스와핑이 가능해 파운데이션 모델이 주어진 태스크에 대한 전문 능력을 즉각적으로 얻을 수 있습니다 Apple Intelligence는 광범위한 어댑터 세트를 포함하고 있으며 각각 특정 기능을 위해 미세 조정되어 있습니다 이것은 파운데이션 모델의 능력을 효과적으로 확장하는 방법입니다 다음으로 취한 단계는 해당 모델의 압축입니다 최첨단 양자화 기법을 활용하여 매개변수 당 16비트 모델을 평균 매개변수당 4비트 미만으로 축소시킴으로써 Apple Intelligence 지원 기기에 맞췄습니다 동시에 모델 품질은 유지하면서요 마지막으로 추론 성능과 효율성에 초점을 맞추어 모델이 최단 시간에 프롬프트를 처리하고 응답을 생성하도록 최적화했습니다 다양한 기술 즉, 추측성 디코딩 컨텍스트 가지치기, 그룹 쿼리 어텐션 등을 도입하여 Neural Engine을 최대한 활용하도록 조정했습니다 또한 이미지를 생성하는 확산 모델에 유사한 과정을 적용하여 여러 스타일과 Genmoji에 어댑터를 사용했습니다 이것이 온디바이스 Apple Intelligence입니다 강력하고 직관적인 통합 언어 및 확산 모델로서 탁월한 성능을 선사하고 손에 들어갈 만큼 작은 기기에서 실행됩니다 추가로 더 복잡한 데이터 논리화를 위해 대형 모델을 요구하는 고급 기능이 있습니다 그래서 우리는 Private Cloud Compute를 통해 클라우드로 Apple Intelligence를 확대하여 대규모 파운데이션 모델을 실행하게 했습니다 이러한 모델은 사용자의 개인 정보를 처리하기 때문에 Cloud Compute를 재구상해야 했고 Apple 기기의 개인정보보호 접근법을 서버로 확장시켜야 했습니다 Private Cloud Compute는 특정하게 AI를 비공개로 처리하도록 설계되었고 iOS 기초의 강화된 하위 세트를 사용하여 새 OS에서 실행되며 업계를 선도하는 Apple 운영 체제 보안을 기반으로 했습니다 모든 종류의 개인정보보호 위험을 완화하기 위해 엄밀하게 따져 전용 AI 서버에 필요 없는 기능은 생략했습니다 예로 지속적 데이터 스토리지가 있습니다 이 안전한 파운데이션 위에 우리는 서버 관리에 일반적으로 사용되는 도구를 완전히 교체했습니다 저희 툴링은 권한 기반 접근을 방지하도록 설계되었습니다 예를 들어 사용자 데이터 접근을 허용하는 원격 쉘을 방지합니다 마지막으로 Private Cloud Compute는 지능을 구동시키는 전체 머신 러닝 스택을 포함합니다 그 결과가 바로 Apple Silicon을 토대로 한 전례 없는 클라우드 보안 파운데이션입니다 먼저 Secure Enclave가 중요한 암호화 키를 보호하고 Secure Boot는 OS가 iOS와 같이 서명 및 검증을 보장하며 Trusted Execution Monitor는 서명되고 검증된 코드만 실행되도록 합니다 그리고 Attestation을 통해 사용자의 기기는 요청을 보내기도 전에 Private Cloud Compute 클러스터의 아이덴티티를 안전하게 검증합니다 각 요청에 대해 사용자의 기기는 Private Cloud Compute 클러스터와 엔드 투 엔드 암호화 연결을 설정합니다 선택된 클러스터만 요청된 데이터를 복호화할 수 있으며 요청된 데이터는 응답이 반환된 후 보관되지 않으며 Apple은 절대로 접근할 수 없습니다 하지만 여기서 끝이 아닙니다 우리는 Private Cloud Compute의 모든 프로덕션 빌드의 가상 이미지를 보안 연구자들이 점검할 수 있게 공개하여 우리의 약속을 확언하고 문제 발견 시 Apple Security Bounty를 통해 보상이 제공됩니다 둘째,사용자 기기가 점검을 위해 공개적으로 기록된 서명된 빌드를 실행하는 Private Cloud Compute 클러스터와만 통신하도록 하고 있습니다 이것은 Apple Silicon의 강력한 암호화 증명 메카니즘을 통해 검증됩니다 우리는 이것이 클라우드 AI 컴퓨팅에 대해 대규모로 배포된 보안 아키텍처 중 최첨단이라고 생각합니다 Apple Intelligence는 개인 지능 시스템으로서 이 모든 것을 결합합니다 이것은 온디바이스 의미 인덱스를 포함하여 여러 앱에 걸쳐 개인 정보를 정리할 수 있고 앱의 역량을 이해할 수 있는 App Intents Toolbox가 있어 사용자를 대신하여 이를 활용합니다 사용자가 요청을 넣으면 Apple Intelligence는 그 요청을 온디바이스 지능 스택을 통해 처리할 지 아니면 Private Cloud Compute를 통해 처리할지 정합니다 또한 의미 색인을 활용하여 각 요청을 관련 개인 콘텍스트에 연결시키고 App Intents Toolbox를 사용하여 사용자를 위해 동작을 수행합니다 지원하는 기능에 안성맞춤이도록 완벽하게 전문화되어 있습니다 가능한 최고의 성능과 에너지 효율성을 갖추도록 제작되었고 물론 시초부터 개인정보보호와 보안을 중점으로 설계되었습니다 이것이 Apple Intelligence입니다 이러한 기능을 여러분의 앱에서 실현시키기 위해 새 API를 마련했으며 여러분의 앱이 시스템 환경에 더욱 심층적으로 통합되도록 Apple Intelligence에 역량을 노출시킬 새로운 방안을 마련했습니다 먼저 언어와 이미지 기능을 보겠습니다 Writing Tools, Genmoji, Image Playground입니다 Leslie가 자세히 말씀드리죠 저희의 시스템 전역 Writing Tools는 방금 Seb가 얘기한 모델을 사용하여 사용자들이 텍스트를 재작성, 교정, 요약하도록 도와줍니다 표준 UI 프레임워크 중 하나를 사용하여 텍스트 필드를 렌더링할 경우 여러분의 앱에 자동으로 Writing Tools가 탑재됩니다! 또한 Apple의 신규 TextView 델리게이트 API를 사용하여 Writing Tools 사용 중 앱의 행위를 사용자화할 수 있습니다 예를 들어 동기화를 일시 중지시켜 Apple Intelligence가 텍스트를 처리하는 동안 충돌을 피하게 할 수 있습니다 Weebly와 같은 앱의 경우 Writing Tools는 소상공인이 새 웹사이트에 적합한 표현을 찾을 수 있도록 도와줍니다 이미지의 경우 Genmoji는 완전히 새로운 방식의 소통을 가능케 하며 사용자가 어느 순간에든 걸맞는 새로운 이모티콘을 생성할 수 있습니다 인라인 이미지를 제공하는 Apple 표준 텍스트 시스템을 이미 사용 중이라면 잘 선택하셨습니다! 한 프로퍼티만 설정하면 이제 TextView에서 키보드로 Genmoji를 입력할 수 있습니다 자세히 보면 Genmoji는 이모티콘과 다르게 처리됩니다 이모티콘은 그저 텍스트인 반면 Genmoji는 AttributedString으로 처리됩니다 이것은 수년 간 존재한 데이터 유형이며 그래픽이 있는 리치 텍스트 표시 시 사용됩니다 Apple Intelligence는 또한 시스템 전역에 걸쳐 뛰어난 새 역량을 제공하며 여러 앱에서 재미있고 독창적인 이미지를 생성할 수 있습니다 새 Image Playground API는 일정하고 재미있으며 손쉬운 경험을 제공합니다 이 API를 사용하면 사용자에게 친숙한 메시지 Keynote, 새 Image Playground 앱에서 사용되는 동일한 경험을 사용할 수 있습니다 이미지가 사용자 기기에서 생성되므로 사용자는 얼마든지 실험하고 원하는 만큼 이미지를 만들 수 있습니다 그리고 여러분의 앱에서 이 경험을 제공하기 위해 자체 텍스트 이미지 변환 모델이나 서버 설정과 해당 비용에 대해 걱정할 필요가 없습니다 사용이 얼마나 쉬운지 한 번 볼까요
전 지금 Xcode를 사용하여 Destination Video라는 앱을 제작하고 있어요 새 Image Playground API를 사용해서 사용자들이 프로필 사진으로 재미있는 아바타 사진을 사용할 수 있도록 할 거예요 그러기 위해 SwiftUI 코드를 간략하게 내 프로필 버튼에 추가해 Image Playground 시트를 설정합니다 이제 코드를 추가해서 새 이미지를 저장합니다 마지막으로 텍스트 설명을 추가해서 사용자들이 사용할 수 있는 기본 아바타를 제공합니다 이제 빌드를 눌러 실행한 다음 제 iPad에 어떻게 나오는지 한 번 볼까요? 여기 내 프로필 버튼이 있어요 이제 이걸 탭하면 Image Playground 뷰가 뜹니다 바로 이렇게 프로필에 사용할 수 있는 재미있는 아바타를 얻게 되었어요 또 사용자들은 버블을 탭하거나 저희가 제공한 프롬프트를 편집해서 무엇이든 원하는 것을 만들 수 있어요 Writing Tools, Genmoji, Image Playground는 Apple Intelligence가 제공하는 새로운 세 가지의 강력한 기능입니다 이 기능이 여러분의 앱에 통합된다면 사용자들이 즐거워할 겁니다 Apple Intelligence를 여러분의 앱으로 가져올 또다른 방법이 있어요 바로 Siri입니다! 올해 Siri는 Apple Intelligence를 통해 여러 앱 내외에 걸쳐 수백 가지의 새로운 동작을 취할 수 있으며 이중 일부는 방금 이야기한 새로운 작성 및 이미지 생성 역량을 활용합니다 이것은 저희가 상당한 개선을 App Intents에 적용해 가능합니다 App Intents는 사용자가 Siri, 단축키, 기타 시스템 경험에 대해 행동 세트를 정의하게 해 주는 프레임워크입니다 이제 App Intents는 여러분의 앱에서 Apple Intelligence를 활용할 수 있는 강력한 방법입니다 위 도메인에 대한 지원으로 시작하여 차차 더 많은 도메인을 추가할 겁니다 여러분의 앱이 기존의 SiriKit 도메인에 적합한 경우 또한 향상된 Siri의 대화 능력의 이득을 볼 겁니다 예를 들어 말을 더듬어도 정확하게 응답하고 앞서 나눈 대화 내용의 언급을 이해하는 것처럼요 또한 Siri에 새로운 기능 두 가지가 더해져 추가 작업 없이 앱이 이득을 봅니다 첫째, Siri는 앱 메뉴에서 어느 항목이든 호출할 수 있게 됩니다 그래서 슬라이드를 검토 중인 사용자가 "발표자 노트를 보여줘"라고 말하거나 좀 더 대화체로 "내 연사 노트를 좀 봐야겠어"라고 말하면 Siri는 정확히 무엇을 해야 할지 알고 있습니다 둘째, Siri는 Apple 표준 텍스트 시스템을 사용하는 모든 앱에 표시되는 텍스트에 접근할 수 있습니다 이를 통해 사용자는 화면에 보이는 텍스트를 직접 참조하여 행동을 취할 수 있습니다 따라서 사용자가 할아버지 생신 축하 알림을 본 후에 "할아버지께 FaceTime해"라고 말하면 됩니다
이것이 Siri를 통해 행동을 취하는 겁니다 이제 Apple Intelligence를 통해 Siri가 개인 콘텍스트를 이해하는 방식에 대해 이야기해 보죠 Apple Intelligence는 이제 사진, 메시지 파일, 달력 이벤트 등 사물의 의미적 색인에 접근해 전에는 불가능했던 것들을 Siri가 찾고 이해할 수 있도록 도와줍니다 또한 Siri는 이제 여러분의 앱에서 데이터를 검색할 수 있으며 색인에 App Entities를 포함시키는 새 Spotlight API를 통해 가능합니다 그리고 App Intents와 App Entities를 결합되면 사용자는 시스템 전역의 콘텐츠를 여러분의 앱이 지원하는 동작에 연결시킬 새로운 방법을 찾게 됩니다 예를 들어 사용자는 메모 앱에서 방금 작성한 내용의 요약을 Superhuman에 임시 저장된 이메일로 가져올 수 있습니다 색인의 앱 엔티티로 정의된 임시 저장 이메일을 사용하여 사용자는 대화체로 이를 참조할 수 있습니다 또한 Siri는 사용자 메모 내용을 Superhuman 앱 내에 사용자가 원하는 곳에 바로 가져올 수 있습니다 여러분이 새 App Intents와 App Entities를 제작하든 기존 SiriKit에 통합을 하든 Apple Intelligence를 통해 Siri는 그 어느 때보다 더 심층적으로 더 자연스럽게 사용자 앱의 데이터와 역량 접근을 노출시킵니다 App Intents를 사용하여 앱의 역량을 노출시키는 것이 이 통합의 핵심이며 오늘부터 이 작업을 할 수 있습니다 사용자는 Shortcuts 앱을 통해 App Intents를 즉시 사용할 수 있고 차차 Siri도 지원 도메인에 속하는 App Intents를 호출할 능력을 갖추게 될 것입니다 두 개의 도메인에 대한 App Intent 스키마는 지금 사용 가능하며 올해 후반기에 더 추가될 예정입니다 또한 소프트웨어 업데이트의 경우 인앱 동작과 방금 들으신 개인 콘텍스트 이해하기를 출시할 예정입니다 다시 Seb를 모시겠습니다 그러므로 언어와 이미지 기능, 새 Siri 모두 Apple Intelligence로 구동됩니다 여러분이 자체 모델을 실행하고 있으며 스택 하부 레벨 접근에 대해 AI 가속 하드웨어를 활용하고자 하는 경우 훨씬 더 많은 방식으로 여러분의 앱 내에서 머신 러닝과 AI를 온디바이스로 사용할 수 있습니다 더 자세한 내용은 Manasi가 전해 드립니다 우리의 내장 머신 러닝 프레임워크는 다수의 카테고리에서 지능 역량을 제공합니다 여기에는 자연 언어 처리 사운드 분석, 음성 이해, 시각 지능 API가 포함됩니다 올해 Vision 프레임워크에 완전히 새로운 Swift API가 생깁니다 이러한 프레임워크에는 전반적으로 사용 가능한 기능들이 많이 있으며 또한 Create ML을 사용해서 이러한 기능을 확장하여 추가 훈련용 데이터를 가져올 수 있습니다 예를 들어 고유한 이미지 데이터 세트가 있다면 여러분의 데이터로 우리의 이미지 모델을 증강시켜 분류와 객체 탐지를 개선할 수 있습니다 또한 Apple 프레임워크 외에도 온디바이스 AI 모델을 가져와 실행 가능합니다 다른 곳에서 개발되고 훈련된 대규모 언어 모델이나 확산 모델이 예가 되겠습니다 모든 Apple 기기에 다양한 모델이 실행 가능하며 이에는 Whisper, Stable Diffusion Mistral 등이 포함됩니다 모델을 여러분의 앱에서 실행시키도록 준비하는 데 몇 단계만 취하면 됩니다 어느 PyTorch 모델이든 Core ML Tools를 사용하여 Core ML형식으로 변환합니다 Core ML Tools에는 모델 최적화 방법이 여러 개가 있으며 Apple Intelligence에서 사용하는 다수의 기법을 활용하고 그 예로 양자화와 LLM에서의 효율적인 키 밸류 캐싱이 있습니다 그 다음 Core ML 프레임워크를 사용하여 앱 내에서 모델을 실행합니다 Core ML은 CPU, GPU, Neural Engine에 걸쳐 하드웨어 가속 실행을 최적화하고 여러분이 모델의 성능을 추가로 최적화할 수 있는 새로운 도구도 다수 제공합니다 Core ML은 iOS, iPadOS, macOS에서 앱의 일부로 AI 모델을 실행하는 데 가장 흔하게 사용되는 프레임워크입니다 머신 러닝이 아닌 태스크로 인해 앱 워크로드가 가중될 경우 머신 러닝 태스크의 실행 시점을 통제하여 전반적인 성능을 관리하는 것이 좋습니다 예를 들어 앱의 그래픽 워크로드가 상당한 경우 Metal은 여러분의 머신 러닝 태스크와 기타 워크로드를 시퀀스하는 방법을 제공하며 이 때 Metal Performance Shaders가 사용되며 최고의 GPU 성능을 얻을 수 있습니다 또한 CPU에서 실시간 신호 처리를 실행 중인 경우 Accelerate 프레임워크에 BNNS Graph가 포함되어 여러분의 머신 러닝 태스크는 지연 시간 및 메모리 관리를 더 엄격하게 통제할 수 있습니다 이제 사용 사례를 보여 드리고 새 최적화가 모델 실행을 어떻게 개선하는지 살펴보죠 여기서 Mistral Hugging Face Space의 Mistral 7B 매개변수 모델을 사용했고 Core ML Format으로 변환되었으며 Swift Transformers 패키지로 제작된 테스트용 앱에서 실행되고 있습니다 macOS Sonoma에서는 16비트 모델로 실행됩니다 macOS Sequoia의 경우 최신 4비트 양자화와 Core ML의 스테이트풀 KV 캐시 기법을 적용했습니다 모델에 간단한 질문을 했습니다 세 문장으로 ML 모델 양자화를 설명한다면? 이러한 최적화를 통해 모델은 5배 이상이나 더 빠르게 응답을 제공하고 피크 메모리를 거의 9배나 절감할 수 있습니다 양자화는 강력한 기법이지만 출력 품질에 영향을 미칠 수 있으므로 양자화 후 추가적 테스트와 조정을 권장합니다 훈련 모델과 같이 최신 개발 사항을 실험하는 분들께 Mac만한 것이 없습니다! PyTorch, TensorFlow, JAX, MLX 중 무엇을 사용하시든 모델 훈련 시 Apple Silicon의 하드웨어 가속화와 통합 메모리를 최대 활용할 수 있습니다 머신 러닝과 AI에 대한 우리의 업적은 협업의 결실입니다 우리는 연구 커뮤니티와 협력하여 최첨단 기술을 함께 발전시키고 있으며 이 연구 결과는 온라인에서 확인할 수 있습니다 AI 모델과 온디바이스 최적화의 새로운 접근법에 대해 수백 편의 논문을 출판했으며 다수가 샘플 코드와 데이터 세트를 포함합니다 또한 연구에 사용하는 다수의 도구를 오픈 소스로 공유합니다 Apple 플랫폼을 통해 온디바이스 AI를 활용할 수 있는 방법은 무궁무진합니다 머신 러닝 기술이 빠르게 발전함에 따라 Apple은 이 분야에서 최첨단 연구를 계속 추진하고 있습니다 다시 Seb에게 가보죠 이것은 여정의 시작입니다 Apple Intelligence는 여러분의 개인 기기를 위한 진정으로 강력한 지능입니다 우리는 계속해서 생성형 지능을 Apple 플랫폼의 코어로 가져오고 여러분의 앱에 통합시킬 새로운 역량을 노출시킬 겁니다 생성형 지능은 또한 우리 모두가 코드를 작성하는 방법을 바꾸고 있고 저희는 뛰어난 새 지능 역량을 개발자 도구에 추가하고 있습니다 Ken에게서 더 자세히 들어보죠
매일 전 세계 수백만 명의 개발자들이 Xcode를 사용하여 모든 Apple 플랫폼에서 아이디어를 실현하고 있습니다 Xcode는 훌륭한 Swift 코드를 작성하도록 돕고 SwiftUI로 뛰어난 경험을 만들어 내며 Apple 기기 및 OS용 Simulators에서 빠르게 실험하고 Instruments를 사용하여 상세한 성능 인사이트를 얻고 테스트 후 Xcode Cloud로 모든 사용자들에게 배포하는 작업 등을 지원합니다 이러한 모든 작업이 원활하게 이루어지므로 여러분은 집중력을 유지하여 빠르게 작업하고 창의성을 발휘할 수 있습니다 Xcode 16은 개발의 완전히 새로운 장을 열고 있으며 우리는 Apple 도구에 생성형 모델의 힘을 불어넣고 있습니다 Apple의 파운데이션 모델을 발판으로 우리는 Apple만이 제공할 수 있는 전문 지식을 담은 전문 코딩 모델을 만들었습니다 여기에는 최신 API, 언어 기능, 문서화, 샘플 코드 그리고 모든 Apple 플랫폼에서 사용되는 소프트웨어를 빌드하며 배우게 된 모범 관행들이 포함됩니다 여러분이 매일 사용하는 핵심 기능의 큰 발전으로 시작되었습니다 바로 코드 완성입니다 필요한 코드를 예측하는 혁신적인 새 엔진입니다 Swift와 Apple SDK용으로 훈련된 고유 모델로 구동됩니다 여러분의 프로젝트 기호를 사용하여 제안 사항을 사용자화합니다 Mac에서 로컬로 실행되어 코드를 비공개로 유지하며 엄청 빠른 결과를 제공하고 심지어 오프라인에서도 작동합니다 한 번 볼까요 저는 지금 전 세계의 재미있는 영상을 보여주는 앱을 제작 중입니다 다음 해야 할 일은 비디오 컬렉션을 대표하는 코드를 추가하는 것입니다 컬렉션에 이름이 필요해요 타이핑을 시작하자 마자 멋진 이름이 추천되네요 탭을 눌러 수락할게요 또 일련의 비디오를 보관할 프로퍼티가 필요해요 또다시 Xcode는 제 자체 프로젝트의 유형을 사용해서 라인을 완성합니다 다음으로 저는 정렬된 영상의 목록을 반환하는 기능이 있었음 해요 이름을 타이핑하기 시작하니 릴리스 날짜별로 일련의 비디오를 반환하는 함수가 제안됩니다 제가 수락하자마자 구현 제안도 나옵니다 제 프로젝트의 코드 외에도 Xcode는 제가 작성하는 코멘트도 콘텍스트로 사용할 수 있습니다 특정 감독의 비디오 목록을 반환하는 함수에 대한 코멘트를 추가할게요 단 몇 자를 쓰니 제가 생각하고 있던 것이 정확히 제안됩니다 다음은 캐시된 영상의 섬네일을 가져오는 함수의 시작 부분을 추가하겠습니다 제가 타이핑하며 제안된 함수 중 하나를 선택하니 모든 매개변수가 제 선택에 맞게 기입됩니다 마지막으로 제 뷰를 위해 바디를 추가하죠 Option을 누르고 있으면 예측된 코드의 여러 라인을 볼 수 있고 탭을 눌러 모두 수락합니다 Xcode의 완성 모델은 Apple Silicon과 macOS Sequoia에서 이루어진 머신 러닝 향상으로 구동됩니다 그리고 Xcode는 자동으로 모델을 다운로드해서 최신 SDK 및 언어 변경 사항으로 업데이트합니다 앱 제작은 코드 작성 그 이상이며 아이디어 전체를 코드로 변환시키는 겁니다 가장 손쉬운 변환 방법은 자연 언어 사용입니다 그래서 클라우드에서 실행되는 더 크고 더 강력한 모델을 만들었으며 Apple만이 구현할 수 있는 고유한 환경을 Xcode로 설계했습니다 Swift Assist,여러분의 모든 코딩 작업의 동반자를 소개합니다 여러분이 뭘 원하는지 정확히 알고 있든 아니면 최고의 Swift 코드를 작성하는 데 도움이 필요하든 Swift Assist는 여러분의 코딩 관련 질문에 답하고 새 API 실험 등의 태스크를 도울 수 있습니다 Swift Assist는 멋진 새로운 코딩 방식입니다 보여드릴게요 저는 항상 제 차고에 있는 클래식 Mac 컴퓨터를 카탈로그하는 앱을 만들고 싶었어요 공백 프로젝트로 시작해 Swift Assist를 띄워 원하는 것을 요청하겠습니다
Swift Assist는 프로토타이핑에 탁월하여 아이디어를 빠르게 가시화하도록 도와줍니다 여기서 이름과 세부 사항으로 클래식 Mac을 나타내는 구조를 생성합니다 게다가 미리보기에서 시각화 가능한 현실적인 샘플 데이터도 얻었습니다 시작이 참 좋군요 그럼 이미지를 몇 개 추가해 볼까요? "각 Mac 옆에 이미지 추가"라고 요청합니다 저한테는 이미 자산 카탈로그에 이미지가 몇 개 있으며 Swift Assist는 생성하는 코드에 이러한 이미지를 참조할 수 있습니다 ClassicMac 구조는 ImageName 어트리뷰트를 포함하도록 업데이트되고 그다음 샘플 데이터는 자산 카탈로그에 있는 이미지명으로 업데이트됩니다 여기까지 아주 좋습니다! 제가 클래식 Mac을 좋아하는 이유 중 하나는 바로 부팅음이에요 그 중 몇 개를 녹음해서 프로젝트에 추가했으니 이제 이걸로 재미있는 걸 해 보죠 "Mac을 탭할 때 소리 재생해 줘"라고 요청할게요 코드 완성처럼 Swift Assist는 기호와 기호 간의 관계를 포함하여 제 프로젝트의 세부 사항을 사용해 맞춤형 코드를 생성합니다 어떻게 들리는지 확인해 볼까요 좋은 추억이 떠오르네요! 마지막으로 다른 레이아웃을 시도해 보죠 목록이 아니라 그리드를 사용하면 어떻게 보이는지 볼게요
몇 분 전만 해도 그저 아이디어였던 것을 이제 제 기기에서 실행할 수 있어요 정말 멋지죠?
Swift Assist는 Apple의 최신 SDK와 Swift 언어 기능을 알고 있어 여러분의 프로젝트에 안성맞춤인 최신 버전의 모던 코드를 항상 얻을 수 있습니다 따라서 새 프레임워크 탐색과 새 아이디어를 실험하는 것과 같은 작업은 요청 하나로 가능합니다 모든 Apple 개발자 서비스와 마찬가지로 Swift Assist는 여러분의 개인정보보호와 보안을 염두에 두어 제작되었습니다 여러분의 코드는 절대 서버에 저장되지 않습니다 오직 여러분의 요청 처리에만 사용됩니다 그리고 가장 중요하게, Apple은 머신 러닝 모델 훈련에 이러한 코드를 사용하지 않습니다 Swift Assist와 새 예측 완성으로 Xcode에서 여러분의 작업이 가속화됩니다 이것은 우리 도구에 탁월한 지능을 추가하는 여정의 첫 걸음일 뿐입니다 Apple 플랫폼에서 개발하기에 참 흥미진진한 시기가 아닌가요! Xcode 16에는 또한 많은 신규 기능이 탑재되어 있으며 여러분의 생산성과 앱의 품질을 제고합니다 예를 들어 역추적 단일 뷰는 모든 스택 프레임에서 관련 코드를 찾아 한 곳에서 보여줍니다 Instruments에 있는 프로파일링 데이터의 "플레임 그래프"는 앱 성능에 대해 더 심층적인 인사이트를 제공하며 로컬라이제이션 카탈로그의 향상으로 여러분의 앱을 전 세계 더욱 많은 사람들에게 배포할 수 있습니다 Xcode 16의 첫 베타는 지금 사용 가능하며 Apple Silicon Mac을 위한 새로운 예측 완성을 포함합니다 Swift Assist는 올해 후반기에 출시됩니다 다음은 Swift에 어떤 흥미로운 변화가 있었는지 들어보죠 Ted가 자세하게 알려드립니다 Swift는 혁신적인 프로그래밍 언어로 초보자에게는 진입 장벽이 낮고 전문가들에게는 강력합니다 Swift는 빠르고 모던하며 안전하고 작성이 즐겁습니다 올해 Swift의 출시 10주년을 기념합니다! 지금까지의 여정을 돌아보고 Swift의 향후 10년에 대한 진로를 설정하기에 좋은 시기입니다 Swift 전에, Apple 기기의 소프트웨어는 주로 C, C++, Objective-C를 사용하여 작성되었어요 저희가 Swift를 만든 목적은 소프트웨어 작성 과정을 간소화하며 표현력과 안전성을 제고한 프로그래밍 언어 형성이였습니다 Swift는 앱 개발에 이상적인 언어이고 거의 100만개의 앱에서 사용됩니다 하지만 Swift는 앱만에만 좋은 것이 아니라 Apple은 소프트웨어 스택 전반에 걸쳐 Swift를 사용합니다 앱에서부터 시스템 서비스. 프레임워크 쭉 내려가 Secure Enclave와 같은 펌웨어에서도 사용합니다 또한 Private Cloud Compute처럼 네트워크 서비스에서도 사용됩니다 Swift가 계속해서 진화하면서 성능과 보안에 가장 민감한 코드에도 매력적인 선택지가 되고 있습니다 Swift의 안전, 속도, 낮은 진입장벽과 C 및 C++ 내장 상호운용성과 결합되면서 Swift는 C++를 이을 최고의 선택지가 됩니다 Apple은 C++의 코드베이스의 Swift 도입에 전념하고 있습니다 Swift로 바꾸면 소프트웨어 품질이 제고되며 Apple뿐 아니라 업계의 전반에서도 향상됩니다 Swift의 향후 10년을 내다보면서 우리는 오픈 소스 커뮤니티와 협업하여 Swift가 더 많은 플랫폼과 도메인에서 사용되도록 노력하고 있습니다 우선, 개발자들의 편리를 위해 우리는 Visual Studio Code와 언어 서버 프로토콜을 활용하는 기타 에디터에서 Swift를 사용하도록 투자하고 있습니다 또한 Debian과 Fedor가 포함되도록 Linux 지원을 확대하고 Windows 지원도 개선하고 있습니다 Swift.org에는 여러 도메인에 걸쳐 Swift를 사용하는 것에 대해 커뮤니티가 작성한 다양한 안내가 있으며 예로, Vapor를 사용한 웹 서비스 제작이 있습니다 커뮤니티는 Swift의 성공의 핵심입니다 오픈 소스 라이브러리와 도구는 여러분이 방대한 소프트웨어 에코시스템에 걸쳐 Swift를 사용하여 제작하는 너무나 수많은 것의 토대입니다 커뮤니티 지원을 확대하고 협업을 더욱더 증진하고자 Swift 전용의 새 GitHub 조직을 기쁘게 발표합니다 github.com/swiftlang을 참조하세요 이 새 조직은 Swift 에코시스템에 대한 여러 주요 프로젝트를 호스팅할 것이며 여기에는 Swift 컴파일러뿐 아니라 Foundation 및 기타 주요 라이브러리가 포함됩니다
또한 올해는 새로운 흥미진진한 릴리스인 Swift 6가 출시되는 해입니다 Swift 6를 통해 동시성 프로그래밍이 극적으로 쉬워지며 데이터 레이스 안전의 도입 덕분입니다 데이터 레이스는 코드의 서로 다른 부분이 동일한 데이터를 동시에 수정하고 접근하려 할 때 발생합니다 Swift 6는 컴파일 시 이러한 버그를 진단하여 제거합니다 어싱크/어웨이트, 구조적 동시성, 액터 도입 후 Swift는 완전한 데이터 레이스 안전에 필요한 빌딩 블록을 점차적으로 획득했고 새로운 Swift 6 언어 모드에서 정점을 이루어 컴파일 시 데이터 레이스 안전을 가능케 합니다 데이터 레이스 안전으로 인해 코드가 변경될 수 있으므로 새 Swift 6 언어 모드는 선택사항입니다 여러분이 코드의 데이터 레이스 문제를 해결할 준비가 되었을 때 언제든 쓸 수 있습니다 Swift 6 언어 모드를 사용하면 컴파일러는 프로젝트에 걸쳐 메모리에 대한 동시 접속을 진단하고 경미한 코드의 변경으로 많은 데이터 레이스 안전 오류를 수정할 수 있습니다 Swift 6로 한 번에 한 모듈씩 점진적으로 마이그레이션할 수 있습니다 의존성의 마이그레이션을 기다릴 필요도 없고 마이그레이션 후에도 여러분이 새 언어 모드를 사용하기로 결정 할 때 까지는 코드를 바꾸지 않아도 됩니다 Swift 6로 마이그레이션하는 모든 모듈이 커뮤니티 전체의 이행에 기여하여 Swift 소프트웨어 에코시스템에 데이터 레이스 안전을 제공합니다 오픈 소스 패키지를 Swift 6로 업데이트하므로 여러분들이 도울 수 있습니다 그리고 모든 분들이 Swift 6 도입에 참여할 수 있습니다 가장 많이 쓰이는 패키지를 SwiftPackageIndex.com에서 찾아보세요 swift.org에는 또한 마이그레이션 가이드가 있어 데이터 레이스를 제거하기 위한 최선의 코드 수정법에 관한 인사이트와 패턴을 제시합니다 Swift 6의 컴파일 시점 데이터 레이스 안전은 코드의 안전을 고도화하고 향후 유지보수성을 보장합니다 그외에도 Swift 6에는 많은 흥미진진한 발달이 이루어지고 있습니다 동시성, 제네릭이 개선되었을 뿐 아니라 새로운 "Embedded Swift" 하위 세트는 제약 사항이 많은 환경을 대상으로 해 운영 체제 커널 및 마이크로컨트롤러에 사용 가능합니다
소프트웨어 개발의 중요한 또다른 측면은 테스트 작성입니다 완전히 새로운 테스트 프레임워크를 소개해 드리게 되어 기쁩니다 시초부터 Swift 전용으로 새로 제작된 프레임워크로 걸맞는 명칭의 Swift Testing입니다 Swift Testing에는 간단하게 테스트를 작성할 수 있는 표현형 API가 있습니다 배우기도 쉽고 크로스 플랫폼이라 다양한 플랫폼과 도메인에 대한 테스트를 작성할 수 있습니다 Swift Testing은 또한 오프 소스 패키지로 개발되었습니다 9개월 전에 출시되었는데 커뮤니티 피드백이 매우 유용했습니다 테스트 작성은 단순히 테스트 어트리뷰트의 함수를 테스트 스위트에 추가하므로 시작됩니다 친숙한 제목을 지정하고 'expect'와 같은 마크로를 사용해서 Swift 표현의 결과를 평가하면 되니 복잡한 체크를 작성하는 것이 쉬워집니다 Swift Testing은 또한 유연한 태깅 시스템을 포함하고 있어 테스트 및 테스트 계획 정리를 돕습니다 태그를 사용하면 테스트 스위트 전체에 걸쳐 선택적으로 테스트 실행이 가능합니다 즉 특정한 모듈을 사용하거나 특정 기기에서 실행되는 테스트처럼요 소량의 코드로 손쉽게 테스트를 매개변수화할 수 있어 테스트를 여러 번 재사용할 수 있고 일련의 밸류 시퀀스에서 동일한 로직이 반복됩니다 Xcode 16에 Swift Testing 지원이 전적으로 갖춰져 있습니다 테스트 내비게이터는 테스트를 태그별로 정리하고 매개변수화된 테스트를 보여주며 소스 에디터의 리치 인라인 프레젠테이션은 테스트가 실패할 경우 무엇이 잘못되었는지 진단을 돕습니다 Swift Testing은 Swift가 제공하는 동시성의 파워를 최대한 활용하여 모든 테스트를 안전하게 병행합니다 모든 Swift의 사용 사례에 맞게 설계되었으며 Xcode와 Visual Studio Code 둘 다에 지원이 통합되어 있습니다 Swift는 우리 모두가 더 안전하고 개선된 코드를 작성하도록 보조하였고 저희는 Swift를 통해 전 세계의 소프트웨어가 변혁하는 것을 고대하고 있습니다 Swift와 Apple의 프레임워크가 함께 나아가므로 전례 없는 수준의 생산성과 표현력을 갖추게 되며 SwiftUI와 함께하면 그 어디에서보다 더 강력한 힘을 발휘하게 됩니다 Josh가 자세히 말씀 드리겠습니다 SwiftUI는 어느 Apple 기기이든 앱을 제작하는 최고의 방법입니다 Swift 언어와 마찬가지로 SwiftUI는 배우기 쉽지만 고급 기능이 잔뜩 있습니다 SwiftUI는 여러 기기에 걸쳐 작동하고 기본 OS와 원활하게 통합하는 앱을 제작한 고도 경력에 기반하여 설계되었습니다 SwiftUI로 앱을 작성할 때 희망하는 UI를 설명하는 것에 집중하면 SwiftUI가 다크 모드, 동적 유형 모델의 변경 사항 추적과 같은 세부 사항을 처리해 줍니다 빌드 방법이 아니라 여러분의 희망 사항을 표현 가능케 하여 SwiftUI를 통해 더 많은 기기에서 여러분의 코드를 추가로 공유할 수 있습니다 물론 Swift가 제공하는 룩앤필을 언제든지 수정자 및 프로토콜의 대규모 세트로 사용자화하고 미세 조정할 수 있어 정확히 원하는 결과물을 얻을 수 있습니다 완전 새로운 앱을 빌드하든 기존의 앱에서 새 기능을 빌드하든 SwiftUI는 최적의 도구입니다 Apple 또한 SwiftUI를 바로 그 용도로 사용하고 있습니다 시초부터 SwiftUI를 사용하여 완전히 새로운 앱들을 빌드했고 예로 세련된 사용자화 인터페이스를 갖춘 완전히 새로운 앱, Image Playground가 있고 좀더 표준의 룩앤필을 가진 새 Passwords 앱도 친숙한 양식과 컨트롤을 중심으로 빌드되었습니다 SwiftUI는 기존 앱의 새 기능 제작에도 사용됩니다 예로 새롭게 디자인된 사진이 있으며 SwiftUI로 재설계된 요소가 포토 그리드와 같은 기존의 뷰와 나란히 실행됩니다 또한 SwiftUI를 통해 여러 플랫폼에서 코드를 더 공유할 수 있게 되었습니다 음악처럼요 맨 처음에는 visionOS와 tvOS에만 SwiftUI를 도입했지만 이제는 iOS 및 iPadOS에 걸쳐 코드베이스를 통합하고 간소화하는 목적으로도 사용하고 있습니다 Apple의 플랫폼 전반에 걸쳐 최근 몇 년간 엄청난 수의 앱과 경험에 SwiftUI가 도입되고 있습니다 SwiftUI가 사용되는 곳은 앱, Xcode, Pages, 음악 등 또 핵심 시스템 경험, 제어 센터, 알림 센터, Finder 등이 있습니다 watchOS에서도 SwiftUI가 광범위하게 사용되었습니다 운동, 활동, 수면과 같은 주요 앱에요 visionOS의 경우 SwiftUI는 공간 앱 빌드에 완벽한 선택지입니다 SwiftUI가 점점 더 많은 곳에서 사용되면서 우리는 계속해서 개발자 경험에 다년간의 투자를 하고 있습니다 올해는 미리 보기, 사용자화, 상호운용성을 중점으로 잡았습니다 첫째, Xcode Previews에 새로운 동적 연동 아키텍처는 미리보기, 빌드 및 실행에 사용되는 동일한 빌드 아티팩트를 사용합니다 따라서 두 가지 간 전환 시 프로젝트 리빌드를 피할 수 있고 훨씬 더 매끈하고 생산적인 워크플로가 가능해 집니다 이제 Previews도 더 쉽게 설정할 수 있습니다 새 @Previewable 매크로를 사용하면 @State와 같은 동적 프로퍼티를 Xcode Preview에 바로 사용할 수 있어 작성해야 하는 코드의 양을 줄여줍니다 SwiftUI에 또한 다수의 사용자화가 추가되어 여러분의 앱의 룩앤필을 미세 조정할 수 있습니다 visionOS의 맞춤 마우스 오버 효과는 UI 요소와 상호작용할 때 사용자에게 추가 콘텍스트를 제공하고 macOS에서 창의 행위와 스타일링을 사용자화하는 새 옵션은 창의 툴바와 배경 등을 제어할 수 있도록 하며 새로운 텍스트 렌더러 API는 완전히 새로운 차원의 시각적 효과와 재미있는 애니메이션을 선사합니다 SwiftUI를 도입하는 많은 앱들이 UIKit와 AppKit로 작성된 뷰를 사용하므로 이러한 프레임워크와의 뛰어난 상호운용성은 아주 중요합니다 이를 달성하려면 프레임워크 자체와의 심층적 통합이 요구됩니다 올해 자사의 모든 UI 프레임워크는 공통의 파운데이션을 더욱 공용하게 됩니다 제스처 인식이 UIKit에서 제거되었기 때문에 아무런 내장 또는 사용자 지정 UIGestureRecognizer를 여러분의 SwiftUI 뷰 계층에서 사용할 수 있습니다 이는 심지어 UIKit가 직접 지원하지 않는 SwiftUI 뷰에서도 사용 가능합니다 메탈 가속화된 드로잉 그룹의 SwiftUI 뷰처럼요 또한 애니메이션이 SwiftUI에서 제거되어 이제는 UIKit 또는 AppKit 뷰에서 애니메이션을 설정한 다음 완전 사용자화된 애니메이션을 비롯하여 이를 SwiftUI로 구동할 수 있습니다 물론 올해 훨씬 더 많은 흥미롭고 유용한 기능이 SwiftUI에 준비되어 있습니다 사용자 지정 컨테이너, 메시 그라디언트, 스크롤링 사용자화 등 아주 많습니다 SwiftUI를 이미 여러분의 앱에 사용하고 있지 않다면 기다릴 이유가 없습니다 SwiftUI는 여러분이 원하는 사용자 인터페이스가 무엇이든 더 적은 양의 더 나은 코드로 빌드를 도울 준비가 되어 있습니다 Swift 프로그래밍 언어는 API의 생산성과 표현력이 얼마나 뛰어난지에 대해 혁명을 불러일으켰습니다 표준 라이브러리와 파운데이션에서 SwiftUI와 새 Swift Testing에 이르기까지 Swift용으로 설계된 API는 사용이 훨씬 더 쉽고 업무 생산성을 더 높입니다 작년에 자사는 SwiftData를 이 목록에 추가하여 Swift에서 완전히 자연스럽게 느껴지는 경량 API를 사용하여 앱 정보를 모델링하고 지속시키도록 도왔습니다 일반 Swift 클래스에 단 몇 가지만 추가하여 @Model 매크로 적용으로 시작하여 스키마를 정의할 수 있습니다 이렇게만 해도 충분하지만 @Attribute를 사용해 프로퍼티에 행위를 지정하고 @Relationship으로 모델 간 관계 설명처럼 추가 미세 조정을 할 수 있습니다 올해 우리는 SwiftData의 단순 구문과 모델링 역량에 #Index와 #Unique를 추가하여 계속 확장하고 있습니다 #Index는 쿼리의 효율성을 높이며 기반 스토리지에게 흔히 어떤 프로퍼티가 같이 쿼리되는지 전달하여 이를 빠르게 저장하고 검색할 수 있습니다 #Unique는 프로퍼티 세트에 중복 내용이 있어서는 안 된다고 표시합니다 또한 새로운 @Previewable 매크로는 SwiftData에서도 잘 작동하여 뷰에서 반복하는 동안 쿼리 작업을 더 쉽게 할 수 있습니다 이러한 구문 추가 외에도 SwiftData는 또한 데이터 저장과 변경 사항 기록 방식에 있어 사용자 지정 데이터 스토어부터 시작하여 역량이 확대되었습니다 오늘날의 앱은 다양한 스토리지 백엔드를 사용하여 제작됩니다 기본적으로 SwiftData는 Core Data를 사용하여 정보를 저장합니다 사용자 지정 데이터 스토어로 여러분이 선택하는 대체 백엔드를 사용하여 데이터를 저장할 수 있습니다 이로써 SwiftData의 API를 백엔드와 같이 사용할 수 있어 SQLite 원격 웹 서비스 또는 단순히 JSON 파일의 매핑 컬렉션을 사용할 수 있습니다 정말 유연합니다 SwiftData로 이제는 데이터 스토어의 변경 이력도 볼 수 있습니다 데이터 스토어의 이력은 기존 데이터에 발생한 모든 변경 사항을 기록하므로 일어난 모든 변경 사항을 손쉽게 점검할 수 있습니다 원격 웹 서비스에 동기화되어야 하는 로컬 변경 사항 추적 시 유용합니다 이러한 새 기능들로 데이터 작업은 그 어느 때 보다 더 쉬워졌으며 모두 Swift에서 아주 자연스럽게 느껴지는 API를 사용합니다 이제는 매력적인 3D와 공간 경험 제작을 돕는 핵심 프레임워크인 RealityKit를 보겠습니다 RealityKit는 다양한 스타일로 3D 모델 렌더링을 간소화합니다 예로 현실적, 셀 셰이디드, 카툰이 있습니다 RealityKit는 맨 처음에 iPhone iPad, Mac에 탑재되었으며 Vision Pro의 출시로 상당한 신규 기능을 얻게 되었고 완전히 새 도구인 Reality Composer Pro도 갖추게 되었습니다 이것은 공간 앱 개발을 간소화했지만 visionOS에서만 지원됐습니다 올해, 이러한 API와 도구는 macOS, iOS, iPadOS뿐 아니라 RealityKit 4와도 호환되어 이러한 모든 플랫폼을 대상으로 한 번에 쉽게 빌드할 수 있습니다! 여러분이 예상하는 모든 것 MaterialX, Portals, Particles를 비롯해 이제 RealityView와 함께 이 모든 네 개의 플랫폼에서 사용 가능합니다 여기에는 리치 자료와 가상 조명용 API도 포함되어 여러분의 3D 객체가 어떻게 나타나고 사용자의 환경과 어떻게 상호작용하는지에 대해 창의적 지휘권을 제공합니다 마찬가지로 새로운 API 및 도구인 형태 블렌딩, 역기구학, 애니메이션 타임라인 등은 캐릭터 애니메이션 능력을 확장하여 주변 환경과 사용자 행동에 역동적이고 반응적인 상호작용을 가능케 합니다 RealityKit 4는 또한 렌더링에 더 직접적인 액세스를 제공합니다 하위 레벨 메시 및 텍스처용 새 API는 Metal Compute Shaders와 함께 작동하여 앱의 룩에 대해 향상된 지휘권을 제공하며 모든 프레임에서 완전히 역동적인 모델과 텍스처 표현이 가능합니다 visionOS에서 이러한 기능은 Shared Space와 앱의 Full Space 모두에서 작동합니다 또한 Xcode의 뷰 디버깅이 3D 장면 콘텐츠의 인트로스펙션을 지원하여 RealityKit 콘텐츠를 검사하는 것이 더 쉬워졌습니다 장면의 객체 계층을 조사하고 RealityKit에 내장된 프로퍼티와 여러분이 생성하는 사용자 지정 컴포넌트까지 모든 요소의 프로퍼티를 점검할 수 있습니다 Swift와 SwiftUI, SwiftData, RealityKit와 같은 프레임워크와 함께 Apple의 SDK를 통해 손쉽게 훌륭한 몰입형 앱을 만들 수 있습니다 또한 앱의 영향력을 시스템 공간까지 확장하는 강력한 API가 포함되어 기반 플랫폼과의 심층적 통합을 가능케 합니다 올해 OS 릴리스 중 가장 최신 역량을 일부 살펴보죠 iOS부터 Jonathan이 알려드립니다
Apple Intelligence 외에도 Apple의 모든 플랫폼 전반으로 다수의 신규 API가 출시되어 여러분께 더욱 많은 가능성을 열어드립니다 iOS부터 시작하죠 올해 iOS는 그 어느 때보다 사용자화가 더욱더 가능하며 컨트롤부터 적용됩니다 이를 통해 앱에서 자주 사용하는 태스크에 더 빨리 더 쉽게 접근할 수 있으며 시스템 전반에 걸쳐 더 많은 곳에서 앱과 소통하는 훌륭한 방법입니다 컨트롤은 설정을 토글하거나 동작을 실행하거나 특정한 경험으로 바로 딥링크할 수 있습니다 새로운 Controls API를 사용하여 컨트롤을 생성하려면 유형,기호, App Intent를 지정하면 됩니다 컨트롤이 정의되면 사용자는 이 컨트롤을 새 Controls Gallery에서 사용할 수 있고 여기에서 손쉬운 접근을 위해 Control Center에 추가할 수 있습니다 사용자는 또한 컨트롤을 iPhone 15 Pro의 동작 버튼에 지정하거나 처음일 경우 잠금 화면의 컨트롤 중 하나로 나타나게 할 수 있어요 카메라를 활용하는 앱의 경우 새로운 LockedCameraCapture 프레임워크는 기기가 잠긴 상태에서도 캡처가 가능하게 합니다 이제 iOS가 더 사용자화되고 있는 또다른 방법에 대해 이야기해 보죠 홈 화면입니다 앱 아이콘과 위젯은 이제 라이트, 다크 또는 틴트 모드로 표시될 수 있습니다 우선 앱 아이콘의 틴트 버전은 iOS 18로 업그레이드 후 사용자에게 자동으로 제공됩니다 이 설정은 모든 앱 아이콘에 적용되고 지능적으로 제작되어 여러분의 디자인 의도를 보존하고 가독성을 유지합니다 그 결과 홈 화면 전체에 걸쳐 일정한 시각적 경험이 제공됩니다 어느 아이콘 렌더링 방식이든 각 버전을 사용자화해서 항상 멋져 보이게 만들 수 있습니다 Human Interface Guidelines에 최신 아이콘 템플릿 및 여러분의 아이콘에 이러한 새 외양을 적용하는 모범 관행이 나와 있습니다 준비가 되었다면 Xcode가 이제 다크 및 틴트 앱 아이콘 변형을 지원하므로 여러분은 이러한 변형을 자산 카탈로그에 바로 추가할 수 있습니다 시스템의 전체로 컨트롤을 확장하는 것에서 앱 아이콘과 위젯이 최고의 비주얼을 자랑하기까지 iOS 18은 사용자의 앱 경험을 사용자화하는 멋진 신기술을 제공합니다 이제 보안에 대해서 이야기해 보죠 2년 전에 iOS는 패스키에 대한 지원을 추가했습니다 패스키는 암호를 대체하며 더욱 안전하고 사용이 용이하며 피싱이 불가능합니다 또한 로그인을 가속화하고 패스워드 재설정 횟수가 줄어들며 지원 비용도 내려갑니다 올해 Apple은 더 많은 사용자들이 패스키로 원활하게 환승할 수 있는 새 API 등록을 고안해냈습니다 적격 사용자가 다음에 여러분의 앱에 로그인할 때 자동으로 패스키를 생성하여 향후 로그인의 속도와 보안이 향상됩니다 패스키 생성 후 사용자에게 패스키가 저장되었다는 알림이 진행 중인 작업에 방해 없이 표시됩니다 이미 패스키를 도입하였고 자동 패스키 등록을 추가하려면 새 매개변수 한 개만 넣으면 됩니다 지금이야말로 여러분의 앱에서 패스키로 환승할 최적의 시점입니다 물론 이러한 모든 기능은 iPadOS에서도 제공됩니다 올해 iPadOS에서는 사용자가 앱과 상호작용하는 방식이 크게 업데이트되었습니다 먼저, 재설계된 탭 바입니다 탭 바가 앱 상단에 떠 있어 즐겨찾는 탭으로 순식간에 이동하고 자세한 것을 보고싶을 때는 사이드바로 바뀝니다 Apple TV 채널을 탐색할 때처럼요 사용자화, 메뉴, 드랙앤드롭처럼 중요한 상호작용 빌드를 간소화하는 API가 새롭게 출시되어 코드를 덜 사용하고도 더 많은 것을 달성할 수 있습니다 여러분의 앱 계층이 단순하다면 그저 탭 바를 도입하면 됩니다 심화된 계층의 경우 탭 바와 사이드바를 동일한 API로 구현할 수 있으며 심지어는 사용자들이 탭 바 내용을 사용자화하게 허용할 수 있습니다 탭 바가 매끈하게 사이드바로 변하는 것을 보셨죠 이러한 향상된 애니메이션은 여러분의 앱에도 적용 가능합니다 예를 들어, 사용자들은 사진 앱의 확대 트랜지션을 마음에 들어 했습니다 터치로 정확하게 제어되고 진행 중 인터럽트도 가능합니다 인터럽트 가능한 애니메이션은 사용자가 UI를 탐색하는 동안 앱이 반응한다는 느낌을 지속시켜 주며 다음 상호작용 전에 애니메이션 완료를 기다릴 필요가 없기 때문입니다 이 똑같은 인터럽트 가능한 매끄러운 확대 트랜지션을 여러분의 iOS 및 iPadOS 앱에서도 활용할 수 있습니다 이 기능은 메모와 같은 앱에 사용하기 좋습니다 메모는 이제 Gallery 뷰에서 멋진 애니메이션과 함께 열리고 핀치로 닫을 수도 있습니다 새로운 확대 트랜지션은 업데이트된 Document Launch View와 사용 가능하고 여러분의 앱에 대해 맞춤형 룩을 만들어 여러분의 브랜드와 출시 경험을 연결시킬 수 있게 해 줍니다 동작을 사용자화하고 배경을 바꾸고 재미있는 애니메이션 자산으로 헤더에 활력을 불어넣을 수 있습니다 이러한 기능은 iOS와 iPadOS에서 앱의 시스템 통합과 고객 경험을 향상시키기 위해 여러분이 활용할 수 있는 API 개선사항 중 몇 가지일 뿐입니다 이제 watchOS로 넘어가죠 Lori가 자세하게 설명드리겠습니다 Apple Watch는 사람들이 하루에서 가장 중요한 정보를 손쉽게 한 눈에 파악할 수 있는 가장 쉬운 방법입니다 어느 Watch 화면에서든 관련 인사이트와 동작은 Digital Crown 스크롤 한 번으로 접근 가능합니다 올해 watchOS 11은 여러분의 앱에서 Smart Stack으로 매력적인 경험을 가져올 기회를 훨씬 더 많이 제공하며 새 API와 이미 작성한 코드를 활용하면 됩니다 사실 올해 watchOS에서 선보이는 가장 멋진 기능 중 하나는 iOS의 Live Activities에서 시작됩니다 여러분의 iOS 앱에서 이미 Live Activities를 도입했다면 시스템은 여러분이 이미 수행한 작업을 활용하여 Dynamic Island를 지원하고 Live Activity 경험을 Apple Watch에서 제공합니다 Watch 착용자들은 콤팩트 선행 뷰와 후행 뷰를 자동으로 Smart Stack에서 볼 수 있게 됩니다 중요한 이벤트 알림도 마찬가지로 볼 수 있어요 Xcode16에서 All Variants Preview를 사용하여 여러분의 Live Activity가 watchOS에서 현 Live Activity Widget Configuration으로는 어떻게 표시될지 볼 수 있습니다 또한 소규모 보조 활동군 지원을 표시하여 사용자화 watchOS 프레젠테이션도 추가할 수 있습니다 고객에게 훌륭한 watchOS 경험을 제공하는 것은 @Environment를 사용해 Apple Watch에 표시되는 Live Activity 뷰를 추가로 사용자화하는 것만큼 간단합니다 watchOS 앱을 이미 제작했거나 빌드할 계획인 경우 시간을 더 잘 지키고 콘텍스트에 알맞게 기능성을 드높이기 위해 watchOS 11 위젯의 확장된 능력을 활용할 수 있습니다 이제 여러분의 상호작용 위젯을 watchOS로 가져올 수 있으며 iOS와 macOS에서 현재 사용하는 동일한 API를 사용하면 됩니다 App Intents를 사용하면 위젯에서 직접 동작을 수행하고 상태를 업데이트하는 상호작용 영역이 여러 개가 있는 위젯을 만들 수 있습니다 새 액세서리 WidgetGroup 레이아웃은 고객들에게 더 많은 정보와 상호작용성을 제공하는 한 가지 방법입니다 세 가지의 개별 뷰를 제공하고 앱의 여러 부분과 Button 및 Toggle 이니셜라이저 둘다에 대해 딥 링크를 제공하여 위젯을 떠나지 않고도 동작을 수행할 수 있습니다 여러분의 정보형 상호작용 위젯이 가장 유용한 순간에 표시되도록 이제 RelevantContext를 하나 이상 지정할 수 있으며 예를 들어 하루 중 시간 AirPods 연결, 위치, 루틴이 있고 이를 통해 시스템이 정확한 적시에 이를 Smart Stack에 넣게 됩니다 그리고 Double Tap을 앱에 통합시키려는 경우 handGestureShortcut이 최적의 수정자입니다 이 수정자를 사용하여 Button이나 Toggle을 앱, 위젯 또는 Live Activity의 주요 동작으로 지정하면 고객께서 빠르게 한 손으로 제어할 수 있습니다 Live Activities, 상호작용 위젯 및 콘텍스트 위젯 Double Tap 지원은 올해 watchOS 11의 신규 기능 중 단 몇 가지일 뿐입니다 다음은 Eric이 macOS의 멋진 업데이트에 대해 말씀 드리겠습니다 올해 Apple Intelligence에 대한 macOS의 지원은 Writing Tools, Genmoji, Image Playground과 같은 기능을 포함하며 여러분의 앱에 바로 통합 가능하며 참여도 높은 경험을 만들어 냅니다 또한 생산성 기능도 탑재되어 더 쉬워진 창 타일링 iPhone 미러링 등이 있으며 새로운 API를 제공하여 사용자 공간 파일 시스템 지원 및 MapKit도 크게 개선되었습니다 자, 이제 광속으로 성장하는 분야를 집중적으로 보죠 그건 바로 게이밍입니다 Metal과 Apple Silicon에서 엄청난 속도의 혁신이 이루어지면서 근본적인 전환이 일어나고 있습니다 M시리즈 칩이 장착된 모든 Apple Silicon Mac과 모든 iPad 심지어 최신의 iPhone 15 Pro에서도 플레이할 수 있는 일부 게임 유형은 예전에는 엄청난 전원을 소모하는 이산형 GPU를 가진 게이밍 전용 시스템이 요구되었습니다 이러한 "콘솔 등급" Apple 기기로 통합 게이밍 플랫폼이 탄생하였고 정밀하게 통합된 그래픽 소프트웨어와 확장 가능 하드웨어 아키텍처로 구축되었습니다 매년 빠른 속도로 성장하는 이 플랫폼은 Apple Silicon과 Metal에 새로운 발전을 기여함으로써 게이밍 경험을 더욱 향상시킵니다 여러분의 고급 게임을 이 플랫폼에 가져오고 더욱 많은 플레이어를 얻는 최상의 시작점은 바로 Game Porting Toolkit입니다 지금까지 이 툴킷에 대해 호응을 얻어 기쁩니다 Ubisoft와 같은 개발자는 그 어느 때보다 게임을 Apple 기기로 더 빨리 가져올 수 있습니다 게임 애호가들은 'Cyberpunk 2077'과 같이 최초로 고난도 Windows 게임을 Mac에서 평가할 수 있게 되었습니다 또한 정말 기대되는 점은 Whisky와 Homebrew같은 커뮤니티 프로젝트와 CrossOver와 같은 상품이 Game Porting Toolkit를 사용해서 평가 과정의 시작에 있어 더욱 많은 선택지를 제공하고 있다는 것입니다 올해, 기쁘게 Game Porting Toolkit 2를 발표합니다 이 버전은 여러분의 피드백을 기반으로 한 중대한 업데이트를 포함하고 있어 기존의 게임이든 개발 중인 게임이든 일정을 훨씬 단축시킬 수 있습니다 Toolkit에 추가된 신규 기능을 통해 더욱 정교한 게임을 Mac으로 가져오고 Mac 게임을 iPad와 iPhone에 가져와 뛰어난 사용자 경험을 선사합니다 우선, 정교한 게임을 Mac으로 가져오는 것을 살펴보죠 Game Porting Toolkit 2에서는 이제 더 많은 Windows 게임을 평가할 수 있습니다 AVX2와 같은 향상된 호환성 기술과 레이 트레이싱과 같은 고급 게임 기능 덕분이죠 따라서 Mac에서 게임의 잠재력이 어떨지 더 잘 파악할 수 있습니다 또한 Metal이 요청이 많았던 API 개선 사항을 추가하여 DirectX 개발자들의 기존 그래픽 코드 포팅을 돕습니다 예를 들어 Metal 리소스 관리는 훨씬 더 친숙하게 느껴지실 겁니다 Xcode에 요청이 많았던 또다른 기능이 추가되어 이제 여러분의 오리지널 HLSL 쉐이더의 소스를 디버깅하고 프로파일링할 수 있습니다 이 작업은 개발의 어느 단계에서든 가능합니다 게임의 오리지널 Windows 이진본 평가이든 Metal 버전 디버깅이든 상관 없습니다 최적화된 Mac 게임이 나오면 Mac 게임을 iPad와 iPhone으로 가져오는 작업은 훨씬 간단합니다 따라서 여러분의 게임을 더 많은 플레이어에게 소개할 수 있는 무대가 펼쳐집니다 사실, 전 세계의 다른 어떤 게임 플랫폼이든 개발자들이 이렇게 '데스 스트랜딩 감독판 '과 같은 게임을 휴대폰과 개인 컴퓨터를 총괄하여 1억개가 훨씬 넘는 콘솔 레벨 기기로 가지고 올 수 있는 곳이 없습니다 여러분들도 이렇게 할 수 있도록 Game Porting Toolkit 2에는 필수 단계를 안내하여 개발을 가속화하는 유용한 코드 예시가 있습니다 예를 들어 다양한 게임 하위시스템 변환법과 셰이더를 한 번만 빌드하여 모든 곳에 배포하는 방법 등이 있습니다 Game Porting Toolkit 2는 또한 여러분이 뛰어난 사용자 경험을 제작하도록 확장된 휴먼 인터페이스 가이드라인 세트를 사용하여 Apple 하드웨어를 충분히 활용할 수 있게 돕습니다 이 Toolkit에는 여러 중요한 주제로 다운로드와 설치를 간소화하는 최선의 방법 여러 디스플레이 크기에 게임 UI를 맞추는 것 게임 스타일에 맞춰 가장 용이한 터치 컨트롤 제작 등을 포함합니다 Metal의 주요 개선 사항과 업데이트된 도구 컬렉션을 게임 개발의 가장 중요한 단계에 걸쳐 제공함으로써 Game Porting Toolkit 2를 통해 Apple 플랫폼에서 멋진 게임을 만드는 일이 그 어느 때보다 간단해졌습니다 너무나 많은 새 기능들로 가득 꾸려진 최신 OS릴리스는 여러분이 오직 Apple 기기에서만 가능한 멋진 경험들을 제작하도록 도울 것입니다 Vision Pro는 이를 또 다른 차원으로 격상시켰습니다 visionOS의 새 기능에 대해 En의 얘기를 들어보겠습니다 작년 Apple Vision Pro가 WWDC에서 발표된 이래 개발자 커뮤니티의 적극적인 호응에 정말 기뻤습니다 전 세계의 개발자들은 visionOS를 위한 훌륭한 공간 앱들을 제작해 왔습니다 출시 후 단 며칠 만에 App Store에 이미 천 개 이상의 앱이 올라왔습니다 이러한 개발자들 중 일부는 iOS와 iPadOS 앱을 리컴파일하여 신속히 visionOS 공간 UI 레이아웃을 맞추고 그 위에 빌드하여 시작했습니다 예를 들어 djay의 경우, SwiftUI 기반의 iPad 앱으로 시작해 visionOS에서 실행되도록 쉽게 리컴파일링한 다음 공간 컴퓨팅을 위해 확장되었습니다 아주 훌륭한 경험입니다! 이미 visionOS 앱을 제작하였든 플랫폼 신입이든 공간 컴퓨팅은 여러분의 앱에 엄청난 기회를 제공합니다 visionOS는 수십 년간 macOS, iOS, iPadOS에서 이루어진 엔지니어링 혁신을 바탕으로 구축되었습니다 여러분이 사용하는 여러 도구와 프레임워크는 이러한 플랫폼에서 공통으로 사용되어 코드 한 줄을 한 번만 쓰면 모든 플랫폼에서 사용할 수 있는 겁니다 ! SwiftUI, RealityKit, ARKit는 최고의 visionOS 공간 앱 제작의 핵심입니다 ARKit는 여러 플랫폼에 걸친 AR 경험을 위한 코어 프레임워크로서 사용자 주변의 세계에 대해 상호작용성과 이해도가 한층 더 심화된 공간 경험을 제공합니다 대단한 영향력입니다 왜냐면 여러분의 앱이 오늘날 이 프레임워크 중 하나를 사용한다면 이미 뛰어난 공간 컴퓨팅 앱의 진로를 밟아 가는 중인 겁니다 visionOS 2가 어떻게 깊이와 공간을 전적으로 활용하여 풍부한 공간 경험을 선사하는 앱의 제작을 가능케 하는지 자세히 공유하게 되어 기쁩니다 공간 컴퓨터의 도입을 통해 volume이라고 부르는 SwiftUI 장면을 새로 제작했습니다 volume은 앱에 상호작용이 풍부한 3D 객체와 장면을 추가하는 데 편리합니다 여러 앱을 나란히 실행할 수 있으며 이로 가상 객체의 크기와 규모를 실감할 수 있습니다
이건 공간 컴퓨팅의 핵심이며 Vision Pro의 획기적인 공간 멀티태스킹을 한 차원 더 높여줍니다 visionOS 2를 통해 쉽게 volume 크기를 재설정할 수 있습니다 창과 같이 SwiftUI 장면 수정자인 windowResizability를 사용하여 volume의 크기를 컨텐츠에 알맞게 조정합니다 그리고 크기가 알맞지 않으면 이제 사용자들이 volume의 크기를 직접 조절할 수 있습니다 또한 volume이 고정 또는 동적 스케일로 표시될지 정할 수 있습니다 그러므로 3D 객체가 사용자로부터 멀어지면 크기가 지속되거나 멀어지면서 작아집니다 현실에서 물체가 보이는 것처럼요 visionOS에서는 오너먼트를 volume에 부착할 수 있고 컨트롤, 추가 정보 또는 어느 UI에든 적합합니다 이제는 오너먼트를 volume의 가장자리 어디든 유연하게 배치할 수 있어 volume의 인터페이스를 새롭고 기발한 방식으로 만들 수 있는 자유가 주어집니다 앱의 크롬과 콘텐츠와 함께 이러한 오너먼트도 동적으로 움직일 수 있어 사용자가 공간에서 걸어다니는 동안 사용자를 향하도록 조정됩니다 오너먼트와 캐릭터가 사용자의 위치에 반응하여 움직이는 것을 볼 수 있습니다 일부 개발자들에게 이러한 Volumetric API를 사전 공개했습니다 예를 들어 volume 크기 설정 API인 "1640" 사용자의 위치에 따라 오너먼트 위치 변경을 활용하는 "Dear Reality"
그리고 "Rezzil"은 어떻게 이러한 신규 용적 기능들이 모여 다른 앱의 나란한 실행과 함께 환상적인 실시간 게임 분석 경험을 제공하는지 보여줍니다 Apple Vision Pro는 사용자가 친구 및 가족과 함께 SharePlay 앱을 통해 경험을 공유하게 해줍니다 더 많은 공유 앱의 활성화를 위해 TabletopKit를 만들었습니다 탁자를 중심으로 한 합작 경험의 용이한 개발을 위한 프레임워크입니다 TabletopKit가 카드 및 장기 조작, 배치 및 레이아웃과 게임보드 정의 등 작업을 해줍니다 또한 공간 Personas와 SharePlay와 매끈하게 작동하여 사용자들이 함께 사교 게임을 즐길 수 있어요! TabletopKit는 친숙한 프레임워크와 통합하여 GroupActivities, RealityKit, SwiftUI 등 신속하게 경험을 제작하여 실행할 수 있게 합니다 "Checkmate Chronicles" 개발자들이 바로 이 신규 프레임워크를 사용하여 이 매력적인 게임 보드 경험을 제작했습니다! visionOS 2는 여기서 끝나지 않아요 완전히 새로운 Enterprise API가 공간 바코드 스캐닝 저지연성 외부 카메라 스트리밍 등등을 제공합니다 이를 통해 특정한 워크플로 사용 사례가 공간 컴퓨팅을 활용할 수 있게 됩니다 Vision Pro 입력을 업데이트 했습니다 이제 사용자의 손이 콘텐츠의 앞에 또는 뒤에 표시될지 정할 수 있어 여러분의 앱 경험에 창의성을 더할 수 있습니다 저희는 장면 이해 역량의 충실도를 상당히 확장시켰습니다 평면은 이제 모든 방향에서 탐지되며 주변의 표면에 객체도 고정 가능합니다 방을 기준으로 사용자의 주변을 고려하는 Room Anchor라는 개념을 추가하였습니다 심지어는 여러 방에 걸쳐 사용자의 움직임을 탐지할 수 있습니다 그리고 visionOS를 위한 신규 객체 추적 API로 사용자 주변에 있는 개별 객체에 콘텐츠를 부착할 수 있습니다 이 새로운 기능을 통해 물리적인 객체에 가상 지침 부착처럼 새로운 차원의 상호작용성을 더합니다 공간 컴퓨팅을 심지어 더 쉽게 사용할 수 있도록 visionOS 플랫폼의 샘플과 문서를 늘렸습니다 공간 컴퓨팅의 미래는 멋지며 여러분의 visionOS 앱을 통해\ 이 이야기의 주인공이 될 것을 장려합니다 이제 Josh에게 넘기죠
애플은 하드웨어, 소프트웨어, 서비스를 하나로 묶는 제품을 만들어 사용자들에게 진정하게 즐거운 경험을 선사합니다 저희의 지속적인 동기는 간단합니다 가장 진보되고 혁신적인 플랫폼을 구축하여 여러분이 세계 최고의 앱을 만들도록 돕는 겁니다 저희는 여러분이 고도로 통합된 앱을 제작하여 하드웨어와 소프트웨어를 최대한 활용하므로 사용자 기기의 자연스러운 확장처럼 느껴지도록 돕고 싶습니다 매 릴리즈 시 저희는 이 동기를 염두에 두고 플랫폼을 향상시킵니다 애플의 SDK로 앱을 제작하면 가능한 최고속의 성능을 얻게 됩니다 저희가 쓰는 똑같은 도구와 프레임워크를 사용하고 이는 저희 플랫폼과 제품에 미세 조정되고 최적화된 API로 구성되었습니다 바로 그 동일한 API를 통해 사용자들이 좋아하는 모든 플랫폼 기능을 직접 바로 통합할 수 있게 됩니다 예로 상호작용 위젯과 컨트롤 접근성, 동적 유형 그리고 물론 Apple Intelligence입니다 플랫폼과 심층적으로 통합한다는 것은 앱을 더 많은 곳에서 사용 가능하게 만드는 것이며 사용자들이 자신에게 맞게 앱과 상호작용할 수 있어요 또한 Apple SDK는 손쉽게 앱에 플랫폼에 걸쳐 공유되는 친숙한 룩앤필을 빌드하도록 돕습니다 이는 사용자에게 이득입니다 다른 앱을 통해 이미 알고 있는 상호작용을 재사용하게 되는 겁니다 SDK는 또한 다수의 공통 프레임워크를 공유하므로 기기에 걸쳐 대부분의 코드가 공통 행위를 표현할 수 있고 동시에 필요 시 결과를 맞춤화할 수 있습니다 그리고 Apple SDK는 올인원 툴링을 선보여 여러분이 앱 제작에 필요한 모든 것을 제공합니다 Swift, SwiftUI, Xcode를 사용하여 어떤 기기를 대상으로 하든 원하는 경험을 제작할 수 있습니다 Apple 네이티브 SDK를 직접 사용하면 이러한 이득을 얻게 됩니다 즉, 최상의 앱은 네이티브 SDK로 제작됩니다 여러분에게 그리고 수백만 명의 개발자에게 자사 SDK를 선보이게게 되어 너무 기쁩니다 이제 여러분은 세계에서 가장 발전되고 혁신적인 플랫폼에 가능한 최상의 앱을 제작할 수 있습니다 이제 Susan에게 돌아가 보죠 저희의 중대한 개발자 발표 중 몇 가지에 대해 자세히 보셨습니다 Apple Intelligence는 개인 지능 시스템으로 강력한 생성형 모델을 여러분의 iPhone, iPad, Mac의 핵심에 두며 언어와 이미지를 앱에서 생성시키는 새로운 기능과 함께 Siri도 크게 업데이트 되었습니다 개인 콘텍스트를 사용하여 유용하고 연관성 있는 지능을 제공하며 기초부터 개인정보보호가 내재되어 있습니다 Swift는 Windows와 Linux로 확장되고 있으며 Swift Assist가 여러분의 아이디어를 코드로 변환해 드릴 수 있습니다 여러분은 고차원의 문제에 집중할 수 있도록요 visionOS 2는 공간 컴퓨팅을 더욱 더 고도화하며 이는 용적 앱에 대한 향상된 지원과 강력한 신규 기업 API 및 신기술을 통해 더 쉽게 공유 앱과 게임을 제작할 수 있습니다 그리고 Game Porting Toolkit 2로 여러분의 고난도 게임을 Mac, iPad, iPhone으로 가지고 올 수 있습니다 이러한 주제를 WWDC 주에 걸쳐 진행되는 100개 이상의 심층 세션에서 탐색해 보세요 여러분의 질문에 대한 답을 Apple 엔지니어와 기타 Apple 전문가로부터 금주 내내 온라인 lab과 상담 Apple Developer Forum을 통해 얻을 수 있습니다 개발자 커뮤니티와 소통도 가능한 곳이죠! 이 모든 것은 Developer 앱과 Developer 웹사이트에서 제공됩니다 Apple 개발자 커뮤니티의 소중한 일원이 되어주셔서 너무 감사드립니다 여러분의 멋진 앱과 게임에서 이러한 기술이 실현되는 것을 고대하고 있습니다 좋은 한 주 보내세요!
이 행사는 iPhone으로 촬영되었으며 Mac으로 편집되었습니다
-
-
찾고 계신 콘텐츠가 있나요? 위에 주제를 입력하고 원하는 내용을 바로 검색해 보세요.
쿼리를 제출하는 중에 오류가 발생했습니다. 인터넷 연결을 확인하고 다시 시도해 주세요.