View in English

  • 메뉴 열기 메뉴 닫기
  • Apple Developer
검색
검색 닫기
  • Apple Developer
  • 뉴스
  • 둘러보기
  • 디자인
  • 개발
  • 배포
  • 지원
  • 계정
페이지에서만 검색

빠른 링크

5 빠른 링크

비디오

메뉴 열기 메뉴 닫기
  • 컬렉션
  • 주제
  • 전체 비디오
  • 소개
  • 소개
  • 자막 전문
  • WWDC25의 주요 발표 내용 알아보기

    쿠퍼티노 Apple Developer Center에서 라이브로 녹화된 이 최신 세션에서 WWDC25에서 발표된 주요 기능들을 심층적으로 살펴보세요. 디자이너, 개발자, 제품 관리자를 포함한 팀의 모든 구성원을 위한 세션입니다.

    챕터

    • 0:03:10 - 주제
    • 0:04:03 - 새로운 디자인 시스템
    • 0:19:16 - 새로운 디자인으로 빌드하기
    • 0:39:53 - 머신 러닝 및 Apple Intelligence
    • 1:09:03 - visionOS의 새로운 기능

    리소스

      • HD 비디오
      • SD 비디오

    관련 비디오

    WWDC25

    • 새로운 디자인으로 AppKit 앱 빌드하기
    • 새로운 디자인으로 SwiftUI 앱 빌드하기
    • 새로운 디자인으로 UIKit 앱 빌드하기
    • 앱 아이콘의 새로운 디자인 만나보기
    • 위젯의 새로운 기능
    • Apple 플랫폼의 머신 러닝 및 AI 프레임워크 살펴보기
    • Apple Silicon용 MLX 사용하기
    • Foundation Models 프레임워크 만나보기
    • Liquid Glass 만나보기
    • SwiftUI 공간 레이아웃 만나보기
    • visionOS 26의 새로운 기능
    • visionOS를 위한 비디오 경험 살펴보기
    • visionOS에서 공간 액세서리 입력 살펴보기
  • 비디오 검색…

    안녕하세요 감사합니다 멋진 하루네요 쿠퍼티노 Apple Developer Center에 오신 것을 환영합니다 제 이름은 Leah이고 Apple의 기술 에반젤리스트입니다 오늘 WWDC의 주요 발표 내용을 다시 살펴보게 되어 매우 기쁩니다 상상하실 수 있듯이 다루어야 할 내용이 정말 많습니다

    먼저, 지금 우리가 있는 곳에 대해 자세히 말씀드리려고 합니다

    Developer Center는 Apple Park의 일부로 다양한 협업 및 소통 공간 덕분에 오늘의 이벤트를 위한 멋진 장소를 제공합니다

    이 공간은 Big Sur입니다 이곳은 오프라인 프레젠테이션 스튜디오 녹음, 생방송 등 다양한 활동을 지원하도록 설계된 최첨단 공간입니다

    이와 같은 활동을 비롯한 다양한 활동을 진행할 수 있는 랩, 브리핑 룸 회의실도 있습니다

    이곳은 전 세계 4곳의 Developer Center 중 하나로 디자이너와 개발자를 위한 세션 랩, 워크숍을 진행합니다 이전에 Developer Center를 방문해 보신 분 계신가요? 멋지네요 다시 방문하신 것을 환영합니다 또한 이번이 첫 방문이시라면 만나 뵙게 되어 정말 기쁩니다

    지금 많은 분들이 온라인으로도 참석하고 계신데요 안녕하세요 함께해 주셔서 감사합니다

    이제 오늘 프레젠테이션의 배경을 간략히 말씀드리겠습니다 올해의 WWDC는 흥미진진한 발표 내용으로 가득했습니다 이제 전 세계 28개 도시에서 개발자들과 함께 주요 발표 내용을 검토하려고 합니다

    WWDC에서 다양한 플랫폼의 최신 업데이트와 모범 사례를 소개하는 100개 이상의 비디오를 공개했습니다 상상하실 수 있듯이 자세히 살펴볼 내용이 많습니다

    따라서 오늘 앞으로 2시간 동안 가장 중요한 업데이트 사항을 검토해 보려고 합니다 새로운 기능을 광범위하고 개략적으로 이해할 수 있습니다 이를 통해 여러분만의 아이디어에 영감을 얻고 비디오와 문서를 통해 더 자세히 다음에 학습할 내용을 결정하세요

    여러분과 함께 시작할 수 있기를 기대합니다 그럼, 시작하기에 앞서 이곳에 계신 분들께 몇 가지 안내 사항을 말씀드리겠습니다 아직 모르고 계셨다면 AppleWiFi 네트워크로 하루 종일 쉽게 연결을 유지하실 수 있습니다 또한 언제든지 기기를 충전해야 하신다면 모든 좌석 아래 팔걸이 앞쪽에 전원 콘센트가 있습니다

    오늘 온라인으로 참석 중인 모든 분께 말씀드립니다 프레젠테이션은 여러분만을 위한 특별한 경험으로 제공되니 프레젠테이션 중 비디오 촬영이나 라이브 스트리밍을 하지 마세요 하지만 이벤트 내내 사진은 얼마든지 찍으셔도 좋습니다 또한 이벤트가 끝나면 후속 정보를 보내 드리므로 내용을 놓칠 일은 없습니다

    이런 작은 부분들을 해결했으니 WWDC의 주요 발표 내용을 살펴보는 전체 주제를 알아보죠 여기에는 새로운 디자인 시스템 Apple Intelligence, 머신 러닝 visionOS가 포함됩니다

    마지막으로, 여러분이 기다리시던 순간이죠 일정을 확인해 보겠습니다 멋진 프레젠테이션이 많이 준비되어 있습니다

    Majo와 Curt가 새 디자인 시스템의 주요 발표 내용을 설명합니다

    이어서 Shashank가 머신 러닝과 Apple Intelligence에 관한 최신 소식을 검토합니다

    그 후에는 짧은 휴식 시간이 이어집니다 커피 한 잔을 마시거나 개발자들과 대화를 나누거나 스트레칭을 하실 수 있겠죠 마지막으로, Allan이 visionOS를 위한 공간 컴퓨팅의 새로운 소식을 공유합니다 그 후에는 쿠퍼티노에서 참석하신 여러분을 위한 친목 모임 시간이 이어집니다 간단한 다과를 즐기시면서 Apple 엔지니어 및 디자이너와 대화를 나누실 수 있습니다 정말 즐거운 시간이 될 겁니다

    일정을 모두 안내드렸으니 이제 Majo를 무대로 초대해 새 디자인 시스템을 살펴보죠

    안녕하세요, 여러분 참석해 주셔서 감사합니다 Evangelism 팀의 디자이너 Majo입니다 새로운 디자인 시스템의 개요를 여러분과 공유하게 되어 기쁩니다 새로운 디자인 시스템은 앱에 놀라운 가능성을 선사합니다

    나중에 제 동료 Curt가 그 구현에 대한 세부 사항을 안내하겠습니다

    WWDC25에서는 Apple 소프트웨어의 디자인과 느낌의 중요한 새로운 단계와 발전 사항을 발표했습니다

    새롭고 조화로운 디자인 언어로 일관성과 적응성이 더욱 뛰어나고 표현력이 풍부합니다

    완전히 새롭게 재탄생한 앱 아이콘 디자인부터 제어 항목 구조와 앱 레이아웃까지 광범위합니다

    이러한 업데이트는 다양한 플랫폼 전반에 걸쳐 앱을 위한 통합 디자인 언어를 제공합니다 새 SDK용으로 다시 컴파일하자마자 새 스타일을 확인할 수 있습니다

    오늘은 Liquid Glass의 개요와

    시스템 내 일부 주요 구성요소의 업데이트

    새 디자인과 느낌을 앱 아이콘에 적용하는 방법을 공유합니다

    이러한 업데이트의 핵심은 제어 항목과 탐색 요소를 위한 완전히 새로운 적응형 머티리얼인 Liquid Glass입니다

    이 새로운 머티리얼 세트는 실시간으로 빛을 동적으로 구부리고 형태를 만들고, 집중시킵니다

    이렇게 빛을 조각하면 제어 항목이 거의 투명해지면서도 주변과 구분됩니다

    동시에, 이 머티리얼은 유기적으로 동작하고 움직여 터치에 유동적으로 반응하고 제어 항목의 형태가

    계속 달라짐에 따라 섹션 간 전환이 매끄럽게 수행되는 가벼운 액체처럼 느껴집니다

    메뉴를 표시할 때 버튼이 전환 효과와 함께 팝업 형태로 열려 메뉴 자체와 해당 옵션들 간의 매우 명확하고 직접적인 관계를 보여 줍니다

    비슷한 의도로 제어 항목과 상호작용할 때 요소가 Liquid Glass로 들어올려져 그 아래에 있는 값을 볼 수 있도록 합니다

    Liquid Glass에는 2가지 유형이 있는데 바로 투명과 일반입니다

    투명 Liquid Glass는 영구적으로 투명하기 때문에 그 아래에 있는 콘텐츠의 풍부함이 그대로 표현되어 Glass와 아름답게 상호작용합니다

    기호와 레이블의 가독성을 충분히 높이려면 기본 콘텐츠를 어둡게 표시해 주는 디밍 레이어가 필요합니다

    일반 Liquid Glass도 있습니다 이것을 가장 많이 사용하시게 될 텐데요 적응성이 뛰어나고 다양한 조건에서 가독성을 제공합니다

    일반 Liquid Glass는 배경의 밝기를 인식하므로 플래터와 기호가 밝고 어두운 색 사이를 전환하며 잘 보이게 됩니다 이러한 동작은 일반 스타일을 사용할 때 자동으로 이루어지며 라이트/다크 모드와 관계없이 작동합니다

    고유한 브랜드를 유지하면서 Liquid Glass를 앱에 도입하려면 일반적인 시스템 구성요소를 활용하세요

    탭 막대는 앱의 최상위 섹션 간에 탐색하는 데 사용합니다

    도구 막대는 화면 수준에서 작업을 그룹화하고 탐색을 지원합니다

    시트는 간단한 콘텐츠나 작업을 모달/비모달 뷰로 제공합니다

    탭 막대부터 살펴보죠 탭 막대는 앱 개요를 한눈에 살펴볼 수 있도록 하며 다양한 섹션 간의 탐색을 지원합니다 또한 항상 표시되기 때문에 언제든지 쉽게 접근할 수 있습니다

    Liquid Glass가 앱 콘텐츠 위에 떠서 탐색을 안내하도록 새롭게 디자인되었습니다

    탭 막대는 반투명하며 스크롤 시 최소화/재확장되도록 구성할 수 있어 장소의 느낌을 유지하면서도 콘텐츠가 돋보이게 해 줍니다

    기존 탭 막대를 업데이트하는 경우 활용할 수 있는 몇 가지 새로운 기능이 있습니다

    예를 들어 새로운 검색 탭은 앱의 모든 부분에서 검색에 더 쉽게 접근하고 항상 검색을 사용할 수 있게 해 주는 전용 탭입니다

    탭 막대에는 음악 앱의 미니 플레이어 같은 액세서리 보기도 표시될 수 있습니다

    시스템은 이를 탭 막대 위에 표시하여 스타일을 일치시킵니다 스크롤 시 탭 막대가 최소화되면 액세서리 보기가 아래로 이동하여 더 많은 콘텐츠를 표시합니다

    액세서리 보기는 앱 전반에 걸쳐 계속 표시되므로 화면별 작업에 대해 사용하지 마시기 바랍니다 앱 내 다양한 부분의 요소 혼합 시 계층 구조가 불명확해지고 지속적 요소와 컨텍스트별 요소를 구분하기가 더 어려워집니다

    대신, 지원 대상 콘텐츠가 포함된 콘텐츠 영역에 유지하세요

    Curt가 모든 업데이트를 탭 막대에 적용하는 방법을 설명하겠습니다

    다음은 도구 막대입니다 화면 상단이나 하단에 정렬된 자주 사용하는 제어 항목에 편리하게 접근할 수 있습니다 또 탐색을 쉽게 이용하고 방향을 잡을 수 있도록 도와주는 동시에 Liquid Glass를 통해 콘텐츠에 초점이 유지되도록 해 줍니다

    도구 막대의 동작들을 한눈에 파악할 수 있도록 하려면 텍스트 대신에 간단하고 쉽게 인식 가능한 기호를 사용하세요

    새 디자인에선 기호를 사용한 관련 제어항목이 Glass 배경을 공유하죠

    편집이나 선택과 같은 동작에는 기호를 사용하지 않도록 하세요 이러한 동작은 기호로 쉽게 나타낼 수 없습니다

    도구 막대에 텍스트와 기호를 사용한 제어 항목이 있는 경우 혼동이나 의도치 않은 연관성을 피하기 위해 해당 제어 항목을 분리하는 것이 좋습니다

    앱에서 도구 막대가 복잡해 보인다면 동작을 간소화하고 우선순위를 정하고 그룹화할 좋은 기회입니다

    보조적인 동작의 경우 생략 기호로 표시되는 ‘더 보기’ 메뉴를 사용하세요

    도구 막대의 조정으로 인터페이스 예측/실행 가능성이 더 높아졌죠

    Liquid Glass의 도입으로 Scroll Edge Effect라는 새 유형의 처리가 필요해졌습니다 iOS의 Mail에서는 콘텐츠가 Liquid Glass 도구막대 아래로 스크롤되죠 Scroll Edge Effect는 버튼을 콘텐츠 위에 보기 쉽게 유지하죠

    플로팅 Liquid Glass 제어 항목이 있는 경우 항상 Scroll Edge Effect를 앱에 포함하세요

    하지만 앱의 도구 막대에 여러 동작이 포함되는 경우 하드 스타일을 사용하는 것이 더 좋습니다 그러면 콘텐츠 영역이 더 뚜렷하게 분리되어 가독성이 향상됩니다 iPadOS 및 macOS 앱에서 더 자주 사용됩니다

    색상은 커뮤니케이션을 향상하고 브랜드를 상기시킬 수 있습니다 하지만 색상을 너무 많이 또는 잘못된 곳에 사용하면 시각적 노이즈로 인식될 수 있습니다 Liquid Glass에 효과적으로 색조를 적용하는 위치와 방법을 살펴보죠

    색상을 조금만 일관되게 사용하는 것으로 시작하세요 강조를 통해 이점을 얻을 수 있는 주요 동작에 색상을 사용하고 단지 브랜드를 상기시키기 위해 색상을 추가하는 것을 삼가세요

    한 가지 흔한 우려 사항은 색조가 적용된 배경을 관리하는 방법이죠 도구 막대의 모든 Glass 버튼에 색조를 적용하면 산만해져서 콘텐츠에 집중하는 데 방해가 될 수 있습니다

    그 대신에, 중요한 곳에서 브랜드가 돋보이게 해 보세요 바로, 콘텐츠 영역입니다 이 접근 방식을 사용하면 도구 막대에 주의를 집중시키지 않고 앱의 고유한 개성이 계속 표현되도록 할 수 있습니다

    마지막으로, Liquid Glass에 색조를 적용할 때는 내장 색조 적용 기능을 사용하세요 뒤의 콘텐츠에 따라 색조, 밝기, 채도가 달라지는 다양한 톤을 생성합니다 의도한 색상에서 너무 많이 벗어나지 않으면서요

    또한 투명도 감소처럼 손쉬운 사용 기능에 맞게 조정됩니다 Liquid Glass를 더 뿌옇게 만들고 그 뒤에 있는 더 많은 콘텐츠를 흐릿하게 만듭니다 또한 대비를 높여서 대조적인 테두리를 추가해 요소를 강조합니다

    Liquid Glass로 앱과 상호작용하고 앱을 탐색하는 방법이 달라지는 몇 가지 방식을 살펴봤습니다 또 다른 주요 요소는 시트입니다 시트는 특정 정보를 요청하거나 간단한 작업을 제시하는 데 사용됩니다 또한 Liquid Glass를 위해 신중하게 새로 디자인되었습니다

    크기 조절이 가능한 시트는 디텐트를 기반으로 확장되는데 디텐트는 시트가 자연스럽게 놓이는 특정 높이입니다 가장 작은/중간 크기 디텐트에서는 플로팅 Glass 스타일의 새로운 삽입 부분을 사용해 사용자가 원래 컨텍스트를 유지하게 도와줍니다

    또한 전체 높이에서는 시트가 확장되고 Glass 머티리얼은 더 불투명한 머티리얼로 물러나 집중된 경험을 선사하고 사용자가 더 심도 있게 참여할 수 있도록 합니다 Curt가 앱에 이러한 동작을 적용하는 방법을 설명합니다

    사용성 관점에서 시트로 작업할 때 여러 디텐트를 지원하는 경우에만 그래버를 표시해야 합니다 크기 조절이 가능함을 나타내죠 또한 닫는 방법을 나타내는 명시적인 버튼을 사용하세요 닫기 제스처를 지원하더라도요

    이러한 구성요소는 새로운 디자인 시스템인 Liquid Glass를 위해 완전히 새롭게 디자인되었으며 Apple 기기의 모서리와 동심원 형태로 배치돼 하드웨어와 소프트웨어의 관계를 전달하죠

    따라서 앱의 디자인 시스템과 시각적 디자인이 Liquid Glass와도 조화를 이루는 것이 중요합니다

    예를 들어, 디자인 시스템에서 어긋나는 느낌이 드는 모서리가 있다면 도형에 동심원 방식을 적용해야 할 것입니다 특히 카드 내 아트워크처럼 중첩된 컨테이너에서 흔히 발생하죠 이로 인해 긴장감을 유발하거나 균형감을 깨뜨릴 수 있습니다 이 시스템의 장점은 컨테이너와 기기를 기준으로 내부 반경을 자동으로 계산하여 원활한 통합을 완료한다는 것입니다 Curt가 나중에 더 자세히 설명하겠습니다

    마지막으로, Liquid Glass의 조화로움, 입체감, 유동성은 Mac, iPad, iPhone, Watch CarPlay 전반의 앱 아이콘에도 통합되었습니다

    시스템 아이콘은 새로운 언어와 동적 기능을 최대한 활용하도록 재구상되었습니다

    이러한 시스템 아이콘은 특별히 앱 아이콘 생성을 위해 Liquid Glass 머티리얼을 여러 겹 쌓았고 입체적 디자인을 자랑하죠

    이 머티리얼은 모든 화면 모드에 맞춰 자동으로 조정됩니다 예를 들면, 라이트 모드와 다크 모드 등이죠 또한 Liquid Glass를 사용한 다양한 새 화면 모드가 있습니다 모노크롬 스타일의 Glass는 라이트 버전과 다크 버전으로 제공됩니다 마지막으로, 새로운 색조 모드가 있습니다 전경에 색상을 추가하는 어두운 색조와 배경에 색상이 스며드는 밝은 색조입니다

    다양한 스타일과 플랫폼에 걸쳐 표현력이 풍부하고 입체적인 앱 아이콘을 생성하려면 Icon Composer라는 새로운 도구를 사용하세요 이 도구는 기존 작업 흐름 내에 포함할 수 있도록 설계되었으며 현재 사용 중인 디자인 도구와 함께 사용할 수 있습니다 이 도구를 사용해 모든 새로운 머티리얼과 효과를 미리 보고 다양하게 사용해 볼 수 있습니다

    지금까지 새로운 디자인 시스템과 Liquid Glass 시작 방법이었습니다 오늘 제가 다룬 모든 기능은 내장되어 제공되기 때문에 앱에서 더 유기적이고 몰입감 넘치며 유동적인 경험을 선사할 수 있습니다 이제 Curt를 무대 위로 초대하여 새로운 디자인 시스템에서 돋보이는 앱을 얼마나 간편하게 구현하고 만들 수 있는지 알아보죠 감사합니다 Curt를 소개합니다

    감사합니다 Majo

    안녕하세요, Curt입니다 Apple Developer Relations 팀에서 기술 에반젤리스트로 일합니다 앱에 새로운 디자인을 적용하는 방법을 공유하게 되어 기쁩니다 저는 Majo가 설명한 내용을 더욱 보강하고 코드로 새 디자인을 실제 구현하는 방법을 보여 드리겠습니다 주된 예제로 Landmarks를 사용하겠습니다 Apple Developer 웹사이트에서 제공되는 샘플 프로젝트입니다 Mac, iPad, iPhone에서 사용할 수 있습니다 Xcode 26 SDK로 앱을 컴파일할 때 UI 전체에 걸친 변경 사항을 이미 알아차리셨을 것입니다 이러한 개선 사항 중 다수는 자동으로 제공됩니다 이 개선 사항을 설명하고 경험을 한층 더 맞춤 설정할 수 있는 iOS 26 및 macOS Tahoe의 새로운 API에 대해 살펴보죠 모든 예제에서는 SwiftUI를 사용하지만 UIKit과 AppKit의 병렬 API도 있습니다 탭과 사이드바 등 구조적 앱 구성요소의 업데이트부터 살펴보죠 그런 다음 도구 막대의 새로운 디자인과 동작을 다루고 검색 경험의 업데이트 사항을 공유하겠습니다

    그 후 Liquid Glass로 제어 항목이 어떻게 생생해지는지 알아보죠 새로운 디자인에 대한 마무리로 여러분만의 맞춤형 UI 요소에 Liquid Glass를 도입하는 방법을 설명하겠습니다 그리고 iPadOS 26의 중요한 변경을 강조하며 마치겠습니다

    그럼, 앱 구조부터 살펴보죠

    앱 구조는 사용자가 앱을 탐색하는 방식을 말합니다 탭, 사이드바, 시트 등이죠 이러한 모든 요소가 새 디자인에 맞게 정교해졌습니다 사이드바를 사용하면 다양한 경로 카테고리의 계층 구조 전체를 탐색할 수 있습니다 macOS Tahoe와 iPadOS 26 모두에서 사이드바는 이제 콘텐츠 위에 떠 있는 Liquid Glass입니다 두 플랫폼 모두에서 동작은 동일하지만 Mac에서 자세히 살펴보겠습니다 Landmarks 앱에서 콘텐츠 영역의 분홍색 꽃과 모래가 사이드바에 반사됩니다 하지만 히어로 배너는 사이드바 가장자리에서 갑자기 끝납니다 그 대신에 콘텐츠를 사이드바 아래에 배치할 수 있도록 하면 Liquid Glass가 배너의 멋진 색상을 한층 더 많이 드러낼 수 있습니다

    이렇게 하려면 새로운 배경 확장 효과 한정자를 추가합니다 그러면 콘텐츠를 자르지 않고 안전 영역 외부로 뷰가 확장됩니다 사이드바를 잠시 숨겨서 사이드바 뒤의 모습을 보여 드리죠 이미지는 실제로 미러링되고 흐릿해져서 사이드바 아래로 이미지의 톤이 확장되는 동시에 모든 콘텐츠가 보이는 상태로 유지됩니다

    탭 보기는 지속적인 최상위 탐색 기능을 제공하며 적은 수의 주요 섹션에 가장 적합합니다 일반적으로 5개 이하입니다

    새로운 디자인에서는 iPhone의 탭 막대가 콘텐츠 위에 떠 있고 스크롤할 때 최소화되도록 이를 구성할 수 있습니다

    이렇게 하려면 tabBarMinimizeBehavior 한정자를 기존 TabView에 추가하기만 하면 됩니다 onScrollDown 인수를 사용하면 탭 막대가 아래로 스크롤 시 최소화 위로 스크롤 시 재확장됩니다

    Majo가 설명했듯, 이제 탭 막대 위에 보기를 추가할 수 있죠 음악 앱의 재생 보기처럼 항상 가까이 두고 싶은 보기에 이 기능을 사용하세요

    tabViewBottomAccessory 한정자로 탭 막대 위에 보기를 배치합니다 이렇게 하면 탭 막대의 축소 동작으로 남게 되는 공간도 활용할 수 있습니다

    이러한 축소에 대응하려면

    tabViewBottomAccessoryPlacement 읽기 후 탭 막대 영역으로 축소될 때 액세서리의 콘텐츠를 조정하기만 하면 됩니다

    탭, 사이드바와 마찬가지로 새로운 디자인은 시트를 자동으로 향상합니다 Landmarks 앱에서 새로운 컬렉션을 생성하면 Landmark 옵션 시트가 표시됩니다 iOS 26에서는 부분 높이 시트에 기본적으로 Liquid Glass 배경이 삽입됩니다 높이가 더 낮으면 하단 가장자리가 디스플레이의 곡선 가장자리에 포개집니다 전체 높이 시트로 전환할 때 Liquid Glass 배경이 점진적으로 전환되어 불투명해지고 화면 가장자리에 고정됩니다

    시트는 해당 시트를 표시하는 버튼으로부터 직접 모핑됩니다 Landmarks 앱에서 시트를 표시하는 기존 코드가 여기에 나와 있습니다 시트를 표시하는 도구 막대 버튼과 시트의 콘텐츠를 정의하는 시트 한정자가 있습니다 단 3단계만에 소스 뷰로부터 콘텐츠가 모핑되도록 합니다 1단계에서는 시트와 버튼을 연관시키는 Namespace를 도입하죠 2단계에서는 버튼을 전환의 소스로 표시합니다 3단계에서는 시트의 콘텐츠를 확대/축소 전환 효과가 있다고 표시하며 그 결과는 이와 같습니다

    팝오버, 알림, 메뉴와 같은 다른 표시 사항도 Liquid Glass 제어 항목으로부터 매끄럽게 흘러 동작에서 해당 동작이 표시하는 콘텐츠로 초점을 옮깁니다 이 동작은 자동으로 이루어집니다 새로운 디자인에서는 대화상자도 해당 대화상자를 표시하는 버튼으로부터 자동으로 모핑됩니다 소스 버튼에 confirmationDialog 한정자를 첨부하기만 하면 됩니다

    다음은 도구 막대입니다

    새로운 디자인에서는 도구 막대 항목이 앱 위에 떠 있는 Liquid Glass 표면에 배치됩니다 해당 항목은 아래의 콘텐츠에 맞춰 조정되고 자동으로 그룹화됩니다

    Landmarks 앱을 Xcode 26로 컴파일하면 맞춤형 도구 막대 항목이 시스템에서 제공하는 ‘뒤로’ 버튼과는 별도로 그룹화됩니다

    Landmarks에서 ‘즐겨찾기’와 ‘컬렉션에 추가’ 버튼은 관련된

    동작이므로 고정 간격으로 새 ToolbarSpacer API를 사용해 해당 버튼만의 그룹으로 분할합니다 그룹 동작들이 관련된다는 것을 시각적으로 명확히 보여 줄 수 있고 ‘링크 공유’와 ‘인스펙터 토글’ 같은 별개의 작업은 구분되는 동작을 보입니다

    ToolbarSpacer는 도구 막대 항목 간에 확장되는 유연한 공간을 생성할 수도 있습니다 Mail 앱은 이 기법을 사용해 필터 항목에 leading 정렬을 검색 및 작성 항목에 trailing 정렬을 적용합니다

    이 도구 막대 레이아웃 개선은 Mac, iPad, iPhone에서 제공됩니다 새로운 디자인은 도구 막대에 몇몇 다른 변경 사항도 도입하죠 새로운 디자인은 더 많은 곳에서 모노크롬 팔레트를 사용하는데 도구 막대도 포함됩니다 모노크롬 팔레트를 사용하면 시각적 노이즈를 줄이고 앱 콘텐츠를 강조하며 가독성을 높일 수 있습니다

    색조 한정자나 눈에 띄는 버튼 스타일로 아이콘에 색조 적용하되 색상은 조금만 사용하세요 Majo가 설명했듯이 시각적 효과나 브랜딩이 아니라 콜투액션이나 다음 단계 같은 의미 전달을 위해 버튼에 색조를 적용하시기 바랍니다

    새로운 디자인에서는 자동 Scroll Edge Effect로 가독성이 유지되죠 이것은 콘텐츠가 막대 아래로 스크롤될 때 콘텐츠에 적용되는 미묘한 블러 및 페이드 효과입니다

    막대 항목 뒤에 추가 배경이나 어둡게 하는 효과가 있는 경우 해당 요소는 이 효과를 방해하므로 반드시 제거하세요

    Majo가 설명한 대로 캘린더 앱처럼 플로팅 요소가 많은 밀도 높은 UI의 경우 scrollEdgeEffectStyle 한정자를 사용해 효과의 선명도를 조정하여 하드 에지 스타일을 전달하세요

    지금까지 도구 막대를 살펴봤습니다 이제 검색으로 넘어가겠습니다 새로운 디자인은 두 가지 주요 검색 패턴을 수용합니다 첫 번째는 도구 막대에서의 검색입니다 iPhone에서는 쉽게 접근할 수 있는 화면 하단에 이 필드를 배치하고 iPad와 Mac에서는 도구 막대의 상단 후행 위치에 배치합니다 두 번째 패턴은 검색을 다중 탭 앱의 전용 탭으로 처리하는 거죠 이 두 패턴을 빌드하는 방법을 모두 설명하겠습니다 Landmarks 앱의 경우 도구 막대에 검색을 배치했습니다 사용자가 검색으로 모든 콘텐츠 또는 적어도 대부분의 콘텐츠에 도달할 수 있는 앱에서는 이 배치를 선택하세요

    검색 필드는 자체 Liquid Glass 표면에 나타납니다 이 필드를 탭하면 포커스를 받고 키보드를 표시합니다

    Landmarks에서 이 변형을 구현하기 위해 기존 NavigationSplitView에 searchable 한정자만 추가했습니다

    여기서 한정자를 선언하는 것은 검색이 단지 하나의 열이 아니라 전체 보기에 적용된다는 것을 나타냅니다

    iPhone에서는 이 변형이 자동으로 조정되어 검색 필드를 디스플레이 하단으로 가져옵니다

    기기 크기와 기타 요인에 따라 시스템에서 이 필드를 버튼으로 최소화하도록 선택할 수 있습니다 여기 Mail 앱의 버튼처럼요

    이 버튼을 탭하면 전각 검색 필드가 키보드 위에 나타납니다 예를 들어 검색이 앱 경험의 주요 부분이 아니기 때문에 최소화된 동작을 명시적으로 선택하려면 새로운 searchToolbarBehavior 한정자를 사용하세요

    탭 형식의 앱에서 검색은 종종 전용 검색 탭에서 시작됩니다

    이 패턴은 건강 앱과 같은 모든 Apple 플랫폼의 앱에서 사용되죠 Majo가 언급한 것처럼요

    앱에서 이렇게 하려면 검색 역할이 있는 탭을 추가하고 TabView에 searchable 한정자를 배치하세요 이제 누군가가 이 탭을 선택하면 검색 필드가 대신 나타납니다 그리고 검색 탭의 콘텐츠가 나타납니다 사용자는 여기에서 탐색 제안 사항과 상호작용하거나 검색 필드를 탭해 키보드를 표시하고 특정 용어를 검색하죠

    Mac과 iPad에서는 누군가가 검색 탭을 선택하면 검색 필드가 앱의 탐색 제안 사항 위 중앙에 나타납니다

    이러한 검색 패턴은 앱 내 검색 경험에 대한 더 큰 유연성과 제어력을 제공합니다

    새로운 디자인은 버튼, 슬라이더 메뉴 등의 제어 항목에 대해 다양한 플랫폼 전반에서 새로운 디자인과 느낌을 선사합니다 Liquid Glass 효과 외에도 새 디자인은 모든 Apple 플랫폼에서 제어 항목을 더 유사하게 만들어 사용자가 기기를 오가며 사용할 때 친숙한 경험을 제공합니다

    테두리가 있는 버튼은 이제 기본적으로 캡슐 모양이며 새로운 디자인의 곡선 모서리를 계속 사용합니다 여기에는 한 가지 예외가 있습니다 macOS의 많은 중소형 제어 항목은 가로 밀도를 보존하는 둥근 직사각형 모양을 유지합니다

    buttonBorderShape 한정자로 제어 항목 크기에 맞게 모양을 조정하죠

    새 디자인에선 여러 플랫폼의 제어 항목 크기도 더 일관되게 적용하죠

    macOS에서 대부분의 제어 항목은 이제 약간 더 높아져서 제어 항목의 레이블 주위에 여유 공간이 조금 더 생겼고 클릭 대상의 크기도 더 커졌습니다 복잡한 인스펙터와 같은 기존의 고밀도 레이아웃이 있는 경우 controlSize 한정자를 사용하여 더 작은 크기를 요청합니다

    업데이트된 크기와 Apple 플랫폼 전반에 걸쳐 제어 항목을 표준화하는 모양 외에 새 디자인은 새로운 glass 및 glassProminent 버튼 스타일로 Liquid Glass를 앱 내 어떤 버튼에든 적용할 수 있습니다

    또한 새로운 디자인은 macOS, iOS, iPadOS 전반에 걸쳐 슬라이더에 일관성을 구현합니다 이러한 모든 플랫폼에서 슬라이더는 이제 눈금 표시가 있는 이산값을 지원합니다 또한 이제 임의의 시작점을 설정할 수 있습니다 이것은 사용자가 중앙 기본값으로부터 위 또는 아래로 조정할 수 있는 값에 유용합니다 팟캐스트 앱에서 더 빠르거나 느린 속도를 선택하는 걸 생각해 보세요

    iOS와 macOS의 메뉴에도 새로운 디자인이 도입되었으며 macOS에서는 아이콘이 메뉴의 시작 가장자리에 나타나죠 늘 그렇듯, 메뉴를 생성할 때에는 레이블이나 기타 표준 제어 항목 이니셜라이저를 사용하세요 이제 iOS와 macOS에서 동일한 API가 동일한 결과를 생성합니다

    제어 항목의 업데이트 사항 외에도 새로운 디자인을 위해 제어 항목을 업데이트할 수 있는 새 API가 있죠

    많은 시스템 제어 항목은 모서리가 컨테이너 내부에 정렬되어 있어요 macOS의 루트 윈도우이든 iPhone의 베젤이든 마찬가지입니다

    Majo가 설명했듯이 이를 모서리 동심성이라고 합니다 저는 저 애니메이션이 마음에 들어요

    컨테이너와 동심성을 자동으로 유지하는 보기를 빌드하려면 동심성 직사각형 모양을 사용하세요 직사각형의 모서리 매개변수에 containerConcentric 구성 전달시 모양이 다양한 디스플레이와 윈도우 모양에서 컨테이너에 맞게 자동으로 조절됩니다

    새로운 디자인을 도입하는 가장 좋은 방법은 표준 제어 항목 앱 구조, 검색 배치 및 도구 막대를 사용하는 것입니다

    하지만 때로는 앱에 좀 더 많은 맞춤 설정이 필요할 수 있습니다 다음으로, 앱용 맞춤형 Liquid Glass 요소를 빌드하는 방법입니다 지도 앱은 이 사용 사례의 좋은 예로, 지도 콘텐츠 위에 떠 있는 맞춤형 Liquid Glass 제어 항목을 사용합니다 사용자가 방문하는 각 랜드마크에 유사한 맞춤형 Liquid Glass 배지를 Landmarks 앱에 추가하죠 먼저 Liquid Glass 효과가 적용된 맞춤형 배지 뷰를 만들어 보죠

    맞춤형 뷰에 Liquid Glass를 추가하려면 glassEffect 한정자를 사용합니다 기본 glassEffect 한정자는 콘텐츠를 캡슐 모양으로 배치하며 아래에 Liquid Glass 머티리얼을 위에 하이라이트 효과를 적용하죠

    glass 효과 내의 텍스트 콘텐츠는 생생한 색상을 자동으로 사용하여 다채로운 배경에서 가독성을 유지하도록 조정됩니다

    한정자에 모양을 제공하여 glass 효과 모양을 맞춤 설정해요

    특히 중요한 뷰의 경우 색조를 사용해 Glass를 수정하세요 도구 막대 버튼과 유사하게 의미 전달을 위해서만 사용하고 시각적 효과나 브랜딩엔 피하세요

    glass 효과 내의 텍스트와 마찬가지로 색조도 뒤의 콘텐츠에 맞게 조정되는 생생한 색상을 사용하죠

    iOS에서는 인터랙티브 요소가 있는 맞춤형 제어 항목이나 컨테이너의 glass 효과에 interactive 한정자를 추가합니다

    이 한정자를 사용하면 Liquid Glass가 크기 조절, 튀어오르기 은은하게 빛나기 등의 상호작용에 반응해 도구 막대 버튼과 슬라이더의 효과와 일치하죠

    이제 맞춤형 배지가 있으니 여러 배지를 함께 사용해 서로 상호작용하고 섞이게 해 보죠

    여러 Liquid Glass 요소를 결합하려면 GlassEffectContainer를 사용합니다 이러한 그룹화는 시각적 정확성과 성능을 위해 필수적이죠 Liquid Glass 머티리얼은 빛을 반사하고 굴절시켜 근처 콘텐츠에서 색상을 선택합니다 이는 주변 콘텐츠를 샘플링하여 수행됩니다

    GlassEffectContainer를 사용하면 인접 요소들이 샘플링 영역을 공유할 수 있어 간섭이 방지됩니다 공유 샘플링 영역의 사용은 성능에도 매우 중요합니다 샘플링 패스가 최소화되기 때문입니다

    샘플링 제어 외에도 GlassEffectContainer는 모핑 효과도 활성화합니다 Landmarks 앱에서는 GlassEffectContainer를 사용해 배지를 그룹화합니다 컨테이너 내부에서 상태가 확장되면 배지 레이블 스택이 표시되며 상태를 켜고 끌 수 있는 배지 토글이 있습니다 이 버튼을 탭해 배지를 확장하면 이 멋진 유동적 모핑 애니메이션이 표시됩니다

    GlassEffectContainer가 있으면 단 3단계만으로 이 애니메이션을 빌드할 수 있습니다 1단계에서는 Liquid Glass로 레이블을 렌더링하고 토글합니다

    2단계에서는 로컬 Namespace를 도입합니다 3단계에서는 glassEffectID 한정자를 사용해 레이블과 토글을 이 Namespace와 연관시킵니다 그러면 시스템이 이러한 요소들이 함께 속한다는 것을 알 수 있죠

    이제 버튼을 다시 탭하면 수상 배지가 멋지게 다시 흡수됩니다

    Liquid Glass 효과는 앱을 진정으로 고유하게 만드는 기능을 강조하는 탁월한 방법을 제공합니다 새로운 디자인에 내장된 기능과 여러분이 사용할 수 있는 맞춤 설정을 간략히 살펴봤으니 이제 iPadOS 26의 다른 변경 사항을 몇 가지 알아보죠

    iPadOS 26는 iPad를 더 강력하고 다재다능하게 만듭니다 이러한 기능 중 하나는 새로운 윈도우 관리 시스템으로 윈도우 크기를 조절하는 새로운 방법을 포함합니다 크기 조절을 지원하는 모든 앱은 이제 visionOS와 마찬가지로 오른쪽 하단 모서리에 핸들을 표시합니다 이를 드래그하면 앱의 크기 조절이 시작되어 배경화면 위에 떠 있는 윈도우가 됩니다

    과거에는 윈도우 크기 조절을 방지할 수 있었습니다 여러분의 iPad 앱 중 일부가 그럴 수도 있겠네요 iPadOS 26에서는 이에 대한 지원이 중단됩니다 iPadOS 26 이후의 다음 주요 릴리즈부터 모든 iPadOS 앱은 크기 조절을 지원해야 합니다

    크기 조절 외에 iPadOS 26는 새로운 멀티태스킹 방법도 도입합니다 멀티태스킹과 관련하여 유념할 중요한 고려 사항이 있습니다 멀티태스킹의 핵심은 장면입니다 장면은 앱 인터페이스의 인스턴스를 나타냅니다 예를 들어 Mail 앱에서는 각 메일상자별로 윈도우를 열어 깔끔하게 정리할 수 있습니다

    열려 있는 각 메일상자는 고유한 장면에 표시됩니다

    SwiftUI 기반 앱에는 장면 지원이 자동으로 제공됩니다 UIKit 기반 앱에서는 장면이 iOS 13에서 도입된 이후로 선택 사항이었습니다 앞으로는 장면이 필수입니다 iPadOS뿐 아니라 iPhone과 Mac Catalyst도 마찬가지입니다 iOS 26 이후의 다음 주요 릴리즈부터는 장면을 지원하는 앱만 실행됩니다

    한 가지 중요한 차이점으로 여러 장면에 대한 지원이 권장되지만 유일한 요구 사항은 장면 기반 라이프 사이클 채택입니다

    앱에 장면 지원을 추가할 수 있는 멋진 온라인 가이드가 있습니다

    크기 조절과 멀티태스킹 지원은 사용자가 앱과 상호작용하는 방식에 더 큰 유연성을 제공할 수 있는 좋은 방법입니다 따라서 지금은 iPad 앱을 향상하여 더 유연하고 플랫폼에서 진정으로 돋보이게 만들 수 있는 완벽한 때입니다

    Majo와 저, 저희 모든 동료는 Apple 디자인의 새로운 장을 여러분과 공유하게 되어 기쁩니다 여러분이 Liquid Glass로 빌드하실 앱이 정말 기대됩니다

    이어서 제 동료인 Shashank를 초대해 Apple Intelligence의 업데이트에 대해 알아보겠습니다 Shashank입니다

    감사합니다

    안녕하세요, 여러분 Shashank입니다 Apple AIML 기술 에반젤리스트로 일하고 있습니다 WWDC25에서 발표한 머신 러닝과 Apple Intelligence의 최신 업데이트 사항을 여러분과 함께 빠르게 살펴보게 되어 기쁩니다 이러한 기능을 활용해 앱을 한층 더 스마트하게 만드는 방법을 보여 드리겠습니다

    3가지 내용을 다룰 예정입니다 먼저, 운영 체제에 바로 내장된 인텔리전스 기능의 개요와 시스템 프레임워크를 통해 이러한 기능을 활용하는 방법을 안내합니다 다음으로, 시스템 전반에 앱을 더 심도 있게 통합하는 방법입니다 마지막으로, Apple의 도구와 API로 온디바이스 실행을 위한 맞춤형 머신 러닝 모델을 최적화해 배포하는 방법을 설명합니다

    큰 그림을 살펴보는 것으로 시작하죠 머신 러닝과 Apple Intelligence는 Apple 운영 체제 전반의 많은 내장 앱과 기능의 핵심입니다 작년에 Apple은 Apple Intelligence을 구동하는 파운데이션 모델을 활용해 Apple 운영 체제의 핵심에 생성형 인텔리전스를 도입했습니다 이를 통해 시스템에 바로 내장된 글쓰기 도구, 젠모지, Image Playground를 제공했으며 이러한 기능을 여러분의 앱에 직접 통합할 수 있게 되었습니다 예를 들어 앱에서 시스템 텍스트 제어 항목을 사용하는 경우 젠모지 지원이 자동으로 제공됩니다 새로운 API를 사용하면 텍스트 내에서 원하는 위치에 젠모지를 표시할 수 있습니다

    Image Playground에서는 사용자가 ChatGPT로 이미지를 생성하고 유화나 벡터 아트 같은 새로운 스타일을 탐색할 수 있습니다 Image Playground 프레임워크를 사용해 앱에서 바로 Image Playground 시트를 표시하거나 Image Creator API를 사용해 프로그래밍 방식으로 이미지를 생성할 수 있습니다

    앱에서 표준 UI 프레임워크를 사용해 텍스트 뷰를 표시하는 경우 이미 글쓰기 도구를 지원합니다 글쓰기 도구로 사용자는 텍스트 재작성, 교정, 요약 등의 방식으로 글쓰기 콘텐츠를 모두 한 번에 제자리에서 세밀하게 조절할 수 있으며 한층 더 많은 기능이 제공됩니다 iOS, iPadOS, macOS 26의 새로운 기능으로 사용자는 글쓰기 도구 제안 사항에 따라 후속 조치를 취할 수 있죠 재작성한 후 텍스트를 좀 더 따뜻하게, 대화체로, 힘을 북돋아 주는 느낌으로 작성해 달라고 요청할 수 있습니다

    글쓰기 도구는 사용자가 텍스트를 선택하는 곳에 나타나지만 앱에 텍스트가 많으면 도구 막대 버튼을 추가하여 한층 더 찾기 쉽게 만들 수 있죠

    마찬가지로, 빠른 메뉴에 글쓰기 도구 항목이 자동으로 추가됩니다 맞춤형 메뉴를 사용하거나 이러한 항목을 다르게 배열하려면 API를 사용해 표준 항목을 가져와 원하는 위치에 배치할 수 있습니다 WWDC25에서는 Apple Intelligence가 지원하는 언어 범위도 확장했습니다

    여러분 중 많은 분이 Apple Intelligence를 구동하는 기본 언어 모델 접근에 대한 관심을 표하셨는데 이제 직접 접근하실 수 있습니다 파운데이션 모델 프레임워크를 사용합니다 파운데이션 모델 프레임워크를 사용하면 Apple Intelligence를 구동하는 같은 온디바이스 대규모 언어 모델에 직접 접근할 수 있죠 편리하고 강력한 Swift API를 통해서요 이제 새로운 고급 기능을 앱에 바로 내장할 수 있습니다 예를 들어 이 기능을 사용해 기존 기능을 향상할 수 있습니다 맞춤형 검색 제안 사항 제공 등입니다

    또는 완전히 새로운 경험을 선사할 수 있습니다 여행 앱에서 즉석에서 맞춤형 일정을 생성하는 것을 상상하세요

    이를 사용해 게임 속 캐릭터의 대화를 생성할 수도 있습니다 모두 완전히 온디바이스 방식으로요

    저는 이 점이 꽤 멋지다고 생각합니다

    프레임워크가 완전히 온디바이스 방식으로 실행되기 때문에 사용자 데이터가 비공개로 유지되며 어디로든 전송될 필요가 없습니다

    이러한 AI 기능은 오프라인에서 쉽게 사용할 수 있습니다 설정할 계정도 관리할 API 키도 없습니다 모두 바로 사용 가능합니다

    가장 좋은 점으로 요청 횟수에 상관없이 여러분이나 사용자에게 비용이 발생하지 않습니다

    가장 중요하게는 모두 운영 체제에 내장되어 있어서 앱 크기에 영향을 주지 않습니다

    macOS, iOS, iPadOS visionOS에서 사용 가능합니다 모든 Apple Intelligence 지원 하드웨어와 언어에서 실행되죠 이 프레임워크와 그 작동 방식을 더 자세히 살펴보죠 파운데이션 모델 프레임워크를 사용하면 매개변수가 30억 개인 모델에 접근할 수 있습니다 이는 기기 스케일 모델로 콘텐츠 생성, 요약, 분류 멀티턴 대화 등 온디바이스 사용 사례에 최적화되었습니다 이 모델은 지식 또는 고급 추론 작업을 위해 설계되지 않았습니다 이러한 작업에는 일반적으로 서버 스케일 LLM을 계속 사용할 수 있죠 이 모델이 어떻게 작동하는지 살펴보죠

    파운데이션 모델 프레임워크를 사용해 온디바이스 대규모 언어 모델, 즉 LLM에 프롬프트를 전송할 수 있습니다 모델이 프롬프트에 대해 추론하고 텍스트를 생성할 수 있습니다

    예를 들어 여우에 대한 잠자리 동화 생성을 요청할 수 있습니다 모델은 자세하고 상상력이 풍부한 잠자리 동화로 응답합니다 이는 시스템 전반에서 글쓰기 도구와 같은 기능을 구동하는 동일한 범용 모델입니다 맞춤형 검색 예제로 돌아가서 파운데이션 모델 프레임워크를 사용해 이를 어떻게 구현할 수 있는지 살펴보죠

    모델에 프롬프트를 전송하려면 3줄의 코드가 필요합니다

    먼저, 프레임워크를 가져옵니다 다음으로, 언어 모델 세션을 생성합니다 그런 다음 모델에 프롬프트를 전송합니다 프롬프트는 여러분이나 앱 사용자가 작성할 수 있습니다 사용자 입력을 기반으로 동적으로 프롬프트를 생성할 수도 있습니다 프롬프트를 제공한 후에는 응답을 얻습니다 기본적으로 언어 모델은 여기서 볼 수 있듯이 비정형 자연어 출력을 생성합니다 인간이 읽기에는 쉽지만 앱 내 맞춤형 뷰에 매핑하기에는 어려울 수 있습니다 파운데이션 모델 프레임워크는 가이드 생성을 제공합니다 작동 방식은 다음과 같습니다

    먼저, struct를 사용해 출력의 형태를 지정합니다

    검색 제안 사항은 문자열 검색 항목 목록이 있는 간단한 구조체로 이제 훨씬 더 쉽게 뷰에 매핑할 수 있지만 아직 준비가 되지 않았습니다

    이 구조체에 Generable 매크로를 적용합니다 Generable은 모델이 Swift 유형을 사용해 정형 데이터를 생성할 수 있도록 하는 쉬운 방법입니다 다음으로, 가이드를 지정합니다

    가이드를 사용하면 연관된 유형에 대한 설명을 제공하고 값을 제어할 수 있습니다 이 예제에서는 4개의 검색어를 문자열 목록으로 생성하려고 해요 이제 생성 인수를 사용해 모델에 전달할 수 있습니다 이제 출력은 뷰에 쉽게 매핑될 수 있는 제안 사항 문자열 목록입니다

    가이드 생성을 사용하면 모델과 모델이 생성해야 하는 내용을 제어할 수 있습니다 문자열이든, 숫자든, 배열이든 여러분이 정의하는 맞춤형 데이터 구조든 상관없습니다 가이드 생성은 제약 조건 디코딩 기법을 사용해 구조적 정확성을 근본적으로 보장합니다 가이드 생성을 사용하면 프롬프트가 더 간단해지고 프롬프트에서 형식 지침을 제공하는 대신에 원하는 동작에 집중할 수 있습니다 이 모든 것은 모델의 정확도와 성능 향상에도 도움이 됩니다

    여러분이 프롬프트에 제공하는 내용 외에 모델이 학습 데이터에서 자체적인 핵심 지식을 가져옵니다 하지만 기억하세요 모델은 OS에 내장되어 있고 그 지식은 특정 시점에 고정되어 있습니다 따라서 예를 들어 제가 현재 쿠퍼티노의 야외 날씨에 대해 물어보면 모델은 그 정보를 알 방법이 없습니다 실시간 또는 동적 데이터가 필요한 사용 사례를 처리하기 위해 프레임워크는 도구 호출을 지원합니다

    예를 들어 도구 호출을

    사용하면 텍스트 생성을 넘어 동작을 수행할 수도 있습니다 도구를 사용해 날씨 또는 캘린더 이벤트 등 실시간 데이터나 개인정보에 대한 접근 권한을 모델에 부여할 수 있습니다 출처를 인용해 출력의 사실 여부를 확인하도록 할 수도 있고 도구가 앱, 시스템 또는 실제 환경에서 실제 동작을 수행할 수도 있습니다 다음으로, 이러한 파운데이션 모델이 어떻게 새로운 기능으로 앱을 강화할 수 있는지 살펴보죠

    일기 앱을 생각해 보세요 일반적인 일기 제안 사항을 제공하는 대신에 파운데이션 모델은 과거 입력과 캘린더 이벤트에 기반하여 개인적인 느낌의 제안 사항을 생성할 수 있습니다 모든 것이 기기에서 실행되기 때문에 사용자의 데이터, 건강 정보 등 민감 데이터가 비공개로 유지되죠

    또는 경비 관리 앱을 생각해 보세요 더 이상 지루한 수동 입력은 필요 없습니다 파운데이션 모델을 사용해 앱이 텍스트에서 직접 지출 데이터 세부 정보를 가져올 수 있습니다 한 걸음 더 나아가 이를 Vision 프레임워크와 결합해 영수증 사진이나 스크린샷에서 데이터를 가져오거나 기기에서 직접 처리할 수도 있죠

    생산성 앱에서 사용자는 즉시 명확성을 위한 밀도 높은 메모를 재작성하거나 회의록을 실행 가능한 항목으로 요약할 수 있습니다 그러면 엄청난 시간이 절약되어 정말 중요한 일에 집중할 수 있죠

    음성 인식과 파운데이션 모델을 결합하면 앱에서 자연어 검색을 활성화할 수 있습니다 예를 들어 ‘반려동물 친화적인 침실 3개짜리 집 보여줘’라고 말할 수 있죠 앱은 음성에서 세부 정보를 추출하고 도구 호출을 사용해 간편하고 자연스럽고 빠른 검색을 구현해요

    이것은 시작에 불과합니다 이러한 기능으로 훨씬 더 많은 것을 만들 수 있습니다

    이 모델은 콘텐츠 생성 요약, 입력 분석 등 많은 일반적인 언어 작업에 사용할 수 있습니다

    여러분 중 고급 ML 실무자의 경우 특수 사용 사례가 있다면 어댑터 학습 툴킷을 사용해 맞춤형 어댑터를 학습시킬 수 있죠 하지만 시간이 지나면서 Apple이 모델을 개선함에 따라 재학습이 필요하기 때문에 상당한 책임이 따릅니다 자세한 내용은 Apple Developer 웹사이트를 참고하세요

    실험을 시작할 준비가 되었다면 Xcode의 새로운 플레이그라운드 기능으로 시작하는 것이 좋습니다

    #Playground 매크로를 추가하고 프로젝트의 코드 파일에서 #Playground를 사용하고 프롬프트 작성만 하면 됩니다 모델의 응답이 오른쪽 캔버스에 즉시 나타납니다 SwiftUI 미리보기처럼요 이 예제에서는 캔버스에서 비정형 응답과 가이드 생성 모델 응답을 모두 보여 줍니다 플레이그라운드는 파운데이션 모델 프레임워크를 실험하는 방법이죠 사용 사례에 가장 적합한 프롬프트를 찾으려면 다양한 프롬프트를 사용해 보는 것이 좋습니다 플레이그라운드를 사용하면 빠르게 반복해 볼 수 있습니다

    요약하자면, Apple 파운데이션 모델은 주머니에 쏙 들어가도록 특별히 최적화되고 압축된 온디바이스 모델입니다 작은 크기로 인해 이 모델은 지식이 제한적입니다 도구 호출을 사용해 실제 데이터를 가져올 수 있죠 플레이그라운드 기능을 사용하면 프롬프트를 쉽게 평가하고 테스트할 수 있습니다 예제에서 보셨듯이요 파운데이션 모델을 사용해 앱을 빌드할 때 피드백 지원을 통해 피드백을 공유하는 것을 고려해 보세요 모델과 API를 개선해 나가는 데 도움이 됩니다

    지금까지 파운데이션 모델 프레임워크를 살펴봤습니다 여러분이 이를 사용해 빌드하실 놀라운 앱이 정말 기대됩니다

    파운데이션 모델과 함께 다른 강력한 머신 러닝 API도 이용하실 수 있습니다

    각각은 특정 도메인 맞춤형입니다 Vision은 이미지와 비디오를 이해합니다 Natural Language는 텍스트 작업용입니다 Translation은 다국어 텍스트 Sound Analysis는 사운드 카테고리 인식 Speech는 오디오의 단어 전사를 위한 것입니다

    Vision부터 살펴보죠 Vision에는 다양한 유형의 이미지 분석을 위한 30개 이상의 API가 있으며 현재 Vision은 두 가지 새로운 API를 추가합니다 새로운 API는 정형 문서 이해를 위한 RecognizeDocumentsRequest API와 얼룩 묻은 렌즈로 찍은 사진을 식별하는 DetectCameraLensSmudgeRequest API입니다 이 내용을 좀 더 자세히 살펴보겠습니다

    올해 Vision은 텍스트 인식 기능을 개선합니다 이제 Vision은 단지 텍스트 줄을 읽는 대신에 문서 인식 기능을 제공합니다 문서 구조를 그룹화하여 문서를 쉽게 처리하고 이해할 수 있습니다 예를 들어 손글씨로 쓴 등록 양식이 있다면 이름과 연락처 세부 정보를 직접 입력하는 대신에 Vision이 테이블을 직접 전달합니다 행과 셀이 자동으로 그룹화되므로 데이터 파싱 시간이 단축됩니다 꽤 멋지죠

    또한 올해 Vision의 새로운 기능으로 이제 카메라 렌즈의 얼룩도 감지하여 사용자가 선명한 고품질 이미지를 캡처할 수 있도록 도와줍니다

    예를 들어 문서를 스캔하는 사용자가 실수로 손가락으로 렌즈에 얼룩을 묻힐 수 있겠죠

    이로 인해 처리하기 어려운 흐릿한 이미지가 생성됩니다

    얼룩 감지 API가 이를 발견합니다 사용자에게 렌즈를 청소하거나 사진을 재촬영하라는 메시지를 표시해 항상 고품질 이미지를 처리할 수 있습니다 이상은 Vision 프레임워크였습니다 이제 Speech 프레임워크를 살펴보겠습니다

    올해 도입한 새로운 Speech Analyzer API는 완전한 온디바이스 음성-텍스트 변환 API로 코드 몇 줄로 사용 가능하죠 새로운 모델은 그 어느 때보다 더 빠르고 유연합니다 SpeechAnalyzer 모델은 이미 메모, 음성 메모, 일기 등 전반에 걸쳐 기능을 구동합니다 SpeechAnalyzer 외에 SpeechTranscriber도 광범위한 사용 사례를 지원하는 새로운 모델로 업데이트됩니다 긴 형식의 대화 사례를 지원할 수 있는 모델을 만들고자 했습니다 일부 화자가 마이크에 가깝지 않을 수 있는 경우죠 예를 들면 회의 녹음처럼요

    또한 음성을 비공개로 유지하면서 정확성이나 가독성을 저하하지 않고 저지연 상태를 구현하는 실시간 전사문 경험을 활성화하고 싶었습니다 새로운 온디바이스 모델은 이 모든 것을 달성합니다

    이제 여러분의 앱에서 동일한 사용 사례를 지원할 수 있습니다

    가장 좋은 점은 직접 모델을 조달 또는 관리할 필요가 없다는 거죠 애셋은 필요할 때 다운로드되고 시스템 저장 공간에 저장되며 앱 크기나 메모리를 늘리지 않고 Apple이 개선함에 따라 자동으로 업데이트됩니다 SpeechTranscriber는 현재 이러한 언어를 전사 가능하며 더 많은 언어가 추가될 예정입니다

    플랫폼 인텔리전스에 대한 내용을 마무리하겠습니다

    이제 앱에 시스템 기능을 통합하는 더 많은 방법을 살펴보죠

    앱 인텐트를 사용하면 앱의 핵심 기능을 사용자 기기 전반에 통합할 수 있습니다

    App Intents 프레임워크를 사용하면 사용자가 앱을 사용하지 않을 때에도 앱의 기능을 쉽게 찾고 사용할 수 있습니다 이는 앱의 동작과 콘텐츠를 시스템 경험과 심도 있게 연결하죠 그러면 시각 지능, 단축어 Spotlight 같은 곳에 앱 기능이 표시되기 때문에 유용합니다 앱 인텐트는 하나의 프레임워크에 그치지 않고 전체 시스템에 걸쳐 앱의 도달 범위를 확장합니다 시각 지능부터 살펴보죠 시각 지능은 Apple Intelligence에 기반하며 사용자가 주변 환경을 탐색할 수 있도록 도와줍니다 iOS 18에서 처음 도입된 이 기능은 카메라로 가리켜서 이동 중에 발견한 카페나 멋진 운동화에 대해 알아볼 수 있습니다 iOS 26에서는 이 기능이 iPhone 스크린샷에도 적용되어 사용자가 화면에서 바로 좋아하는 콘텐츠를 검색하거나 해당 콘텐츠에 대한 조치를 취할 수 있습니다

    예를 들어 어떤 랜드마크의 스크린샷을 찍을 수 있습니다 그런 다음 이미지 검색을 실행합니다 시스템에서 검색 패널을 표시합니다

    사용자가 결과를 보고 싶은 앱을 선택합니다

    해당 앱을 탭해 관련 페이지를 바로 엽니다

    필요한 내용이 보이지 않으면 더 많은 결과 버튼을 탭합니다

    앱이 검색 뷰로 열립니다 앱에서 이미지 검색 기능을 제공하는 경우 시각 지능과 통합하면 사용자가 앱 콘텐츠를 발견하고 참여할 수 있는 강력한 새로운 방식을 제공할 수 있습니다 사용자가 앱 외부에 있는 경우에도 마찬가지입니다 이 통합은 앱 검색 기능을 시스템 수준으로 확장하여 사용자가 실제 객체 또는 이미지에서 앱 내 관련 정보 및 동작으로 원활하게 전환할 수 있게 합니다

    쇼핑 앱을 예로 들어 보죠 앱을 열고 이미지 검색으로 이동하여 검색을 시작합니다 시각 지능을 사용하면 소셜 미디어에서 마음에 드는 가방이나 드레스의 스크린샷을 찍고 즉시 앱 검색을 시작할 수 있습니다 그러면 마찰이 없어지고 참여가 더 자연스럽게 느껴집니다

    다음은 단축어입니다 단축어를 사용하면 반복적인 작업을 자동화하고 다양한 앱의 기능을 함께 연결할 수 있습니다 올해, 새 지능형 동작 기능으로 Apple Intelligence의 강력한 성능을 단축어에 적용합니다 앱 인텐트를 사용하면 앱의 동작을 단축어와 결합해 사용자가 강력한 맞춤형 작업 흐름을 구축할 수 있습니다 주요 내용 중 하나는 ‘모델 사용’ 동작입니다 사용자는 Apple Intelligence 모델을 바로 활용해 단축어에 제공되는 응답을 가져올 수 있습니다 텍스트 전달이나 데이터 포맷이 몇 단어 쓰기만큼 간단할 수 있죠 사용자는 복잡한 요청을 처리하는 동시에 개인정보를 보호하기 위해 비공개 클라우드 컴퓨팅의 대규모 서버 기반 모델에서 선택 가능하죠 또는 온디바이스 모델을 선택하여 네트워크 연결 없이 요청을 처리할 수 있습니다

    폭넓은 지식과 전문성을 활용하려 ChatGPT를 선택할 수도 있습니다

    이 ‘모델 사용’ 동작은 iOS 26의 Image Playground 글쓰기 도구 등과 함께 수많은 새로운 지능형 동작 중 하나일 뿐입니다

    다른 사용 사례를 살펴보죠 모델을 사용해 여행에 대한 캘린더 이벤트를 필터링할 수 있죠

    또는 웹상의 콘텐츠를 요약합니다 오늘의 단어를 알아보는 것처럼요

    ‘모델 사용’ 동작을 활용하려면 먼저 앱 인텐트를 통해 앱 기능을 노출하세요 사용자가 모델 기반 단축어에 앱을 직접 통합할 수 있습니다 단축어 사용자는 모델의 출력 유형을 명시적으로 선택할 수 있죠 서식 있는 텍스트, 목록 또는 사전 등입니다 개발자는 앱 인텐트가 이러한 출력 유형을 수신할 준비가 되도록 합니다 사용자는 앱에서 모델로 콘텐츠를 전달할 수 있습니다 App Intents 프레임워크를 사용해 이 콘텐츠를 앱 엔티티로 정의하죠 그러면 모델이 앱의 데이터를 기반으로 추론할 수 있습니다 이러한 통합 덕분에 ‘모델 사용’ 동작은 앱 도달 범위 확장을 위한 강력한 도구가 됩니다

    요약하면, 앱 인텐트는 시스템 전체의 앱 통합에 도움이 됩니다 이를 사용해 이미지 검색을 시각 지능에 도입할 수 있습니다 또한 앱에서 단축어로 콘텐츠를 노출합니다 Mac의 Spotlight에서 직접 앱 동작을 실행할 수 있도록 허용하죠

    지금까지 ML 활용 방법과 시스템에 내장된 AI 기반 기능을 살펴봤습니다

    다음으로 모델을 기기로 가져오는 방법과 그에 수반되는 모든 고려 사항을 살펴보죠 조금 복잡하게 느껴질 수 있지만 Core ML을 사용하면 쉽습니다 필요한 건 Core ML 형식의 머신 러닝 모델뿐입니다 이러한 모델 애셋에는 모델 입력, 출력 아키텍처에 대한 설명과 학습된 매개변수 또는 가중치가 포함됩니다

    사용 가능한 모델이 많고 선택할 수 있는 폭이 넓습니다 예를 들면 오디오용 Whisper 이미지 생성용 Stable Diffusion 언어 처리용 Mistral 등의 모델이 있습니다 이 모델은 모두 Apple 기기에서 사용 가능하며 최적화되었습니다

    어디에서 구할 수 있을까요? Hugging Face의 Apple 페이지 또는 developer.apple.com/kr에서 직접 다운로드할 수 있습니다 이러한 모델은 모두 Apple Silicon용으로 최적화되었고 ML 패키지 형식으로 제공되므로 Xcode 프로젝트에 쉽게 통합할 수 있습니다 사용 방법을 살펴보죠

    모델을 다운로드한 후 Xcode로 드래그 앤 드롭만 하면 시작할 수 있습니다 Xcode는 모델을 인식할 뿐만 아니라 모델의 입력과 출력을 기반으로 모델과 상호작용하기 위한 Swift 코드도 생성합니다 Xcode는 모델을 가져온 직후에 모든 메타데이터를 표시하여 모델의 구조와 기능에 대한 인사이트를 제공합니다

    컴퓨팅 집약적인 모델이 있는 경우 모델 예측 성능이 앱 내 멋진 사용자 경험을 위해 필요한 지연 시간을 충족하도록 하는 것이 중요합니다 클릭 몇 번으로 Xcode는 로드 시간, 온디바이스 완료 시간 예측 지연 시간이 요약된

    성능 보고서를

    생성할 수 있습니다 지연 시간은 모델의 응답을 받는 데 걸리는 시간입니다

    해당 모델이 Neural Engine에서 지원되는지 확인하여 한층 더 뛰어난 성능과 지연 시간을 제공할 수도 있습니다 원하는 모델을 Core ML 형식으로 사용할 수 없다면 어떨까요?

    여러분 또는 데이터 과학 팀이 PyTorch 같은 프레임워크를 사용해 맞춤형 요구 사항에 맞게 맞춤형 모델을 학습, 미세 조정합니다 모델의 성능에 만족했다면 앱에 통합할 차례입니다 이때 Core ML 도구를 사용합니다 이는 PyTorch 등 다양한 오픈 소스 프레임워크의 모델을 Core ML 호환 형식으로 변환하고 최적화하는 API가 포함된 오픈 소스 Python 패키지입니다

    마지막으로, 여러분 중 AI 연구의 최전선에 있는 분들은 Apple Silicon의 강력한 성능을 최대한 활용하여 최신 연구 모델을 사용하는 맞춤형 솔루션을 프로토타이핑할 수 있습니다 현재 탐색의 최전선에 보조를 맞추려면 대규모 모델을 실행하고 고유한 아키텍처를 조정하고 오픈 ML 커뮤니티와 함께 학습하고 협업하는 능력이 필요합니다 Apple은 최전선 탐색을 위한 고급 도구와 리소스를 제공합니다

    MLX는 Apple Silicon용으로 설계된 오픈 소스 ML 프레임워크입니다 Apple 기기에서 기본 숫자 컴퓨팅부터 대규모 최전선 머신 러닝 모델 실행까지 다양하게 활용할 수 있는 유연한 도구입니다 MLX를 사용해 대규모 언어 모델로 텍스트를 생성하거나 최신 모델로 이미지, 오디오 또는 비디오도 생성할 수 있습니다 Mac에서 직접 머신 러닝 모델을 학습, 미세 조정, 맞춤 설정하는 데 사용할 수도 있죠

    MLX는 Mac에서 바로 단일 줄 명령줄 호출로 Mistral 등 대규모 언어 모델에서 최첨단 ML 추론을 실행할 수 있습니다 예를 들어 여기서는 LLM을 사용해 퀵 정렬 알고리즘에 대한 Swift 코드를 생성합니다

    MLX를 사용하면 오픈 소스 커뮤니티 덕분에 최첨단 연구의 흐름을 따라갈 수 있으며 이 커뮤니티는 이러한 모델을 MLX에서 사용할 수 있도록 노력합니다

    모든 MLX 소프트웨어는 퍼미시브 MIT 라이선스에 따른 오픈 소스죠 핵심 소프트웨어는 GitHub에서 사용할 수 있으며 Python과 Swift API로 만든 예제와 패키지가 함께 제공됩니다 또 MLX는 Hugging Face에서 활발한 모델 제작자 커뮤니티가 있습니다 최신 모델 중 다수는 이미 MLX 커뮤니티 Hugging Face 조직에 등록되어 있으며 거의 매일 새로운 모델이 업로드됩니다

    MLX 외에 PyTorch나 JAX 같은 다른 프레임워크를 사용하는 경우 Metal API를 사용해 Apple Silicon에서도 가속됩니다 따라서 여러분이 이미 알고 있고 좋아하는 도구를 모델 탐색을 위해 계속 사용할 수 있습니다 그리고 앱에서 이러한 모델을 사용할 준비가 되면 Core ML을 사용해 배포할 수 있습니다

    머신 러닝과 Apple Intelligence의 모든 새로운 기능을 살펴봤습니다 머신 러닝 관련 요구 사항과 경험에 따라 프로젝트에 가장 적합한 프레임워크와 도구를 선택하세요 LLM 미세 조정 Vision Pro용 컴퓨터 비전 최적화 ML 기반 API 활용 등 다양한 경우에 대응합니다

    그리고 이 모든 것이 Apple Silicon용으로 최적화되어 머신 러닝 및 AI 워크로드를 위한 강력한 효율 실행을 제공하죠

    지금은 Apple 플랫폼의 앱에 ML과 AI를 도입할 적기입니다 파운데이션 모델을 사용해 보세요 Xcode 플레이그라운드를 사용해 시작하세요 이미지 검색을 시각 지능에 추가해 무엇이 가능한지 실험해 보세요 여러분이 빌드하실 앱이 정말 기대됩니다 감사합니다 오늘 함께해 주셔서 정말 감사드립니다 이제

    다시 Leah에게 넘기겠습니다

    파운데이션 모델 사용 방법에 대한 아이디어가 벌써 떠오르네요 이제 Allan을 무대 위로 다시 초대해 visionOS의 최신 업데이트에 대해 알아보죠

    감사합니다

    안녕하세요, 잘 지내고 계신가요? 좋습니다 참석해 주셔서 감사합니다 온라인으로 참석 중이신 모든 분께도 감사드립니다 저는 Allan Schaffer입니다 Developer Relations 팀에서 기술 에반젤리스트로 일하고 있죠 여러분께 visionOS 26와 WWDC에서 발표된 업데이트 사항에 대해 모두 소개하게 되어 기쁩니다 지난달에 WWDC가 있었죠? visionOS가 대대적으로 업데이트되었습니다 올해에는 visionOS만을 다룬 14개의 비디오를 제공했으며 모든 비디오는 최신 공간 컴퓨팅 업데이트 사항을 모두 확인할 수 있도록 설계되었죠 Compositor Services를 활용한 Metal 사용부터 SwiftUI 업데이트 사항 RealityKit 개선 사항 타사 액세서리 새로운 비디오 기술과 그 외 수많은 내용까지 사실 이 모든 내용은 앞으로 30분 동안 다룰 수 있는 것보다 훨씬 더 많습니다 따라서 오늘은 주요 내용과 새로운 기능에 대한 가장 큰 업데이트 사항 몇 가지만 소개하려고 합니다 이를 유념하면서 visionOS 26에 대해 자세히 알아보고 주제를 살펴보겠습니다 먼저, SwiftUI의 볼류메트릭 기능 몇 가지를 다루겠습니다 이러한 기능을 사용하면 훨씬 더 몰입감 넘치는 앱을 만들 수 있습니다 새로운 시스템 기능도 있습니다 예를 들어 Apple Intelligence 그리고 앱 콘텐츠를 해당 공간에 지속적으로 유지할 수 있는 새로운 방법도 있습니다 또한 버튼 입력과 햅틱 피드백의 더 세밀한 제어를 위한 새로운 상호작용과 액세서리 지원도 있죠 그 다음에는 몰입형 미디어 업데이트 사항을 살펴봅니다 Vision Pro에 특별히 적합한 새로운 비디오 형식이 있습니다

    올해에는 새로운 공유 및 협업 기능도 있습니다 마지막으로 기업용 앱을 개발하는 분들을 위한 엔터프라이즈 API의 새로운 기능을 공유하겠습니다 그럼 이제 SwiftUI에 도입되는 볼류메트릭 기능으로 시작하죠

    이전에 이 모든 내용을 들어 보셨겠지만 반복하자면 Vision Pro를 위한 멋진 앱을 빌드하고 네이티브 도구와 기술을 활용하는 가장 좋은 방법은 SwiftUI 사용입니다 SwiftUI는 3D로 앱을 빌드하고 더욱 몰입감 넘치는 앱을 만드는 몇 가지 새로운 방법을 제공합니다 SwiftUI와 visionOS 26에 추가된 주요 기능 중 하나는 콘텐츠의 레이아웃과 매우 익숙한 SwiftUI 레이아웃 도구 및 뷰 한정자 중 얼마나 많은 수가 최고 수준의 3D 아날로그 기능을 추가해 뷰에 심도와 Z 위치를 부여한 다음 그에 대해 작업하는지와 관련되죠 따라서 SwiftUI로 2D 앱을 개발하는 데 익숙하시다면 이제 매우 풍부한 3D 레이아웃을 이미 매우 익숙하실 동일한 방식으로 생성할 수 있어요

    제가 강조하려는 두 가지는 새로운 depthAlignment와 rotation3DLayout입니다 depthAlignment부터 살펴보죠 일반적인 3D 레이아웃을 위한 구성을 처리하는 쉬운 방법이죠 예를 들어 여기서는 front depthAlignment를 사용해 이 네임 카드를 3D 모델이 포함된 볼륨의 앞쪽에 자동으로 배치합니다 아주 간단하죠

    또 다른 추가 사항은 rotation3DLayout 한정자입니다 여기서 주목할 점은 맨 위 비행기 모델이 어떻게 가운데 모델이 편안히 회전할 수 있게 해 주는지입니다 실제로 회전 3D 레이아웃이 하는 일은 레이아웃 시스템 내에서 지오메트리를 회전할 수 있도록 하는 것입니다 그리고 그 회전을 뷰에 다시 전달하여 앱이 반응할 수 있도록 합니다

    아주 간략히 언급할 몇 가지 다른 업데이트는 프레젠테이션으로 일시적 콘텐츠를 구현할 수 있다는 것입니다 등산로에 대한 이 콘텐츠 카드처럼요 이제 이러한 내용을 볼륨 내에서 또는 오너먼트 볼륨으로 표시 가능하므로 이 작업은 메뉴, 툴팁, 알림, 시트 팝오버를 사용해 수행할 수 있습니다 프레젠테이션도 3D 콘텐츠 내에 들어가 계속 표시될 수 있습니다 가려진 상태에서는요 이 기능은 어떤 컨텍스트에서든 멋지게 보이는 데 도움이 됩니다

    또 다른 기능을 보면 일반적으로 윈도우와 볼륨은 앱 UI와 공유 공간의 콘텐츠를 위한 컨테이너 역할을 합니다 하지만 새로운 기능 Dynamic Bounds Restriction 덕분에 여기 보이는 구름과 같은 앱 콘텐츠가 윈도우 또는 볼륨의 경계 외부로 솟아오르는 객체를 갖도록 허용할 수 있습니다 그러면 콘텐츠가 더 몰입감 넘치게 표현될 수 있습니다

    다음 내용을 살펴보면 이제 제스처와 객체 조작을 더 쉽게 도입할 수 있습니다 가상 콘텐츠와의 상호작용이 자연스럽게 느껴지고 실제 세계를 모방하는 것은 항상 중요합니다 이제 간단한 손 동작으로 객체를 조작할 수 있습니다 한 손 또는 양손으로 방향을 바꾸고 양손으로 핀치하고 드래그해 크기를 조절하고 한 손에서 다른 손으로 객체를 전달할 수도 있습니다 이제 이 기능이 내장되어 있어 복잡한 제스처 처리 세트를 구현할 필요가 없습니다

    객체가 맞춤형 뷰인지 RealityKit 엔티티인지에 따라 SwiftUI 또는 RealityKit을 사용해 이 동작을 앱 내 객체에 적용할 수 있습니다 manipulable 뷰 한정자와 SwiftUI를 사용하거나 ManipulationComponent를 RealityKit에 추가하거나 이미 내장된 QuickLook3D 뷰 사용 시 하나 더 추가할 수 있고 무료죠

    RealityKit에 대해 말하자면 SwiftUI, RealityKit, ARKit 사이에 훨씬 더 심도 있는 조정이 이루어졌습니다 특히 SwiftUI 코드에서 RealityKit과의 상호작용을 간소화하는 많은 개선 사항이 있습니다 예를 들어 이제 RealityKit 엔티티와 애니메이션은 관찰 가능하므로 SwiftUI 뷰에서 한층 더 쉽게 변경 사항을 관찰할 수 있습니다 향상된 좌표 변환 API가 있습니다 SwiftUI로 제스처 핸들러를 작성하고 해당 제스처를 RealityKit 엔티티에 직접 첨부할 수 있습니다 이제 Model3D가 훨씬 더 많은 작업을 수행할 수 있습니다 애니메이션 재생 USD 변형 로드 모델에서 다양한 구성 간 전환 등이죠

    새로운 API를 보여 드리기 위해 사용해 온 이 예제는 여러분이 다운로드하실 수 있습니다 Canyon Crosser라고 하며 developer.apple.com/kr에 있죠

    계속해서 시스템 기능에 대해 살펴보죠 조금 전에 Shashank가 모든 Apple 운영 체제에 걸친 Apple Intelligence와 머신 러닝의 많은 기술 발전에 대해 소개했는데요 이러한 기능은 visionOS에서도 필수적 부분입니다

    visionOS에서 머신 러닝을 위한 가장 중요한 변화 중 하나는 이제 특별한 Entitlement(권한) 없이도 API가 Neural Engine에 접근할 수 있도록 한다는 것입니다 이는 큰 변화입니다 따라서 CPU나 GPU에서만이 아니라 Neural Engine을 통해 기기에서 바로 자체 모델을 실행할 수 있습니다

    또한 새로운 파운데이션 모델프레임워크를 visionOS에도 도입했기 때문에 모든 Apple Intelligence 기능의 핵심인 대규모 언어 모델 등에 직접 접근할 수 있습니다 Apple의 다른 플랫폼에서와 동일한 프레임워크이므로 LLM에 프롬프트를 제공할 수 있고 기기에서 바로 가이드 생성을 통해 정형 출력을 생성할 수 있습니다 모델에 대한 도구 호출을 사용해 해당 모델이 데이터를 가져오거나 코드 등을 정의하는 동작을 수행하도록 할 수 있습니다

    또한 iOS, macOS뿐만 아니라 visionOS를 위한 새 음성-텍스트 변환 API도 도입했는데 바로 SpeechAnalyzer입니다 이미 시스템 전반에서 사용되고 있으며 실시간 자막 FaceTime, 메모 앱의 오디오 전사문에 사용됩니다 이제 이를 여러분의 앱에도 도입할 수 있습니다 그와 함께 새로운 음성-텍스트 변환 모델이 포함됩니다 Shashank가 언급했던 SpeechTranscriber입니다 더 빠르고, 더 유연하며 미디어 자막 같은 기능에 정말 이상적입니다 물론 모든 것은 전적으로 기기에서 실행됩니다

    그럼 이어서 위젯에 대해 살펴보겠습니다 위젯은 가벼운 앱 확장 프로그램으로, 날씨 예보나 캘린더 이벤트 등의 정보를 한눈에 제공합니다 실제로 위젯은 사용자에게 한눈에 보이는 관련 맞춤형 정보를 제공합니다 앱을 열 필요 없이 컨텍스트 정보를 표면에 표시하죠 공간 플랫폼으로서 visionOS는 위젯이 완전히 새로운 형태를 갖추도록 합니다 주변 환경에서 편안하게 느껴지는 3차원 객체가 되며 그 스타일의 많은 측면은 맞춤 설정되어 해당 공간에 딱 맞을 수 있습니다

    이제 위젯을 벽 또는 선반 책상, 조리대 등과 같은 가로 또는 세로 표면에 배치할 수 있으며 그 위치에 고정된 상태로 유지되고 여러 세션에 걸쳐 지속됩니다 따라서 방을 나갔다가 나중에 다시 돌아오거나 기기를 벗었다가 나중에 다시 착용해도 위젯이 해당 위치에 남아 공간의 일부가 됩니다

    이제 위젯에는 선택할 수 있는 여러 크기 템플릿이 있습니다 하지만 visionOS에서는 실제 크기가 적용되어 해당 공간에서 매우 실제적인 존재감을 선사합니다 따라서 위젯을 포함해 개발하는 경우 위젯이 어디에 놓일 수 있는지 벽에 걸지 책상 위에 놓을지 등을 생각해 본 다음 해당 컨텍스트에 적합한 크기를 선택해야 합니다

    visionOS의 또 다른 고유한 특징은 근접 인식 기능입니다 즉, 위젯은 변경될 수 있고 얼마나 멀리 떨어져 있는지에 따라 스타일과 레이아웃을 조정할 수 있습니다 예를 들어 이 스포츠 위젯에서는 더 가까이 다가갈수록 더 자세한 정보가 표시됩니다

    좋은 소식이 있습니다 iPhone 앱 또는 iPad 앱에 이미 위젯이 포함되어 있다면 이미 시작이 좋습니다 앱이 호환성 모드로 실행 중인 경우 위젯이 visionOS로 이전되어 새로운 공간 특성에 자동으로 적응하기 때문입니다

    지금까지 visionOS의 새로운 시스템 기능 몇 가지를 살펴봤으니 이제 상호작용으로 넘어가죠 손과 눈은 Vision Pro의 주요 입력 방법입니다 Apple은 전적으로 사용자가 보는 위치에 따라 직관적인 손 동작으로 인터페이스를 탐색할 수 있도록 visionOS를 구축했습니다 visionOS 26에서는 손 추적 기능이 향상되어 이전보다 최대 3배나 더 빠른 90Hz가 되었고 이에 따라 앱과 게임의 반응성이 훨씬 더 좋아질 수 있습니다 필요한 코드는 없습니다 이 속도로 실행되기 때문에 내장되어 있습니다

    웹 콘텐츠와 앱에서 눈만 사용해 탐색하는 새로운 방법도 추가했는데 ‘바라봐서 스크롤하기’입니다 멋진 개선 사항입니다 일종의 매우 가벼운 상호작용으로, 손으로 스크롤하는 것과 함께 작동합니다 또한 이를 여러분의 앱에도 적용할 수 있습니다 SwiftUI와 UIKit의 API를 통해서요

    또한 visionOS는 해당 유형의 입력이 사용 사례에 적합한 경우 Bluetooth 키보드와 트랙패드를 지원하며 적합할 수 있는 게임 컨트롤러도 지원합니다 조이스틱과 버튼 D 패드가 필요할 수도 있고 다른 플랫폼의 게임을 가져와서 이미 컨트롤러 입력을 중심으로 게임플레이를 설계했을 수도 있죠

    이제 visionOS 26에서는 또 다른 옵션을 추가했는데 바로 공간 액세서리입니다 사용자에게 6자유도의 더 세밀한 제어 항목 추적 촉각 버튼 햅틱 피드백을 제공하며 Game Controller 프레임워크를 통해 두 가지 새로운 공간 액세서리에 대한 지원도 추가했습니다

    그중 첫 번째는 Sony의 PlayStation VR 2 Sense 컨트롤러입니다 물론 이러한 제품은 고성능 게임과 기타 완전 몰입형 경험에 매우 적합합니다 버튼, 조이스틱, 트리거가 있으며 가장 중요한 점은 6자유도로 세계 공간 위치와 방향을 추적한다는 것입니다

    다른 새로운 액세서리는 Logitech Muse로 그림 그리기나 조각하기 같은 정밀한 작업에 적합합니다 팁과 측면 버튼에서 가변 입력을 허용하는 4개의 센서가 있으며 햅틱 피드백도 있습니다 한 가지 예를 들어 보죠 Spatial Inc.의 Spatial Analog입니다 USD 모델 및 기타 3D 애셋과 함께 사용 가능한 협업 디자인 도구로 Muse를 사용해 이 가상 의자의 치수를 주석 처리하고 있습니다

    이제 액세서리에서 얻는 풍부한 데이터를 활용할 수 있습니다 위치와 회전은 Vision Pro에 탑재된 카메라와 액세서리에 내장된 센서의 결합을 사용해 추적됩니다 ARKit도 액세서리를 잡고 있는 손 액세서리가 실제 공간에서 움직일 때의 속도 회전 움직임과 같은 추가 데이터를 이용할 수 있게 해 줍니다

    이제 공간 액세서리는 햅틱 기능도 갖출 수 있게 되었으며 햅틱은 항상 훌륭한 피드백 메커니즘입니다 이를 통해 상호작용이 매우 사실적으로 느껴지죠

    주목할 만한 또 다른 점은 RealityKit의 앵커 엔티티로 가상 콘텐츠를 액세서리 자체에 고정할 수 있다는 것입니다 예를 들어 게임에서 컨트롤러의 그립에 고정될 수 있는 게임 피스가 있을 수 있고 누군가는 한 곳에서 다른 곳으로 이를 옮길 수 있습니다 정확히 그 예제가 여기 있습니다 Resolution Games의 Pickleball Pro 또는 PicklePro입니다 피클볼을 하고 있고 가상 패들을 컨트롤러의 그립에 바로 고정했습니다 공도 마찬가지고요 잘 작동합니다 놀라울 만큼 잘 작동해요 그리고 위치 추적이 매우 정밀합니다

    공간 액세서리를 살펴봤습니다 특별한 공간 액세서리를 지원하여 사용자에게 입력에 대한 더 세밀한 제어력을 제공할 수 있죠 햅틱 피드백을 제공하여 플레이어와 다른 사용자들이 이러한 가상 상호작용을 느낄 수 있게 하면 좋을 것입니다 이 모든 것은 Game Controller 프레임워크, RealityKit과 ARKit을 통해 지원되고 있습니다

    다음으로, 몰입형 미디어에 대해 살펴보죠 사진으로 시작하려고 합니다 visionOS는 사진 및 기타 2D 이미지를 완전히 새롭게 표시할 수 있는데 이를 공간 장면이라고 합니다 공간 장면은 실제 심도를 갖는 3D 이미지입니다 해당 이미지는 이러한 2D 이미지에서 생성됩니다 보는 사람이 해당 장면을 기준으로 머리를 움직일 때 공간 장면 심도를 강조하기 위해 동작 시차를 적용한 사진의 디오라마 버전 같은 것이 있습니다

    여기에 Zillow의 실제 예가 있습니다 부동산업자가 찍은 일반 사진입니다 이 효과가 어떤 이미지에든 적용될 수 있다는 걸 보여 주죠 사진 웹에서 가져온 이미지 오래된 폴라로이드 등 뭐든지요 정말 이런 이미지에서 입체적인 심도가 느껴지도록 합니다 첫 번째는 공간 장면이었습니다

    이제 비디오로 넘어가서 Vision Pro는 포괄적인 스펙트럼을 제공하거나 포괄적인 미디어 형식 스펙트럼을 지원합니다 2D 비디오 3D 입체 영화 공간 비디오 Apple Immersive Video가 포함되며 이제 visionOS 26에서는 180도, 360도, 광시야 비디오 등 세 가지 추가 미디어 유형에 대한 지원을 추가했습니다 이 모든 것이 이제 몰입형 미디어를 위한 포괄적인 옵션 세트를 제공합니다 하지만 이는 또한 개발자로서 여러분에게 앱을 위해 고려해야 할 다양한 형식과 여러 종류의 경험이 있다는 것을 의미합니다

    이를 지원하고 여러분을 지원하기 위해 새로운 QuickTime 영화 프로필인 Apple Projected Media Profile 즉 APMP를 도입했습니다 APMP는 비디오 파일의 메타데이터를 사용해 어떤 종류의 미디어를 나타내는지 식별한 다음 해당 콘텐츠의 투사를 비디오 플레이어에 나타냅니다 개념을 설명하기 위해 예를 하나 보여 드리겠습니다 왼쪽에는 액션 카메라로 촬영한 와이드 FOV 미디어가 있습니다

    프레임의 정지 이미지에서 약간의 곡선이 보이는데 어안 렌즈로 인해 시야가 더 넓어졌기 때문입니다 이제 이러한 두 가지를 재생해 보겠습니다

    오른쪽에서는 APMP가 미디어 프레임워크를 통해 비디오를 곡선 표면에 투사하고 보는 사람의 눈은 액션의 중앙에 위치하도록 합니다 곡선은 카메라 렌즈 프로필과 일치하므로 어안 효과가 본질적으로 사라집니다 Vision Pro 내부에서 보는 사람은 직선을 직선으로 보게 되며 이미지의 양 측면에서도 마찬가지입니다

    따라서 APMP는 매우 유용하며 이를 지원하기 위해 180도, 360도 와이드 FOV 비디오를 촬영하는 많은 카메라에서 APMP로의 자동 변환 기능을 추가했습니다 Canon, GoPro, Insta 360 등이 있습니다

    또한 기존 180도 및 360도 콘텐츠가 이미 많이 있으므로 macOS의 avconvert 명령줄 도구를 업데이트해 180도 및 360도 콘텐츠를 APMP로 변환하는 기능을 지원합니다

    잠시 돌아가서 Apple Immersive Video를 살펴보죠 Apple Immersive Video는 Apple Vision Pro용으로 설계된 형식으로 180도 3D 8K 비디오와 공간 음향을 사용해 매우 몰입감 넘치는 시청 경험을 선사합니다 이제 visionOS 26에서 Apple Immersive Video를 개발자와 콘텐츠 제작자에게 공개합니다

    이제 콘텐츠 제작자의 파이프라인은 다음과 같습니다 Black Magic의 놀라운 URSA Cine Immersive 카메라를 사용해 Apple Immersive Video를 촬영할 수 있습니다 그런 다음 DaVinci Resolve에서 편집과 보정을 합니다 App Store에서 제공되는 새로운 Apple Immersive Video 유틸리티로 미리 보고 검증할 수 있습니다 그 후에는 목적지에 따라 달라지지만 스트리밍을 한다고 가정해 보죠 세그먼트와 Compressor를 생성할 수 있습니다 예를 들어 HTTP Live Streaming을 통한 배포를 위해서요

    Apple Immersive Video 작업을 위해 자체 도구를 만들려는 프로용 앱 개발자의 경우 macOS와 visionOS에 새 프레임워크가 있는데 Immersive Media Support입니다 Apple 몰입형 콘텐츠를 프로그래밍 방식으로 읽고 쓸 수 있게 해 주죠 멋진 샘플 코드인 Authoring Apple Immersive Video는 시작에 도움이 됩니다

    그런 다음에는 이 모든 것이 여러분의 앱에서 재생됩니다 Apple Immersive Video는 이제 visionOS 26에서 재생될 수 있으며 이를 위해 RealityKit, AVKit Quick Look, WebKit 등 모든 미디어 재생 프레임워크가 사용될 수 있습니다 따라서 여러분이 빌드하는 모든 종류의 경험에 이를 통합할 수 있습니다

    몰입형 미디어를 살펴봤습니다 2D 사진에 진정한 심도와 시차를 적용하는 공간 장면으로 시작해 새로운 APMP 프로필과 자동 변환 도구를 언급했습니다 크리에이터와 프로용 앱 개발자는 Apple Immerse Video를 활용해 대상 사용자에게 궁극적인 시네마틱 경험을 선사할 수 있습니다

    다음으로 공유의 새로운 기능을 자세히 살펴보겠습니다 협업은 공간 컴퓨팅의 초석 중 하나이며 사람들을 연결하는 능력입니다 이를 위한 방법 중 하나는 공간 페르소나를 사용하는 것이죠 공간 페르소나는 Vision Pro 착용 시 나타나는 여러분의 진정한 공간 표현입니다 이를 통해 다른 사용자가 여러분의 얼굴 표정과 손 움직임을 실시간으로 볼 수 있습니다 이제 visionOS 26에서 공간 페르소나의 베타 버전이 종료되었으며 머리카락 피부색, 표정, 표현 등 다양한 면에서 많은 개선이 이루어졌습니다

    또한 visionOS 26에서는 SharePlay와 FaceTime을 근처 윈도우 공유라는 새로운 기능으로 확장했습니다 근처 윈도우 공유를 사용하면 동일한 물리적 공간에 있는 사용자들이 애플리케이션을 공유하고 함께 상호작용할 수 있습니다 이 앱은 Defenderella입니다 Rock Paper Reality에서 제작한 멀티플레이어 타워 디펜스 게임으로 생생하게 펼쳐집니다 바로 여러분의 공간에서요 근처의 다른 사용자들과 함께 플레이하면 아주 재밌습니다

    이 모든 것은 앱을 공유하는 새로운 방식으로 시작됩니다 이제 모든 윈도우에는 윈도우 막대 옆에 공유 버튼이 있고 이 버튼을 누르면 공유 윈도우가 열리며 이 공유 윈도우를 탭하면 근처에 있는 사용자가 표시되어 이들과 쉽게 공유를 시작할 수 있습니다

    누군가가 공유를 시작하면 시스템에서 앱이 모든 사용자에게 동일한 위치에 동일한 크기로 나타나도록 합니다 앱은 해당 공간의 모든 사용자에게 표시되므로 대화를 나누고 사물을 가리키고 마치 실제 객체가 해당 공간에 있는 것처럼 앱과 상호작용할 수 있습니다 사용자는 서로 콘텐츠를 주고받을 수도 있습니다

    참여하는 사용자는 누구나 공유 윈도우와 상호작용하고 공유 윈도우를 움직이고 크기 조절하고 실제 공유 주변 환경의 벽이나 다른 표면에 고정할 수도 있습니다 누군가가 Digital Crown을 잡고 중심을 재설정하면 앱이 모든 사용자에게 적합한 곳으로 물러납니다 누군가가 무언가를 가리키다가 가상 윈도우를 가리게 되면 콘텐츠가 희미해져 다른 사용자에게 해당 사용자가 계속 보이도록 합니다

    가구 앱이라고 가정해 보죠 사용자들이 공유 컨텍스트를 유지하면서 콘텐츠를 배치하도록 할 수도 있습니다 이를 위해 공유 월드 앵커를 사용합니다 예를 들어 방에 가상 가구를 놓는 앱이라면 근처의 모든 참여자에게 동일한 곳에 나타납니다

    또한, 이 공유 컨텍스트는 동일한 공간에 있는 사용자만을 위한 것이 아닙니다 FaceTime을 통해 원격 참여자를 초대할 수도 있습니다 Vision Pro를 사용하는 경우 공간 페르소나로 나타납니다

    언급할 또 다른 사항은 Apple Vision Pro는 전반적인 Apple 생태계의 일부이므로 여러 기기에서 협업 경험을 쉽게 구축할 수 있다는 것입니다 그 예를 하나 보여 드리죠 Resolution Games에서 만든 협력 던전 크롤러 게임 Demeo입니다 그룹으로 함께 플레이하면 정말 재밌습니다 플레이어 중 한 명이 Vision Pro를 사용해 몰입형 경험을 하고 있네요 그녀의 친구들도 iPad와 Mac에서 즐거움에 동참했습니다

    정말 멋진 경험이네요 SharePlay와 근처 윈도우 공유에 대한 업데이트를 아주 간략히 살펴봤습니다 SharePlay를 앱에 적용할 때의 몇 가지 팁입니다 먼저 근처 참여자와 원격 참여자 모두를 위한 경험을 디자인합니다 또한 공간 페르소나를 염두에 두고 앱을 빌드합니다 사용자들이 다양한 Apple 플랫폼에 걸쳐 소통할 수 있는 경험을 생각해 보세요

    그럼 이제 마지막 섹션으로 넘어가죠 작년에는 visionOS용 엔터프라이즈 API의 첫 번째 세트를 소개했는데 메인 카메라 접근 등이었습니다 또한 바코드 스캔 추가 성능 헤드룸 등이 있었죠 그 이후로 해당 팀은 정말 열심히 노력했습니다 기업 개발자를 위해 한층 더 많은 기능을 제공하기 위해서요 기업 개발자를 위한 visionOS 26의 새로운 기능을 소개합니다 언급해야 할 한 가지는 이러한 기능은 더욱 심도 있는 기기 접근을 제공한다는 것입니다 API에 대한 접근은 Entitlement(권한)와 개발자 계정에 연결되는 사용권을 통해 관리됩니다 그럼, 살펴보죠 더 확장된 카메라 접근부터 알아보겠습니다 이전에는 권한 있는 기업용 앱이 왼쪽 눈에 해당하는 왼쪽 메인 카메라의 비디오 피드에 접근할 수 있었지만 이제 왼쪽이나 오른쪽 카메라에 개별적으로 또는 스테레오 처리 및 분석을 위해 두 카메라 모두에 접근할 수 있도록 확장했습니다 이미 이 방식에 익숙하다면 ARKit에 포함된 API의 카메라 프레임 제공자이기 때문입니다 앞서 언급했듯이 앱에서 이제 Neural Engine에 접근할 수 있으므로 이 모든 것을 결합하고 자체 맞춤형 머신 러닝 모델을 통해 카메라 피드를 실행한 다음 Neural Engine에서 실행하는 것을 상상해 보세요

    또한 visionOS 26에서는 사용자가 실제 환경 시야 내에서 특정 영역을 선택하고 자체 윈도우 내에서 해당 영역의 전용 비디오 피드를 받을 수 있는 새로운 기능을 도입했습니다 이 새로운 SwiftUI 뷰를 카메라 영역 뷰라고 합니다 한 가지 예를 살펴보죠 압력 게이지 위에서 캡처하고 싶은 왼쪽 아래 영역에 윈도우를 배치하려고 합니다 이제 다른 작업을 하는 동안 이를 지속적으로 확인하거나 원격 참여자와 이 비디오 피드를 공유할 수도 있습니다

    공유와 관련하여 조금 전에 SharePlay를 사용한 근처 경험을 다뤘습니다 일부 기업은 현재 FaceTime이나 SharePlay를 활용하지 않고 있는데 맞춤형 네트워킹 또는 다른 요구 사항이 있을 수 있습니다 이들을 위해 ARKit에 새로운 API를 도입했습니다 이를 통해 동일한 물리적 공간에 있는 사용자와 공유 좌표 공간을 설정할 수 있습니다 이를 공유 좌표 공간 제공자라고 합니다 이제 여러 참여자가 로컬 네트워크를 통해 좌표계를 정렬하고 협업 데이터를 교환하고 월드 앵커를 교환할 수 있게 되었습니다 이는 프로젝트 협업을 수행하는 좋은 방법입니다

    다음은 Window Follow 모드입니다 때때로 작업 중에 이동해야 할 때가 있는데 대시보드를 주시하거나 수리 지침을 참고하거나 학습 지침을 참고하면서 이동해야 할 수도 있습니다

    Follow 모드를 사용하면 사용자가 장소를 이동할 때 지속적으로 사용할 윈도우를 선택해 이를 수행할 수 있습니다 이렇게 하기 위해 꼭 걸어야 하는 것은 아니고 돌아다니기만 하면 바로 옆에 붙어 있을 겁니다

    마지막 내용은 데이터 개인정보 보호에 관한 것입니다 많은 기업 앱은 재무 데이터, 환자 기록 기타 전유적 정보 등 민감한 정보를 처리하며 누군가가 화면 공유를 시작할 경우 이러한 정보가 기록되거나 표시되는 것을 원하지 않을 수 있습니다 이제 앱은 스크린샷과 화면 미러링 등에서 뷰의 콘텐츠를 실제로 숨길 수 있습니다 contentCaptureProtected 뷰를 사용하면 됩니다 이는 SwiftUI용 뷰 한정자입니다 이제 해당 콘텐츠는 기기를 착용한 사용자에게는 계속 완벽하게 표시되지만 화면 캡처, 녹화 미러링된 뷰 기타 공유 뷰에서는 제한됩니다

    이러한 모든 기능이 엔터프라이즈 API 세트에 포함되어 사내 앱에 대해 한층 더 강력한 엔터프라이즈 솔루션과 공간 경험을 구현할 수 있습니다

    이제 마무리할 시간이네요 지금까지 visionOS 26에 포함되는 새로운 기능 중 일부를 살펴봤습니다 반복하자면 오늘 많은 내용을 다루었지만 매우 간략히 훑어봤을 뿐이고 살펴보셔야 할 기능과 API가 훨씬 더 많이 있습니다 그중 많은 내용을 세션 비디오에서 다루므로 WWDC에서 게시한 비디오를 확인하시기 바랍니다 또한 올해에는 많은 새로운 visionOS 샘플 코드를 공개했고 모두 developer.apple.com/kr에서 다운로드하실 수 있습니다 그럼 이제 다시 Leah 나와 주세요 감사합니다

    감사합니다

    visionOS에 대한 멋진 업데이트 사항이 정말 많네요 WWDC의 주요 발표 내용을 간략히 살펴보는 자리에 시간을 내어 참석해 주신 모든 분께 감사드립니다 오늘 많은 내용을 다루었습니다 새로운 디자인 시스템의 개요와 앱에서 Liquid Glass를 신중히 사용하는 방법을 살펴보는 것으로 시작해 iOS 26와 macOS Tahoe를 친숙하게 느끼게 되었습니다 또한 SwiftUI, UIKit, AppKit 같은 네이티브 UI 프레임워크로 빌드 시 더 쉽게 새로운 디자인을 활용하여 다양한 플랫폼에 걸쳐 깔끔한 인터페이스와 일관성을 구현할 수 있는 이유를 공유했죠

    그런 다음 Apple Intelligence의 최신 업데이트를 살펴봤습니다 글쓰기 도구 또는 Image Playground 같은 AI 기반 기능 사용을 시작하거나 온디바이스 파운데이션 모델을 활용하거나 앱 인텐트로 앱의 도달 범위를 확장하거나 자체 모델에 Apple Silicon의 강력한 성능을 활용할 수 있습니다

    마지막으로 visionOS 26를 살펴봤습니다 SwiftUI의 새 볼류메트릭 기능으로 더 몰입감 있는 앱을 만들 수 있죠 SharePlay를 사용하여 협업 경험을 빌드하고 몰입형 미디어 형식을 사용해 놀라운 시각적 경험을 선사하며 공간 액세서리로 Apple Vision Pro를 제어하는 새 방법이 있어요 오늘 앞에서 말씀드렸듯이 이러한 주제는 빙산의 일각일 뿐입니다 오늘 살펴본 주제 중 일부에 대해 더 자세히 알아보고 싶거나 다룰 기회가 없었던 다른 주제를 살펴보고 싶으시면 Apple Developer 웹사이트에서 풍부한 문서, 비디오, 샘플 코드를 이용하실 수 있습니다

    또한 오늘 살펴본 모든 내용의 리소스 링크가 포함된 이메일을 오늘 중으로 보내 드릴 예정이니 이러한 주제에 대해 더 자세히 알아보실 수 있을 것입니다 Worldwide Developer Relations 팀은 올해 여름과 가을에 여러분 모두와 소통하게 되어 매우 기쁩니다 이러한 새로운 시스템과 기술을 앱에 도입하실 수 있도록 도와 드리겠습니다 Apple과 만나실 수 있는 향후 기회에 대한 자세한 내용은 Apple과의 만남, Hello Developer 뉴스레터에서 확인하시고 Apple Developer 앱과 웹사이트를 방문하시기 바랍니다 온라인으로 참석해 주신 모든 분께 정말 감사드립니다 Developer Center 또는 온라인에서 다시 뵙게 될 기회가 있기를 바랍니다 또한 쿠퍼티노에서 함께하고 계신 모든 참석자는 로비에서 다과를 즐기시면서 Apple 엔지니어 및 디자이너와의 대화에 참여해 주시기 바랍니다 참여해 주셔서 감사합니다 다음에 빌드하실 앱을 기대합니다

Developer Footer

  • 비디오
  • Meet With Apple
  • WWDC25의 주요 발표 내용 알아보기
  • 메뉴 열기 메뉴 닫기
    • iOS
    • iPadOS
    • macOS
    • tvOS
    • visionOS
    • watchOS
    메뉴 열기 메뉴 닫기
    • Swift
    • SwiftUI
    • Swift Playground
    • TestFlight
    • Xcode
    • Xcode Cloud
    • SF Symbols
    메뉴 열기 메뉴 닫기
    • 손쉬운 사용
    • 액세서리
    • 앱 확장 프로그램
    • App Store
    • 오디오 및 비디오(영문)
    • 증강 현실
    • 디자인
    • 배포
    • 교육
    • 서체(영문)
    • 게임
    • 건강 및 피트니스
    • 앱 내 구입
    • 현지화
    • 지도 및 위치
    • 머신 러닝 및 AI
    • 오픈 소스(영문)
    • 보안
    • Safari 및 웹(영문)
    메뉴 열기 메뉴 닫기
    • 문서(영문)
    • 튜토리얼
    • 다운로드(영문)
    • 포럼(영문)
    • 비디오
    메뉴 열기 메뉴 닫기
    • 지원 문서
    • 문의하기
    • 버그 보고
    • 시스템 상태(영문)
    메뉴 열기 메뉴 닫기
    • Apple Developer
    • App Store Connect
    • 인증서, 식별자 및 프로파일(영문)
    • 피드백 지원
    메뉴 열기 메뉴 닫기
    • Apple Developer Program
    • Apple Developer Enterprise Program
    • App Store Small Business Program
    • MFi Program(영문)
    • News Partner Program(영문)
    • Video Partner Program(영문)
    • Security Bounty Program(영문)
    • Security Research Device Program(영문)
    메뉴 열기 메뉴 닫기
    • Apple과의 만남
    • Apple Developer Center
    • App Store 어워드(영문)
    • Apple 디자인 어워드
    • Apple Developer Academy(영문)
    • WWDC
    Apple Developer 앱 받기
    Copyright © 2025 Apple Inc. 모든 권리 보유.
    약관 개인정보 처리방침 계약 및 지침