View in English

  • 메뉴 열기 메뉴 닫기
  • Apple Developer
검색
검색 닫기
  • Apple Developer
  • 뉴스
  • 둘러보기
  • 디자인
  • 개발
  • 배포
  • 지원
  • 계정
페이지에서만 검색

빠른 링크

5 빠른 링크

비디오

메뉴 열기 메뉴 닫기
  • 컬렉션
  • 주제
  • 전체 비디오
  • 소개

WWDC25 컬렉션으로 돌아가기

  • 소개
  • 요약
  • 자막 전문
  • 코드
  • 앱에서 시네마틱 비디오 촬영하기

    Cinematic Video API를 이용해 앱이 영화 같은 비디오를 손쉽게 촬영하는 방법을 알아보세요. 시네마틱 비디오 촬영 세션을 구성하는 방법을 설명하고 비디오 촬영 UI 빌드에 대한 기본 사항을 소개합니다. 또한 필드 심도 효과를 적용하여 추적 및 랙 포커스를 사용하는 등 향상된 시네마틱 기능도 살펴보겠습니다.

    챕터

    • 0:00 - 서론
    • 0:33 - 시네마틱 비디오
    • 3:44 - 멋진 시네마틱 비디오 촬영 경험 빌드하기

    리소스

    • AVCam: Building a camera app
    • AVFoundation
    • Capturing cinematic video
    • Cinematic
      • HD 비디오
      • SD 비디오

    관련 비디오

    WWDC25

    • 캡처 제어 기능으로 카메라 경험 향상하기

    WWDC24

    • 잠금 화면 카메라 캡처 경험을 멋지게 빌드하기

    WWDC23

    • 응답성이 뛰어난 카메라 경험 만들기
    • iPadOS 앱에 외장 카메라 지원하기
    • tvOS에서 연속성 카메라 사용하기
  • 비디오 검색…

    안녕하세요, 저는 Roy입니다 Camera Software 팀에서 엔지니어로 일하고 있죠 Cinematic Video API로 앱에서 프로 수준의 영화 같은 비디오를 촬영하는 방법을 알려 드리겠습니다

    iPhone 13과 13 Pro에서는 시네마틱 모드가 도입되었습니다

    직관적인 사용자 인터페이스와 강력한 알고리즘 덕분에 이 카메라는 iPhone을 영화 촬영의 강자로 변모시켰죠

    이번 강연에서는 어떻게 하면 마법처럼 비디오를 만드는지 살펴보고

    몇 가지 코드를 차례로 보면서 시네마틱 비디오 촬영 경험을 구축하는 법을 알아 보죠

    시네마틱 비디오란 무엇일까요?

    그 중심에는 고전적인 스토리텔링 도구가 있는데 정방향 초점과 추적 초점 같은 것이죠

    얕은 피사계 심도로 감독은 시청자의 눈길을 장면의 주요 주제로 유도합니다 내러티브 효과를 강화하죠 영화처럼 피사체가 이동할 때 추적 초점이 따라가며 선명하게 보여 줍니다

    강력한 성능이지만 현실적으로 초점 기술을 사용하려면 깊은 전문 지식이 필요하죠

    영화 촬영장에 포커스 폴러가 있는 이유입니다 주된 역할은 강력하면서 도전적인 샷을 연출하는 것이죠

    시네마틱 비디오는 이를 대폭 단순화합니다 초점 위치를 지능적으로 조정하는 방식으로요

    예를 들어 프레임에 피사체가 들어오면 알고리즘에 의해 초점을 전환하고 추적을 시작합니다 피사체가 시선을 돌릴 때 초점이 자동으로 다른 지점으로 전환되었다가 적절한 시점에 다시 피사체로 돌아가죠

    올해부터 이 놀라운 기능을 사용할 수 있게 되었습니다 Cinematic Video API 덕분이죠 앱에서도 손쉽게 시네마틱 비디오를 촬영할 수 있습니다 새 API로 시네마틱 비디오 촬영 경험을 구축하는 방법을 살펴보겠습니다 비디오 앱의 일반적인 캡처 세션부터 시작해 보겠습니다

    첫째, 영화를 촬영할 기기를 선택하고

    기기 입력에 추가합니다

    사용 사례에 따라 여러 개의 출력을 세션에 추가할 수 있습니다

    연결 객체는 출력이 촬영 세션에 추가될 때 생성됩니다

    사소한 설정은 아니지만 비디오 촬영을 활성화하는 것이 정말 쉽습니다

    iOS 26에서는 새로운 속성이 추가되었습니다 AVCaptureDeviceInput 클래스의 isCinematicVideoCaptureEnabled입니다 이를 true로 설정하면 촬영 세션이 시네마틱 비디오 출력으로 구성됩니다 그리고 각각의 출력값이 이제 영화처럼 처리되죠

    영화 파일 출력값으로 생성된 영화 파일이 시네마틱하게 변합니다

    여기에는 시차 데이터 메타데이터 비파괴 편집이 가능한 원본 비디오가 포함됩니다 보케 효과를 렌더링하여 재생하거나 효과를 편집하려면 2023년에 소개된 Cinematic 프레임워크를 사용합니다

    이 프레임워크에 대해 자세히 알아보려면 WWDC23 세션인 ‘앱에서 시네마틱 모드 동영상 지원하기’를 확인하세요 비디오 데이터 출력은 얕은 피사계 심도 효과가 적용된 프레임을 생성합니다 이것은 프레임에 직접 액세스해야 할 때 유용합니다

    프레임을 원격 기기로 전송하는 등의 경우죠

    마찬가지로, 미리보기 레이어에는 실시간으로 보케가 렌더링됩니다 뷰파인더를 만드는 간단한 방법이죠

    이 고수준 아키텍처를 감안하여 다음 영역의 코드를 차례로 살펴보겠습니다

    AVCaptureSession을 구성하는데 영화 촬영에 필요한 모든 구성 요소를 갖출 것입니다

    SwiftUI로 비디오 촬영 관련 인터페이스를 구축합니다

    얼굴 감지와 같은 메타데이터를 가져와서 화면에 그리는 방법을 차례로 살펴보겠습니다

    초점을 수동으로 구동하는 다양한 방법을 통해 시네마틱 비디오의 모든 힘을 활용합니다

    몇 가지 고급 기능으로 마무리하여 세련된 앱을 만듭니다

    촬영 세션을 시작해 보겠습니다

    먼저, 영화를 촬영할 비디오 기기를 찾아봅시다 기기를 찾으려면 AVCaptureDevice.DiscoverySession 객체를 생성합니다

    후면의 듀얼 와이드 카메라는 모두 시네마틱 비디오를 지원합니다 전면 카메라는 TrueDepth 카메라죠

    이 경우 기기 유형 배열에서 .builtInDualWideCamera를 지정합니다 촬영 중이므로 .video를 mediaType으로 사용하고

    기기 뒷면의 카메라를 요청합니다

    단일 기기 유형만 요청하는 것이므로 발견 세션의 기기 배열에서 첫 번째 요소만 가져오면 됩니다

    시네마틱 영상 촬영을 활성화 하려면 이 기능을 지원하는 형식을 사용해야 합니다

    이러한 형식을 찾으려면 모든 기기의 유형을 반복하고 하나만 사용하면 됩니다 그 isCinematicVideoCaptureSupported 속성은 true를 반환합니다

    다음 형식이 모두 지원됩니다

    Dual Wide 및 TrueDepth 카메라 모두 1080p와 4K를 지원합니다 초당 30프레임이죠

    SDR 또는 EDR 콘텐츠 녹화에 관심이 있다면 420 비디오 범위 또는 전체 범위 중 하나를 사용합니다

    10비트 HDR 비디오 콘텐츠를 원하면 x420을 사용합니다

    무성영화가 아니기 때문에 소리도 포함해야겠죠 DiscoverySession API로 마이크도 찾습니다

    보유한 각 기기에 대한 입력을 생성하고 이 입력을 촬영 세션에 추가합니다

    이때 비디오 입력에 시네마틱 비디오 촬영을 켤 수 있습니다

    시네마틱 경험을 향상하기 위해 공간 음향을 녹음하려면 1차 앰비소닉을 multichannelAudioMode로 설정하기만 하면 됩니다

    공간 음향에 대해 자세히 알아보려면 올해 세션인 ‘앱의 오디오 녹음 기능 향상하기’를 참고하세요 출력으로 넘어가 AVCaptureMovieFileOutput 객체를 생성하여 세션에 추가합니다

    우리의 손은 삼각대만큼 안정적이지 않으며 비디오 안정화를 활성화 할 것을 권장합니다

    그렇게 하려면 먼저 movieFileOutput 비디오 연결을 찾습니다 이것의 preferredVideoStabilizationMode를 설정합니다 이 경우에는 cinematicExtendedEnhanced을 사용합니다

    마지막으로, 미리보기 레이어를 촬영 세션과 연결해야 합니다

    이제 촬영 세션을 마쳤습니다 사용자 인터페이스로 넘어가 보겠습니다

    AVCaptureVideoPreviewLayer는 CALayer의 하위 클래스이며 SwiftUI의 일부가 아닙니다 상호 운용이 가능하도록 하기 위해 미리보기 레이어를 UIViewRepresentable 프로토콜을 준수하는 구조체에 래핑해야 합니다

    이 구조 내에서 UIView 하위 클래스 CameraPreviewUIView를 만듭니다

    layerClass 속성을 재정의해 previewLayer를 뷰의 뒷면 레이어로 만듭니다

    이어서 previewLayer 속성을 만들면 AVCaptureVideoPreviewLayer 유형으로 접근하기가 쉬워집니다

    그런 다음 미리보기 뷰를 ZStack에 넣습니다

    카메라 제어와 같은 다른 UI 요소와 함께 쉽게 구성될 수 있는 곳이죠

    소개에서 언급했듯이 얕은 피사계 심도는 스토리텔링에서 중요한 도구입니다 기기 입력의 simulatedAperture 속성을 변경하면 보케 효과의 글로벌 강도를 조정할 수 있습니다

    오른쪽에 표시된 이 속성을 슬라이더로 움직여 블러 효과의 전역 강도를 변경합니다

    산업 표준 f-스톱에서 이 값은

    단순히 초점거리 및 조리개 직경 간의 비율로 표시됩니다

    이를 옮긴 조리개는 초점거리를 f값으로 나눈 값입니다

    따라서 f수가 작을수록 조리개가 커지고 보케가 더 강해집니다

    이렇게 최소값, 최대값 및 기본 시뮬레이션 조리개를 형식에서 확인할 수 있습니다

    이를 사용하여 적절한 UI 요소를 채웁니다 슬라이더와 같죠

    사용자가 시네마틱 비디오를 수동으로 조작할 수 있는 기능을 구축해 보겠습니다

    수동으로 초점을 맞추려면 얼굴처럼 초점을 맞출 대상에 대해 시각적 지표를 표시해야 합니다 그러기 위해서는 감지 메타데이터가 필요합니다

    이러한 탐지를 위해 AVCaptureMetadataOutput을 사용합니다 사용자들이 상호작용할 수 있도록 화면에 경계를 그릴 수 있죠 시네마틱 비디오 알고리즘은 최적화된 작동을 위해 특정 metadataObjectTypes이 필요합니다

    이는 새로운 속성 requiredMetadataObjectTypesForCinematicVideoCapture와 소통합니다 시네마틱 비디오가 활성화될 때 제공된 metadataObjectTypes가 이 목록과 다른 경우 예외입니다

    마지막으로, 대리자를 제공해야 메타데이터와 대리자가 호출되는 대기열을 수신할 수 있습니다

    메타데이터 출력 대리자 콜백에서 메타데이터 객체를 수신합니다

    이 메타데이터를 SwiftUI의 뷰 레이어에 쉽게 전달하려면 관찰 가능한 클래스를 사용합니다

    해당 속성을 업데이트할 때 관찰 뷰가 자동으로 새로고침됩니다

    뷰 계층에서 관찰 가능 객체가 업데이트될 때마다 뷰가 자동으로 다시 그려집니다

    그리고 각 metadataObject에 대해 사각형을 그립니다

    이러한 사각형을 만들 때 메타데이터의 경계를 미리보기 레이어의 좌표 공간에 변환하는 것이 중요합니다

    layerRectConverted fromMetadataOutputRect 메서드를 사용합니다

    위치 메서드에서 X와 Y는 뷰의 중심을 참조합니다 AV Foundation이 사용하는 왼쪽 상단 모서리 대신 말이죠 직사각형의 midX와 midY를 사용해 그에 맞게 조정합니다

    화면에 메타데이터 사각형이 그려지면 이를 사용하여 수동으로 초점을 맞출 수 있습니다

    Cinematic Video API를 사용해 수동 초점 맞추는 세 가지 방법을 하나하나 살펴보겠습니다

    setCinematicVideoTrackingFocus detectedObjectID focusMode 메서드는 detectedObjectID로 식별된 특정 피사체로 초점을 전환하는 데 사용합니다 AVMetadata 객체에서 확인할 있고 객체는 메타데이터 출력에서 가져옵니다

    focusMode는 시네마틱 비디오의 추적 동작을 구성합니다

    CinematicVideoFocusMode 열거형에는 없음, 강함, 약함의 세 가지 모드가 있습니다

    강함은 비디오에서 피사체를 계속 추적하도록 합니다 다른 경우 자동으로 선택되었을 초점 후보가 있는 경우에도 그렇습니다

    이 경우 고양이가 프레임에서 더 눈에 띄게 되었지만 단색 노란색 사각형으로 표시된 강한 초점은 뒤에 있는 피사체에 고정되었습니다

    약한 초점은 알고리즘에서 계속 초점을 제어하게 합니다 적절하다고 판단되면 자동으로 초점을 맞추죠

    이 경우 고양이가 돌아섰을 때 더 중요한 것으로 여겨져 약한 초점이 자동으로 고양이에게 옮겨갔습니다 점선 사각형으로 표시된 것과 같죠

    없음 케이스는 한정적인 상황에서 유용합니다 메타데이터 객체에 초점이 맞춰져 있는지 판단할 때죠 따라서 초점을 설정할 때 사용해서는 안 됩니다

    두 번째 초점법은 다른 첫 번째 매개변수를 사용합니다 감지된 객체 ID 대신 뷰의 한 지점을 사용하죠

    지정된 지점에서 흥미로운 객체를 찾도록 지시합니다 하나를 찾으면 새로운 메타데이터 객체를 생성합니다 눈에 띄는 객체의 유형으로 말이죠 그러면 화면에 그 주위에 사각형을 그릴 수 있게 됩니다

    세 번째 초점법은 setCinematicVideoFixedFocus입니다 이는 지점과 초점 모드를 사용하죠 고정된 거리에 초점을 맞춥니다 거리는 깊이 등 신호를 사용해 내부적으로 계산됩니다 강력한 초점 모드와 함께 사용하는 이 방법은 장면의 특정 평면에 초점을 효과적으로 고정합니다 전경에 있는 다른 활동을 무시합니다

    모든 앱은 각각의 사용 사례에서 의미 있는 포커스 처리 논리를 구현합니다 앱에서 수행하는 작업은

    초점이 맞지 않는 감지 사각형을 탭하면 약한 초점 상태에서 그쪽으로 초점이 전환됩니다 이를 통해 초점을 오가며 전환할 수 있습니다 초점이 정확히 맞거나 맞지 않게 되죠

    이미 약한 초점이 맞춰진 메타데이터 객체를 탭해 강한 초점으로 바꿉니다

    노란색 사각형으로 표시되죠

    기존 감지가 없는 지점에서 탭핑하면 시네마틱 비디오가 눈에 띄는 객체를 찾아 약하게 초점을 맞추기를 원합니다

    길게 누르면 강력한 고정 초점이 설정됩니다 이 논리를 코드로 구현하는 방법은 첫째, 두 가지 제스처를 취하는 것입니다

    일반적인 탭 제스처는 SpatialTapGesture로 쉽게 해결됩니다 이는 우리가 포커스를 설정하는 데 필요한 탭 위치를 제공합니다

    탭하면 focusTap 메서드가 카메라 모델 객체에서 호출되는데 여기에서 기반이 되는 AVCaptureDevice에 접근합니다

    반면 길게 누르기는 조금 더 복잡한데 내장 longPressGesture로는 DragGesture로 길게 누르기를 시뮬레이션할 때 필요한 탭 위치를 제공하지 않기 때문이죠

    누르면 0.3초 타이머가 시작됩니다

    발사되면 카메라 모델에 focusLongPress 메서드를 호출합니다

    그런 다음 제스처를 받기 위해 사각형 뷰를 만듭니다 ZStack의 끝에 삽입됩니다 모든 감지 사각형의 맨 위에 놓이게 되죠 그래서 사용자의 제스처 입력이 차단되지 않도록 합니다

    이전 영상에서 이미 보았듯이 시각적으로 약함, 강함, 초점 없음으로 초점이 맞춰진 사각형을 구분해 사용자가 올바른 동작을 하도록 도와야 합니다

    AVMetadataObject를 사용하고 초점이 맞춰진 사각형 뷰를 반환하는 메서드를 구현하면 됩니다

    메타데이터의 경계를 해당 출력값의 좌표 공간에서 미리보기 레이어의 해당 공간으로 변환할 것을 잊지 마세요

    다른 획 스타일 및 색상을 설정하면 초점 모드별로 시각적으로 구분되는 사각형을 생성합니다

    뷰 레이어에서 전달된 포인트로 어떤 초점법을 사용할지 판단할 수 있습니다

    먼저 사용자가 메타데이터 사각형을 탭했는지 여부를 알아야 합니다 이를 도움 메서드인 findTappedMetadataObject로 수행합니다

    이를 각 프레임마다 캐시하는 모든 메타데이터에 반복하고 그들의 경계 중 하나에 속한 지점이 맞는지 확인합니다

    다시 한번, 점과 직선이 동일한 좌표 공간에 있는지 확인합니다

    focusTap 메서드로 돌아가서 메타데이터 개체가 발견되었고 이미 초점이 약해진 경우 강력한 초점으로 바꿉니다

    아직 초점이 맞춰지지 않았다면 약한 초점을 적용합니다

    사용자가 메타데이터 사각형을 탭하지 않은 경우 프레임워크로 이 지점에서 중요한 물체를 찾아 봅니다

    길게 누르면 지정된 지점에 간단히 초점을 고정할 수 있습니다

    이 시점에서 시네마틱 비디오 촬영에 필요한 모든 기능을 갖춘 앱이 됩니다 좀 더 다듬고자 몇 가지 더 알려드리겠습니다

    현 영상 촬영 그래프는 이렇게 생겼습니다 세 가지 출력이 있죠 영화 촬영과 메타데이터 수신 및 미리보기입니다

    녹화 중 정지 이미지 촬영을 지원하고 싶다면 AVCapturePhotoOutput을 세션에 추가하면 됩니다

    그래프가 이미 시네마틱으로 구성되었으므로 사진 출력물에도 자동으로 영화적 처리가 적용됩니다

    사진 출력으로 반환된 이미지에는 보케 효과가 그대로 적용됩니다

    시네마틱 비디오 알고리즘이 제대로 작동하려면 빛이 충분해야 합니다 따라서 너무 어두운 방에 있거나 카메라가 가려져 있는 경우 UI에서 이러한 문제에 대해 사용자에게 알리고자 합니다

    이러한 상황이 발생할 때 알림을 받으려면 키-값을 통해 새 속성 cinematicVideoCaptureSceneMonitoringStatuses를 AVCaptureDevice 클래스에서 관찰합니다

    현재 시네마틱 비디오에서 조도가 낮은 상태만 지원됩니다

    KVO 핸들러에서 조도가 충분하지 않을 때는 UI를 적절히 변경하면 됩니다

    빈 집합은 모든 것이 정상으로 돌아왔다는 것을 의미합니다

    시네마틱 비디오를 사용해 전문가 수준의 영화를 촬영하는 법을 살펴보았습니다 반려동물과 함께 보내는 일상적인 순간도 촬영할 수 있죠

    Cinematic Video API로 시네마틱 촬영 경험을 구축 방법을 자세히 살펴보았어요

    앱에서 이러한 기능을 활용해 더욱 풍부한 시네마틱 콘텐츠를 더 많이 제공할 것으로 기대됩니다

    시청해 주셔서 감사합니다

    • 4:26 - Select a video device

      // Select a video device
      
      let deviceDiscoverySession = AVCaptureDevice.DiscoverySession(deviceTypes: [.builtInDualWideCamera], mediaType: .video, position: .back)
              
      guard let camera = deviceDiscoverySession.devices.first else {
          print("Failed to find the capture device")
          return
      }
    • 5:07 - Select a format that supports Cinematic Video capture

      // Select a format that supports Cinematic Video capture
      
      for format in camera.formats {
      
          if format.isCinematicVideoCaptureSupported {
      
             try! camera.lockForConfiguration()
             camera.activeFormat = format
             camera.unlockForConfiguration()
      
             break
          }
      
      }
    • 5:51 - Select a microphone

      // Select a microphone
      
      let audioDeviceDiscoverySession = AVCaptureDevice.DiscoverySession(deviceTypes [.microphone], mediaType: .audio, position: .unspecified)
      
      guard let microphone = audioDeviceDiscoverySession.devices.first else {
          print("Failed to find a microphone")
          return
      }
    • 6:00 - Add devices to input & add inputs to the capture session & enable Cinematic Video capture

      // Add devices to inputs
      
      let videoInput = try! AVCaptureDeviceInput(device: camera)
      guard captureSession.canAddInput(videoInput) else {
          print("Can't add the video input to the session")
          return
      }
      
      let audioInput = try! AVCaptureDeviceInput(device: microphone)
      guard captureSession.canAddInput(audioInput) else {
          print("Can't add the audio input to the session")
          return
      }
      
      // Add inputs to the capture session
      
      captureSession.addInput(videoInput)
      captureSession.addInput(audioInput)
      
      // Enable Cinematic Video capture
      
      if (videoInput.isCinematicVideoCaptureSupported) {
        videoInput.isCinematicVideoCaptureEnabled = true
      }
    • 6:17 - Capture spatial audio

      // Configure spatial audio
      
      if audioInput.isMultichannelAudioModeSupported(.firstOrderAmbisonics) {
          audioInput.multichannelAudioMode = .firstOrderAmbisonics
      }
    • 6:33 - Add outputs to the session & configure video stabilization & associate the preview layer with the capture session

      // Add outputs to the session
      
      let movieFileOutput = AVCaptureMovieFileOutput()
      guard captureSession.canAddOutput(movieFileOutput) else {
          print("Can't add the movie file output to the session")
          return
      }
      captureSession.addOutput(movieFileOutput)
              
      
      // Configure video stabilization
      
      if let connection = movieFileOutput.connection(with: .video), 
          connection.isVideoStabilizationSupported {
          connection.preferredVideoStabilizationMode = .cinematicExtendedEnhanced
      }
      
      // Add a preview layer as the view finder
      
      let previewLayer = AVCaptureVideoPreviewLayer()
      previewLayer.session = captureSession
    • 7:11 - Display the preview layer with SwiftUI

      // Display the preview layer with SwiftUI
      
      struct CameraPreviewView: UIViewRepresentable {
      
          func makeUIView(context: Context) -> PreviewView {
              return PreviewView()
          }
      
          class CameraPreviewUIView: UIView {
      	
      			override class var layerClass: AnyClass {
          		AVCaptureVideoPreviewLayer.self
      			}
      
      			var previewLayer: AVCaptureVideoPreviewLayer {
        	  	layer as! AVCaptureVideoPreviewLayer
      			}
      
      			...
      		}
      
      ...
      }
    • 7:54 - Display the preview layer with SwiftUI

      // Display the preview layer with SwiftUI
      
      @MainActor
      struct CameraView: View {       
      
          var body: some View {
              ZStack {
                  CameraPreviewView()  
                	CameraControlsView()
              }
          }
      }
    • 8:05 - Adjust bokeh strength with simulated aperture

      // Adjust bokeh strength with simulated aperture
      
      
      open class AVCaptureDeviceInput : AVCaptureInput {
      
      	open var simulatedAperture: Float
      
      	...
      
      }
    • 8:40 - Find min, max, and default simulated aperture

      // Adjust bokeh strength with simulated aperture
      
      
      extension AVCaptureDeviceFormat {
      
      	open var minSimulatedAperture: Float { get }
      
      	open var maxSimulatedAperture: Float { get }
      
      	open var defaultSimulatedAperture: Float { get }
      
      	...
      
      }
    • 9:12 - Add a metadata output

      // Add a metadata output
      
      let metadataOutput = AVCaptureMetadataOutput()
      
      guard captureSession.canAddOutput(metadataOutput) else {
          print("Can't add the metadata output to the session")
          return
      }
      captureSession.addOutput(metadataOutput)
      
      metadataOutput.metadataObjectTypes = metadataOutput.requiredMetadataObjectTypesForCinematicVideoCapture
      
      metadataOutput.setMetadataObjectsDelegate(self, queue: sessionQueue)
    • 9:50 - Update the observed manager object

      // Update the observed manager object
      
      func metadataOutput(_ output: AVCaptureMetadataOutput, didOutput metadataObjects: [AVMetadataObject], from connection: AVCaptureConnection) {
      
         self.metadataManager.metadataObjects = metadataObjects
      
      }
      
      // Pass metadata to SwiftUI
      
      @Observable
      class CinematicMetadataManager {
          
          var metadataObjects: [AVMetadataObject] = []
          
      }
    • 10:12 - Observe changes and update the view

      // Observe changes and update the view
      
      struct FocusOverlayView : View {
      
          var body: some View {
      
      	        ForEach(
      	      metadataManager.metadataObjects, id:\.objectID)
      		  	{ metadataObject in
      
          		  rectangle(for: metadataObject)
      
      			  }
      		}
      }
    • 10:18 - Make a rectangle for a metadata

      // Make a rectangle for a metadata
      
      private func rectangle(for metadata: AVMetadataObjects) -> some View {
          
          let transformedRect = previewLayer.layerRectConverted(fromMetadataOutputRect: metadata.bounds)
          
          return Rectangle()
              .frame(width:transformedRect.width,
                     height:transformedRect.height)
              .position(
                  x:transformedRect.midX,
                  y:transformedRect.midY)
      }
    • 10:53 - Focus methods

      open func setCinematicVideoTrackingFocus(detectedObjectID: Int, focusMode: AVCaptureDevice.CinematicVideoFocusMode)
      
      open func setCinematicVideoTrackingFocus(at point: CGPoint, focusMode: AVCaptureDevice.CinematicVideoFocusMode)
      
      open func setCinematicVideoFixedFocus(at point: CGPoint, focusMode: AVCaptureDevice.CinematicVideoFocusMode)
    • 10:59 - Focus method 1 & CinematicVideoFocusMode

      // Focus methods
      
      open func setCinematicVideoTrackingFocus(detectedObjectID: Int, focusMode: AVCaptureDevice.CinematicVideoFocusMode)
      
      
      public enum CinematicVideoFocusMode : Int, @unchecked Sendable {
      
          case none = 0
      
          case strong = 1
      
          case weak = 2
      }
      
      extension AVMetadataObject {
      
         open var cinematicVideoFocusMode: Int32 { get }
      
      }
    • 12:19 - Focus method no.2

      // Focus method no.2
      
      open func setCinematicVideoTrackingFocus(at point: CGPoint, focusMode: AVCaptureDevice.CinematicVideoFocusMode)
    • 12:41 - Focus method no.3

      // Focus method no.3
      
      open func setCinematicVideoFixedFocus(at point: CGPoint, focusMode: AVCaptureDevice.CinematicVideoFocusMode)
    • 13:54 - Create the spatial tap gesture

      var body: some View {
      
      let spatialTapGesture = SpatialTapGesture()
          .onEnded { event in
              Task {
                  await camera.focusTap(at: event.location)
              }
           }
      
      ...
      }
    • 14:15 - Simulate a long press gesture with a drag gesture

      @State private var pressLocation: CGPoint = .zero
      @State private var isPressing = false
      private let longPressDuration: TimeInterval = 0.3
      
      var body: some View {
        
        ...
        
      	let longPressGesture = DragGesture(minimumDistance: 0).onChanged { value in
      		if !isPressing {
      			isPressing = true
      			pressLocation = value.location
      			startLoopPressTimer()
      		}
      	}.onEnded { _ in
      		isPressing = false
      	}
        
      	...
        
      }
      
      private func startLoopPressTimer() {
      	DispatchQueue.main.asyncAfter(deadline: .now() + longPressDuration) {
      		if isPressing {
      			Task {
      				await camera.focusLongPress(at: pressLocation)
      			}
      		}
      	}
      }
    • 14:36 - Create a rectangle view to receive gestures.

      var body: some View {
      
      let spatialTapGesture = ...
      let longPressGesture = ...
      
      ZStack {
        ForEach(
          metadataManager.metadataObjects,
          id:\.objectID)
        { metadataObject in
      
          rectangle(for: metadataObject)
      
        }
        Rectangle()
            .fill(Color.clear)
            .contentShape(Rectangle())
            .gesture(spatialTapGesture)
        .gesture(longPressGesture)}
      
        }
      }
    • 15:03 - Create the rectangle view

      private func rectangle(for metadata: AVMetadataObject) -> some View {
          
          let transformedRect = previewLayer.layerRectConverted(fromMetadataOutputRect: metadata.bounds)
          var color: Color
          var strokeStyle: StrokeStyle
          
          switch metadata.focusMode {
          case .weak:
              color = .yellow
              strokeStyle = StrokeStyle(lineWidth: 2, dash: [5,4])
          case .strong:
              color = .yellow
              strokeStyle = StrokeStyle(lineWidth: 2)
          case .none:
              color = .white
              strokeStyle = StrokeStyle(lineWidth: 2)
          }
          
          return Rectangle()
              .stroke(color, style: strokeStyle)
              .contentShape(Rectangle())
              .frame(width: transformedRect.width, height: transformedRect.height)
              .position(x: transformedRect.midX, 
                        y: transformedRect.midY)
      }
    • 15:30 - Implement focusTap

      func focusTap(at point:CGPoint) {
          
         try! camera.lockForConfiguration()
              
          if let metadataObject = findTappedMetadataObject(at: point) {
              if metadataObject.cinematicVideoFocusMode == .weak {
                  camera.setCinematicVideoTrackingFocus(detectedObjectID: metadataObject.objectID, focusMode: .strong)
                  
              }
              else {
                  camera.setCinematicVideoTrackingFocus(detectedObjectID: metadataObject.objectID, focusMode: .weak)
              }
          }
          else {
              let transformedPoint = previewLayer.metadataOutputRectConverted(fromLayerRect: CGRect(origin:point, size:.zero)).origin
              camera.setCinematicVideoTrackingFocus(at: transformedPoint, focusMode: .weak)
          }
          
          camera.unlockForConfiguration()
      }
    • 15:42 - Implement findTappedMetadataObject

      private func findTappedMetadataObject(at point: CGPoint) -> AVMetadataObject? {
          
          var metadataObjectToReturn: AVMetadataObject?
          
          for metadataObject in metadataObjectsArray {
              let layerRect = previewLayer.layerRectConverted(fromMetadataOutputRect: metadataObject.bounds)
              if layerRect.contains(point) {
                  metadataObjectToReturn = metadataObject
                  break
              }
          }
          
          return metadataObjectToReturn
      }
    • 16:01 - focusTap implementation continued

      func focusTap(at point:CGPoint) {
          
         try! camera.lockForConfiguration()
              
          if let metadataObject = findTappedMetadataObject(at: point) {
              if metadataObject.cinematicVideoFocusMode == .weak {
                  camera.setCinematicVideoTrackingFocus(detectedObjectID: metadataObject.objectID, focusMode: .strong)
                  
              }
              else {
                  camera.setCinematicVideoTrackingFocus(detectedObjectID: metadataObject.objectID, focusMode: .weak)
              }
          }
          else {
              let transformedPoint = previewLayer.metadataOutputRectConverted(fromLayerRect: CGRect(origin:point, size:.zero)).origin
              camera.setCinematicVideoTrackingFocus(at: transformedPoint, focusMode: .weak)
          }
          
          camera.unlockForConfiguration()
      }
    • 16:23 - Implement focusLongPress

      func focusLongPress(at point:CGPoint) {
          
         try! camera.lockForConfiguration()
      
         let transformedPoint = previewLayer.metadataOutputRectConverted(fromLayerRect:CGRect(origin: point, size: CGSizeZero)).origin
             camera.setCinematicVideoFixedFocus(at: pointInMetadataOutputSpace, focusMode: .strong)
         
          camera.unlockForConfiguration()
      }
    • 17:10 - Introduce cinematicVideoCaptureSceneMonitoringStatuses

      extension AVCaptureDevice {
      
         open var cinematicVideoCaptureSceneMonitoringStatuses: Set<AVCaptureSceneMonitoringStatus> { get }
      
      }
      
      extension AVCaptureSceneMonitoringStatus {
      
         public static let notEnoughLight: AVCaptureSceneMonitoringStatus
      
      }
    • 17:42 - KVO handler for cinematicVideoCaptureSceneMonitoringStatuses

      private var observation: NSKeyValueObservation?
      
      observation = camera.observe(\.cinematicVideoCaptureSceneMonitoringStatuses, options: [.new, .old]) { _, value in
          
          if let newStatuses = value.newValue {
              if newStatuses.contains(.notEnoughLight) {
                  // Update UI (e.g., "Not enough light")
              }
              else if newStatuses.count == 0 {
                  // Back to normal.
              }
          }
      }
    • 0:00 - 서론
    • Cinematic Video API를 사용하여 앱에서 프로 수준의 시네마 스타일 비디오를 촬영합니다. iPhone 13 및 13 Pro에서는 iPhone을 강력한 영화 촬영 장비로 바꿔주는 시네마틱 모드를 도입했습니다.

    • 0:33 - 시네마틱 비디오
    • 시네마틱 비디오는 얕은 피사계 심도와 추적 포커스 기술을 사용하여 시청자의 주의를 끌어 영화 기술을 모방합니다. iOS 26의 Cinematic Video API는 이 프로세스를 간소화하여 앱이 자동으로 포커스를 래킹하고 추적할 수 있도록 합니다. 시네마틱 캡처 환경을 구축하려면 캡처 세션을 설정하고, 기기를 선택한 다음, ‘AVCaptureDeviceInput’ 클래스에서 ‘isCinematicVideoCaptureEnabled’를 true로 설정하여 시네마틱 비디오 캡처를 활성화합니다. 이렇게 하면 세션이 시차 데이터, 메타데이터, 원본 비디오로 시네마틱 비디오를 출력하도록 구성되어 비파괴적인 편집이 가능합니다. Cinematic 프레임워크를 사용하여 보케 렌더링을 재생하거나 편집할 수 있습니다.

    • 3:44 - 멋진 시네마틱 비디오 촬영 경험 빌드하기
    • 이 예제는 호환 가능한 기기(예: 후면의 듀얼 와이드 카메라, 전면의 TrueDepth 카메라)에서 시네마틱 비디오 캡처를 활성화하기 위해 ‘AVCaptureSession’을 설정하는 것으로 시작합니다. 이 예제에서는 적절한 비디오 형식을 선택하고 ‘isCinematicVideoCaptureSupported’를 true로 반환한 다음 마이크에서 나오는 오디오 입력을 세션에 추가합니다. 공간 음향 캡처는 시네마틱 경험을 향상하기 위해 활성화됩니다. 공간 음향에 대해 자세히 알아보려면 ‘앱의 오디오 녹음 기능 향상하기’를 참고하세요. 다음으로, 사용자 경험을 향상시키기 위해 비디오 안정화가 활성화되고 SwiftUI 뷰를 사용하여 캡처 세션을 미리 보세요. 그런 다음, 이 예제에서는 ‘AVCaptureVideoPreviewLayer’를 래핑하는 사용자 정의 표현 가능 구조체를 만들어 SwiftUI 인터페이스에 원활하게 통합할 수 있습니다. 이 예제에서는 특히 얕은 피사계 심도를 제어하는 시네마틱 비디오 효과를 제어하는 방법을 살펴봅니다. ‘simulatedAperture’를 조정하면 보케 효과를 강화하거나 약화시켜 비디오를 더욱 창의적으로 제어할 수 있습니다. 수동 포커스 제어를 활성화하기 위해 이 예제에서는 얼굴과 같은 포커스 후보를 식별하기 위한 메타데이터 감지를 구현합니다. 그런 다음 화면에 사각형을 그려 이러한 후보를 표현하여 사용자가 특정 주제를 탭하고 집중할 수 있도록 합니다. Cinematic Video API는 비디오 녹화 중 포커스를 제어하는 여러 가지 방법을 제공합니다. API는 프레임에서 감지된 주제에 대한 정보를 포함하는 메타데이터 객체를 출력합니다. ‘focusMode’ 구성 매개변수는 시네마틱 비디오의 추적 동작을 결정합니다. 이 열거형에는 ‘없음’, ‘강함’, ‘약함’ 등 세 가지 경우가 있습니다. 강한 포커스는 다른 잠재적인 포커스 후보를 무시하고 하나의 주제에만 포커스를 맞춥니다. 약한 포커스는 알고리즘이 장면에 따라 자동으로 포커스를 맞춥니다. 없음 케이스는 포커스 상태를 설정하는 것보다는 확인하는 데 주로 사용됩니다. API는 세 가지 포커스 방법을 제공합니다. ‘setCinematicVideoTrackingFocus’ 메서드는 감지된 객체 ID를 입력으로 받고 해당 객체에 포커스를 설정합니다. ‘setCinematicVideoTrackingFocus’ 메서드는 뷰의 지점을 입력으로 받습니다. 그러면 시네마틱 비디오는 해당 시점에 흥미로운 객체를 검색하고 포커스를 맞출 수 있는 ‘salient object’ 유형의 새로운 메타데이터 객체를 만듭니다. ‘setCinematicVideoFixedFocus’는 심도 신호를 사용함으로써 내부적으로 거리를 계산하여 장면의 특정 지점에 고정 포커스를 설정합니다. 강력한 포커스 모드와 함께 사용하면 장면의 다른 활동을 무시하고 특정 평면에 포커스를 고정합니다. 앱에서 사용자 정의 포커스 로직을 구현할 수 있습니다. 예를 들어, 감지 사각형을 탭하면 피사체 간에 포커스를 전환할 수 있고 길게 누르면 강력한 고정 포커스를 설정할 수 있습니다. 앱은 사용자에게 포커스를 약함, 강함, 없음을 시각적으로 구분하여 안내합니다. 또한 API를 사용하면 녹화 중에 정지 이미지를 캡처할 수 있어 자동으로 보케 효과와 함께 시네마틱 처리를 받을 수 있습니다. 앱은 키-값 관찰을 사용하여 ‘cinematicVideoCaptureSceneMonitoringStatuses’ 속성을 관찰하고 적절한 시네마틱 비디오 캡처에 충분한 조명이 없는 경우 사용자에게 알릴 수도 있습니다.

Developer Footer

  • 비디오
  • WWDC25
  • 앱에서 시네마틱 비디오 촬영하기
  • 메뉴 열기 메뉴 닫기
    • iOS
    • iPadOS
    • macOS
    • tvOS
    • visionOS
    • watchOS
    메뉴 열기 메뉴 닫기
    • Swift
    • SwiftUI
    • Swift Playground
    • TestFlight
    • Xcode
    • Xcode Cloud
    • SF Symbols
    메뉴 열기 메뉴 닫기
    • 손쉬운 사용
    • 액세서리
    • 앱 확장 프로그램
    • App Store
    • 오디오 및 비디오(영문)
    • 증강 현실
    • 디자인
    • 배포
    • 교육
    • 서체(영문)
    • 게임
    • 건강 및 피트니스
    • 앱 내 구입
    • 현지화
    • 지도 및 위치
    • 머신 러닝 및 AI
    • 오픈 소스(영문)
    • 보안
    • Safari 및 웹(영문)
    메뉴 열기 메뉴 닫기
    • 문서(영문)
    • 튜토리얼
    • 다운로드(영문)
    • 포럼(영문)
    • 비디오
    메뉴 열기 메뉴 닫기
    • 지원 문서
    • 문의하기
    • 버그 보고
    • 시스템 상태(영문)
    메뉴 열기 메뉴 닫기
    • Apple Developer
    • App Store Connect
    • 인증서, 식별자 및 프로파일(영문)
    • 피드백 지원
    메뉴 열기 메뉴 닫기
    • Apple Developer Program
    • Apple Developer Enterprise Program
    • App Store Small Business Program
    • MFi Program(영문)
    • News Partner Program(영문)
    • Video Partner Program(영문)
    • Security Bounty Program(영문)
    • Security Research Device Program(영문)
    메뉴 열기 메뉴 닫기
    • Apple과의 만남
    • Apple Developer Center
    • App Store 어워드(영문)
    • Apple 디자인 어워드
    • Apple Developer Academy(영문)
    • WWDC
    Apple Developer 앱 받기
    Copyright © 2025 Apple Inc. 모든 권리 보유.
    약관 개인정보 처리방침 계약 및 지침