
-
Apple Immersive Video 기술에 대해 알아보기
Apple Immersive Video 및 Apple 공간 오디오 형식 기술의 기능을 살펴보고 진정한 몰입형 경험을 구현하세요. Apple Immersive Video를 지원하는 필수 메타데이터를 읽고 쓸 수 있는 기능을 제공하는 새로운 ImmersiveMediaSupport 프레임워크를 만나볼 수 있습니다. Apple Immersive Video 콘텐츠를 HLS를 통해 재생하거나 스트리밍할 수 있도록 독립형 파일로 인코딩하고 발행하는 방법에 대한 가이드라인을 알아보세요. 이 세션을 최대한 활용하려면 ‘visionOS를 위한 비디오 경험 살펴보기'를 먼저 시청하는 것이 좋습니다.
챕터
- 0:00 - 서론
- 0:48 - Apple Immersive Video 개요
- 2:36 - Apple Immersive Video 메타데이터
- 5:13 - AIVU 파일 읽기
- 7:16 - AIVU 파일 쓰기
- 8:43 - Apple Immersive Video 콘텐츠 게시하기
- 10:29 - Apple Immersive Video 콘텐츠 미리 보기
- 11:21 - Apple 공간 음향 형식
- 12:39 - Apple Positional Audio Codec
리소스
- Authoring Apple Immersive Video
- AVFoundation
- AVPlayerItemMetadataOutput
- Core Media
- HTTP Live Streaming (HLS) authoring specification for Apple devices
- Immersive Media Support
- What's new in HTTP Live Streaming
관련 비디오
WWDC25
-
비디오 검색…
Apple Immersive Video 팀 엔지니어 Blake입니다, 반갑습니다 이 비디오에서는 macOS 및 visionOS 26의 새로운 기능으로 Apple Immersive Video 만드는 법을 설명하겠습니다 WWDC25의 visionOS를 위한 비디오 경험 살펴보기를 바탕으로 visionOS 26에서 사용 가능한 비디오 프로필의 기초를 구축하려고 합니다 Apple Immersive Video의 개요도 더 높은 차원에서 살펴볼 예정이니 해당 영상을 먼저 시청하시기 바랍니다 Apple Immersive Video의 기능과 공간 음향 기술을 이 영상에서 다루겠습니다 진정한 몰입형 경험을 창조할 수 있게 될 것입니다 Apple Immersive Video부터 시작해 보겠습니다 Apple Immersive Video는 Apple Vision Pro에서 비디오 재생 시 최상의 몰입형 경험을 선사합니다 정확성 높은 비디오와 완벽한 몰입형 오디오 덕분에 실제와 같은 경험을 제공하죠 그리고 콘텐츠의 몰입도가 강하기 때문에 정확성 높은 비디오를 촬영할 수 있는 특수한 카메라가 필요합니다 Blackmagic URSA Cine Immersive와 같은 모델은 Apple Immersive Video용으로 처음부터 설계되었죠
Apple Immersive Video 카메라는 고유한 방식으로 공장 보정되어 각 입체 렌즈의 정확한 곡률을 포착합니다
그리고 보정 정보는 모두 비디오 파일에 포함되어 있습니다 보정은 비디오 메타데이터에서 사용되며 비디오를 올바르게 투사하는 데 쓰입니다
이 테이블은 WWDC25 `visionOS를 위한 비디오 경험 살펴보기`에서 추출했으며 visionOS 26에서 지원되는 다양한 형식이 포함되어 있습니다 특히 Apple Immersive Video에서는 카메라 보정을 지원하기 위해 매개변수 투영 유형을 사용합니다 macOS 및 visionOS 26에서는 이제 Immersive Media Support 프레임워크를 제공해 사용자 정의 워크플로 생성을 돕습니다 Apple Immersive Video용으로 필수 메타데이터를 읽고 쓸 수 있습니다 편집 워크플로에서 콘텐츠를 미리보는 기능을 제공합니다 비디오 제작 파이프라인 지원 도구를 생성할 수도 있는데 비선형 편집 소프트웨어나 비디오 압축 및 인코딩 도구가 포함되죠 Apple Immersive Video를 읽고 쓰는 방법과 모든 사람이 볼 수 있도록 콘텐츠를 게시하는 방법 제작 과정 중에 콘텐츠를 미리 보는 방법을 알아보겠습니다 먼저 메타데이터부터 시작하겠습니다 Apple Immersive Video 경험이 가능하게 해 주죠 Apple Immersive Video는 다수의 카메라로 제작 가능합니다 그리고 각 카메라가 고유하게 보정되기에 이러한 카메라의 조합을 통해 촬영된 장소가 설명됩니다 Immersive Media Support 프레임워크의 VenueDescriptor 유형은 공간에서 사용되는 모든 카메라의 조합을 포함합니다 이 VenueDescriptor 정보는 Apple Immersive Media Embedded 또는 AIMEData로서 저장되며 이 내용은 세션 후반부에서 더 자세히 다루겠습니다 VenueDescriptor 유형은 카메라와 카메라 뷰 모델에 대한 참고와 카메라를 추가 및 제거하는 기능 및 AIMEData에 대한 참고 정보를 포함하고 있습니다 나중에 중요해질 URL에 저장할 수 있는 기능도 있죠 비디오에 사용된 각 카메라는 카메라 보정보다 더 많은 정보를 포함할 수 있습니다 마스크의 포인트 또는 에지 블렌드는 알파를 사용하여 콘텐츠의 가장자리를 마스킹합니다
카메라 보정을 위한 몇 가지 추가 기능이 있습니다 카메라의 원점 위치 정보를 설정하는 것과 같이요 사용자 정의 배경 환경도 카메라 보정에 함께 포함될 수 있습니다 VenueDescriptor 및 ImmersiveCamera의 모든 기능에 대해서는 몰입형 미디어 지원 문서에서 알아볼 수 있습니다 카메라 보정은 출력 비디오의 비디오 프레임에 맞춰지므로 동적 메타데이터가 존재하며 주어진 프레임에 어떤 보정을 할지 정의하는 데 사용합니다 추가적으로 시간이 지정된 동적 메타데이터 명령이 있습니다 Immersive Media Support 프레임워크에서 프레젠테이션 명령으로 표현되죠 이는 출력 QuickTime 파일에 다중화됩니다 각 비디오 프레임엔 프레젠테이션 명령 다수가 포함될 수 있죠 이러한 명령은 비디오 트랙의 모든 프레임과 함께 적용됩니다 또 다른 PresentationCommand는 샷 플롭입니다 다양한 이유로 편집에 사용됩니다 여기서 이미지와 눈은 y축을 따라 이동합니다 몰입형 카메라는 입체 렌즈를 사용하기에 편집 과정에서 샷 플롭이 더 어려워진다는 점에 주목해야 합니다 이미지와 눈이 바뀌었기 때문입니다 하지만 PresentationCommand를 사용하면 모든 작업은 재생 중 visionOS에 의해 자동으로 처리됩니다 카메라 보정 및 샷 플롭 명령 외에도 페이드가 있습니다 동적으로 렌더링되며 비디오 프레임에 구워지지 않죠 이러한 명령에 대한 자세한 내용은 PresentationDescriptor와 PresentationCommand 유형을 참고하세요 앱에서 Apple Immersive Video를 사용하는 방법을 설명해 보죠 HLS로 콘텐츠를 세분화하려면 Apple Immersive Video 파일을 편집하거나 사용자 정의 플레이어를 만듭니다 메타데이터를 읽는 것이 중요합니다 그리고 단일 파일 기반 독립형 Apple Immersive Video 경험의 경우 일반적으로 프로덕션에 사용됩니다 이제 Apple Immersive Video Universal 파일 유형이 존재합니다 Apple Immersive Video Universal 또는 AIVU 파일이라고 하죠 이는 출력 비디오의 컨테이너이며 PresentationDescriptor가 혼합되어 있습니다 VenueDescriptor가 메타데이터로 함께 포함되어 있죠
AIVU 파일은 파일 앱에서 재생할 수 있습니다 visionOS의 Quick Look을 통하면 되죠 그리고 재생하려면 앱에서 Apple Immersive Video를 독립 실행형 파일 또는 HLS로 재생하려면 WWDC25의 `visionOS 앱에서 몰입형 비디오 재생 지원하기`를 참고하세요 Apple Immersive Video 스트리밍 앱이나 서비스를 구축하려거나 Apple Immersive Video 콘텐츠를 다른 사람들과 공유하려면 AIVU 파일로 쉽게 콘텐츠를 수집하거나 공유할 수 있습니다 필요한 모든 메타데이터도 포함된 채로 말이죠 새로운 몰입형 Media Support 프레임워크와 더불어 AVFoundation에도 새로운 API가 있습니다 Apple immersive video를 읽고 쓰는데 도움을 주죠 AIVU 파일에서 VenueDescriptor를 읽으려면 익숙한 AVFoundation API로 애셋의 메타데이터를 로드합니다 새로운 quickTimeMetadataAIMEData 식별자로 특정 메타데이터를 필터링하고 VenueDescriptor로서 AIMEData를 로드할 수 있습니다 PresentationDescriptor 메타데이터를 읽으려면 비디오 프레임의 각 프레젠테이션 타임스탬프로 시간을 잰 메타데이터 그룹을 얻어야 합니다 quickTimeMetadataPresentationImmersiveMedia 식별자 기반으로 필터링하고 프레젠테이션 설명자 유형에 그 값을 디코딩 합니다 시간 지정 메타데이터 그룹에 대한 자세한 정보를 얻으려면 AVFoundation의 AVPlayerItemMetadataOutput API를 참고하세요 Apple Immersive Video를 생성하려면 프로덕션 도구로서든 비선형 편집 소프트웨어의 출력으로든 나만의 AIVU 파일을 만들 수 있습니다 Apple Immersive Video를 생성할 때 알아야 할 몇 가지 중요한 것이 있습니다 비디오 애셋 프로젝션 종류의 경우 AppleImmersiveVideo를 반드시 사용해야 합니다 이 투영 종류는 매개변수 종류로서 정의되며 Apple Immersive Video 전용입니다 그래서 프로젝션을 얻는 방법을 알고 있죠 또한 VenueDescriptor를 작성해야 합니다 PresentationCommand 값도 마찬가지입니다 AVAssetWriter로 비디오 애셋 메타데이터에 작성합니다 장소 설명자로 AIMEData를 검색하여 AIMEData 식별자를 사용해 AVMetadataItem에 저장합니다 PresentationCommands의 경우 PresentationDescriptor 리더로 특정 시간에 대한 명령을 받습니다 그리고 앞서 언급한 프레젠테이션 식별자를 사용해 시간 지정 AVMetadataItems를 생성합니다 제공된 시간과 비디오 프레임 버퍼 지속 시간에 맞춰 조정됩니다 AIVU 파일을 생성한 후 AIVUValidator의 validate 함수를 통해 Immersive Media Support 프레임워크에서 검증이 가능하죠 유효성 검사에 문제가 있으면 오류를 띄우고 문제가 없으면 true를 반환합니다 AIVU 파일 작성에 AVAssetWriter를 사용하는 자세한 방법은 Apple Immersive Video 작성 샘플 프로젝트를 참고하세요 Apple 몰입형 콘텐츠를 게시하려면 HLS 분할을 사용해 비디오를 애플리케이션으로 직접 스트리밍합니다 Apple Vision Pro는 MV-HEVC를 눈당 4320*4320 권장 해상도로 렌더링할 수 있습니다 여기에 초당 90프레임 P3-D65-PQ 색상 공간 및 Apple 공간 음향도 구현합니다 영상 뒷부분에서 설명드리죠 Apple Immersive Video를 세분화하기 위한 권장 계층은 평균 대역폭의 경우 초당 최소 25~100메가비트 최대 속도는 초당 50~150메가비트입니다 직접 티어를 구축할 때에는 품질과 크기 간의 균형을 고려하는 것이 중요합니다 동시에 동일한 해상도와 프레임 속도를 유지해야 합니다 HLS 플레이리스트를 구축할 때 VenueDescriptor를 AIMEData로 포함하고 HLS 재생 목록과 함께 파일에 저장해야 Apple Vision Pro가 콘텐츠를 올바르게 렌더링할 수 있습니다 AIME 파일을 생성하려면 저장 함수를 사용하여 VenueDescriptor 객체를 저장하고 그리고 해당 AIME 파일을 HLS 재생 목록에 복사합니다 QuickTime 파일을 분할할 때 비디오 세그먼트와 함께 메타데이터 트랙을 유지해야 PresentationDescriptor 명령을 유지할 수 있습니다 HLS 다중 변형 재생 목록에서 콜아웃 해야 할 몇 가지 중요한 태그가 있습니다 Apple Immersive Video에는 버전 12 이상이 필요하며 AIME 파일을 가리키는 장소 설명 데이터 ID와 완전히 몰입되는 콘텐츠 유형 및 나중에 이 영상에서 설명할 APAC 오디오를 사용하는 것 외에도 필수 비디오 레이아웃이 스테레오 비디오여야 합니다 Apple Immersive Video 프로젝션 또한 사용해야 하죠 Immersive Media Support 프레임워크의 또 다른 새로운 중요한 API는 ImmersiveMediaRemotePreviewSender 및 Receiver입니다 이 미리보기 메서드에는 유의할 점이 있습니다 Apple Immersive Video의 낮은 비트레이트 성능만 지원하며 빠르게 미리보기 해야 하고 아직 전체 비디오 파일이 처리되지 않은 편집 워크플로에서 사용해야 합니다 예를 하나 들어보자면 편집 중에 Apple Vision Pro에서 콘텐츠를 보는 것입니다 이러한 API는 Mac에서 Apple Vision Pro로 Apple Immersive Video Frames을 전송하도록 설계되었습니다 ImmersiveMediaRemotePreviewSender 및 Receiver는 Immersive Video Frames를 하나 이상의 수신기로 전송할 수 있죠 사용자 정의 합성기를 사용하면 visionOS 애플리케이션에서 실시간 미리보기가 가능합니다 Immersive Media Support 문서에서 자세한 내용을 확인하세요 공간 음향은 비디오만큼이나 중요하죠 매력적인 몰입형 경험을 조성하는 데 필수적입니다 공간 음향을 위한 새로운 형식을 만들었습니다 Apple Spatial Audio Format 또는 ASAF라고 합니다 ASAF는 실제 몰입형 오디오 경험을 창조하기 위해 제작에 사용됩니다 Apple Positional Audio Codec 또는 APAC은 전송 목적으로 이 오디오 형식을 인코딩하는 데 사용됩니다 ASAF는 진정한 외부화된 오디오 경험을 가능하게 합니다 음향 신호가 오디오 렌더링에 사용되도록 보장하기 때문입니다 선형 PCM과 결합된 새로운 메타데이터로 구성되며 Apple 플랫폼에 내장된 새로운 강력한 공간 렌더러도 있습니다 다양한 지점 소스와 고해상도 음향 장면 또는 더 높은 차원의 앰비소닉으로 고해상도 공간 음향을 생성합니다 렌더링된 오디오는 완전히 적응형이며 객체의 위치와 방향은 물론 청취자의 위치와 방향에 따라서도 적응합니다 이 중 구워지는 것은 없습니다 ASAF의 소리는 모든 방향 위치 및 거리에서 들립니다 ASAF는 방송 Wave 파일 내부에 저장되며 선형 PCM 신호와 메타데이터와 함께 저장됩니다 ASAF는 일반적으로 프로덕션에 사용되며 ASAF 오디오를 스트리밍하려면 해당 오디오를 mp4 APAC 파일로 인코딩해야 합니다 APAC은 ASAF를 효율적으로 배포하며 모든 Apple Immersive Video 경험을 위해 APAC이 필요합니다 APAC는 watchOS를 제외한 모든 Apple 플랫폼에서 재생 가능하며 채널, 객체, 고차 앰비소닉 대화, 이중 청각 오디오 대화형 요소에 확장 가능한 메타데이터 프로비저닝도 지원하죠 코덱의 효율성 덕에 몰입형 공간 경험 조성이 가능합니다 비트레이트가 초당 64킬로비트만큼 낮을 때도 말이죠 HTTP Live Streaming으로 공간 음향을 전달하려면 오디오 채널 정보와 함께 미디어 태그를 포함하고 스트림 정보 태그에 APAC를 오디오 코덱으로 지정합니다 HLS의 새로운 기능 중 특히 APAC 오디오 지원은 HLS의 새로운 기능 문서를 참고하세요 ASAF 콘텐츠를 생성하고 APAC로 인코딩하는 것은 사용자별 라이선스로 사용 가능한 Apple의 Pro Tools 플러그인이나 Blackmagic Design의 DaVinci Resolve Studio Editor를 사용하세요 이 세션에서는 메타데이터의 기초를 다루었습니다 Apple Immersive Video를 구성하고 이를 읽고 쓰는 방법이죠 Immersive Media Support 프레임워크와 공간 음향 덕분에 가능한 일입니다 앱을 확장하여 진정한 몰입형 경험을 지원하세요 Apple Immersive Video와 공간 음향이 있다면 가능합니다 다른 visionOS를 위한 몰입형 비디오 형식에 대해 더 알아보려면 `Apple Projected Media Profile 알아보기`를 참고하세요 Apple Immersive Video를 플레이하는 법을 배우려면 WWDC25의 `visionOS 앱에서 몰입형 비디오 재생 지원하기`를 참고하세요 저는 Apple Immersive Video를 보는 것을 정말 좋아합니다 그래서 여러분이 더 많은 경험을 만들어낼 것이 참 기대됩니다 Apple Immersive Video Universal 파일을 저에게 보내 주시면 잘 살펴보겠습니다 감사합니다
-
-
6:23 - Read VenueDescriptor from AIVU file
func readAIMEData(from aivuFile: URL) async throws -> VenueDescriptor? { let avAsset = AVURLAsset(url: aivuFile) let metadata = try await avAsset.load(.metadata) let aimeData = metadata.filter({ $0.identifier == .quickTimeMetadataAIMEData }).first if let dataValue = try await aimeData.load(.value) as? NSData { return try await VenueDescriptor(aimeData: dataValue as Data) } return nil }
-
6:50 - Read PresentationDescriptor from AIVU playback
func presentation(timedMetadata: [AVTimedMetadataGroup]) async throws -> [PresentationDescriptor] { var presentations: [PresentationDescriptor] = [] for group in timedMetadata { for metadata in group.items { if metadata.identifier == .quickTimeMetadataPresentationImmersiveMedia { let data = try await metadata.load(.dataValue) { presentations.append( try JSONDecoder().decode(PresentationDescriptor.self, from: data) ) } } } } return presentations }
-
7:52 - Create AVMetadataItem from VenueDescriptor
func getMetadataItem(from metadata: VenueDescriptor) async throws -> AVMetadataItem { let aimeData = try await metadata.aimeData let aimeMetadataItem = AVMutableMetadataItem() aimeMetadataItem.identifier = .quickTimeMetadataAIMEData aimeMetadataItem.dataType = String(kCMMetadataBaseDataType_RawData) aimeMetadataItem.value = aimeData as NSData return aimeMetadataItem }
-
8:02 - Create timed AVMetadataItem from PresentationDescriptorReader
func getMetadataItem(reader: PresentationDescriptorReader, time: CMTime, frameDuration: CMTime) -> AVMetadataItem? { let commands = reader.outputPresentationCommands(for: time) ?? [] if commands.isEmpty { return nil } let descriptor = PresentationDescriptor(commands: commands) let encodedData = try JSONEncoder().encode(descriptor) let presentationMetadata = AVMutableMetadataItem() presentationMetadata.identifier = .quickTimeMetadataPresentationImmersiveMedia presentationMetadata.dataType = String(kCMMetadataBaseDataType_RawData) presentationMetadata.value = encodedData as NSData presentationMetadata.time = time presentationMetadata.duration = frameDuration return presentationMetadata }
-
8:20 - Validate AIVU file
func validAIVU(file aivuFile: URL) async throws -> Bool { return try await AIVUValidator.validate(url: aivuFile) }
-
9:31 - Save AIME file
let aimeFile = FileManager.default.temporaryDirectory.appendingPathComponent("primary.aime") try? await venueDescriptor.save(to: aimeFile)
-
-
- 0:00 - 서론
visionOS 26는 공간 음향을 포함하는 Apple Immersive Video 경험을 만드는 데 필요한 새 기능을 제공합니다.
- 0:48 - Apple Immersive Video 개요
Apple Immersive Video는 Apple Vision Pro에서 완전 몰입형 오디오와 함께 고품질 입체적 비디오 재생을 제공합니다. Blackmagic URSA Cine Immersive와 같은 특수 카메라는 각 입체적 렌즈의 정확한 곡률을 측정하도록 보정되며, 이 보정 정보는 정확한 투영을 위해 비디오 파일과 함께 전달됩니다. macOS 및 visionOS 26는 Immersive Media Support 프레임워크를 통해 이 형식을 지원하며, 콘텐츠 제작, 미리보기, 게시를 위한 맞춤형 작업 흐름을 제공합니다.
- 2:36 - Apple Immersive Video 메타데이터
Apple Immersive Video는 각각 고유한 보정을 갖춘 여러 카메라로 제작할 수 있습니다. 이러한 카메라의 조합을 통해 촬영된 장소가 설명됩니다. VenueDescriptor에는 각 비디오 프레임에 대한 카메라 정보, 에지 블렌드 마스크, 사용자 정의 배경 환경, 동적 보정 데이터가 포함되며, 이러한 정보는 Apple Immersive Media Embedded(AIMEData)로 저장됩니다. Immersive Media Support 프레임워크를 사용하면 샷 플롭, 페이드, 동적 렌더링과 같은 프레젠테이션 명령을 통합할 수 있습니다. 이러한 명령은 재생 중에 visionOS에 의해 자동으로 처리되므로 입체적 몰입형 비디오의 편집 절차가 간소화됩니다. 자세한 내용은 PresentationDescriptor 및 PresentationCommand 유형을 참고하세요.
- 5:13 - AIVU 파일 읽기
Apple Immersive Video Universal(AIVU) 파일은 메타데이터가 혼합되어 있는 출력 비디오의 컨테이너입니다. AIVU 파일은 파일 앱에서 visionOS의 Quick Look에서 재생할 수 있으며, 사용자 정의 앱에서는 AVKit을 통해 재생할 수 있습니다. 새로운 quickTimeMetadataAIMEData AVAsset 메타데이터 식별자는 VenueDescriptor로서 AIMEData에 대한 접근을 제공하고, PresentationDescriptor 메타데이터는 AVTimedMetadataGroup을 통해 사용할 수 있습니다.
- 7:16 - AIVU 파일 쓰기
Apple Immersive Video(AIVU) 파일을 생성하려면 AppleImmersiveVideo 프로젝션 종류를 사용하고, AVAssetWriter를 통해 애셋의 메타데이터에 VenueDescriptor와 PresentationCommand 값을 작성하세요. 그러면 AIVUValidator의 validate 함수를 통해 파일을 검증할 수 있습니다. 자세한 내용은 ‘Apple Immersive Video 작성’ 샘플 프로젝트에서 확인하세요.
- 8:43 - Apple Immersive Video 콘텐츠 게시하기
Apple 몰입형 콘텐츠를 게시하려면 HLS 분할과 눈당 4320x4320, 초당 90프레임, P3-D65-PQ 색상 공간의 MV-HEVC 비디오를 사용하세요. Apple Immersive Video를 세분화하기 위한 권장 계층은 평균 대역폭의 경우 25~150Mbps입니다. AIME 파일(VenueDescriptor), HLS 다중 변형 재생 목록 및 APAC 오디오 트랙을 포함하세요. 재생 목록에는 버전 12 이상, 완전 몰입형 콘텐츠 유형, 스테레오 비디오 레이아웃이 지정되어야 하고 Apple Immersive Video 프로젝션을 사용해야 합니다.
- 10:29 - Apple Immersive Video 콘텐츠 미리 보기
Immersive Media Support 프레임워크의 새로운 ImmersiveMediaRemotePreviewSender 및 ImmersiveMediaRemotePreviewReceiver API는 편집 작업 흐름 중에 낮은 비트레이트의 Mac에서 Apple Vision Pro로의 Apple Immersive Video 실시간 미리보기를 지원하므로 편집 중 실시간으로 비디오를 볼 수 있습니다. Immersive Media Support 문서에서 자세한 내용을 확인하세요.
- 11:21 - Apple 공간 음향 형식
Apple Spatial Audio Format(ASAF)은 새 메타데이터, 선형 PCM, 공간 렌더러를 사용하여 고품질 공간 음향을 만드는 새 프로덕션 형식입니다. ASAF는 모든 방향, 거리, 위치에서 오는 적응형 음향을 통해 외부 오디오를 구현합니다. ASAF는 선형 PCM 신호와 메타데이터와 함께 방송 Wave 파일에 저장되어 전송됩니다.
- 12:39 - Apple Positional Audio Codec
HLS를 통해 ASAF 오디오를 스트리밍하려면 Apple Pro Tools 플러그인이나 Blackmagic Design의 DaVinci Resolve Studio Editor를 사용하여 MP4 APAC 파일로 인코딩하세요. 모든 Apple Immersive Video 경험을 위해서는 APAC가 필수이며, watchOS를 제외한 모든 Apple 플랫폼에서 사용할 수 있어 낮은 비트레이트에서 효율적인 공간 음향 전송이 가능합니다. 채널 정보가 포함된 미디어 태그를 포함하고, 스트림 정보 태그에 APAC를 지정하여 HLS로 공간 음향을 제공하세요.