View in English

  • Global Nav Open Menu Global Nav Close Menu
  • Apple Developer
Search
Cancel
  • Apple Developer
  • News
  • Discover
  • Design
  • Develop
  • Distribute
  • Support
  • Account
Only search within “”

Quick Links

5 Quick Links

Videos

Abrir menú Cerrar menú
  • Colecciones
  • Temas
  • Todos los videos
  • Información

Volver a WWDC25

  • Información
  • Resumen
  • Transcripción
  • Código
  • Novedades de visionOS 26

    Explora las increíbles funcionalidades de visionOS 26. Descubre las API volumétricas mejoradas y aprende a combinar el poder de SwiftUI, RealityKit y ARKit. Descubre cómo crear apps y juegos atractivos con un seguimiento manual más rápido y la entrada de accesorios espaciales. Descubre las actualizaciones de SharePlay, Compositor Services, medios envolventes, web espacial, API empresariales y más.

    Capítulos

    • 0:00 - Introducción
    • 1:34 - Funcionalidades volumétricas
    • 10:28 - Funcionalidades del sistema
    • 15:21 - Juegos y accesorios espaciales
    • 23:00 - Experiencias compartidas
    • 25:03 - Ecosistema de medios envolventes
    • 31:04 - Web espacial
    • 34:13 - Nuevas API empresariales

    Recursos

    • Canyon Crosser: Building a volumetric hike-planning app
    • Petite Asteroids: Building a volumetric visionOS game
    • TabletopKit
      • Video HD
      • Video SD

    Videos relacionados

    WWDC25

    • Admite reproducción de video envolvente en apps de visionOS
    • Codificación conjunta: Incorpora la IA en el dispositivo a tu app mediante la estructura Foundation Models
    • Comparte experiencias de visionOS con personas cercanas
    • Conoce el diseño espacial de SwiftUI
    • Conoce la estructura Foundation Models
    • Conoce las tecnologías de Apple Immersive Video
    • Explora experiencias de video para visionOS
    • Explora la entrada de accesorios espaciales en visionOS
    • Explorar las mejoras de la app empresarial espacial
    • Más información sobre Apple Projected Media Profile
    • Mejor juntos: SwiftUI y RealityKit
    • Novedades de la web espacial
    • Novedades de RealityKit
    • Novedades de SwiftUI
    • Novedades del renderizado de Metal para apps inmersivas
    • Prepara el escenario con SwiftUI en visionOS

    WWDC24

    • Bring your iOS or iPadOS game to visionOS
  • Buscar este video…

    Hola, mi nombre es Edwin, del equipo Software Engineering del Apple Vision Pro. Junto con Sharlene y Enrica, le mostraremos algunas nuevas funciones de visionOS. El año pasado, lanzamos el Apple Vision Pro al mundo. Desde entonces, nos sorprendimos con todo lo que crearon para esta plataforma. Apps espaciales, contenido inmersivo, apps y juegos de productividad.

    Tu contenido cobra vida con visionOS. Este año, presentamos aún más funciones para mejorar tus apps con visionOS 26. Comenzamos con nuevas funciones volumétricas que permiten usar aún más el poder del 3D. Mostraremos mejoras que hacen de visionOS una experiencia espacial aún más cohesiva. Revisaremos los accesorios para crear juegos innovadores, y cómo tus apps y juegos pueden usarse en conjunto. Puedes integrar Apple Immersive Video en tus apps y ofrecer experiencias espaciales mediante Safari. Por último, veremos funciones potentes que las empresas pueden aprovechar. Comencemos con las nuevas funciones volumétricas que llegarán a SwiftUI.

    SwiftUI es la mejor manera de crear excelentes apps para el Vision Pro. Tu app se sentirá espacial desde el principio, ya sea que lleves tus apps existentes a visionOS o crees una nueva.

    Ahora puedes mejorarlas con las funciones de SwiftUI, enfocadas en crear experiencias volumétricas increíbles.

    Comencemos diseñando tu contenido. Con alineaciones de profundidad, herramientas para rotaciones y compatibilidad para 3D en SwiftUI, puedes crear diseños 3D como creas IU en 2D. Vamos a sumergirnos un poco en esto.

    Las alineaciones de profundidad son una forma simple de componer diseños 3D comunes con pilas 2D y tipos de diseño. Puedes usar depthalignment.front para alinear las vistas y mejorar la legibilidad. Para rotar un objeto 3D con el modificador rotation3DLayout, puedes rotar las formas y comunicar las rotaciones a la vista, para que la app reaccione. Muchas herramientas y modificadores de SwiftUI ahora tienen análogos 3D de primera clase. Para obtener información sobre ellos, mira la sesión “Conoce el diseño espacial de SwiftUI”.

    Las apps de visionOS tienen ventanas, volúmenes y espacios. Las experiencias volumétricas son atractivas, especialmente en el espacio compartido. Este año ampliamos la compatibilidad, comenzando con presentaciones de IU. La información momentánea, como alertas y menús, es esencial en la experiencia del usuario. En visionOS 26, es posible presentar este contenido dentro y encima de los volúmenes. En casos donde el contenido 3D puede superponerse a la IU, los elementos clave atraviesan el contenido para permanecer visibles. Con estos tratamientos visuales, las presentaciones destacan siempre. Para obtener más información sobre las presentaciones en volúmenes, consulta “Preparar el entorno con SwiftUI en visionOS”. Las ventanas y los volúmenes actúan como contenedores que restringen la IU y el contenido de la app, brindando regiones definidas para interactuar con el contenido. Con restricciones dinámicas, las apps pueden integrarse con el mundo real al renderizarse fuera de sus límites.

    Para aplicar esto, agrega un modificador de vista simple y especifica cuánto se puede ver el contenido fuera de los límites. Es una excelente manera de mejorar la inmersión sin tener que cambiar el tamaño de la app. La interacción con objetos virtuales debe ser natural, imitando el mundo real. Los objetos pueden rotarse con la mano como si se estuviera sosteniendo algo real. Lo integramos con Vista Rápida para que sea más simple manipular contenido 3D dentro del espacio. Aplicar este comportamiento a los objetos dentro de tus apps es muy fácil. No es necesario implementar un conjunto complicado de gestos. Puedes usar estas mejoras con la nueva API Object Manipulation, usando un único modificador de vista de SwiftUI.

    O en RealityKit, usando el nuevo ManipulationComponent. Si usas Vista Rápida para tener una vista previa de los modelos 3D, obtienes Object Manipulation gratis. Existen muchas estructuras familiares que puedes usar para crear apps en visionOS. SwiftUI ofrece la base y los elementos de IU de la app. RealityKit es la mejor manera de mostrar contenido 3D. Y ARKit ofrece información contextual sobre el entorno del mundo real. Juntos, brindan herramientas potentes para crear experiencias espaciales premium. Un nuevo conjunto de API profundiza la integración entre estas estructuras. Exploremos algunos con mayor profundidad. La API Unified Coordinate Conversion facilita mover las vistas y entidades entre escenas, aun en ARKit. Esto simplifica el posicionamiento de contenido al crear espacios de coordenadas en SwiftUI, RealityKit y ARKit. Entity de RealityKit y sus animaciones son observables, lo que permite usarlas en las vistas de SwiftUI. RealityKit contribuye a SwiftUI como cualquier observable, lo que permite reaccionar a los cambios en el contenido 3D. Puedes escribir los controladores de gestos en SwiftUI y adjuntarlos a las entidades RealityKit sin pasar por RealityView. Aplicar gestos de SwiftUI a las entidades produce una superficie de API más consistente que unifica los gestos. En visionOS 1, se pueden agregar vistas de SwiftUI a RealityKit mediante adjuntos de RealityView. Presentamos el ViewAttachmentComponent, que permite declarar la IU en línea con el código RealityKit. Ya no necesitas declarar los adjuntos con antelación y puedes agregarlos en tu escena como componentes. Model 3D es excelente para presentar contenido 3D, y lo estamos ampliando para poder hacer más. Puedes gestionar animaciones, controlar su duración, cargar variantes de un archivo USD y ajustes de un archivo .reality. ¿Qué pasa si quieres hacer más con tu contenido 3D, como agregar efectos de partículas? Para eso necesitas RealityView. RealityView es perfecta para el sistema de diseño e incluye realityViewSizingBehavior, que brinda flexibilidad para dimensionar RealityView en relación con su contenido 3D.

    Estas son solo algunas de las mejoras que llegarán a SwiftUI y RealityKit. Para obtener más información, consulta estas sesiones.

    Para ver un ejemplo de cómo estas nuevas API se unen en una sola app, consulta la muestra de Canyon Crosser en developer.apple.com.

    Las imágenes atractivas son sólo una parte de la historia. Puedes crear mejores experiencias de audio espacial, sin importar qué API sea la adecuada. Antes, todos los sonidos que se reproducían con AudioToolbox o las estructuras de AV Foundation se espacializaban desde la primera ventana. Ahora, la nueva API Spatial Audio Experience permite espacializar cada sonido desde su propia ventana o volumen. Incluso puedes mover sonidos sin problemas de una escena a otra. Este año agregaremos funciones a RealityKit que permiten integrar las apps mejor con el mundo real.

    Los objetos virtuales pueden ocluirse con objetos estáticos del mundo real. Esto se aplica automáticamente a los widgets de pin y los modelos 3D de Vista Rápida. Puedes llevar este comportamiento a tus apps con Immersive RealityKit agregando un EnvironmentBlendingComponent a cualquier entidad. Otra función interesante es MeshInstancesComponent, que permite dibujar numerosas variaciones únicas de un activo. Este ejemplo demuestra la representación y animación de mil objetos distintos derivados de solo cinco activos únicos. Junto con las texturas de Image File Format AV1 y la capacidad de mostrar imágenes de todo tipo, puedes aumentar la calidad y el rendimiento de las escenas 3D en el espacio compartido. Agregaremos muchas funciones, como comprensión de escenas, actualizaciones de entidades y un nuevo tipo de imagen con ImagePresentationComponent. Nos emociona ver las formas creativas en que adoptan estas API en las apps. Para obtener más información, consulta la sesión “Novedades de RealityKit”.

    Para ver cómo crear un juego con RealityKit, descarga la muestra de Petite Asteroids en Apple Developer. Ahora le daré la palabra a Sharlene para que explique las funciones del sistema. Gracias, Edwin. Hola, mi nombre es Sharlene y soy Program Manager de visionOS. Hablemos de las funciones del sistema. El aprendizaje automático avanzado es una parte integral de los productos Apple. En marzo, lanzamos funciones de Apple Intelligence, y seguimos actualizando otras, como Image Playground. Repasemos algunas de ellas. Con la estructura Foundation Models, accedes al modelo lenguaje grande en el dispositivo, central para Apple Intelligence. La generación guiada permite generar resultados estructurados y la llamada de herramientas permite automatizar las acciones. Para obtener más información, puedes consultar estas sesiones. En visionOS 2.4, lanzamos Image Playground, que permite generar imágenes originales e integrar esto en las apps. En las versiones recientes de iOS, macOS y visionOS, Image Playground ofrece más formas de expresarte.

    Tienes más control para personalizar expresiones o atributos, como el peinado. Puedes crear imágenes con ChatGPT, y acceder a los estilos nuevos, como pintura al óleo o vectores. Para cuando tengas una idea específica, usa el estilo “Cualquiera” para describir lo que quieres. Todo esto está disponible a través de las API de Image Playground. También presentamos una API de conversión de voz a texto para iOS, macOS y visionOS llamada SpeechAnalyzer. SpeechAnalyzer aprovecha el poder de Swift para usar la capacidad de conversión de voz a texto. Ya potencia funciones, como la transcripción en Notas, subtítulos en vivo de FaceTime y más. SpeechAnalyzer permite crear funciones interesantes como estas para tus propias apps. Además, lanzaremos SpeechTranscriber, otro modelo de conversión de voz a texto. Es más rápido y flexible que el modelo anterior y es ideal para tareas desafiantes, como subtítulos de medios. SpeechAnalyzer se ejecuta en el dispositivo, manteniendo sus datos privados. Parte de la magia de la computación espacial es la capacidad de planificar contenido digital en su entorno existente. Las ventanas, escenas y el contenido 2D o 3D en Vista Rápida pueden persistir y reaparecer en el mismo lugar aun después de reiniciar. Las API de restauración adicionales de SwiftUI permiten especificar qué escenas se pueden restaurar y cómo reaccionar ante superficies ajustadas. Por ejemplo, acceder a ventanas como Inspector Window en la app ahora puede suprimir su creación al iniciarse y deshabilitar la restauración con dos API que pueden resultar familiares en macOS. Estas API y una nueva propiedad de ajuste de superficie permiten basar la app en un espacio, cambiando el contenido según el tipo de superficie y brindando las ventanas correctas la próxima vez que se visite la app. También estamos llevando este comportamiento a una nueva clase de contenido. Widgets. Los widgets son extensiones de apps que ofrecen información útil, como un pronóstico del tiempo o un evento del calendario. Los widgets pueden adaptarse a paredes y mesas, integrándose al entorno y permaneciendo en su lugar. En visionOS, los widgets escritos para iOS y iPadOS usando WidgetKit y SwiftUI se ven aún mejor. La vista del widget adopta los nuevos tratamientos visuales, aprovechando la profundidad y la dimensión, sin necesidad de realizar cambios. También presentaremos API adicionales para los widgets de visionOS. Debido a que los widgets viven como objetos virtuales, puedes interactuar con ellos desde diferentes distancias. Una API levelOfDetail permite mostrar vistas alternativas según la proximidad del usuario, para que se muestre la información justa. Además, agregamos la API widgetTexture, que permite ajustar el widget de vidrio a papel. A continuación, hablemos de los juegos, empezando por la entrada. En el Vision Pro, la entrada manual y visual es la forma principal en que se interactúa con el contenido. Para apps y juegos espaciales e inmersivos que requieren movimientos rápidos de la mano, visionOS 26 ahora admite un seguimiento manual hasta tres veces más rápido. Esto puede hacer que tus juegos se sientan aún más receptivos sin código adicional. Presentamos el controlador Sony PlayStation VR2 Sense y Logitech Muse, dos accesorios espaciales que ofrecen nuevos mecanismos de entrada. Este controlador espacial es ideal para juegos. Se puede seguir de forma inalámbrica en seis grados, admite avance de la mano y navegación del sistema, y gestos a nivel del sistema como tocar fuera de la caja. Ahora, títulos como Resolution Games Pickle Pro pueden ofrecer nuevas experiencias para los jugadores. También facilitamos la búsqueda de los accesorios conectados. Ahora, tus controles PlayStation Dual Sense, Xbox Series X y S, y Xbox One atraviesan el contenido virtual, incluso cuando usas un juego inmersivo. Para las tareas de precisión como dibujar o esculpir, Logitech Muse ofrece flujos de trabajo creativos nuevos para visionOS. Sus cuatro sensores permiten una entrada variable, en la punta y el botón lateral, y respuesta háptica para la integración en las apps. Estos accesorios espaciales funcionan cuando tienes una o varias apps abiertas. Proporcionan respuesta háptica para mejorar la inmersión en la app. Puedes usar la estructura GameController para descubrir conexiones Bluetooth. Puedes usar RealityKit o ARKit si tu app usa un renderizador personalizado con Metal y Compositor Services. Para obtener más información, consulta la sesión “Entrada en accesorios espaciales en visionOS”. Un nuevo conjunto de funciones de software amplían lo que es posible al llevar tus juegos al Vision Pro. Este año, con el mayor límite de memoria en visionOS, puedes llevar juegos del iPad al Vision Pro mediante App Store Connect. Al usar el SDK de visionOS, aprovecha la pantalla de alta resolución del Vision Pro y la compatibilidad con el controlador de juego con poco o ningún código adicional. Al usar estructuras nativas, puedes usar la inmersión progresiva para aportar más dimensionalidad a tus apps y juegos de iOS. Esto permite personalizar y graduar la inmersión mientras mantienes a las personas conectadas con el mundo real. Es ideal para juegos del iPhone o iPad que se hayan recopilado para funcionar en visionOS. Ampliamos el estilo de inmersión progresiva para admitir nuevas relaciones de aspecto, ideal para juegos de mucho movimiento. Puedes aprovechar estos dos nuevos tratamientos con SwiftUI y RealityKit. Si llevas tu motor de renderizado Metal a visionOS, extenderemos el estilo de inmersión progresiva a Compositor Services. Para obtener más información sobre cómo puedes transformar tu juego existente de iOS o iPadOS en una experiencia espacial única, consulta estas sesiones. Compositor Services permite llevar tu propio motor de renderizado Metal a visionOS para renderizar en un estilo de inmersión total, mixta o progresiva. Compositor Services agregará dos nuevas funciones para mejorar la experiencia de las apps. Efectos de desplazamiento y calidad de renderizado dinámico. Veamos qué hacen. Los efectos de desplazamiento mejoran la interacción agregando un efecto resaltado cuando los usuarios miran los elementos interactivos. Habilitaremos los efectos de desplazamiento que preservan la privacidad para las apps inmersivas de Metal. Para usar esta función, configura el formato de textura del área de seguimiento, agrega áreas de seguimiento, configura el desplazamiento y dibuja el valor de renderizado.

    Optimizar el renderizado de la app puede requerir un control minucioso, por eso agregamos el renderizado dinámico en Compositor Services, de modo que las escenas detalladas brillen.

    Una mayor resolución en las escenas renderizadas puede mejorar la experiencia del usuario. Con esta nueva función, puedes controlar la calidad de los fotogramas renderizados por la app.

    Con un mejor renderizado, el área de alta relevancia de la textura se expande y genera un tamaño de textura general mayor. Aumentar la calidad también significa que la app usa más memoria y energía.

    Si renderizas texto o elementos de la IU, conviene configurar una calidad de renderizado más alta. Para garantizar que la app funcione bien, es importante equilibrar la resolución y el uso de energía y memoria.

    Otra función potente es la representación espacial, que permite usar la Mac para transmitir contenido inmersivo al Vision Pro. Desde obtener una vista previa de contenido espacial hasta crear un juego totalmente inmersivo, la app puede combinar el increíble renderizado de la Mac con la alta resolución del Vision Pro. Para crear una experiencia inmersiva compatible con la Mac, usaremos las mismas estructuras que permiten crear apps inmersivas nativas. Compositor Services y ARKit están disponibles en la Mac y se pueden usar con el nuevo tipo de escena de SwiftUI Remote Immersive Space. Para obtener información sobre estas funciones en macOS, mira la sesión “Novedades en el renderizado Metal para apps inmersivas”.

    En visionOS 26, también haremos que jugar juntos sea aún más interactivo con la nueva funcionalidad de TabletopKit. TabletopKit permite concentrarte en dar vida a tus juegos compartidos mediante el manejo de la red, la entrada, las animaciones y el diseño del juego. Presentamos dos nuevas API para permitir aún más flexibilidad y control.

    CustomEquipmentState permite agregar tus propios campos de datos a las piezas del juego, conocidas como Equipo.

    Este estado personalizado se conecta en red automáticamente para una sincronización perfecta. Y con CustomActions, puedes definir tus propias acciones para que se activen durante el juego. Cambios de propiedad y actualizaciones de colores, las acciones personalizadas se conectan en red sin esfuerzo.

    No tienes que preocuparte por los aspectos más difíciles, por lo que puedes concentrarte en lo que más importa: tu juego.

    Para obtener más información, consulta el minijuego de muestra de TabletopKit.

    A continuación hablará Enrica sobre las experiencias compartidas.

    Hola, mi nombre es Enrica y soy directora de ingeniería en el equipo Apps de visionOS. Repasemos algunas de las nuevas funciones que llegarán a visionOS este año.

    Muchas de las mejores experiencias espaciales se comparten y cobran vida a través de SharePlay y Spatial Personas. SharePlay facilita llevar experiencias compartidas a tus apps. Hay algo mágico en poder disfrutar contenido virtual con personas de todo el mundo. Esta capacidad posibilita casos de uso notables en las empresas, la productividad, el entretenimiento y más. ¿Qué pasa si quieres llevar a alguien que está físicamente a tu lado a una experiencia espacial en el Vision Pro?

    En visionOS 26, con el uso compartido de ventanas, se pueden crear experiencias espaciales para personas en la misma habitación. Como Defenderella de Rock Paper Reality, un juego de defensa de torres que cobra vida en tu propio hogar.

    Puedes aprovechar esta función en tus apps de SharePlay sin código adicional.

    Además, ARKit admite anclajes mundiales compartidos, permitiendo anclar el contenido compartido a la sala. Puedes mover, redimensionar y ajustar apps a tu entorno durante una sesión de SharePlay. Con Vista Rápida, puedes manipular objetos virtuales al igual que los objetos físicos.

    Persona Espacial ya salió de su versión beta con mejoras en el cabello, la complexión, las expresiones y más. Consulta esta sesión para obtener más información sobre el uso compartido de ventanas. Las experiencias espaciales nuevas no terminan ahí. Hablemos de medios.

    A la gente le encanta revivir sus recuerdos en el Vision Pro. Y ahora, tienen una nueva e increíble forma de experimentar las fotografías. Puedes usar ImagePresentationComponent de RealityKit para aprovechar la IA generativa y mostrar contenido estéreo monoscópico o espacial en una escena 3D, optimizada para la renderización en tiempo real. Esto permite a los usuarios inclinarse y mirar el contenido como si estuvieran físicamente allí. El Vision Pro es la mejor manera de ver películas en 2D y 3D, fotografías espaciales y videos. El revolucionario Apple Immersive Video, que continúa expandiendo los límites de lo posible.

    Hoy en día, los formatos de los medios abarcan un espectro muy amplio. Videos en 2D, películas estereoscópicas en 3D y videos grabados con el iPhone o Vision Pro, y Apple Immersive Video, completo con Audio Espacial de Apple. Este año, agregamos compatibilidad para tres nuevos tipos de experiencias multimedia. Admitimos medios de 180º, 360º y de amplio campo de visión capturados por cámaras populares como Canon, GoPro e Insta360. En conjunto, esto le otorga a visionOS 26 la gama más completa de medios inmersivos. Esto es posible gracias al Perfil de Medios Proyectados de Apple, que brinda una forma flexible de expresar operaciones geométricas adicionales por pixel, llamadas proyección. El Perfil de Medios Proyectados de Apple, o APMP, es un enfoque basado en metadatos que permite que los archivos QuickTime y MPEG-4 indiquen que tienen un campo de visión de 180º, 360º o amplio. Esto es fundamental para permitir flujos de trabajo de reproducción y edición correctos. También incorporamos en APMP la capacidad de habilitar una alta detección de movimiento, lo que aumenta la comodidad del espectador cuando se presenta contenido desafiante de manera inmersiva.

    Como existen mucho contenido similar tomado por cámaras de terceros, visionOS genera metadatos de APMP para cámaras de terceros seleccionadas. Mencionamos el manejo único de medios de campo de visión amplio desde las cámaras de acción. Veamos más de cerca para ilustrar los principios básicos del APMP. El dispositivo de captura de la izquierda crea un fotograma de video estándar.

    Debido a la naturaleza de los lentes ojo de pez gran angular, el contenido se graba con una imagen distorsionada. El video original contiene distorsión de barril introducida por el lente. APMP permite que nuestras estructuras multimedia deshagan la distorsión del lente al proyectar los pixeles en una superficie curva definida por el lente y el modo de captura. Esto lleva el contenido visto en 2D al mundo inmersivo, lo que brinda una forma fantástica de revivir tus propias experiencias con la cámara de acción. Con APMP, adoptamos por completo los medios de 180º, 360º y de campo de visión amplio al integrar el soporte en el sistema. Ya queremos ver cómo esto abre nuevas posibilidades para las apps y dispositivos de cámara. Puedes disfrutar todos estos formatos inmersivos, incluido Apple Immersive Video, en Vista Rápida a través de la apps Archivos, o dentro de tu app con inmersión progresiva.

    La Mac es compatible con las API AVKit, RealityKit y Vista Rápida, y WebKit, por lo que puedes integrar medios sorprendentes sin problemas en una variedad de formatos.

    Los creadores que producen contenido de Apple Immersive Video con Blackmagic, URSA Immersive Camera y DaVinci Resolve pueden reproducirlo en sus apps o en Safari. Y en las actualizaciones recientes, la estructura Immersive Media Support te permite crear y compartir contenido de Apple Immersive Video desde tus canales de producción. Puedes obtener más información sobre APMP, y Apple Immersive Video en estas sesiones.

    Si grabas contenido en el Vision Pro, puedes grabar tres veces más contenido por sesión con Reality Composer Pro. El simulador ahora admite resolución 4K además de grabación para cuando no tienes un dispositivo a mano.

    Echemos un vistazo a algunas de las funciones que llegarán a Safari.

    Navegación Espacial transforma la web de un plano 2D a un lienzo que cobra vida con experiencias espaciales.

    Tenemos una nueva forma simple de ver y explorar videos, donde quedan en el campo de visión mientras se ve el contenido adicional en la página.

    Puedes transformar páginas web para aprovechar medios espaciales en línea que cobran vida a medida que te desplazas seleccionando el botón de navegación espacial. Las páginas que se pueden ver con el modo lectura del botón de navefación en iOS y macOS se pueden transformar al ingresar al modo de pantalla completa para ver los medios espaciales presentados a su alrededor sin salir de Safari.

    Ahora se pueden integrar modelos 3D en las páginas web usando el nuevo elemento de modelo HTML. A través de una API declarativa simple, puedes mostrar el modelo USDZ estereoscópicamente. El modelo se convierte en parte de la página, se puede diseñar con CSS y configurar con JavaScript. También se puede arrastrar fuera de la página en el mundo real con Vista Rápida, lo que te da la sensación de poder tocar el elemento que estás viendo.

    Safari también agregó compatibilidad para una variedad de formatos de medios espaciales. Además de mostrar imágenes espaciales dentro de Safari, ahora puedes agregar tus videos espaciales usando todos los formatos compatibles para disfrutar del contenido espacial de manera inmersiva al ingresar a pantalla completa.

    También habrá una nueva vista previa llamada Web Background, donde puedes ofrecer entornos inmersivos personalizados a través del marcado HTML. Ya queremos ver la creatividad que los sitios web aportarán a visionOS.

    Podrás conocer estas funciones y más en la sesión “Novedades de la Web Espacial”.

    También agregamos una forma de navegar por la web y el contenido sin usar las manos, llamada “Mirar para desplazarse”. Esto funciona en la creación de apps como Safari, TV, Música, App Store, Notas y Mail, y Vista Rápida.

    Puedes adoptar esto en tus apps con API tanto en SwiftUI como en UIKit. La computación espacial transforma las experiencias personales y abre grandes oportunidades en las empresas. Nos inspiramos en la diversidad de casos de uso, que abarcan sectores como la fabricación y el transporte.

    Nos encanta lo que las empresas están haciendo en torno al diseño colaborativo, la simulación, el trabajo guiado y más. visionOS 26 simplifica la incorporación del Vision Pro para las empresas.

    Las apps empresariales pueden ampliar el acceso de la cámara gran angular al espacio compartido, lo que permite ejecutar experiencias con cámara simultáneamente con otras apps espaciales.

    Y tu app ahora puede acceder a una cámara gran angular individual o a las transmisiones de la cámara gran angular izquierda y derecha simultáneamente.

    Al usar el nuevo CameraRegionProvider de ARKit, puedes recibir una transmisión de video estabilizada de una región seleccionada.

    Los usuarios pueden aprovechar esta función para llevar información crítica de la periferia a su línea de visión, o para compartir una parte de su vista con otro participante. También puedes usar más parámetros para mejorar la región fija, como alterar el contraste. También agregamos Protected Content, una API para proteger mejor los datos confidenciales. Con un único modificador de vista, puedes proteger la vista de tu app y el sistema prohibirá las capturas de contenido de esa vista. Se desactivan AirPlay y SharePlay y las capturas y grabaciones de pantalla. Por último, para las apps de visionOS con derechos de licencia, ahora puedes hacer que las apps sigan tu posición mientras te mueves. Además de estas nuevas capacidades, simplificaremos la implementación del Apple Vision Pro en empresas. Return to Service permite a las empresas compartir dispositivos de forma más fácil y segura entre sus miembros. Cuando se habilita MDM, el Vision Pro conserva las apps descargadas y borra toda la información confidencial entre sesiones.

    Esto puede activarse en un intervalo predefinido o manualmente para preparar el dispositivo para la siguiente persona.

    Para usar Return to Service, los dispositivos deben configurarse en Apple Business Manager. Los dispositivos se inscriben automáticamente en Apple Business Manager cuando se compran a través de canales empresariales autorizados. Para otros dispositivos, actualizamos Apple Configurator en iOS de modo que sea más fácil inscribir manualmente los Vision Pro en Apple Business Manager y supervisarlos.

    También hicimos que las personas puedan comenzar a usar los Vision Pro más rápido que nunca. Con las mejoras de QuickStart, se pueden importar los datos de Vision Pro guardados, lo que elimina la necesidad de volver a registrar las manos y los ojos. Las empresas que hoy no usan FaceTime y SharePlay pueden crear experiencias compartidas localmente con su infraestructura. Con la API SharedCoordinateSpaceProvider con derechos administrados, puedes solicitar acceso a los datos subyacentes al ubicar a personas en el mismo espacio físico, posibilitando diseño y revisión colaborativos. Para obtener información sobre las funciones que vimos, visita developer.apple.com para ver muestras y documentación.

    Estas son algunas funciones increíbles que vienen en visionOS 26. No podemos esperar a ver lo que creas con ellas. Gracias y disfruta el resto de la WWDC.

    • 2:25 - DepthAlignment

      // Layout types back align views by default
      
      struct LandmarkProfile: View {
      
          var body: some View {
             VStackLayout().depthAlignment(.front) {
                  ResizableLandmarkModel()
                  LandmarkNameCard()
              }
          }
      }
    • 2:41 - rotation3DLayout

      // Rotate using any axis or angle
      
      struct PlaneStack: View {
          
          var body: some View {
              VStack {
                  ToyPlaneModel()
                  ToyPlaneModel()
                    .rotation3DLayout(angle, axis: .z)
                  ToyPlaneModel()
              }
          }
      }
    • 4:22 - Dynamic Bounds Restrictions

      // Dynamic Bounds Restrictions
      
      struct ContentView: View, Animatable {
      
          var body: some View {
              VStackLayout().depthAlignment(.front) {
                  // . . .
              }
              .preferredWindowClippingMargins(.all, 400)
          }
      }
    • 5:05 - Model3D manipulable view modifier

      // Apply the manipulable view modifier to each Model3D block per 3D object
      
      struct RockView: View {
          var body: some View {
              RockLayout {
                  ForEach(rocks) { rock in
                      Model3D(named: rock.name, bundle: realityKitContentBundle) {
                          model in
                          model.model?
                              .resizable()
                              .scaledToFit3D()
                      }
                      .manipulable()
                  }
              }
          }
      }
    • 5:14 - ManipulationComponent

      // Add a ManipulationComponent to each entity in your scene
      
      struct RealityKitObjectManipulation: View {
          var body: some View {
              RealityView {ccontent in
                  let rocks = await loadRockEntities()
                  arrangeRocks(rocks)
                  for rock in rocks {
                      ManipulationComponent.configureEntity(rock)
                      content.add(rock)
                  }
              }
          }
      }
    • 5:18 - QuickLook3DView

      // Preview multiple 3D models simultaneously in your space with Quick Look and 
      // get object manipulation on each of them by default
      
      struct QuickLook3DView: View {
          
          let url: URL
          var body: some View {
              VStack {
                  Button("View in your space") {
                      _ = PreviewApplication.open(urls: [url])
                  }
              }
          }
      }
    • 6:36 - Gestures on entities

      // Gestures on entities
      struct GestureExample: View {
          @GestureState private var dragMountain: Float = 0
          @GestureState private var dragTerrain: Float = 0
      		var body: some View {
              RealityView { content in
                  let drag1 = GestureComponent(
                      DragGesture().updating($dragMountain) { value, offset, _ in
                          offset = Float(value.translation.width)
                      })
                  let drag2 = GestureComponent(
                      DragGesture().updating($dragTerrain) {evalue, offset, _ in
                          offset = Float(value.translation.width)
                      })
                  mountain.components.set(drag1)
                  terrain.components.set(drag2)
              } update: { content in
                  // . . .
              }
          }
      }
    • 6:55 - Attachments on entities

      // Attachments on entities
      
      struct AttachmentComponentExample: View {
          var body: some View {
              RealityView { content in
                  // ... Load the mountain entity
                  
                  // Create an AttachmentComponent with any SwiftUI View
                  let attachmentComponent = ViewAttachmentComponent(
                      rootView: NameSign()
                  )
                  mountain.components.set(attachmentComponent)
              }
          }
      }
    • 13:43 - SwiftUI restoration APIs

      var body: some Scene {
          // . . .
          WindowGroup(id: "Editor") {
              EditorView()
          }
      
          Window("Inspector", id: "Inspector") {
              InspectorView()
          }
          // Prevent the inspector window from being launched on its own without an
          // editor window present.
          .defaultLaunchBehavior(.suppressed)
          // Prevent the inspector window from being persisted and restored across
          // different process or boot sessions.
          .restorationBehavior(.disabled)
      }
    • 33:45 - Look to scroll

      // SwiftUI
      var body: some View {
          ScrollView {
              HikeDetails()
          }
          .scrollInputBehavior(.enabled, for: .look)
      }
      
      
      // UIKit
      let scrollView: UIScrollView = {
          let scroll = UIScrollView()
          scroll.lookToScrollAxes = .vertical
          return scroll
      }()
    • 0:00 - Introducción
    • Obtén información sobre las actualizaciones de visionOS 26, incluidas nuevas API volumétricas, funciones a nivel de sistema, capacidades mejoradas de juegos y SharePlay, integración de Apple Immersive Video, experiencias espaciales de Safari, herramientas empresariales y más.

    • 1:34 - Funcionalidades volumétricas
    • En visionOS 26, puedes usar SwiftUI para crear experiencias volumétricas más inmersivas en apps de Apple Vision Pro. Las nuevas funciones de SwiftUI se basan en las capacidades existentes y facilitan el trabajo con contenido 3D. Puedes crear diseños 3D detallados con las herramientas y los modificadores 2D que ya conoces, y componer escenas 3D con alineaciones de profundidad y rotaciones que tienen en cuenta el diseño y garantizan que tu contenido sea legible y visualmente atractivo. Las experiencias volumétricas ahora incluyen presentaciones de interfaz de usuario, como ventanas emergentes, alertas y hojas, que puedes mostrar dentro y encima de los distintos volúmenes. Las apps se integran mejor con el mundo real mediante el renderizado de contenido fuera de sus límites, lo que crea una sensación más natural e inmersiva. La nueva API Object Manipulation permite a las personas interactuar más fácilmente con los objetos virtuales usando el movimiento natural de las manos. SwiftUI, RealityKit y ARKit están más integrados y te brindan una poderosa caja de herramientas para crear experiencias espaciales. Las nuevas API permiten mover fácilmente vistas y entidades entre escenas, hacer que las entidades de RealityKit sean observables en SwiftUI y adjuntar directamente gestos de SwiftUI a entidades de RealityKit.

    • 10:28 - Funcionalidades del sistema
    • visionOS 26 introduce varias características nuevas del sistema. El marco de modelos fundacionales tiene nuevas capacidades de aprendizaje automático que permiten el acceso a modelos de lenguaje en el dispositivo y acciones autónomas. Image Playground, disponible en visionOS, iOS y macOS, ahora permite a las personas crear imágenes con ChatGPT, aplicar nuevos estilos, como pintura al óleo, y personalizar expresiones. SpeechAnalyzer, una nueva API de conversión de voz a texto impulsada por Swift, te permite incorporar funciones avanzadas de reconocimiento de voz en tu app. SpeechAnalyzer se ejecuta completamente en el dispositivo, lo que garantiza la privacidad de los datos. En visionOS, las ventanas, las escenas y el contenido ahora pueden permanecer en la misma ubicación física incluso después de reiniciar el sistema. Los widgets espaciales se pueden fijar a paredes y mesas, y la API “levelOfDetail” te permite ajustar su apariencia y nivel de detalle según la proximidad.

    • 15:21 - Juegos y accesorios espaciales
    • El seguimiento de manos es hasta tres veces más rápido en visionOS 26, lo que hace que los juegos respondan mejor. Apple Vision Pro ahora admite dos nuevos accesorios espaciales: el controlador Sony PlayStation VR2 Sense para experiencias de juego inmersivas y Logitech Muse para tareas precisas, como dibujar y esculpir. Puedes integrar estos accesorios usando estructuras que ya conoces. Además, visionOS 26 admite aumentos del límite de memoria, lo que permite ejecutar los juegos de iPad compatibles de alta gama en Apple Vision Pro. Funciones como los nuevos tratamientos de estilo de inmersión “progresiva”, los efectos de desplazamiento, la calidad de renderizado dinámico y el renderizado espacial de macOS te permiten crear apps y juegos con más dimensionalidad y un mayor impacto visual. Puedes utilizar las nuevas API de TabletopKit para crear experiencias de juego compartidas más flexibles y atractivas, al mismo tiempo que gestionas la red y las entradas sin inconvenientes.

    • 23:00 - Experiencias compartidas
    • visionOS 26 permite compartir ventanas entre personas que se encuentran en la misma habitación, admite ARKit para anclajes de mundo compartidos y ofrece personajes espaciales mejorados. Puedes integrar estas funciones en apps de SharePlay existentes para una interacción virtual fluida en la misma sala.

    • 25:03 - Ecosistema de medios envolventes
    • Las personas usan Apple Vision Pro para revivir recuerdos a través de fotos y videos espaciales, y ver videos 2D, 3D y espaciales, incluido Apple Immersive Video. A nivel del sistema, visionOS 26 admite tres nuevos tipos de experiencias multimedia: contenido multimedia de 180°, 360° y de amplio campo de visión capturado por cámaras de terceros populares, como Canon, GoPro e Insta360. Para crear estas experiencias, se usa Apple Projected Media Profile (APMP), un enfoque basado en metadatos que permite flujos de trabajo de reproducción y edición adecuados para estos formatos. APMP genera automáticamente metadatos para cámaras seleccionadas y corrige la distorsión de las lentes ojo de pez gran angular, lo que hace que el contenido de video sea más inmersivo. La combinación de compatibilidad con contenido multimedia, nuevas herramientas para creadores y capacidades de simulación mejoradas abre nuevas posibilidades creativas y convierte a Apple Vision Pro en el dispositivo líder para el consumo y la creación de contenido multimedia inmersivo.

    • 31:04 - Web espacial
    • La nueva función de navegación espacial de Safari transforma las páginas en entornos 3D inmersivos. Las personas pueden mirar videos mientras navegan, interactuar con contenido multimedia espacial en línea y arrastrar modelos 3D al mundo real con Quick Look. Puedes integrar modelos 3D y videos espaciales en páginas web con una API declarativa simple. Además, una nueva vista previa para desarrolladores llamada “Web Background” te permite ofrecer entornos inmersivos personalizados a través del marcado HTML y una nueva función denominada “Mirar para desplazarse” habilita la navegación sin manos con movimientos oculares.

    • 34:13 - Nuevas API empresariales
    • visionOS 26 presenta varias mejoras para optimizar las experiencias empresariales en sectores como el de la salud, la manufactura y el transporte. Estas mejoras incluyen el acceso a la cámara principal del espacio compartido (que te permite ejecutar experiencias con cámara simultáneamente con otras apps espaciales), acceso a la cámara estéreo (que habilita la transmisión simultánea de las cámaras del ojo izquierdo y derecho), la nueva API Camera Region (que permite recibir una transmisión de video mejorada y estabilizada de una región de interés seleccionada) y el modo de seguimiento de ventana (que hace que las apps sigan automáticamente tu posición mientras te desplazas por el espacio). También hay nuevas API para proteger los datos confidenciales deshabilitando las capturas de contenido y para permitir que las apps sigan la posición del usuario. Puedes proteger el contenido con un único modificador de vista, “contentCaptureProtected”. La función Return to Service borra la información confidencial entre sesiones para simplificar el uso compartido de dispositivos dentro de las organizaciones. Las mejoras de QuickStart agilizan la configuración de los dispositivos y ahora puedes crear experiencias compartidas localmente utilizando la infraestructura empresarial. Estos avances contribuyen a que Apple Vision Pro se integre mejor y sea más seguro para el uso empresarial.

Developer Footer

  • Videos
  • WWDC25
  • Novedades de visionOS 26
  • Open Menu Close Menu
    • iOS
    • iPadOS
    • macOS
    • tvOS
    • visionOS
    • watchOS
    Open Menu Close Menu
    • Swift
    • SwiftUI
    • Swift Playground
    • TestFlight
    • Xcode
    • Xcode Cloud
    • Icon Composer
    • SF Symbols
    Open Menu Close Menu
    • Accessibility
    • Accessories
    • App Store
    • Audio & Video
    • Augmented Reality
    • Business
    • Design
    • Distribution
    • Education
    • Fonts
    • Games
    • Health & Fitness
    • In-App Purchase
    • Localization
    • Maps & Location
    • Machine Learning & AI
    • Open Source
    • Security
    • Safari & Web
    Open Menu Close Menu
    • Documentation
    • Sample Code
    • Tutorials
    • Downloads
    • Forums
    • Videos
    Open Menu Close Menu
    • Support Articles
    • Contact Us
    • Bug Reporting
    • System Status
    Open Menu Close Menu
    • Apple Developer
    • App Store Connect
    • Certificates, IDs, & Profiles
    • Feedback Assistant
    Open Menu Close Menu
    • Apple Developer Program
    • Apple Developer Enterprise Program
    • App Store Small Business Program
    • MFi Program
    • News Partner Program
    • Video Partner Program
    • Security Bounty Program
    • Security Research Device Program
    Open Menu Close Menu
    • Meet with Apple
    • Apple Developer Centers
    • App Store Awards
    • Apple Design Awards
    • Apple Developer Academies
    • WWDC
    Get the Apple Developer app.
    Copyright © 2025 Apple Inc. All rights reserved.
    Terms of Use Privacy Policy Agreements and Guidelines