View in English

  • Global Nav Open Menu Global Nav Close Menu
  • Apple Developer
Search
Cancel
  • Apple Developer
  • News
  • Discover
  • Design
  • Develop
  • Distribute
  • Support
  • Account
Only search within “”

Quick Links

5 Quick Links

Videos

Abrir menú Cerrar menú
  • Colecciones
  • Temas
  • Todos los videos
  • Información

Más videos

  • Información
  • Transcripción
  • Platforms State of the Union (ASL)

    Learn about the latest tools, technologies, and advancements to help you create even better apps across Apple platforms, including the all-new visionOS.

    Capítulos

    • 0:00:00 - Introduction
    • 0:04:03 - Swift, SwiftUI, SwiftData
    • 0:19:22 - WidgetKit, App Intents, TipKit, AirDrop
    • 0:27:03 - Gaming, Camera, Video conferencing, watchOS
    • 0:39:41 - Accessibility, Privacy, App Store
    • 0:52:21 - Xcode
    • 1:00:30 - visionOS
    • 1:28:06 - Conclusion

    Recursos

      • Video HD
      • Video SD
  • Buscar este video…

    ♪ ♪

    ♪ ♪

    Darin Adler: ¡Bienvenidos a Platforms State of the Union 2023! Nos emociona mucho compartir más sobre cómo puedes aprovechar lo que llegará en nuestros nuevos lanzamientos. Como widgets interactivos en iOS y en iPadOS, que te dan más modos de hacer surgir tus apps en todo el sistema, una nueva experiencia de widgets en macOS, el hermoso diseño de watchOS 10, Cámara de Continuidad en tvOS y, por supuesto, una nueva plataforma con visionOS. Platforms State of the Union es una oportunidad de saber más sobre las novedades más emocionantes, impactantes e importantes sobre los lanzamientos de este año. Lo que tenemos hoy cumplirá eso en todos los frentes. Antes de comenzar, quiero hablar un momento de qué es una gran plataforma y grandes apps. Una gran plataforma es más que una colección de frameworks y tecnologías. Son los ingredientes clave que se juntan para hacer algo muy especial. Es la combinación de un lenguaje, de frameworks, herramientas y servicios creados para trabajar a la perfección, para que la forma más natural de escribir tu código también sea la mejor. Un rico grupo de APIs para ayudarte a crear experiencias increíbles que se integren profundamente con el sistema, esté abierta o no tu app. Formas meditadas de aprovechar con seguridad tecnologías vanguardistas de hardware en una amplia gama de productos. Y finalmente, una gran plataforma evoluciona para cumplir los nuevos retos y que puedas cumplir las necesidades de los usuarios y usuarias cuando surjan. Los más de 300 frameworks en nuestras plataformas son cimientos, que te permiten llegar a lo innovador, creativo y diferente de tu app. Van más de allá de solo ahorrarte tiempo o de ayudarte a agregar una funcionalidad específica. Cuando usas estos cimientos de la plataforma con un propósito, tu app encaja perfectamente y amplía el sistema. Ese es el camino hacia una gran app. Una gran app eleva la información correcta al usuario o usuaria en el momento oportuno y en el lugar oportuno. Ese lugar podría ser Share Sheet, justo en la Pantalla bloqueada, Spotlight, Siri, o en muchos otros lugares. Una gran app aprovecha el hardware como un nuevo sensor o un potente chip con ayuda de frameworks que ponen esa capacidad en la punta de tus dedos. Y una gran app hace cosas que es súper importante hacer bien, como crear productos seguros y accesibles que respetan la privacidad del usuario. Nuestras plataformas y tus apps se juntan para brindar todo esto con la consistencia y confiabilidad que la gente valora y espera. Esto es muy importante. Sentimos una gran pasión por las grandes plataformas y las grandes apps. Los usuarios y usuarias pueden ver la diferencia que marcan. Los cimientos compartidos de iOS, iPadOS, macOS, tvOS, watchOS y ahora visionOS forman un ecosistema cohesivo que te permite llevar tus apps a través de todo el rango de plataformas y productos de Apple. Tus apps son clave para este ecosistema. Empoderan a la gente en su día a día con experiencias fáciles de usar que pasan a la perfección de un dispositivo a otro. En Apple, a menudo hablamos de construir las cosas que nosotros queremos usar y no podría ser más cierto que con el enfoque en nuestras plataformas. ¡Porque también somos desarrolladores! Usamos el mismo lenguaje, herramientas y frameworks aquí en Apple. Por tanto, hoy tenemos mucho que cubrir. Comenzaremos con las últimas novedades en Swift y SwiftUI, y cómo puedes usarlas en todas nuestras plataformas para crear experiencias increíbles. Hablaremos sobre cómo puedes maximizar funcionalidades de hardware y también cómo puedes priorizar valores en las experiencias que creas. Te contaremos paso a paso las mejoras de las potentes herramientas que todos usamos a diario. Finalmente, haremos un análisis profundo de las tecnologías de nuestra última plataforma, visionOS, y te mostraremos cómo puedes crear la siguiente generación de apps para Apple Vision Pro. Para comenzar las cosas, le daré la palabra a Holly para que nos cuente lo nuevo de Swift.

    Holly Borla: La base de tantas APIs que usas a diario es Swift. Es rápido, moderno y seguro, y te guía hacia un código que es eficiente, expresivo y correcto. Las APIs te permiten aprovechar las bibliotecas y las funcionalidades de las plataformas, y crear experiencias que son únicas en tu app. Pero algunas APIs pueden ser difíciles de usar y requieren que escribas mucho código reutilizable solo para empezar. Por eso que Swift va a revelar un nuevo tipo de API, que es más fácil de usar y de entender con la introducción de macros. Estos macros se hacen como lo hace Swift. Un macro es una anotación que usa la estructura de tu código para generar nuevo código que está construido en tu proyecto. Los macros pueden adjuntarse como atributos a tu código, o pueden ser independientes, escritos con el símbolo hash. Los macros hacen que las APIs se sientan como parte del lenguaje y hay tantas formas de empezar a usar una nueva API con solo una anotación. Los macros cobran vida en Xcode, donde se siente que el código generado es parte de tu proyecto. Permitan que se lo muestre. He creado un macro de URL que revisa cadenas válidas de URL. Como los macros generan código Swift normal, puedo usar la función "Expand Macro" en Xcode para ver exactamente lo que hacen. Este macro se ve muy simple. Convoca al inicializador de URL y abre a la fuerza el resultado. Pero el macro de URL hace más que eso. Comprueba que la cadena sea una URL válida en el momento de la compilación. Por ejemplo, las URLs no pueden tener espacios, así que si agrego uno, el macro dará un mensaje de error personalizado y una reparación elimina automáticamente el espacio de la cadena. Esto convierte lo que habría sido un error cuando mi app está funcionando en feedback mientras escribo mi código para poder arreglar errores de inmediato. Todos los macros tienen la capacidad de brindar feedback personalizado para ayudarte a escribir el código correcto. Los macros adjuntados van aún más lejos, porque pueden agregar nuevas funcionalidades al código que ya escribiste. Echemos un vistazo a lo que pueden hacer los macros adjuntados. Tengo una función llamada fetchContent que realiza trabajo asíncrono y usa manejadores de finalización, pero quiero usar async/await. En lugar de implementar otra función fetchContent, puedo adjuntar el macro AddAsync. ¡Y eso es todo! Ahora en lugar de pasar un manejador de finalización cuando ejecuto fetchContent, solo tengo que esperar el resultado. Como con cualquier otra API, puedo usar quick-help en el macro para ver su documentación. Pero si quiero entender cómo funciona esto por debajo, puede crear un breakpoint, ejecutar mi código, ir a la función asíncrona y Xcode expandirá el macro justo en mi editor de código fuente.

    Esto es genial, porque no hay secretos. Entrar en un macro expandido al eliminar errores es una forma natural de mirar tras bastidores y ayudarme a entender qué ocurre en mi código. Puedes escribir tus propios macros, y así podrás extender el lenguaje en formas que antes solo eran posibles implementando funcionalidades en el compilador de Swift. Como Swift se desarrolló en código abierto, los desarrolladores ya están usando macros para construir algunas de las funcionalidades de lenguaje más pedidas, incluyendo la generación automática de descripciones ricas de fallos de aserción, brindando conformidades personalizables de protocolo por defecto y la lista continúa creciendo. También verás macros usados en muchas de las nuevas APIs de este año. Podrás beneficiarte de macros creados por la comunidad, o compartir tus propios macros con otros, por medio de paquetes de Swift.

    Los avances de lenguaje, como los macros, permiten que Swift se use en más proyectos que nunca antes. Hablemos de todo tu código que no escribes en Swift. Desde su creación, Swift ha ofrecido interoperabilidad bidireccional con C y Objective-C. Puedes introducir Swift en tus proyectos como un archivo o módulo a la vez, sin tener que reescribir bases de código completas. Swift extiende esa interoperabilidad a C++. La interoperabilidad de Swift-C++ te permite usar ambos lenguajes en el mismo proyecto sin una capa puente intermedia. Puedes compartir tus clases, funciones e incluso especializaciones de plantilla como vector en ambos lenguajes creando una señal de compilación. Usar C++ desde Swift eliminará muchas fuentes de comportamiento no definido en tu código, como usar variables antes de ser inicializadas. Y puentear es eficiente: los llamados se hacen de forma nativa entre tu Swift y el código C++, con una sobrecarga mínima. La interoperabilidad de Swift-C++ ya se usa en código abierto, ayudando a transicionar el compilador de Swift desde C++ a Swift y me emociona mucho usar Swift para implementar Swift. Las metas fundamentales de Swift de un código seguro y expresivo están incrustadas en las bibliotecas que se construyen con él. En ningún lugar es eso más aparente que con SwiftUI. Aquí está Josh para contarles más. Josh Shaffer: La mejor forma de construir interfaces de usuario modernas en todas las plataformas de Apple es con SwiftUI. SwiftUI te permite escribir mejores apps con menos código para que puedas enfocarte en lo que es único de tu app. También maximiza tu capacidad de reusar código de interfaz. La app de hábitos saludables Streaks de Crunchy Bagel es un gran ejemplo. Empezaron a usar SwiftUI cuando creaban widgets para iOS. Luego compartieron ese código con su app para watchOS y lo mejoraron con hermosa animaciones. Ahora, han incorporado el mismo código de vuelta en su app original para iOS. La adopción incremental les permitió compartir código UI a su propio ritmo y ver beneficios de SwiftUI en sus apps ya existentes. SwiftUI también es increíblemente capaz y ayuda a impulsar interfaces sofisticadas en apps como la nueva Logic Pro y Final Cut Pro para el iPad. Adoptar SwiftUI en tus apps te prepara para crear la siguiente generación de interfaces de usuario. Y lo que puedes crear con SwiftUI sigue creciendo. Como siempre, sus nuevas capacidades en los lanzamientos de este año se enfocan en áreas de alto impacto y peticiones de los mejores desarrolladores, como nuevo soporte para Pie Charts y selección en Swift Charts, una nueva inspector API, soporte expandido de MapKit, incluyendo Overlays, Look Around y más. Estas mejoras cubren un amplio rango de funcionalidades, pero muchas se enfocan en mejorar las animaciones. Esta es la área clave, porque las animaciones bien diseñadas hacen que tu interfaz sea fácil de usar. Pueden brindar feedback para que tus usuarios y usuarias sepan que ocurre algo. O pueden confirmar que una tarea se ha completado con éxito. Por eso que SwiftUI ha tenido funcionalidades avanzadas como animaciones reversibles, interruptibles y cancelables desde el comienzo. Este año, SwiftUI lleva las animaciones aún más lejos. Comienza con la forma en que se mueven. Las animaciones a menudo son iniciadas por el gesto del usuario o usuaria. Ahora, SwiftUI puede transferir automáticamente la velocidad de tu gesto a tu animación, brindando una transición sin problemas. Y las animaciones ahora tienen por defecto un movimiento con base en spring que puede configurarse con dos simples parámetros: duration y bounce. SwiftUI también puede aprovechar nuevos efectos animados en SF Symbols, haciendo que la iconografía en tus apps cobren vida. Finalmente, cuando necesitas crear animaciones múltiples, SwiftUI tiene una nueva API llamada AnimationPhase que te ayuda a crear sofisticadas animaciones con solo unas líneas de código. He creado una app de muestra para ilustrar nuevas APIs como AnimationPhase, inspirada por el hermoso paisaje de Apple Park. Brinda una calmada experiencia en la que los usuarios pueden crear espacios exteriores y dar comida y bebida a las aves que visitan. Para asegurarme de nunca perderme ninguna ave nueva, agregué un recordatorio a la parte superior de la lista. Pasemos a una vista previa enfocada solo en esa vista. Quiero que este SF Symbol se destaque agregando alguna animación. Primero, agregaré un enum para definir los diferentes estados en una animación personalizada. Después, envolveré mi vista en un 'PhaseAnimator'. Esta es una nueva vista que se anima automáticamente entre un grupo de estados. Finalmente, modificaré y giraré el icono en la fase de animación '.highlighted'. Esto se ve bien, pero creo que se vería aún mejor si el fondo se animara junto con el icono, así que agregaré varios modificadores más.

    Ahora, para animaciones aún más avanzadas, este año SwiftUI agrega soporte total a keyframing. Esta potente API me permite animar cualquier cosa, incluyendo las propiedades de la nueva API MapKit basada en SwiftUI. Keyframes te permite definir los valores de múltiples propiedades en momentos específicos dentro de una animación y luego permite a SwiftUI interpolar los valores intermedios. Aquí he usado keyframes para animar la cámara del mapa y visitar diferentes monumentos en Cupertino. Como keyframes te permite definir el movimiento en diferentes propiedades, podemos animar independientemente el ángulo, el rumbo y la posición de la cámara para lograr este movimiento suave y continuo por Cupertino hasta llegar a Apple Park. Elaborar la vibra de tu app usando animaciones en SwiftUI nunca ha sido más fácil. A continuación, hablemos del flujo de datos. Al crear una app con SwiftUI, tienes varias opciones de llevar datos a tus vistas. SwiftUI ofrece un grupo de property wrappers para gestionar datos locales en tu vista y para referenciar datos ajenos en otros lugares. Este año, el flujo de datos se ha hecho más sencillo, permitiendo que te enfoques solamente en State y Environment. Quizá hayas escrito código así al exponer tu modelo a SwiftUI, conformando a ObservableObject y agregando el property wrapper Published a cada propiedad. El nuevo soporte de macros de Swift hace que esto sea mucho más simple, con nuevo macro Observable tomando su lugar. Solo anota una clase con @Observable y terminaste. Todas las propiedades visibles al público se publican automáticamente. Y cuando usas un Observable en tus vistas de SwiftUI, no es necesario usar un property wrapper para provocar actualizaciones de vista. Puedes referenciar tus variables directamente. Escribirás menos código y lograrás un comportamiento rápido y correcto por defecto. Observable permite que SwiftUI registre acceso a nivel de campo, así que el cuerpo de tu vista solo se reevalúa cuando cambian las propiedades especificas usadas por tu vista. Si modifica un campo no usado por tu vista, no ocurrirá ninguna invalidación. Ahora cuando conectes tu modelo a tus vistas, igual que con el resto de SwiftUI, el código más natural que escribir también es el código correcto que escribir. SwiftUI fue el comienzo de una nueva generación de frameworks diseñados por Swift. Pero los beneficios de un framework nativo de Swift no se detienen con tu código UI. Core Data hace mundo que brinda herramientas para la gestión de datos, pero su diseño nació de la era de Objective-C y no maximiza todo lo que Swift puede ofrecer. Muchos habéis pedido una solución nativa de Swift para la gestión de datos, diseñada con soporte de primera clase para todas las funcionalidades de Swift. Permítanme que les presente SwiftData. SwiftData es un framework para la gestión y el modelado de datos. Se creó sobre la demostrada capa de persistencia de Core Data, pero con una API completamente rediseñada y reimaginada por Swift. Como SwiftUI, se centra totalmente en el código, sin formatos externos de archivo. En su lugar, usa el nuevo sistema de macros de Swift para ofrecer una API simplificada. Si definieras un modelo en Swift, podrías escribir código así, usando tipos normales de Swift. Para gestionar esto con Core Data, necesitarías redefinir el mismo modelo usando el editor de modelos integrado en Xcode. Pero con SwiftData, solo anotas tu clase con el macro @Model. Esta única línea de código contiene mucha funcionalidad, como permitir automáticamente la persistencia, la sincronización con iCloud, deshacer y rehacer y mucho más. Luego puedes refinar estos comportamientos automáticos al anotar propiedades con atributos adicionales, como indicar que el valor debe ser único en todas las ocasiones. SwiftData usa el protocolo Codable para entender structs y enums, así que puedes modelar tus datos con las herramientas que ya conoces. Estos tipos son totalmente modelados en la tienda subyacente de datos, permitiendo que realices búsquedas rápidas y eficientes, incluso en datos con estructuras complejas. Y por supuesto, es muy simple integrar SwiftData con SwiftUI. Empezamos a crear nuestra app de demostración usando el nuevo macro Observable para impulsar actualizaciones de vista en SwiftUI. Así que mi interfaz se actualiza al ver nuevas aves, pero mis ediciones no se guardan todas las veces. Al importar SwiftData, podré agregar soporte para persistencia muy fácilmente. Solo voy a reemplazar los dos macros Observable en mis clases existentes con el macro Model de SwiftData y mi modelo está listo. En la raíz de mi app, agregaré un modificador para crear el contenedor de SwiftData. Y cuando creo un nuevo backyard, lo insertaré en el modelo de contexto para que persista. Finalmente, conectaré mi vista BackyardList a los datos persistentes. Es muy fácil de hacer con el nuevo property wrapper @Query. Como ahora estamos cargando datos guardados, puedo eliminar los datos de muestra por defecto que usé al crear el prototipo. Antes de probarla, actualicemos también un widget en el que he estado trabajando. Estableceré el contenedor y la consulta de la misma forma. Con el contenedor compartido de la app activado, SwiftData hace automáticamente que mis datos sean directamente accesibles por el widget usando la misma API. SwiftData ahora hace que backyards persista y que @Query los envíe a la vista. Antes de comenzar, llené la base de datos con varios datos iniciales, así que ya pueden ver algunas aves visitantes. Y si agrego un nuevo objeto a backyard, cuando regrese a la lista aparecerá sin trabajo adicional. SwiftData ofrece más que solo persistencia, incluyendo cosas como soporte para deshacer y rehacer, que funciona automáticamente. Como puedes ver, mi widget ya muestra el backyard que hemos creado. Eso fue un vistazo a lo fácil que es grabar y restaurar datos usando SwiftData. SwiftUI y SwiftData funcionan de la mano para ayudarte a crear potentes e interesantes apps. Forman la base de un nuevo enfoque al desarrollo que Swift permite que te permite pasar menos tiempo usando código reutilizable y más tiempo construyendo tus ideas. A continuación, Jonathan va a mostrar cómo aplicar estas tecnologías para elevar tu app de nuevas formas en todo el sistema. Jonathan Thomassian: Me emociona mucho hablarles de cuatro nuevas experiencias de apps. Con WidgetKit, puedes hacer surgir tu contenido en muchos lugares en todo el sistema. Con App Intents, la funcionalidad de tu app está integrada en el sistema incluso de forma más fluida. Con TipKit, puedes hacer surgir hermosos consejos directamente en tu app. Y con AirDrop, puedes hacer que sea aún más conveniente para tus usuarios compartir contenido con personas cercanas. Comencemos con WidgetKit. Widgets eleva información importante desde tus apps, haciendo que tu experiencia con las apps sea más visible y disponible para tus usuarios y usuarias en sus rutinas diarias. Widgets comenzó en la pantalla de inicio, pero ahora hay muchos más lugares para llevar tus experiencias a usuarios justo donde y cuando las necesitan. Este año, los widgets se han hecho aún más potentes. Una vez que tienes iOS 17, con unos simples cambios, tus widgets existentes se verán hermosos en StandBy en el iPhone. Aparecerán ampliados y extendidos hasta los bordes, con los fondos eliminados para que se vean increíbles unos junto a otros. También estarán disponibles en la Pantalla bloqueada del iPad, de nuevo extendidos hasta los bordes y con sus fondos eliminados. Aquí tendrán una apariencia visual uniforme para que se integren perfectamente con la Pantalla bloqueada. Y en macOS Sonoma estarán disponibles en el Escritorio a todo color y luego pasarán al fondo cuando una ventana tenga el enfoque. Y ahora puedes hacer que tus widgets sean más útiles con nuevo soporte para interactividad. Acciones simples que pueden lograrse con un toque como marcar un recordatorio, ahora pueden manejarse directamente desde tu widget. Todas estas nuevas actualizaciones de los widgets fueron permitidas por su arquitectura con base en SwiftUI. El código de tu widget es ejecutado asíncronamente para generar contenido y las vistas de SwiftUI que crea son guardadas en un archivo. Después, cuando el widget tenga que abrirse, el archivo puede cargarse, procesado en el fondo y luego mostrado como parte del UI del sistema. Cuando un usuario o usuaria toca un botón, su extensión se ejecuta de nuevo para manejar la acción y actualizar el UI. Esta arquitectura también permite que los widgets del iPhone se muestren a la perfección en tu Mac. Gracias a la magia de Continuidad, el archivo del widget puede enviarse por toda la red a tu Mac y las interacciones de los usuarios pueden enviarse de vuelta para que las gestione el iPhone. Preparar tus widgets existentes no podría ser más fácil. Solo identifica el fondo de tu widget y actualiza su relleno para usar el predeterminado ofrecido por WidgetKit. Las configuraciones con base en pilas de SwiftUI permiten que el sistema adapte el color de tu widget y el espaciado en base al contexto. También es fácil adoptar la interactividad agregando SwiftUI Buttons o Toggles a tu widget. Nuevo soporte para lanzar un App Intent desde estos controles inicia tu extensión a pedido. Cuando se actualiza el contenido de tu widget, el sistema lanza una animación de transición que funciona igual que un Magic Move en Keynote. Los elementos movidos se deslizan a sus nuevas ubicaciones y los elementos agregados o eliminados se difuminan suavemente. Puedes usar APIs estándar de transición de SwiftUI para personalizar más y lograr exactamente los efectos que quieres. Echemos un vistazo a lo fácil que es incluir estas nuevas funcionalidades en un widget existente. Nuestra app de muestra tiene un widget que registra eventos notables en nuestro backyard. Lo primero que debo hacer es identificar su fondo. Aquí está la vista de nuestro widget y podemos ver que nuestro fondo está justo aquí en el ZStack. Solo debo moverlo al nuevo modificador de vista del contenedor de fondo. Y empezando en iOS 17, me darán el relleno del widget, así que eliminaré el relleno que agregaba antes. Ahora, gracias a Swift Macros, puedo ver toda la línea de tiempo de mi widget directamente en Xcode Previews. Aquí, en la parte inferior del lienzo de mi vista previa están todas las entradas de mi línea de tiempo y hacer clic en ellas muestra cómo mi widget se animará cuando se actualiza. Esta transición es genial, pero veamos si podemos hacer algo que se sienta un poquito más como un pájaro que llega. Igual que en mi app, puedo usar transiciones estándar de SwiftUI.

    Aquí en el editor, agregaré un modificador de transición a mi BirdView. Intentemos un resalte de bordes. Se ve genial. El lienzo actualizado de vista previa también hace fácil ver cómo se ve mi widget en diferentes contextos, como la nueva Pantalla bloqueada del iPad o StandBy en el iPhone. Veamos StandBy. Cuando mi fondo se elimina, quiero que mi pájaro destaque. Sus patas están algo perdidas, así que agreguemos un bebedero. SwiftUI ofrece una nueva variable showsWidgetContainerBackground que me permite personalizar cómo se ve mi widget cuando se elimina el fondo.

    ¡Qué bien! Muchos habéis pedido la capacidad de interactuar con tu app desde tu widget y ahora ya puedes. Agreguemos un botón para rellenar el agua de mi pájaro. Ya definí un App Intent para esta acción, así que solo debo asociarla con un botón en mi widget. Probémoslo en el simulador.

    Y así de fácil es rellenar el agua de mi pájaro. Eso es WidgetKit. Nunca ha sido más fácil hacer surgir tu contenido en tantos lugares del sistema. Nos emocionan mucho todas las formas en las que puedes usar interactividad y transiciones animadas para mejorar tus widgets. Pero App Intents se trata de algo más que de la interactividad en los widgets. Elevan la funcionalidad de tu app en todo el sistema, en Spotlight, Atajos y Siri. Ahora, cuando envuelves tu intención en un App Shortcut, aparecerá junto al icono de tu app en resultados de Spotlight, con una presentación más rica y más interactiva. Solo tendrás que brindar variar cosas. En tu App Shortcut, un título corto y una imagen o símbolo. Y en Info.plist de tu app, un color de fondo que se complemente con el icono de tu app. Y tus atajos de apps surgirán en la app actualizada de Shortcuts, donde los usuarios pueden hacer que se ejecuten automáticamente, agregarlos a su pantalla de inicio, o usarlos para crear sus propios atajos. Siri también ha mejorado. Los usuarios tienen más flexibilidad de lenguaje natural para invocar atajos. Con WidgetKit y App Intents, los usuarios pueden acceder a funcionalidades de tu app de formas totalmente nuevas. A continuación, hablemos de descubrimiento de funcionalidad en tu app. Cada año, los desarrolladores pasamos tiempo creando funcionalidades que creemos que los usuarios adorarán, pero a veces los usuarios que más se beneficiarían ni siquiera saben que existe esa funcionalidad. Un nuevo framework llamado TipKit ayuda con esto al educar de forma inteligente a los usuarios sobre la funcionalidad correcta en el momento adecuado. TipKit incluye plantillas que coinciden con lo que los usuarios están acostumbrados a ver en apps de sistemas y son fácilmente personalizables para ajustarse al aspecto y vibra de tu app. El poder de TipKit es que viene listo para usarse. Simplemente personaliza una plantilla y agrega focalización para educar a los usuarios sobre la funcionalidad en relación a su contexto actual. También puedes gestionar la frecuencia general para evitar mostrar consejos que los usuarios y usuarias ya han visto, incluso si los vieron en otro dispositivo. Finalmente, tenemos una nueva forma divertida de ayudar a los usuarios a compartir contenido de tu app con AirDrop. En iOS 17, tus usuarios pueden evitar la hoja de compartir y enviar contenido rápidamente a otro dispositivo cercano. Puedes usar ShareLink en SwiftUI, o adoptar activityItemsConfiguration en el controlador de vistas de tu app. Y ViewControllers proporcionados por el sistema, como ShareSheet y QuickLook ya funcionan por defecto. WidgetKit, App Intents, TipKit y AirDrop te ayudarán a crear experiencias que hacen que el contenido de tu app esté disponible para tus usuarios en el lugar correcto y en el momento correcto. Estamos deseando ver cómo usarás todo esto para llevar tus apps aún más lejos. Ahora, de vuelta con Darin. Darin: Nuestras plataformas están construidas para darte acceso a las capacidades únicas del hardware de nuestros productos desde el principio. Ya uses Neural Engine para procesar una fotografía o uses un acelerómetro para medir tus movimientos mientras duermes, nuestras APIs te dan la capacidad de aprovechar la potencia de las tecnologías del hardware con facilidad. A continuación, veremos las mejoras de este año para Juegos, Cámaras, Pantallas y el Apple Watch. Aquí está Brandon para contarnos cómo ha evolucionado todo esto. Brandon Corey: El increíble rendimiento, la larga vida de la batería y los alucinantes gráficos de los chips de las Mac de Apple hacen que sean la plataforma perfecta para juegos de calidad superior. Ahora, Game Mode en macOS Sonoma hace que jugar en la Mac sea aún mejor. Con las Macs siendo más populares que nunca antes, nunca ha habido un mejor momento para llevar tus juegos a millones de nuevos jugadores. Si eres un desarrollador que crea juegos para Windows o consolas de juegos, verás que ahora es muchísimo más fácil llevar tus juegos a la Mac usando el nuevo Game Porting Toolkit, que acelera de forma significativa tu desarrollo usando tres simples pasos. Primero, puedes evaluar qué tan bien tu juego actual de Windows funcionaría en la Mac usando el entorno suministrado de emulación. Esto te permite analizar el potencial rendimiento de tu juego inmediatamente, eliminando meses de trabajo por adelantado. En el segundo paso, convertirás y compilarás tus sombreadores. Game Porting Toolkit incluye un nuevo Metal Shader Converter, que puedes usar automáticamente para convertir todos tus sombreadores actuales HLSL GPU a Metal, incluyendo todos los canales de sombreado avanzado de tu juego, como geometría, tessellation, mesh y etapas de ray tracing. Puedes usar esta herramienta mientras creas tu juego en Xcode, o en una cadena de herramientas personalizada con base en Windows para una compilación de sombreadores. Lo que nos lleva al paso tres: convertir tu código de gráficos y optimizar tu juego. Metal ofrece todas las funcionalidades avanzadas de gráficas y computación usadas por los juegos modernos de calidad superior, lo que hace que convertir tu código de gráficos sea increíblemente sencillo. Y el potente rendimiento de los gráficos y las herramientas de eliminar errores integrados en Xcode te dan toda la guía que necesitas para optimizar totalmente tu juego. Estamos deseando que uses estas herramientas para aprovechar el increíble rendimiento de los chips de Apple y potentes gráficos, pantallas, audio, entradas y tecnologías de juegos, para llevar tus juegos a la Mac muchísimo más rápido que antes. Hablando de un rendimiento más rápido, también tenemos noticias que compartir sobre Cámara. Apple continúa avanzando la fotografía móvil y expandiendo las APIs que te permiten hacer cosas increíbles con la cámara más popular del mundo. AVCapture lo usan más de un tercio de las apps de iOS en todas las categorías: desde creatividad a productividad, medios sociales e incluso salud y este año ha recibido potentes mejoras de rendimiento. Con Zero Shutter Lag, capturas el momento exacto cuando se presiona el obturador. Con capturas superpuestas, la cámara ajustará dinámicamente la calidad de imagen cuando se presione el obturador rápidamente. Y con procesamiento aplazado, las imágenes de alta calidad, incluyendo Deep Fusion, se pueden procesar de fondo. Estas mejoras harán que el tiempo de disparo a disparo hasta tres veces más rápido entre toques al obturador en tu app de iOS o iPadOS, incluso mientras capturas imágenes de alta calidad. Y posteriormente este año, también podrás usar los botones de más o menos volumen para activar el obturador de cámara. También hay grandes noticias sobre la presentación de fotos en tus apps. En años recientes, hay muchas más pantallas capaces de soportar HDR, incluyendo en el iPhone, el iPad y la Mac. La fotografía HDR se aprovecha al capturar un rango dinámico adicional para mostrar resaltes brillantes y sombras oscuras con más fidelidad y realismo que nunca antes, justo igual que experimentas la escena en la vida real. Apple ha sido líder en llevar la fotografía HDR a la cultura dominante con trillones de fotos HDR capturadas en el iPhone 12 y modelos posteriores. Para hacer esto, la app Cámara analiza inteligentemente la escena y almacena resaltes adicionales y datos de sombra en el momento de la captura. Y aunque hay estándares de la industria para video HDR, no hay estándar para almacenar y mostrar fotos HDR, lo que ha hecho que sea difícil trabajar con ellas. Pero todo eso cambiará este año. Apple ha impulsado un esfuerzo en toda la industria que ha resultado en una especificación para codificar y mostrar fotos HDR, ratificado recientemente por la Organización Internacional de Estándares. Ahora está disponible como una API en iOS, iPadOS y macOS, para que puedas mostrar fotos compatibles en tus apps con solo unas líneas de código. Son grandes noticias para todas las apps que muestran imágenes y no solo para las fotos. Las apps de contenido generativo pueden usarlo para hacer que las fotos resalten con un rango dinámico extra. Ahora será posible un flujo completo de trabajo HDR: desde capturar y editar, hasta compartir y todos podrán disfrutar el HDR en toda su gloria, igual que lo experimentó el fotógrafo. A continuación, hablemos de video. Todos pasamos mucho tiempo con nuestras cámaras hoy día, ya sea para hacer conferencias de video o en apps creativas. Hemos seguido invirtiendo en iluminación y efectos de video, como estas nuevas reacciones, gestos y efectos de superposición del presentador. Están integrados en las imágenes de cámara que recibes, así que funcionará en tu app. Tu app puede observar cuando se invocan estos efectos y tú puedes realizar acciones adicionales, como promover el mosaico de ese usuario para que todos vean que reaccionaron. Si tienes un app de conferencia de video, hay un gran número de mejoras para compartir pantalla y la funcionalidad de la cámara en ScreenCaptureKit. El nuevo selector ScreenCaptureKit hace que sea simple para los usuarios que empiecen a compartir pantalla de una forma más privada y segura. El selector también hace que sea simple que tu app capture múltiples ventanas o incluso múltiples apps todo a la vez. Tus usuarios pueden empezar a compartir desde la app en la que están y agradecerán que tienen una vista previa de lo que se comparte en el nuevo menú Video Effects. Otro beneficio de ScreenCaptureKit es contenido de mayor resolución para que compartir pantallas se vea mejor cuando se comparta solo una ventana. También hemos traído soporte externo de cámaras para el iPad. Cualquier cámara USB ahora puede conectarse y usarse dentro de la app de tu iPad. Y nos emociona agregar capacidad de cámara y micrófono a una nueva plataforma: tvOS. Con Cámara de Continuidad en tvOS, puedes aprovecharte del iPhone e incluso del iPad para integrar video y audio en apps de tvOS por primera vez. Y con tu sala de estar como escenario, hay tanto potencial para hacer cosas increíbles con tus apps. Por ejemplo, las apps de conferencias pueden usar Encuadre centrado, que hacen las videollamadas grupales más dinámicas en la pantalla más grande de la casa. Los juegos pueden incorporar entradas de cámara y audio directamente a la acción. Y las apps creativas pueden transmitir o grabar video, mientras usan el modo Vertical y otros efectos divertidos. Si ya tienes una app en Apple TV, puedes hacer que la experiencia sea aún más conectada y social al maximizar frameworks con los que ya estarán familiarizados. Y para los que quieran aprovechar Cámara de Continuidad, pero aún no la han desarrollado para tvOS, es súper fácil empezar con SwiftUI. Dejen que les muestra cómo funciona. Aquí está mi ejemplo para la app del iPad, PartyCam, que toma selfis con filtros divertidos. Primero, agregaremos Apple TV como destino.

    A continuación, agregamos el selector para que el usuario sepa qué teléfono usar. Luego agregaremos el código que presenta al selector. Y luego lo ejecutamos. Ahora tomo el remoto y hago un foto. ¡Hola, Susan y Serenity!

    ¡Genial! Estamos deseando ver cómo haces que la sala de estar sea más entretenida. Ahora, le paso la palabra a Lori para ver qué hay de nuevo en watchOS. Lori Hylan-Cho: Como nuestro primer reloj inteligente, el Apple Watch abrió nuevas posibilidades para que los desarrolladores llevaran notificaciones oportunas, salud e información sobre la salud y experiencias útiles con apps a las muñecas de la gente. Este año, watchOS 10 recibirá una enorme actualización de diseño que se aprovecha de las pantallas más grandes y brillantes y de un hardware más capaz y conectado de los modelos modernos del Apple Watch. SwiftUI está en el centro de este rediseño. Lo empleamos en todo el sistema para actualizar virtualmente cada app para que sea más dinámica, colorida y más visible. Les mostraré unos ejemplos. Hay un enfoque renovado en la paginación en watchOS 10 y Vertical TabViews permite tamaños variables de páginas, haciendo un mejor uso de la corona para desplazarte dentro de apps sin sacrificar espacio para todo tu valioso contenido. El nuevo modificador containerBackground te permite usar color, con rellenos de gradiente para una mejor lectura, para ayudar a los usuarios a entender dónde están dentro de tu app o para hacer los datos más visibles. Para diseños de app que llenan la pantalla, los nuevos ubicadores ToolbarItem hacen un mejor uso de los bordes y permiten que la hora pase automáticamente al centro si es necesario. Y para configuraciones con una fuerte asociación de lista de fuentes/vista de detalles, NavigationSplitView es más cautivador que nunca antes en el Apple Watch usando el mismo código que usarías en otras plataformas. Y la entrada y salida de la vista detallada en el Apple Watch incluso usa la nueva animación interactiva de spring de SwiftUI. Esta animación se compone de 12 pistas separadas para un plan de animación que anima el tamaño y la posición de las vistas, impulsado por la velocidad del dedo del usuario. Y, claro, los componentes más importantes del UI se han actualizado con tratamientos materiales para que sean legibles en cualquier fondo y se ajustan automáticamente en el hardware. Si ya adoptaste SwiftUI en tu app, recibirás estas actualizaciones automáticamente cuando creas con watchOS 10 SDK. Les mostraré lo que quiero decir con la app Backyard Birds que diseñé originalmente para watchOS 9. Es una app tipo lista de fuentes/vista de detalles creada usando un NavigationStack e incluso sin cambios de código, ya funciona bien al recompilarse con watchOS 10. Las vistas se ajustan automáticamente para acomodar la nueva altura de la barra de navegación y el título grande se encoge y se anima hacia una posición debajo de la hora cuando deslizo. Ahora hagamos alguna corrección para que la app se sienta aún más como en casa en watchOS 10. Me gustaría ver el estatus actual de mi pantalla principal cuando abro la app, en lugar de tener siempre que elegirla de la lista. NavigationSplitView se diseñó específicamente para apps con una fuerte relación lista de fuentes/vista de detalles, así que cambiaré mi NavigationStack por un NavigationSplitView. Cambiaré el título de navegación de Source List, ya que ya no es el punto de entrada para la app e indicaré la vista detallada que debería abrirse por defecto. La lista fuente está ahora detrás de la vista detallada y me enfoco en los detalles. Pero mi vista detallada es muy larga. Es una lista que se desplaza con tres secciones claras, así que desglosaré el contenido convirtiendo List en un TabView vertical con una página separada para cada sección. Cada una de estas páginas será la altura de la pantalla por defecto y como esa sección final contenía un bucle ForEach, cada pájaro tendrá su propia página. Prefiero tener una lista de todos los pájaros en una sola pestaña que se desliza si supera la altura de la pantalla, así que cambiaré este ForEach por un List, lo que hará que la vista sea deslizable. Ahora me gustaría agregar color para diferenciar las pestañas, así que agregaré un modificador .containerBackground a cada pestaña. Y para ver rápidamente cuando queda poca comida o agua, haré que el fondo Sustenance sea dinámico. Seré verde, amarillo o rojo en base a los niveles de suministro. Mirando a los cambios en Live Previews, puedes ver cómo el color de fondo da una sensación de lugar dentro de la app y hace más fácil ver cuando necesito agregar más comida o agua. La pestaña final permite deslizar contenido más allá de los límites de la pantalla y aún puedo llegar a la lista de backyards tocando el botón Source List. Solo fueron necesarios varios cambios para hacer que mi app se ajustara perfectamente a watchOS 10. SwiftUI hizo que nuestras vidas fueran más fáciles mientras trabajamos para hacer que cada app en el sistema se vea genial y como acabamos de ver, hará que actualizar tus apps para estos nuevos paradigmas de diseño también sea muy fácil. Si aún no has pasado a usar SwiftUI en tu app, ahora es el momento. Además de estas actualizaciones de apps con base en SwiftUI, watchOS 10 también tiene un nuevo sistema de espacio, donde la relevancia de AppIntents ayuda a tus widgets moverse en Smart Stack en el momento adecuado. Y puedes usar el mismo modificador .containerBackground mencionado antes para hacer que esos widgets brillen mucho con hermosos fondos personalizados. Para los que construyen apps de hacer ejercicio, puedes ayudar a que tus usuarios aprovechen la capacidad de rastreo de salud del Apple Watch con la nueva API Custom Workout, que te permite compartir planes de ejercicio desde tu app y una nueva API CoreMotion que permitirá una captura de datos de movimiento y del acelerómetro de alta fidelidad para ayudar a mejorar el análisis del swing para deportes como el golf y el tenis. Y como sabemos lo creativos que pueden ser, estos datos están disponibles al ejecutar cualquier tipo de ejercicio. Estamos deseando ver qué experiencias crearán. Y este fue un vistazo a algunos de los grandes cambios que llegarán a watchOS este año. Ahora, de regreso con Darin. Darin: Una plataforma también se trata de la gente que la usa y los valores que se le agregan desde su inicio. Estos valores básicos significan mucho para nosotros en Apple y sabemos que también significan mucho para ti. Juntos podemos hacer que tu app se adapte a las necesidades de la gente para que cualquiera pueda usarla y crear apps que muestren respeto por las necesidades de cada usuario de protegerse y de proteger sus datos. Empezando con lo que ofrecen nuestras plataformas puede hacer que este importante trabajo sea muy fácil para ti. Para contarles más, aquí está Chris. Chris: Creemos que todo el mundo debería ser capaz de usar nuestros dispositivos para hacer lo que amen. Por eso que hacer accesibles nuestros productos es un valor central en Apple. Según la Organización Mundial de la Salud, hay más de 1,000 millones de personas en el mundo con discapacidades. Crear tecnología accesible significa darle a más personas las mejores herramientas para crear, aprender, estar conectados y vivir bajo sus términos. Por eso que los productos de Apple tienen funcionalidades de accesibilidad disponibles desde la caja para los usuarios que son ciegos o con baja visión, sordos o con discapacidades auditivas, los que no hablan o que están en riesgo de perder el habla, aquellos con discapacidades físicas o motoras y aquellos con discapacidades cognitivas. Nuestros frameworks vienen con un soporte integrado para estas funcionalidades de accesibilidad, junto con herramientas y APIs para ayudar a que te asegures de que tus apps son accesibles para todos. Con frecuencia, la accesibilidad se reduce a tomar pequeños pasos que tienen un gran impacto. Como ejemplo, el año pasado agregamos la capacidad de detectar y describir puertas en la app Magnifier, ayudando a que la gente navegue su entorno de forma independiente. Este año, vamos a expandir nuestro soporte para los usuarios que son sensibles a las animaciones y a las luces parpadeantes. Estos usuarios con frecuencia enfrentan una difícil decisión entre evitar un contenido potencialmente peligroso, como películas que comienzan con una advertencia sobre luces parpadeantes o verla sin la información suficiente, lo que supondría exponerse a riesgos de salud, como convulsiones. Nuestros frameworks ahora incluyen APIs para dos funcionalidades que pueden hacer el contenido en tus apps más accesible a estos usuarios. La primera funcionalidad es Pausar Imágenes Animadas, que detendrá el movimiento de los GIFs animados en Safari, Mensajes y más. Y es muy fácil agregarlo a tu app. Imagina que estás animando una secuencia de imágenes con TimelineView en SwiftUI. Puedes usar una nueva propiedad del entorno para entender si el usuario o usuaria prefiere pausar las imágenes animadas y de ser así, reemplazar las imágenes animadas con una imagen estática para respetar su decisión. La segunda funcionalidad es Atenuar Luces Parpadeantes, que oscurece automáticamente la pantalla de video durante secuencias de luces brillantes y parpadeantes.

    Hay una nueva fase en el canal de procesamiento de video en AVFoundation para identificar y atenuar los elementos parpadeantes. Si usas AVFoundation para reproducir media en tu app, no hay que hacer trabajo extra para soportar esta funcionalidad. Sin embargo, si tu app usa un reproductor personalizado de media, puedes usar una nueva API para identificar contenido de video con luces parpadeantes y oscurecerlo automáticamente. Incluso hemos hecho que el algoritmo sea código abierto, para que puedas entender la ciencia detrás de esta funcionalidad. Nuestro compromiso a incluir accesibilidad en cada producto y framework se extiende a nuestra nueva plataforma: visionOS, porque creemos que la mejor tecnología del mundo debería adaptarse a las necesidades de todos, visionOS viene con docenas de funcionalidades de accesibilidad integradas en sus cimientos desde el inicio. Y tú, como desarrollador o desarrolladora, jugarás un papel crítico al hacer tus apps para visionOS accesibles para todos, usando las mismas herramientas y APIs que usas en iPadOS y en iOS hoy. Estamos encantados de trabajar contigo para llevar la computación espacial a grupos diversos de usuarios y usuarias, y escucharás más sobre accesibilidad en Vision Pro en un momento. Ahora, le paso la palabra a Katie para que hable sobre privacidad. Katie Skinner: En Apple, creemos que la privacidad es un derecho humano fundamental. Nuestros usuarios y usuarios nos dicen cuánto les importa y estamos aquí para ayudarte a brindar una gran privacidad junto con tus funcionalidades. Con los años hemos creado muchas formas de ayudarte a crear privacidad en tus apps. Este año haremos que sea aún más fácil que ofrezcas experiencias robustas de privacidad a tus usuarios en un gran número de áreas. empezando con mejoras en los prompts de privacidad. Comencemos con permisos de Calendario. Sabemos que en muchos casos, tus apps no necesitan acceso de lectura a Calendario, solo necesitan escribir nuevos eventos. En estos casos, hemos creado un nuevo permiso para agregar. Esto te ayudará a tener el acceso que necesitas y el usuario recibirá un prompt que tiene sentido para él. Y en Fotos, hemos ofrecido dos opciones para que los usuarios brinden fotos a tu app; pueden seleccionar qué fotos compartir, o brindar acceso a toda la biblioteca. Queríamos que fuera aún más fácil ayudar a los usuarios a seleccionar fotos que compartir con tu app, para que recibas lo que quieres y los usuarios compartan solo lo que quieren. Vamos a agregar un nuevo selector de fotos que puedes integrar en app, para que los usuarios pueden seleccionar fácilmente fotos que compartir desde dentro de tu experiencia. A continuación, privacidad de apps. Es importante ayudar a los usuarios a entender cómo tú proteges sus datos, así que hemos creado funcionalidades para hacer justo eso. Por ejemplo, las Fichas de Privacidad ayudan a los usuarios a entender qué datos recoges y cómo los usas. Muchos de ustedes incluyen SDKs de terceros en sus apps, que pueden ofrecer una gran funcionalidad. Pero incluirlos puede hacer más difícil acertar con tus etiquetas, porque quizá no entiendas cómo manejan ellos los datos de usuarios. Y pueden presentar retos de seguridad a tu cadena de suministro de software. Así que este año presentamos dos actualizaciones. Primero, para ayudarte a entender cómo los SDKs de terceros usan los datos, hemos introducido manifiestos de seguridad. Son archivos que resumen las prácticas de seguridad del código de terceros en tu app, en un formato estándar. Cuando te preparas para distribuir tu app, Xcode combinará todos los manifiestos en todos los SDKs de terceros que estás usando en un único informe fácil de usar. Con un informe resumido para todos tus SDKs de terceros, nunca ha sido tan fácil crear etiquetas precisas en App Store Connect. También queremos ayudarte a mejorar la integridad de tu cadena de suministro de software. Al usar SDKs de terceros, puede ser difícil saber si el código que has descargado fue escrito por el desarrollador que esperabas. Para lidiar con eso, hemos introducido firmas para SDKs de terceros. Ahora cuando adoptas una nueva versión de un SDK de terceros en tu app, Xcode validará que fue firmado por el mismo desarrollador, para darte más tranquilidad. Con manifiestos de privacidad y firmas para SDKs de terceros, hacemos que sea aún más fácil para ti proteger a los usuarios y ayudarles a entender cómo se usarán sus datos. Y finalmente, Seguridad en Comunicaciones, que usa tecnología que preserva la privacidad para proteger a los niños en nuestras plataformas. Nuestras plataformas y las apps que creas juegan un importante papel en las vidas de muchas familias del mundo, especialmente en cómo se comunican. En iOS 15 introdujimos la funcionalidad Seguridad en Comunicaciones en Mensajes para ofrecer más protecciones a los niños que usan dispositivos de Apple. Muchos de ustedes construyen apps donde los usuarios comparten contenido y también quieren proteger a los niños en situaciones vulnerables. Sabemos que entrenar e implementar un modelo para clasificar contenido inseguro puede ser un problema difícil de resolver y una tarea de mucho trabajo, así que vamos a llevar Seguridad en Comunicaciones a toda la plataforma con el framework Análisis de Contenido Sensible. Con solo unas líneas de código, el framework te ayuda a detectar imágenes y videos que contienen desnudez y esto ocurre completamente en el dispositivo. Así podrás crear experiencias positivas en tu app para los niños que tengan activado Seguridad en Comunicaciones. El framework Análisis de Contenido Sensible usa la misma tecnología que apuntala Seguridad en Comunicaciones. El framework protege la privacidad de los usuarios al procesar imágenes y videos completamente en el dispositivo. Además, queríamos darles a todos la capacidad de difuminar contenido sensible con Advertencia de Contenido Sensible. El framework Análisis de Contenido Sensible te hará saber si un usuario ha activado Seguridad en la Comunicación o Advertencia de Contenido Sensible, para que puedas ajustar las experiencias de tu app en base a qué funcionalidad está activada. Estas nuevas funcionalidades hacen que sea más fácil que nunca antes ofrecer privacidad y tranquilidad a tus usuarios. A continuación, Chris nos contará qué hay de nuevo en la App Store. Chris Markiewicz: Hay un lugar de confianza donde los usuarios descubren apps que cumplen nuestros altos estándares de seguridad, privacidad y rendimiento y es la App Store. La App Store te empodera a ampliar la distribución de tu app a nivel mundial usando una variedad de modelos de negocios, como compras in-app. StoreKit es fundamental para una compra in-app segura y de confianza. Brindamos un modelo robusto de datos para conectar tus productos al UI de tus apps. Si ofreces compras in-app, ya sabes la importancia de presentar detalles clave, como precio y duración de la suscripción, para que los usuarios pueden hacer una compra informada. Sabemos que muchos desarrolladores batallan por hacer esto correctamente. Este año, llevaremos StoreKit más lejos con una nueva colección de vistas para impulsar el UI de mercadeo de tu app en todas las plataformas, usando las mejores prácticas de Directrices de interfaz humana. Usando la sintaxis declarativa de SwiftUI, puedes elaborar tu experiencia de mercadeo y StoreKit se ocupa del resto. Veamos algunos ejemplos. ProductView te permite mostrar tus productos usando datos que definiste en App Store Connect. Puedes personalizarlos para que encajen con el aspecto y vibra de tu app. SubscriptionStoreView es una vista específica para suscripciones. Con solo una línea de código, la descripción, precio y duración para cada nivel de servicio se presentan claramente al usuario. Estas vistas no son solo para el iPhone. El mismo código crea una vista para coincidir con la experiencia de plataforma en todos los dispositivos de Apple. Y también se ajusta para encajar en la compacta pantalla del Apple Watch. Y, claro, también se crearon con accesibilidad y localización en mente para todos los usuarios. Integrar SubscriptionStoreView en mi app es súper fácil. Trabajemos en la oferta de suscripción de Backyard Birds Pass. Iré a Xcode a agregar declaraciones a mi SubscriptionStoreView para que se ajuste al aspecto y vibra de Backyard Birds. Personalizaré el contenido de marketing con una vista, agregaré un contenedor de fondo y cambiaré el estilo de las opciones de suscripción.

    Ahora tenemos algo que se ve genial y se ajusta a la marca de la app. Echemos también un vistazo rápido al simulador donde puedo tener la misma experiencia que tendrían mis usuarios. Aquí puedo elegir una oferta, hacer clic en Suscribir y completar la compra. Es todo lo que se necesita para crear una experiencia de compra personalizada para mostrarle a los usuarios toda la información que necesitan para tomar una decisión informada. También sabemos lo difícil que puede ser personalizar las ofertas que presentas en base a la historia de compras del usuario o su estatus de suscripción. Por eso que SubscriptionStoreView determinará automáticamente la elegibilidad del usuario y mostrará la oferta correcta. Las nuevas vistas de StoreKit son la mejor forma de mercadear tus compras in-app. Otro aspecto importante para hacer crecer tu negocio es entender cómo anunciarte ayuda a los usuarios a descubrir tu app. Por eso que SKAdNetwork ayuda a las redes publicitarias a medir con cuánto éxito las campañas publicitarias impulsan las descargas de tu app, todo mientras preservan la privacidad del usuario. Además de medir descargas, sabemos que es importante entender cómo la publicidad puede traer a los usuarios de vuelta a tu app. SKAdNetwork 5 apoyará la medida del regreso de usuarios. Además de medir conversiones después de que un usuario descarga tu app, también podrás medir conversiones después de que un usuario abre tu app tocando un anuncio. La versión 5 estará disponible en un lanzamiento de iOS posteriormente este año. Nuestras nuevas funcionalidades para compras in-app y SKAdNetwork te ayudarán a hacer crecer tu negocio de forma responsable mientras respeta la privacidad del usuario, dándole transparencia y tranquilidad a los usuarios. Ahora, de vuelta con Darin. Darin: Como nuestro lenguaje de programación y frameworks, nuestras herramientas se hicieron unas para otras. Xcode junta todo lo que necesitas para desarrollar, probar y distribuir apps en todas nuestras plataformas. TestFlight y Xcode Cloud hacen que la experiencia no tenga fisuras, desde tu primera línea de código hasta la primera descarga en la App Store. Ahora Ken nos dará un vistazo de las últimas novedades.

    Ken Orr: En todas las plataformas de Apple una herramienta está en el centro de tu experiencia como desarrollador, ayudándote a construir todas tus grandes apps: Xcode. Junta potentes funcionalidades, como un editor que mezcla crear código y diseñar interfaces para usuarios con vistas previas interactivas y animaciones en vivo y un control de código fuente integrado para hacer, revisar y compartir cambios con tu equipo. Eliminar errores, perfilar y probar herramientas para ayudarte a evaluar y refinar tu app, todo esto está conectado en Xcode Cloud, una integración y servicio de entrega continuos que simplifican la distribución a TestFlight y a la App Store. En Xcode 15, hay grandes actualizaciones. Empecemos donde pasas la mayoría de tu tiempo: el editor de código fuente. La finalización de código te ayuda a tener el código que quieres más rápido y con menos errores. Con Xcode 15, empezarás con las finalizaciones más relevantes con el editor usando el código circundante para priorizar. Si es o no el modificador más apropiado para una vista específica que estás usando o cuando unes modificadores al personalizar una vista. Xcode generará automáticamente símbolos para tus recursos de activos de catálogo, lo que significa que aparecen en finalización de código y son fáciles de encontrar en tu código. Esto te da seguridad y tranquilidad de que tus activos están disponibles en el momento de la ejecución. Un gran lugar para usar esos activos es en tus vistas de SwiftUI. Xcode Previews es un modo perfecto de iterar en tu UI, con feedback casi instantáneo a medida que diseñas junto con el código de tu app. En Xcode 15, las vistas previas son más fáciles de usar y están disponibles en aún más lugares. Comienza con una nueva sintaxis, construida con Swift Macros, que es simple de escribir y fácil de recordar. Ahora es más fácil trabajar con diferentes plataformas y dispositivos. Puedes elegirlos directamente en el lienzo para asegurar de que tus vistas se vean bien en todas partes. ¡Y ahora puedes usar vistas previas en todos los frameworks del UI! Dondequiera que uses SwiftUI, UIKIt o AppKit, puedes iterar en tu UI con una experiencia consistente desde cualquier parte del código. Para seguir el ritmo de la rápida realización y previsualización de los cambios, Xcode optimiza el modo en que revisas y confirmas esos cambios. Muchos de ustedes usan git staging en sus flujos de trabajo y ahora, ¡está integrado directamente en Xcode! Puedes almacenar y cancelar cualquier cambio con solo un clic, creando tu próximo compromiso sin dejar tu código. Desde el navegador de Source Control, puedes revisar todos tus cambios en una sola vista, lo que te ayuda a dar los toques finales a tu compromiso. Y Xcode también muestra compromisos sin push, por lo que puedes sincronizar todos tus compromisos en una solicitud de pull. Hablemos de las pruebas. Es una parte esencial de la creación de una app de alta calidad. A medida que el código crece en muchas plataformas, dispositivos, idiomas y funcionalidades de usuario, navegar los resultados de tus pruebas y saber dónde enfocarse puede ser un desafío. Xcode 15 incluye un rediseño completo del informe de prueba, lo que brinda nuevas herramientas para comprender mejor los resultados y tomar acción. Y comienza con una hermosa descripción general de los resultados. Me muestra Top Insights, incluyendo patrones de error comunes, como aquellos con el mismo mensaje de aserción. También obtengo un resumen completo de cómo se ejecutaron mis pruebas en configuraciones, como dispositivo e idioma, y eso me ayuda a detectar patrones. Y hay un mapa de calor para mostrarme rápidamente dónde concentrarme. He estado trabajando en una funcionalidad de la app Backyard Birds. Y mirando mi última prueba, veo que tengo algunos problemas. Empezaré haciendo clic en este insight. Parece que un gesto de toque está fallando en mi nueva prueba. Haré clic en esta prueba que falló, lo que me brinda una vista detallada de las actividades de prueba aquí a la izquierda, junto con una grabación completa de la UI de la app a la derecha. Puedo seleccionar una actividad específica. O puedo usar la nueva línea de tiempo para ir a cualquier momento. Puedo ver marcas para puntos interesantes, como cuando la prueba desplazó esta vista aquí, o aquí donde tocó el campo de búsqueda. Y esta es una grabación de video completa que me brinda muchos más detalles y me muestra exactamente lo que sucedió antes de que fallara la prueba. Lo pondré para ver qué pasó.

    Aquí, la prueba está seleccionando comida para alimentar al ave. El ave empieza a volar y desaparece antes de que termine mi acción, lo que hizo que mi prueba fallara. Este nuevo detalle de prueba con una línea de tiempo y grabación de video hace que la revisión de pruebas para animaciones, gestos y otras experiencias de UI sea mucho más rápida. Y cuando necesito más que video, también puedo ver los marcos de accesibilidad, lo que me brinda aún más información sobre mis vistas. En conjunto, la nueva experiencia de informes brinda información detallada, detalles más precisos y más interacción para aprovechar al máximo las pruebas. Y funciona a la perfección en Xcode y Xcode Cloud. Xcode Cloud es un servicio de entrega e integración continua que te ayuda a crear, probar y compartir tu app en todas las plataformas de Apple. Está profundamente integrado en Xcode, lo que te ahorra tiempo al mantenerte concentrado en un solo lugar. Aprovecha la infraestructura en la nube de Apple para descargar tus versiones, pruebas e incluso la firma de código para su distribución. Se conecta con servicios de Apple como TestFlight y App Store Connect. Y fue creado con seguridad avanzada para protegerte a ti y a tus proyectos. El año pasado, pusimos Xcode Cloud a disposición de todos los miembros del Apple Developer Program. Decenas de miles de equipos incorporaron sus proyectos directamente desde Xcode y el feedback ha sido fantástico. Y seguimos mejorando Xcode Cloud. Nos importa mucho el rendimiento. Desde el año pasado, hemos realizado importantes inversiones para que puedas hacer aún más con tu tiempo de computación. También hemos agregado sus peticiones más importantes. Al distribuir a TestFlight, ahora puedes crear y compartir notas de prueba, lo que mantiene a todos tus usuarios actualizados sobre las últimas mejoras. Xcode Cloud también admite la notarización de macOS cuando se distribuye con DeveloperID, por lo que puedes analizar tu app automáticamente en busca de componentes maliciosos antes de compartirla con tus usuarios. Con solo unos minutos para configurar tus flujos de trabajo, puedes aprovechar horas de tiempo de computación para crear, probar e implementar tus apps. Estamos entusiasmados con el futuro de Xcode Cloud ya que seguimos haciéndolo más rápido, más seguro y más flexible. Durante el último año, optimizamos el compilador para la arquitectura multinúcleo del chip de Apple para que todas tus versiones sean más rápidas y escalables. El enlazador ha sido rediseñado desde cero, trayendo mejoras masivas a la velocidad de enlace. ¡El enlace es hasta cinco veces más rápido! El nuevo enlazador también reduce el tamaño de los archivos binarios de eliminación de errores hasta en un 30%. Y para las apps que integran muchos frameworks, hay un nuevo tipo de framework que ofrece versiones más rápidas durante el desarrollo y un tamaño de app reducido y un tiempo de lanzamiento más rápido para la producción. Finalmente, seguimos haciendo que Xcode sea más rápido y más fácil para comenzar. En la Mac App Store, Xcode ahora es un 50% más pequeño y todos los simuladores se pueden descargar a pedido. Eso significa que puedes comenzar rápidamente e instalar las plataformas que necesitas en el momento correcto. Ahora, volvamos con Darin. Darin: Nuestro enfoque singular de crear un lenguaje, frameworks, herramientas y servicios que funcionen juntos realmente cobra vida cuando presentamos una nueva plataforma. El uso de cimientos compartidos ayuda a que la plataforma parezca familiar mientras que garantiza que brillen sus fortalezas individuales. visionOS aprovecha las inversiones que hemos estado haciendo en nuestras plataformas durante muchos años y muestra los beneficios de este enfoque. Aquí está Mike para contarles todo.

    Mike Rockwell: El lanzamiento de Apple Vision Pro marca el comienzo de un viaje juntos en la computación espacial. Ahora puedes ir más allá de lo que antes creías posible y reimaginar lo que significa estar conectado, ser productivo y estar entretenido. Vision Pro tiene muchas tecnologías innovadoras. Tus apps utilizarán nuevos elementos para interactuar con el espacio del usuario y combinarse a la perfección con tu sala. Todo esto es posible utilizando potentes tecnologías que ya conoces: SwiftUI, RealityKit y ARKit, ahora extendidas para visionOS. Con esta base sólida y un conjunto actualizado de herramientas para desarrolladores, te sentirás como en casa creando un universo completamente nuevo de apps para Apple Vision Pro. Hoy cubriremos todo lo que necesitas para comenzar con visionOS, desde los componentes básicos fundamentales hasta frameworks, herramientas y tecnologías cruciales. Aprenderás sobre actividades y programas que estamos lanzando para apoyarte mientras haces que tus apps cobren vida en Vision Pro; apps que aprovechan el lienzo infinito de Vision Pro o que convierten una sala en un entorno multimedia inmersivo. Así que arremanguémonos. Vision Pro te permite reconsiderar lo que es posible para la experiencia de tu app. Independientemente del tipo de app que estés creando, deberás comprender cómo existirá en 3D, en el espacio de tu usuario. Esto informará las decisiones que tomes como desarrollador. Esa comprensión te ayudará a aprovechar las capacidades de Vision Pro, brindando enfoque e inmersión a tus apps de modos que, hasta ahora, simplemente no eran posibles. Por defecto, las apps se inician en Shared Space. Shared Space es donde las apps existen unas junto a otras, al igual que varias apps en una computadora Mac. El usuario o usuaria tiene capacidad total para reposicionar las apps donde quiera. Hablemos de los elementos que puedes usar dentro de un espacio, comenzando con la ventana familiar. En visionOS, tu app puede abrir una o más ventanas, que son escenas de SwiftUI y se comportan como cabría esperar, como planos en el espacio. Pueden contener vistas y controles tradicionales, e incluso admiten objetos 3D y RealityViews, lo que permite que el contenido 3D exista junto con el contenido 2D. Además, tu app puede crear volúmenes tridimensionales, que también son escenas de SwiftUI, y mostrar objetos 3D, como un tablero de juego o un globo terráqueo. Los volúmenes se pueden mover en este espacio y se pueden ver desde todos los ángulos. En algunos casos, es posible que desees tener más control sobre el nivel de inmersión en tu app, tal vez para que el usuario vea un video, juegue un juego o ensaye una presentación. Puedes hacer esto abriendo un Full Space dedicado, en el que solo aparecen tus apps, ventanas, volúmenes y objetos 3D en la vista del usuario o usuaria. Esos son los elementos fundamentales de la computación espacial: ventanas, volúmenes y espacios. Brindan un conjunto flexible de herramientas para crear apps que pueden abarcar el continuo de inmersión. Ahora, para hablar más sobre cómo comenzar a crear apps, aquí está Geoff. Geoff Stahl: Vision Pro es compatible con varios tipos diferentes de apps. Las apps existentes para el iPad y el iPhone son compatibles, cada una como una única ventana 2D escalable con su apariencia original. Pero eso es solo el comienzo de lo que es posible. En esencia, visionOS es similar a iPadOS e iOS e incluye muchos de los mismos frameworks fundamentales. Se utiliza SwiftUI y UIKit para crear la interfaz de usuario, RealityKit para presentar contenido 3D, animaciones y efectos visuales, y ARKit para comprender el espacio que rodea al usuario. Todo esto es parte del SDK de visionOS. Entonces, ¿qué se necesita para llevar tu app a Vision Pro? Primero, en Xcode, agrega el destino de visionOS a tu proyecto. Ahora, cuando reconstruyes, tu app obtiene automáticamente algunas mejoras geniales.

    Materiales con el aspecto y la sensación de visionOS, ventanas redimensionables con espaciado ajustado para la entrada de ojos y manos, y acceso a ajustes de resaltado para controles personalizados. Luego, puedes agregar código específico de visionOS para expandir tu app en una colección de ventanas, volúmenes o espacios. Desde aquí, puedes comenzar a aprovechar las capacidades extendidas de SwiftUI, RealityKit y ARKit. Aquí está Enrica para decirte cómo. Enrica Casucci: En visionOS, muchos de nuestros frameworks se han ampliado para soportar experiencias espaciales. Con SwiftUI, ahora puedes agregar profundidad o un objeto 3D dentro de una ventana. En iOS y MacOS, normalmente se usa un ZStack para las vistas en capas. visionOS va más allá y puedes separarlos con profundidad. Esto le da una sensación tridimensional a tus apps bidimensionales. Puedes agregar cambios sutiles en profundidad a los elementos de la UI mediante el nuevo modificador de desplazamiento de vista Z. Un valor de compensación más alto presenta la vista frente a las vistas con valores más bajos. Y puedes usar esto para mostrar énfasis o para indicar un cambio de modalidad, por ejemplo, al mostrar detalles para una selección. Y con modificadores de vista adicionales, puedes tener más control sobre el ancho, la altura y la profundidad. En Vision Pro, incluso los gestos son conscientes del espacio adicional. Todos estamos acostumbrados a arrastrar objetos por la pantalla. Ahora, las personas podrán mover o rotar objetos en cualquier lugar de su espacio físico. También puedes crear un volumen con SwiftUI. Puede existir junto con tus ventanas de apps y cuando se ejecuta en Shared Space, está junto a otras apps.

    Y las ventanas y los volúmenes de SwiftUI también pueden estar dentro de un Full Space, donde puedes colocar objetos 3D y elementos de SwiftUI en cualquier lugar de la sala del usuario o usuaria. SwiftUI no solo puede llevar tus apps rápida y fácilmente a visionOS, sino que también puede generar experiencias totalmente inmersivas. Y SwiftUI ahora renderiza a través de RealityKit, por lo que puedes combinar fácilmente las API de SwiftUI y RealityKit. Puedes utilizar mejoras en la UI como adornos, materiales y efectos de desplazamiento. Los adornos te permiten colocar componentes de la UI en los bordes de tus ventanas y volúmenes. Son geniales para cosas como barras de herramientas y menús. Los efectos de desplazamiento resaltan los elementos de la UI en respuesta a dónde mira el usuario. Si bien los controles del sistema obtienen automáticamente estos efectos, tienes opciones para decidir si tu control personalizado muestra un resaltado o un brillo. Y los materiales se adaptan al mundo que rodea a tu usuario o usuaria. Los desenfoques dinámicos y la vitalidad hacen que tu app sea legible, sin importar las condiciones. Al igual que en nuestras otras plataformas, te recomendamos usar SwiftUI para crear apps de visionOS. Tus apps existentes creadas con UIKit también se pueden volver a compilar para visionOS y tendrán acceso a adornos, efectos de desplazamiento, materiales y la apariencia y sensación nativa. SwiftUI es solo uno de los frameworks que usarás para crear experiencias espaciales en visionOS. Edwin les guiará a través de algunos más que les ayudarán en su viaje. Edwin Iskandar: Cuando estés listo para ampliar tus apps con escenas completas de modelos 3D dinámicos, animaciones y efectos visuales, querrás usar RealityKit, el motor de renderizado 3D de Apple creado desde cero para renderizar experiencias espaciales. Presentamos juntos a RealityKit y SwiftUI en 2019 como frameworks independientes. En Apple Vision Pro, están profundamente integrados para que puedas crear interfaces nítidas, receptivas y volumétricas. El contenido 3D puede vincularse a las vistas y estados de SwiftUI, acoplando a la perfección elementos visuales 2D y 3D. RealityKit se ajusta automáticamente a las condiciones físicas de iluminación y fundamenta la experiencia en la realidad al proyectar sombras en pisos y mesas. Esto hace que la app parezca que pertenece en la sala.

    RealityKit también tiene nuevas capacidades significativas, incluyendo la capacidad de crear portales en escenas 3D, como el dinosaurio que vimos en Keynote, para generar texto increíblemente nítido que puedas leer cómodamente y un sistema personalizable de materiales para crear impresionantes efectos visuales. Además, el renderizado es aún más eficiente en Apple Vision Pro mediante el uso de una técnica llamada foveación dinámica. RealityKit aprovecha el seguimiento ocular para renderizar selectivamente las regiones en las que el usuario se está enfocando con una fidelidad muy alta, lo que reduce el costo de renderizado del contenido en la periferia y permite que tus aplicaciones maximicen la potencia de procesamiento del dispositivo. RealityKit renderiza tus modelos 3D con impresionantes resultados fotorrealistas al permitirte especificar sus propiedades físicas, como qué tan reflectante o metálico es. Por defecto, RealityKit representa contenido virtual para que su iluminación esté conectada a las condiciones de iluminación de la sala física. Si deseas personalizar o incluso ampliar el realismo en función de tu intención creativa, puedes proporcionar un activo de iluminación basado en imágenes, o IBL, para individualizar la apariencia. Para crear tus materiales, RealityKit ha adoptado MaterialX, un estándar abierto para especificar sombreadores de superficie y geometría utilizados por las principales empresas de cine, efectos visuales, entretenimiento y videojuegos. El amplio soporte para MaterialX a través de una variedad de herramientas de creación líderes en la industria hace que sea mucho más fácil escribir sombreadores. MaterialX te permite diseñar e iterar rápidamente sobre el aspecto de materiales individuales, al permitirte definir sus propiedades de sombreado. Hay repositorios de materiales entre los que puedes elegir y herramientas útiles como Houdini y Maya que puedes usar para crear tus propios sombreadores personalizados. RealityKit proporciona una nueva vista de SwiftUI llamada RealityView. RealityView se puede usar dentro de ventanas, volúmenes y espacios, lo que te permite colocar contenido 3D en cualquier lugar que desees dentro de las escenas que controlas. También es compatible con Attachments, que te permiten incrustar vistas 2D de SwiftUI con contenido 3D. Junto con SwiftUI y RealityKit, un tercer potente framework te permite aprovechar al máximo el entorno del usuario: ARKit. ARKit comprende el espacio que rodea al usuario, lo que permite que el contenido de la app interactúe con la sala, ya sea un balón que rebota en el suelo o agua que salpica en la pared. ARKit aloja los algoritmos en tiempo real en visionOS que impulsan una gran cantidad de capacidades centrales del sistema. Estos algoritmos siempre se están ejecutando, lo que significa que tus apps se benefician automáticamente de ARKit en Shared Space, sin importar cómo se construyan. El sistema maneja la persistencia y el mapeo mundial. La segmentación, el matizado y la iluminación ambiental se aplican automáticamente a todo el espacio. Y con el permiso del usuario, las funciones de ARKit pueden estar disponibles directamente para tus apps de Full Space. Dentro de Full Space, tus apps pueden interactuar de modo realista con la sala aprovechando la estimación de planos, la reconstrucción de escenas, el anclaje de imágenes y el seguimiento mundial de ARKit, que utiliza los mismos conceptos de anclaje que ARKit en iOS. Esto facilita la migración de tu app ARKit existente a visionOS. Y en visionOS, ahora también tienes acceso a Skeletal Hand Tracking. Puedes usar el seguimiento de manos para crear gestos personalizados para la experiencia con tu app o incluso aumentar las manos del usuario o usuaria con información digital. ARKit proporciona el posicionamiento y la orientación de las articulaciones en el mismo modelo esquelético introducido en iOS. Con el enfoque integrado de SwiftUI, RealityKit y ARKit, puedes maximizar el aprendizaje y la inversión que ya has realizado en las plataformas de Apple a lo largo de los años. Y eso incluye tus esfuerzos para que tus apps sean accesibles.

    Esto es especialmente significativo porque la computación espacial abre grandes oportunidades nuevas para la accesibilidad. En Apple Vision Pro, los usuarios con discapacidades físicas y motoras pueden interactuar con tu dispositivo completamente con los ojos, la voz o una combinación de ambos. Los usuarios también pueden seleccionar con el dedo índice, la muñeca o la cabeza como puntero alternativo para navegar en Vision Pro. Harás que tus apps sean accesibles en visionOS con las mismas técnicas que has usado durante años en nuestras otras plataformas. El Inspector de accesibilidad analiza e informa los problemas de accesibilidad en tus apps de visionOS y brinda sugerencias sobre cómo hacerlas más accesibles. Y con el soporte de accesibilidad integrado en nuestros frameworks, es fácil llevar tus apps y experiencias de visionOS a usuarios y usuarias con discapacidades. Por ejemplo, puedes ayudar a VoiceOver a describir objetos en tus apps para usuarios ciegos o con problemas de visión agregando etiquetas y descripciones que transmitan información, como la apariencia física de un objeto. También puedes incorporar preferencias de usuario para que tus apps sean más accesibles por diseño, como texto dinámico para texto más grande, transparencia reducida para una mejor legibilidad y alternativas al contenido bloqueado. Al hacer uso de estas APIs y herramientas familiares, tus apps jugarán un papel muy importante para hacer que la computación espacial sea accesible para usuarios y usuarias en todo el mundo. Esa es una introducción a los potentes frameworks que puedes usar para crear increíbles apps de visionOS. Aquí está Thessa para hablar sobre todas las herramientas disponibles para ti. Thessa Buscar-Alegria: Cuando empieces a crear apps para Vision Pro, reconocerás más que solo los frameworks. Nuestras herramientas para desarrolladores también se han actualizado para soportar visionOS. Al igual que para todas nuestras otras plataformas, Xcode está en el centro de tu experiencia de desarrollo para Vision Pro. Puedes agregar un destino de visionOS a tus proyectos existentes o puedes crear una app completamente nueva dedicada a las capacidades únicas de esta plataforma. El primer paso en la creación de tu app es tener el aspecto correcto en el contenido 2D y 3D. Xcode Previews permite iterar rápidamente en la apariencia sin salir del editor. Cuando sea el momento de probar toda tu app, puedes pasar al simulador, que proporciona un entorno potente para ejecutar y eliminar errores de la app. Puedes moverte y mirar alrededor de la escena usando un teclado, un panel táctil o un controlador de juego compatible. Y puedes interactuar con tu app simulando los gestos del sistema. El simulador también proporciona tres escenas simuladas diferentes con condiciones de iluminación diurna y nocturna para ayudarte a visualizar tu app. Cuando se trata del desarrollo con tu Vision Pro, crearás y ejecutarás tu app en el dispositivo para asegurar de que funcione. Me emociona mucho compartir esta función adicional que cambiará tu modo de trabajar. Mac Virtual Display te permite llevar un monitor virtual 4K de alta fidelidad de tu Mac directamente a Vision Pro con solo mirarlo. Puedes usar todas las capacidades de tu Mac desde dentro del dispositivo y eso incluye Xcode. Esta es una increíble experiencia de desarrollo integral: programación, pruebas y eliminación de errores de tu app en tu Vision Pro todo el tiempo, sin interrupciones ni pérdida de contexto. A veces, es necesario profundizar en los detalles de cómo el contenido de tu app se relaciona con el mundo real. Cuando tu app interactúa con la sala del usuario o usuaria, puede presentar desafíos singulares, como contenido 3D que visualmente atraviesa las paredes. Xcode presenta visualizaciones prácticas de eliminación de errores para ayudarte a explorar colisiones, oclusiones y comprensión de escenas en relación a tu contenido 3D. Estas visualizaciones funcionan tanto en el simulador como en Vision Pro. A medida que evoluciones tus apps de visionOS, se volverán más espaciales, superando los límites de las ventanas planas y brindando experiencias 3D a los usuarios como nunca antes. Hacer esto bien requiere una nueva herramienta visual. Por eso creamos Reality Composer Pro. Reality Composer Pro es una app que te permite previsualizar y preparar contenido 3D para tus apps de visionOS. Puedes importar y organizar activos como modelos 3D, animaciones, imágenes y sonidos. Se integra estrechamente con el proceso de compilación de Xcode para optimizar tus activos y usarlos en Vision Pro. Puedes enviar fácilmente tu contenido a Vision Pro para obtener una vista previa, cambiar su tamaño y rotarlo. Empuja nuevos cambios en cualquier momento para ver cómo se ve tu contenido antes de escribir nuevo código. Aquí está Jason para darte un tour. Jason Cahill: He estado trabajando en uno de nuestros proyectos de muestra que te lleva a través del sistema solar. Quiero asegurarme de que mi contenido 3D se vea fantástico en Vision Pro y ahora usaré Reality Composer Pro para actualizarlo. Comenzaré importando el modelo satelital y las imágenes que creé en mi app de modelado 3D. Este modelo tiene muchos detalles, pero actualmente no tiene materiales. Crearé un material personalizado en Reality Composer Pro y luego pasaré al Shader Graph donde podemos personalizarlo. Es fácil y divertido agregar imágenes simples y nodos de funciones para cambiar el aspecto de un objeto, todo sin necesidad de escribir código. Puedes probar cosas y ver los resultados al instante y nunca tendrás errores de compilación por escribir sombreadores a mano. Repetiré esto para los otros nodos. En cualquier momento, puedo ver una vista previa de mi trabajo directamente en Vision Pro. Puedo modificar la escala, moverlo, o rotarlo y asegurarme de que se vea y se sienta como quiero. Me gustan estos cambios. Y luego regreso a Xcode, donde mis cambios se han reflejado en mi proyecto y están listos para ser usados en Xcode Previews o en el simulador. ¡Así de simple, está listo para que cargue el código y lo use en mi app! Con Reality Composer Pro, tu proceso de desarrollo de visionOS tiene una nueva y poderosa herramienta que funciona junto con Xcode, lo que hace que revisar y preparar contenido 3D sea tan fácil como crear y ejecutar tu código. Thessa: Cuando estés listo para realizar una prueba beta de tu app, TestFlight estará disponible para usar en Vision Pro desde el principio. Envía nuevas versiones a TestFlight tal como lo esperaría a través de App Store Connect, Xcode o Xcode Cloud y los evaluadores pueden instalarlas y proporcionar feedback valioso directamente desde la app nativa de TestFlight. También pueden acceder a versiones beta de tus apps compatibles para el iPad y el iPhone en Vision Pro. Con esta familia de herramientas y servicios de desarrollo, desde Xcode hasta TestFlight y ahora Reality Composer Pro, estarás en camino para crear apps increíbles para Vision Pro. Y ahora, volvamos con Mike. Mike: Muchos de ustedes han invertido años creando apps y juegos en 3D con Unity. Para facilitar la incorporación de tus apps a Vision Pro, Apple y Unity han estado colaborando profundamente para superponer el motor de Unity en tiempo real sobre RealityKit y habilitar sus herramientas de desarrollo para enfocarse en visionOS. Esto significa que las apps creadas por Unity pueden coexistir con otras apps de visionOS en Shared Space y aprovechar al máximo los beneficios exclusivos de Apple Vision Pro. Para contarles más, me gustaría presentarles a Ralph de Unity. Ralph Hauwert: Gracias, Mike. Ha sido muy emocionante colaborar con Apple en nuestra integración profunda para visionOS. Ahora puedes usar las robustas y familiares herramientas de creación de Unity para crear nuevos juegos y apps de visionOS. Y puedes traer tus proyectos existentes creados por Unity a Vision Pro para reimaginar tus experiencias en esta nueva plataforma. Tus apps tienen acceso a todos los beneficios de visionOS, como transferencia de alta resolución y renderizado dinámico foveado, además de funcionalidades familiares de Unity como AR Foundation. Y con esta profunda integración entre Unity y visionOS, tus apps incluso pueden aparecer junto con otras en Shared Space. Al combinar las capacidades de creación y simulación de Unity con la renderización de apps administradas por RealityKit, el contenido creado con Unity se ve y se siente como en casa en visionOS. Con Unity, podrás comenzar rápidamente con nuestra comunidad, nuestros tutoriales y plantillas. Creemos que Apple Vision Pro ha lanzado la nueva frontera de la computación espacial y nos emociona mucho ver las nuevas apps y juegos que crearás. Mike: Muchas gracias, Ralph. Ha sido increíble trabajar contigo. Hay otras funcionalidades fundamentales de visionOS que debes conocer cuando estés planificando tus próximos pasos. Aquí está Jeff para darte todos los detalles. Jeff Norris: Los frameworks que utilizas para crear apps para Vision Pro se diseñaron con dos objetivos en mente: permitirte aprovechar el potente hardware y software de la plataforma con un mínimo esfuerzo y preservar la privacidad del usuario o usuaria. Puedes ver estos principios en funcionamiento en todo el sistema, desde el modo en que las apps se integran en su entorno hasta las interacciones naturales del usuario y las nuevas posibilidades de colaboración. visionOS crea un modelo 3D del entorno del usuario o usuaria para permitir luces y sombras realistas. Como resultado, las apps pueden integrarse naturalmente con el mundo que las rodea sin necesidad de acceder a los datos de la cámara. vision OS utiliza el mismo modelo 3D para habilitar la próxima generación de audio espacial para tus apps. En el mundo real, el sonido resuena a través y alrededor de un espacio, rebotando en las paredes y los muebles antes de llegar a los oídos. Los sonidos virtuales de tu app deberían comportarse del mismo modo. Esto requiere una comprensión sofisticada del entorno del usuario. El motor de audio espacial PHASE en visionOS fusiona la detección acústica con la comprensión de escenas 3D para crear un modelo detallado de las características sonoras del espacio. A medida que las fuentes de sonido y el usuario se mueven por el entorno, PHASE actualiza su simulación de trazado de rayos de audio en tiempo real. Este modelo se combina con la tecnología de Audio Espacial Personalizado de Apple para adaptar la experiencia a cada individuo y su entorno de forma automática. Toda esta increíble complejidad la gestionas tú y no necesitas acceder a ningún detalle del espacio físico del usuario. Con RealityKit, simplemente decides de dónde quieres que provengan los sonidos y visionOS los mezcla de forma natural con el mundo real. Al igual que los algoritmos que impulsan el realista audio e iluminación en tus apps, la entrada del usuario en visionOS funciona automáticamente y es privada por diseño.

    Los efectos de desplazamiento se renderizan automáticamente para cualquier elemento de UI creado con SwiftUI o RealityKit. Si un usuario mira un botón, se resalta antes de tocarlo. Y al igual que un clic del ratón o un toque en un iPhone, tu app recibe una notificación de una selección cuando un usuario toca con los dedos. El usuario obtiene el feedback visual que necesita y tú recibes las interacciones que esperas sin necesidad de saber dónde mira el usuario antes de tocar. Compartir y colaborar Compartir y colaborar son una parte central de la experiencia de Vision Pro. Al igual que en macOS, los usuarios y usuarias de Vision Pro pueden compartir cualquier ventana de la app con otros en una llamada de FaceTime. Y con SharePlay, las experiencias compartidas de próxima generación se vuelven posibles. Cuando tu app adopta SharePlay con la API de GroupActivities, el control de uso compartido sobre cada ventana agrega una opción que inicia tu app para todos los participantes de la llamada. Esto les permite participar en una experiencia verdaderamente compartida, juntos, en tiempo real. Tú decides cómo se puede usar tu app en colaboración, tal como hiciste con SharePlay en nuestras otras plataformas. Un usuario o usuaria de Vision Pro en una llamada de FaceTime aparece ante los demás participantes como una Persona, una representación natural creada con técnicas avanzadas de aprendizaje automático que coincide dinámicamente con sus movimientos faciales y manuales. Las Personas aparecen a otros usuarios y usuarias de Vision Pro con volumen y profundidad tridimensionales. Pero queremos llevar FaceTime al siguiente nivel en Vision Pro y empoderar a los usuarios en cualquier lugar para interactuar como si estuvieran juntos en una sala. Esta experiencia aún está en su inicio y nos emociona compartirla aquí con ustedes por primera vez. Las Personas Espaciales permiten a los usuarios y usuarias de Vision Pro salir del mosaico familiar de FaceTime y sentirse más presentes, como si estuvieran en el mismo espacio físico. visionOS garantiza que usuarios y apps tengan un contexto espacial compartido y consistente. Tus apps pueden aprovechar este nuevo contexto con SharePlay. Ahora, más allá de solo sincronizar los cambios en tu app entre usuarios, puedes responder a las acciones físicas de un usuario, de modo que estar juntos en un pizarrón de Freeform o mover piezas en un juego de mesa se sienta natural. Queremos que tus apps sean parte de esta nueva e increíble experiencia y tu feedback será importante a medida que continúa desarrollándose. Por eso que estamos lanzando una vista previa para desarrolladores de Personas Espaciales posteriormente este año. Estos son solo algunos ejemplos más de las ricas y extensas tecnologías que puedes aprovechar en visionOS. Ahora, aquí está Linda para hablar de a dónde irás desde aquí.

    Linda Dong: Ahora que conoces Apple Vision Pro y visionOS, ¿qué sigue? Tu viaje de desarrollo comienza hoy. Te animamos a profundizar y aprender todo lo que puedas a medida que comienzas a diseñar, desarrollar y probar Vision Pro. El SDK de visionOS, junto con Xcode y el simulador actualizados y Reality Composer Pro estarán disponibles posteriormente este mes para que puedas comenzar a trabajar en tus ideas. También tendrás acceso a una extensa documentación técnica, nuevos kits de diseño y herramientas y una guía de interfaz humana actualizada para visionOS. Además del simulador de Vision Pro, también tenemos opciones para que veas cómo funciona tu app en Vision Pro. Este verano lanzaremos Laboratorios de Apple para desarrolladores de Vision Pro, donde podrás probar tu app en el hardware de Vision Pro. Tendrás soporte técnico práctico y la capacidad de obtener una vista previa de tu experiencia antes de que Vision Pro se lance a los clientes. Estos laboratorios estarán ubicados en varios lugares del mundo, incluido nuestro Centro de desarrolladores aquí en Cupertino. Y sin importar dónde te encuentres, podrás enviar una solicitud para que evaluemos la compatibilidad de tu app con Vision Pro. Instalaremos tu app y compartiremos cualquier problema que encontremos.

    Para obtener más actualizaciones sobre estas emocionantes oportunidades, visita el sitio web de desarrolladores. Y, por supuesto, Vision Pro se lanzará con una App Store completamente nueva, para que la gente descubra y descargue las increíbles apps que creas. ¡Te invitamos a compartir tus ideas para esta plataforma y seguiremos apoyándote mientras las haces realidad! Ahora, volvamos con Darin. Darin: ¡Qué año tan emocionante! Una oportunidad increíble con visionOS, tantas adiciones bien pensadas a cada plataforma, como más lugares para hacer surgir tu app con WidgetKit, una expansión de Cámara de Continuidad y un nuevo diseño para watchOS. Además, importantes mejoras en Swift con Macros y Swift Data y una gran actualización de Xcode Previews. Los desarrollos de este año en lenguajes, frameworks, herramientas y servicios representan nuestro profundo compromiso de ayudarte a crear experiencias únicas para miles de millones de dispositivos en nuestras plataformas. Estas plataformas abarcan una gama cada vez más diversa de productos con un nivel de consistencia e integración que marcan la diferencia para ti como desarrollador y para los usuarios. Arañamos con éxito la superficie de las novedades en nuestras plataformas. Pero para avanzar más, tenemos 175 sesiones de video en profundidad, 40 solo para visionOS, junto con más de 200 talleres dirigidos por expertos de Apple para responder tus preguntas candentes mientras creas excelentes apps. Nunca ha habido un mejor momento para ser desarrollador de Apple y no tengo ninguna duda de que tus creaciones sorprenderán y deleitarán a tus usuarios. ¡Que tengas una fantástica WWDC! ♪ ♪

    ♪ ♪

Developer Footer

  • Videos
  • WWDC23
  • Platforms State of the Union (ASL)
  • Open Menu Close Menu
    • iOS
    • iPadOS
    • macOS
    • tvOS
    • visionOS
    • watchOS
    Open Menu Close Menu
    • Swift
    • SwiftUI
    • Swift Playground
    • TestFlight
    • Xcode
    • Xcode Cloud
    • Icon Composer
    • SF Symbols
    Open Menu Close Menu
    • Accessibility
    • Accessories
    • App Store
    • Audio & Video
    • Augmented Reality
    • Business
    • Design
    • Distribution
    • Education
    • Fonts
    • Games
    • Health & Fitness
    • In-App Purchase
    • Localization
    • Maps & Location
    • Machine Learning & AI
    • Open Source
    • Security
    • Safari & Web
    Open Menu Close Menu
    • Documentation
    • Sample Code
    • Tutorials
    • Downloads
    • Forums
    • Videos
    Open Menu Close Menu
    • Support Articles
    • Contact Us
    • Bug Reporting
    • System Status
    Open Menu Close Menu
    • Apple Developer
    • App Store Connect
    • Certificates, IDs, & Profiles
    • Feedback Assistant
    Open Menu Close Menu
    • Apple Developer Program
    • Apple Developer Enterprise Program
    • App Store Small Business Program
    • MFi Program
    • News Partner Program
    • Video Partner Program
    • Security Bounty Program
    • Security Research Device Program
    Open Menu Close Menu
    • Meet with Apple
    • Apple Developer Centers
    • App Store Awards
    • Apple Design Awards
    • Apple Developer Academies
    • WWDC
    Get the Apple Developer app.
    Copyright © 2025 Apple Inc. All rights reserved.
    Terms of Use Privacy Policy Agreements and Guidelines