
-
Platforms State of the Union (ASL)
Discover the newest advancements on Apple platforms.
Capítulos
- 0:00:21 - Introduction
- 0:01:35 - Apple Intelligence
- 0:09:14 - Generative Tools
- 0:21:10 - Xcode
- 0:23:58 - Swift Assist
- 0:27:44 - Swift
- 0:33:01 - Swift Testing
- 0:35:23 - SwiftUI
- 0:41:58 - RealityKit
- 0:44:17 - iOS
- 0:47:24 - iPadOS
- 0:49:30 - watchOS
- 0:52:11 - macOS
- 0:56:26 - visionOS
- 1:02:15 - Native Experiences
- 1:04:23 - Conclusion
Recursos
-
Buscar este video…
♪ ♪
Susan Prescott: ¡Bienvenidos y bienvenidas a WWDC 24 Platforms State of the Union! WWDC siempre es una emocionante época del año cuando entramos en los detalles técnicos de las cosas en las que hemos estado trabajando, compartimos cómo funcionan y les ayudamos a entender lo que es posible en sus apps y juegos. Antes de empezar, tomemos un momento para reconocer su arduo trabajo y dedicación– ustedes son los creadores, diseñadores y desarrolladores de las increíbles apps y juegos que la gente usa todos los días para aprender, jugar, trabajar y cambiar el mundo. ¡Gracias! Nos encanta conectarnos con ustedes por todo el mundo en los Apple Developer Centers, Developer Academies y laboratorios Apple Vision Pro, ¡en donde ustedes crearon los primerísimos apps y juegos de computación espacial! Y la siguiente generación de desarrolladores nos dejó sin palabras en el Swift Student Challenge con asombrosos y creativos Playgrounds que trataron temas que van desde impacto social hasta seguridad. Estamos continuamente impresionados por su creatividad, entusiasmo y nuevas ideas. Gracias por hacer que este ecosistema sea tan emocionante e increíble. Ahora, veamos en detalle los anuncios más grandes de nuestros desarrolladores, empezando con Seb para contarles sobre Apple Intelligence.
Sebastien Marineau-Mes: Este va a ser un año increíble para los desarrolladores. Hay tantas innovaciones en este momento con IA Generativa, y hoy se marca el inicio de un emocionante capítulo con Apple Intelligence. Apple Intelligence es el sistema de inteligencia personal que trae potentes modelos generativos a nuestras plataformas. iOS, iPadOS y macOS consiguen potentes funcionalidades nuevas para entender y generar lenguajes e imágenes, y ayudar a usuarios y usuarias a tomar acciones con una conciencia enriquecida del contexto personal del usuario. Está profundamente integrada en funcionalidades y apps por todo el sistema y construida con privacidad desde el inicio. Antes de entrar en todas las nuevas formas en que te puedes integrar con las nuevas funcionalidades e incorporarlas en tus apps, veamos detrás de cámaras cómo se desarrolló Apple Intelligence. Por años, nuestras plataformas han estado a la vanguardia de ejecutar tareas de aprendizaje automático en el dispositivo, aprovechando al máximo la potencia del chip de Apple. Queremos ejecutar lo máximo posible en el dispositivo porque brinda una baja latencia y una mejor experiencia para usuarios y usuarias. Y, claro, ayuda a mantener privados los datos personales y actividad de los usuarios. Los nuevos modelos generativos de IA son increíblemente potentes y emocionantes, y realmente llevan al límite lo que se puede ejecutar a nivel local. Apple Intelligence empieza con nuestro modelo fundacional en el dispositivo, un Large Language Model altamente capaz. Buscábamos el punto exacto: lo suficientemente potente para las experiencias que queríamos y aún así lo suficientemente pequeño para ejecutarse en un dispositivo. Empezando desde ese modelo fundacional, habían tres retos claves que necesitábamos resolver: especializarlo para que fuera genial para las muchas tareas y funcionalidades que queríamos ejecutar haciéndolo lo más pequeño posible para entrar en dispositivos tales como un iPhone y brindar el mejor rendimiento de la inferencia y eficiencia energética. La primera técnica que usamos es afinamiento. Esto implica ejecutar diferentes pases de entrenamiento en nuestro modelo, donde cada uno le enseña a ser genial en una tarea dada, tal como resumen de texto, revisión o generar respuestas de correo. Este proceso lleva a un conjunto de modelos distintivos, cada uno entrenado para ser maravilloso en una cosa pero no tan bueno en las otras. Un enfoque más eficiente de afinamiento aprovecha una nueva técnica llamada Adapters. Los Adapters son pequeñas colecciones de pesos modelo que están superpuestos sobre el modelo fundacional, de base común. Pueden cargarse e intercambiarse de forma dinámica, dándole al modelo fundacional la capacidad de especializarse al paso, por sí mismo, en la tarea a realizar. Apple Intelligence incluye un amplio conjunto de Adapters, cada uno afinado para una funcionalidad específica. Es una forma eficiente de ajustar las funcionalidades de nuestro modelo fundacional. Nuestro siguiente paso fue comprimir el modelo. Aprovechamos finas técnicas de cuantificación para reducir un modelo de 16 bits por parámetro a un promedio de menos de 4 bits por parámetro para que entrara en los dispositivos con soporte Apple Intelligence, siempre manteniendo la calidad del modelo. Por último, nos enfocamos en rendimiento de la inferencia y eficiencia, optimizando modelos para reducir al mínimo el tiempo para procesar una orden y producir una respuesta. Adoptamos un rango de tecnologías, tales como la decodificación especulativa, la poda de contexto y la atención a la consulta grupal, todas afinadas para sacar el mejor provecho del Neural Engine. También aplicamos un proceso similar para un modelo de difusión que genera imágenes usando adaptadores para diferentes estilos y Genmoji. Esto es Apple Intelligence en el dispositivo: potente, intuitivo y modelos integrados de lenguaje y difusión que brindan un gran rendimiento y se ejecutan en un dispositivo lo suficientemente pequeño para caber en tu mano. Aún así, hay más funcionalidades avanzadas que requieren modelos más grandes para procesar datos más complejos. Así que hemos extendido Apple Intelligence a la nube con Private Cloud Compute para ejecutar esos modelos fundacionales más grandes. Como estos modelos procesan la información personal del usuario o usuaria, teníamos que repensar Cloud Compute y extender el enfoque de privacidad de nuestros dispositivos a los servidores. Private Cloud Compute está diseñada específicamente para procesar IA de manera privada. Funciona en un nuevo OS usando un subconjunto reforzado de las fundaciones de iOS, basado en el trabajo de seguridad de nuestro sistema operativo, líder en la industria. Para mitigar toda clase de riesgos de privacidad, hemos omitido funcionalidades que no son estrictamente necesarias en un servidor dedicado a IA, tal como el almacenamiento de datos persistente. Además de esta fundación segura, hemos reemplazado completamente las herramientas que se usan normalmente para manejar servidores. Nuestras herramientas están diseñadas para impedir el acceso privilegiado, tal como shell por vía remota, que podría permitir el acceso a los datos del usuario o usuaria. Y para terminar, Private Cloud Compute incluye un stack completo de aprendizaje automático que potencia la inteligencia. El resultado es una base de seguridad de la nube sin precedentes basada en el chip de Apple. Empieza con un Secure Enclave para proteger claves de encripción fundamentales. Secure Boot garantiza que OS esté firmado y verificado tal como en iOS, Trusted Execution Monitor asegura que sólo se ejecuten códigos firmados y verificados. Y Attestation permite que el dispositivo de un usuario o usuaria verifique de forma segura la identidad y configuración de un clúster Private Cloud Compute antes de enviar cualquier solicitud. Por cada solicitud, el dispositivo de un usuario o usuaria establece una conexión encriptada de principio a fin con un clúster Private Cloud Compute. Sólo el clúster elegido puede decriptar el dato solicitado, que no se retiene después de responder de vuelta y nunca es accesible para Apple. Pero vamos aún más lejos: Nos comprometemos a hacer que las imágenes virtuales de cada producción construida a partir de Private Cloud Compute esté disponible a nivel público para su inspección por investigadores de seguridad, para que puedan verificar las promesas que hacemos, y los hallazgos serán recompensados a través de Apple Security Bounty. Segundo, nos estamos asegurando de que el dispositivo de un usuario o usuaria sólo se comunique con clústers Private Cloud Compute que ejecuten una construcción firmada que haya sido públicamente registrada para su inspección. Esto se verifica con los fuertes mecanismos de atestación criptográficos en el chip de Apple. Creemos que esta es la arquitectura de seguridad más avanzada jamás desplegada para computación de IA en la nube a escala. Apple Intelligence es el sistema de inteligencia personal que reúne todo esto junto. Incluye un índice semántico en el dispositivo que puede organizar información personal entre apps así como una App Intents Toolbox que puede entender las funcionalidades de las apps y aprovecharlas en nombre del usuario o usuaria. Cuando un usuario o usuaria hace una solicitud, Apple Intelligence orquesta cómo manejarla ya sea a través de su stack de inteligencia en el dispositivo o usando Private Cloud Compute. Y apela a su índice semántico para afianzar cada solicitud en el contexto personal relevante y usa su App Intents Toolbox para actuar por el usuario o usuaria. Se especializa en ser totalmente genial en las funcionalidades que permite. Está construida con el mejor rendimiento y eficiencia energética y claro, está diseñada desde la base alrededor de privacidad y seguridad. Eso es Apple Intelligence. Tenemos nuevas APIs para llevar estas funcionalidades a tus apps, y nuevas formas para que tus apps expongan sus funcionalidades a Apple Intelligence para una integración más profunda en las experiencias del sistema. Empecemos con nuestras funcionalidades de lenguaje e imagen: Writing Tools, Genmoji e Image Playground. Aquí está Leslie para contarte más. Leslie Ikemoto: Nuestro amplio sistema Writing Tools usa los modelos de los que Seb te acaba de hablar para ayudar a usuarios y usuarias a reescribir, revisar y resumir texto. Si estás usando cualquiera de los frameworks estándar UI para reproducir campos de texto, ¡tu app usará Writing Tools automáticamente! Y al usar nuestra nueva API delegada TextView, puedes personalizar cómo quieres que tu app se comporte mientras Writing Tools esté activo. Por ejemplo, pausando sincronización para evitar conflictos mientras Apple Intelligence procesa texto. Así que para una app como Weebly, Writing Tools puede ayudar al dueño o dueña de un pequeño negocio ¡a encontrar la palabra correcta para su nueva página web! Y cuando se trata de imágenes, Genmoji abre por completo nuevas formas de comunicarse, permitiendo que usuarios y usuarias creen un nuevo emoji para cada ocasión. Si ya estás usando nuestros sistemas de texto estándar con imágenes embebidas, ¡estás en excelente forma! Todo lo que tienes que hacer es ajustar una sola propiedad y ahora las vistas de tu texto aceptan Genmoji desde el teclado. Si vemos bajo el capó, los Genmoji no se manejan como los emoji. Mientras que los emoji son sólo texto, los Genmoji se manejan usando AttributedString, que es un tipo de datos que ha estado con nosotros por muchos años, por representar textos enriquecidos con gráficos. Apple Intelligence también brinda nuevas funcionalidades increíbles por todo el sistema para crear imágenes divertidas y originales entre apps. La nueva API Image Playground brinda una experiencia consistente, juguetona y fácil de usar. Cuando la adoptas, tienes acceso a la misma experiencia que los usuarios y usuarias familiarizados con Messages, Keynote y el nuevo app Image Playground. Y como las imágenes se crean en el dispositivo del usuario o usuaria, ellos tienen el poder de experimentar y crear todas las imágenes que quieran. Y tú no tienes que preocuparte de configurar o pagar por tus propios modelos de texto a imagen o servidores para ofrecer esta experiencia en tus propios apps. Veamos lo fácil que es empezar.
Estoy aquí en Xcode, trabajando en una app llamada Destination Video. Quiero usar la nueva API Image Playground para permitir que usuarios y usuarias agreguen divertidas imágenes avatar a sus perfiles. Voy a hacerlo agregando un pequeño código SwiftUI al botón de mi perfil para configurar la hoja de Image Playground. Ahora agregaré un código para almacenar la nueva imagen. Y por último, agregaré una descripción de texto para darle a los usuarios y usuarias un avatar predeterminado para trabajar. Ahora, presionemos construir y ejecutar, y veamos lo que conseguimos aquí en mi iPad. Aquí está el botón de mi perfil. Ahora cuando lo presiono, aparece la vista de Image Playground y, así de simple, tengo un fantástico avatar que puedo usar para mi perfil. Y los usuarios y usuarias pueden presionar las burbujas o editar la orden que les brindamos para crear lo que quieran.
Writing Tools, Genmoji e Image Playground son tres nuevas y potentes funcionalidades Apple Intelligence, e integrándolas a tus apps tus usuarios y usuarias quedaran encantados. Hay otra forma de llevar Apple Intelligence a tu app: ¡Siri! Este año, con Apple Intelligence, Siri podrá realizar cientos de acciones nuevas en las apps o entre ellas, incluyendo algunas que maximizan las funcionalidades de escritura nueva y generación de imágenes de las que acabamos de hablar. Esto ha sido posible gracias a significativas mejoras que hacemos a App Intents. App Intents es un framework que te permite definir un conjunto de acciones para Siri, Shortcuts y otras experiencias del sistema, y ahora, App Intents son una potente forma de que tu app aproveche Apple Intelligence. Empezamos con soporte para estos dominios y con el tiempo agregaremos aún más. Y si tienes una app que calza en un dominio SiriKit existente, también puede beneficiarse de las funcionalidades de conversación mejorada de Siri, como responder correctamente incluso si te enredas con las palabras, y entender referencias a partes previas de una conversación. También hay dos nuevas funcionalidades de Siri de las que pueden beneficiarse las apps sin trabajo extra. Primero, Siri podrá invocar cualquier opción del menú de tu app. Así, cuando un usuario o usuaria que esté revisando una serie de diapositivas diga, "Muestra las notas del presentador", o quizá diga más como conversando, "Necesito ver las notas de mi charla", Siri sabrá qué hacer exactamente. Segundo, Siri podrá acceder a texto que se muestre en cualquier app que use nuestros sistemas de texto estándar. Esto permitirá que usuarios y usuarias se remitan directamente y actúen con el texto visible en pantalla. Así, cuando un usuario o usuaria mire un recordatorio para desearle feliz cumpleaños al abuelo, basta que diga, "Llámalo por FaceTime".
Eso es tomar acción a través de Siri. Hablemos ahora sobre cómo Apple Intelligence equipa a Siri con entendimiento de contexto personal. Apple Intelligence puede acceder ahora a un índice semántico de cosas como fotos, mensajes, archivos, eventos en el calendario y mucho más, para ayudarle a encontrar y entender cosas que nunca antes pudo. Siri ahora también podrá buscar datos de tu app, con una nueva API Spotlight que permite incluir App Entities en su índice. Y cuando App Intents y App Entities se juntan, abren nuevas formas de que tus usuarios y usuarias conecten contenido por todo el sistema a las acciones que tu app soporta. Por ejemplo, un usuario puede traer el resumen de una nota que acaba de tomar en la app Notes a un correo electrónico que preparó en Superhuman. Con el borrador del correo definido como una entidad app para el índice, el usuario o usuaria puede remitirse a él como conversando. Y Siri puede traer contenido de tu nota justo adonde el usuario o usuaria lo quiera en la app Superhuman. Ya sea que construyas nuevas App Intents y App Entities, o tengas integraciones SiriKit existentes, Apple Intelligence permitirá que Siri exponga un acceso mucho más profundo y natural que nunca a los datos y funcionalidades de tu app. Exponer las funcionalidades de tu app usando App Intents es la clave para esta integración, y ya puedes comenzar a trabajar en eso hoy. Los usuarios y usuarias podrán usar tus App Intents con la app Shortcuts de inmediato, y con el tiempo, Siri será capaz de llamar a las App Intents compatibles con los dominios que soporta. Ya están disponibles esquemas App Intent para dos dominios, con más por llegar a fines de este año. Y en actualizaciones de software, vamos a lanzar las acciones y entendimiento de contexto personal en la app que acabas de escuchar. Volvamos con Seb. Seb: Así que esas son nuestras funcionalidades de imagen y lenguaje, así como la nueva Siri, completamente potenciada por Apple Intelligence. Y si estás ejecutando tus propios modelos y buscando acceso de más bajo nivel para el stack para aprovechar el hardware acelerado con IA, hay muchas otras formas de usar aprendizaje automático e IA en el dispositivo al interior de tu app. Aquí está Manasi para contarte más. Manasi Joshi: Nuestros frameworks incorporados de aprendizaje automático ofrecen funcionalidades de inteligencia entre algunas categorías. Estas incluyen APIs para el procesamiento natural del lenguaje, análisis de sonido, entendimiento del habla e inteligencia visual. El framework Vision va a obtener una API Swift totalmente nueva este año. Hay tantas funcionalidades que puedes aprovechar entre estos frameworks. Y puedes extenderlas usando Create ML para agregar datos adicionales para entrenamiento. Por ejemplo, si tienes un conjunto de datos de imágenes únicos, puedes aumentar nuestros modelos de imagen con tus datos para mejorar la clasificación y detección de objetos. Y más allá de nuestros frameworks, también puedes importar y ejecutar modelos de IA en el dispositivo, tales como modelos de difusión o de lenguaje de gran tamaño desarrollados y entrenados en otra parte. Puedes ejecutar una amplia variedad de modelos entre nuestros dispositivos, incluyendo Whisper, Stable Diffusion y Mistral. Sólo toma un par de pasos tener un modelo listo para ejecutarse en tu app. Puedes empezar con cualquier modelo PyTorch. Luego usas Herramientas Core ML y lo conviertes al formato Core ML. Las herramientas Core ML te ofrecen una cantidad de formas de optimizar tu modelo, potenciando muchas de las técnicas usadas en Apple Intelligence, tales como cuantificación y almacenamiento en caché con valor clave eficiente en LLMs. Luego ejecutas tu modelo dentro de tu app usando el framework Core ML. Core ML optimiza la ejecución acelerada por hardware entre el CPU, GPU y Neural Engine e incluye una cantidad de herramientas nuevas para que puedas seguir optimizando el rendimiento de tu modelo. Core ML es el framework más comúnmente usado para ejecutar modelos de IA como parte de las apps en iOS, iPadOS y macOS. Cuando tu app tiene cargas pesadas para tareas de aprendizaje no automático, puede que quieras más control sobre cuándo se ejecutan tareas de aprendizaje automático para gestionar el rendimiento general. Por ejemplo, si tu app tiene considerables cargas de trabajo de gráficos, Metal te brinda formas de secuenciar tus tareas de aprendizaje automático con esas otras cargas de trabajo usando Metal Performance Shaders para que puedas obtener el mejor rendimiento GPU. Y si estás ejecutando procesamiento de señales en tiempo real en el CPU, el framework Accelerate incluye BNNS Graph para tus tareas de aprendizaje automático para mantener un control más estricto en el manejo de latencia y memoria. Ahora, te mostraremos esto en acción y veremos cómo las nuevas optimizaciones pueden mejorar la ejecución de un modelo. Usamos el modelo de parámetro Mistral 7B de Hugging Face Space de Mistral. Se convirtió a un formato Core ML y se ejecuta en una app de prueba construida usando el paquete Swift Transformers. En macOS Sonoma, se ejecuta como un modelo de 16 bits. Para macOS Sequoia, hemos aplicado la última cuantificación de 4 bits y técnicas caché KV con estado en Core ML. Le hemos dado al modelo una pregunta simple: ¿Qué es la cuantificación de modelo ML en tres frases? Puedes ver que con estas optimizaciones, el modelo puede producir una respuesta más de 5 veces más rápida con un ahorro de memoria pico de casi 9 veces. La cuantificación es una técnica potente pero puede afectar la calidad de salida, así que recomendamos pruebas adicionales y afinamiento después. Para aquellos de ustedes que experimentan con los últimos avances, incluyendo modelos de entrenamiento, ¡no hay mejor lugar para hacerlo que en la Mac! Ya sea que uses PyTorch, TensorFlow, JAX o MLX, puedes aprovechar al máximo la aceleración por hardware del chip de Apple y la memoria unificada cuando entrenas modelos. Nuestro trabajo en aprendizaje automático e IA es un esfuerzo conjunto. Nos asociamos con otros en la comunidad de investigación para desarrollar juntos la última generación, y puedes hallar la investigación resultante en línea. Hemos publicado cientos de documentos con novedosos enfoques para los modelos IA y optimizaciones en el dispositivo con muchos que incluyen código de muestra y conjunto de datos. Y hemos compartido muchas de las herramientas que usamos para investigar como código abierto. Hay tantas formas de que aproveches IA en el dispositivo con las plataformas Apple. Y con la tecnología de aprendizaje automático avanzando rápidamente, Apple sigue impulsando la investigación innovadora en este espacio. Ahora, volvamos con Seb. Seb: Este es el comienzo de una travesía. Apple Intelligence es realmente una inteligencia potente para tus dispositivos más personales. Seguiremos llevando inteligencia generativa al corazón de las plataformas Apple y exponiendo nuevas funcionalidades para integrarlas en tus apps. La Inteligencia Generativa también está transformando la forma en la que todos escribimos códigos; y estamos agregando unas nuevas funcionalidades de inteligencia increíbles para nuestras herramientas para desarrolladores. Aquí está Ken para contarte más.
Ken Orr: Cada día, millones de desarrolladores de todo el mundo usan Xcode para que tus ideas cobren vida en todas las plataformas Apple. Xcode te ayuda a escribir códigos Swift geniales y a crear experiencias asombrosas con SwiftUI, que se experimentan rápidamente en Simuladores para dispositivos Apple y OSes, consigue una visión detallada de rendimiento usando Instruments y prueba y distribuye a todos tus usuarios y usuarias con Xcode Cloud. Todo esto funciona junto sin contratiempos para que tú puedas mantenerte concentrado, concentrada, trabajes rápido y liberes tu creatividad. Xcode 16 inicia todo un nuevo capítulo para el desarrollo, mientras integramos nuestras herramientas con la potencia de los Modelos Generativos. Construyendo en los modelos fundacionales de Apple hemos creado modelos de codificación especializados que capturan la experiencia que sólo Apple puede brindar, como las últimas APIs, funcionalidades de lenguaje, documentación y código de muestra, y las mejores prácticas destiladas a lo largo de décadas construyendo software para todas nuestras plataformas. Comienza con un gran salto hacia adelante en una funcionalidad fundamental que usas todos los días, finalización de código, con un nuevo motor innovador que puede predecir el código que necesitas. El motor está potenciado por un modelo único entrenado específicamente para Swift y Apple SDKs. Usa los símbolos de tu proyecto para sugerencias personalizadas. Y funciona localmente en tu Mac, manteniendo tu código privado, dándote resultados súper rápidos y funciona hasta cuando estás desconectado. Veamos. Estoy trabajando en una app que presenta videos divertidos de todas partes del mundo. Lo siguiente en mi lista de cosas por hacer es agregar código para representar una colección de videos. Quiero un nombre para la colección. Apenas empiezo a tipear, obtengo una gran sugerencia. Presionaré el tabulador para aceptarla. También quiero una propiedad con una variedad de videos. De nuevo, Xcode termina la línea usando una fuente de mi propio proyecto. Enseguida, quiero una función que arroje una lista clasificada de videos. Empezaré a tipear el nombre y obtendré una sugerencia para una función que arroja una variedad de videos clasificados por fecha de lanzamiento. Apenas la acepto, también me sugiere una implementación. Además del código en mi proyecto, Xcode puede usar los comentarios que escribo como contexto. Agregaré un comentario para una función que me arrojará una lista de videos de un director dado. Y con tan sólo un par de caracteres, obtengo una sugerencia exacta para lo que tenía en mente. Enseguida, agregaré el inicio de una función para obtener la caché de vista en miniatura de un video. A medida que tipeo y elijo una de las sugerencias, ahora obtengo todos los parámetros completados para mi selección. Finalmente, agregaré el cuerpo para mi vista. Puedo mantener Option presionado para ver múltiples líneas de predicción de código, y luego presionar el tabulador para aceptarlas todas. El modelo de finalización de Xcode está potenciado por el chip de Apple y mejoras de aprendizaje automático en macOS Sequoia. Y Xcode descarga y actualiza el modelo automáticamente con el último SDK y cambios de lenguaje. Construir una app es más que tan sólo tipear código. Se trata de transformar ideas completas en código. Y la forma más fácil de hacerlo es con un lenguaje natural. Así que creamos un modelo más grande y más poderoso que funciona en la nube. Y creamos una experiencia única en Xcode que sólo Apple puede brindar. Te presentamos Swift Assist, un compañero para todas tus tareas de codificación. Y ya sea que sepas lo que buscas o quieras ayuda escribiendo el mejor código Swift, Swift Assist puede responder tus preguntas de codificación y ayudarte con tareas como experimentar con nuevas APIs. Swift Assist es una nueva forma genial de codificar. Permíteme mostrarte. Siempre he querido construir una app para catalogar los Macs clásicos en mi garaje. Empezaré con un proyecto vacío y abriré Swift Assist y pediré lo que quiero. Swift Assist es genial para hacer prototipos. Puede ayudarme a visualizar rápidamente una idea. Aquí crea un struct que representa una Mac clásica, con su nombre y detalles. Y hasta obtengo unos datos de muestra realistas que puedo visualizar en la vista previa. Este es un gran comienzo. Enseguida, ¿qué tal si agrego algunas imágenes? Pediré, "Agregar imágenes al lado de cada Mac". Ya tenía algunas imágenes en mi catálogo de recursos. Y Swift Assist puede usarlos de referencia en el código que crea. Mi struct ClassicMac está actualizada para incluir una propiedad imageName, y los datos de muestra están actualizados con nombres de imágenes de mi catálogo de recursos. Hasta ahora, ¡esto luce genial! Una de mis cosas favoritas de las Macs clásicas es su sonido de inicio. Grabé algunos y los agregué a mi proyecto, así que hagamos algo divertido. Pediré, "Haz un sonido cuando presione una Mac". Y como finalización de código, Swift Assist usa detalles de mi proyecto, incluyendo símbolos y la relación entre ellos, para crear un código personalizado. Veamos cómo suena eso.
¡Eso me trae grandes recuerdos! Finalmente, quiero probar un diseño diferente. Veamos cómo luce esto cuando uso una rejilla en vez de una lista.
Lo que era sólo una idea hace unos minutos es algo que puedo ejecutar en mi dispositivo. ¿No es genial?
Swift Assist conoce las últimas funcionalidades SDKs y lenguaje Swift de Apple, así que siempre conseguirás códigos modernos y actualizados que se combinan a la perfección con tu proyecto. Así que ahora, tareas como explorar nuevos frameworks y experimentar con nuevas ideas es sólo cuestión de pedirlas. Como todos los servicios de desarrolladores de Apple, Swift Assist está construido con tu privacidad y seguridad en mente. Tu código nunca se almacena en el servidor. Sólo se usa para procesar tu solicitud, y lo más importante, Apple no lo usa para entrenar modelos de aprendizaje automático. Swift Assist y las nuevas finalizaciones predictivas impulsarán como un turbo la forma en que trabajas en Xcode. Esto marca el comienzo de un camino para agregar una inteligencia extraordinaria en nuestras herramientas. Qué época más emocionante para desarrollar para las plataformas de Apple. Xcode 16 también tiene muchas otras funcionalidades nuevas para que seas más productivo y mejores la calidad de tus apps, cosas como una vista única de tus rastreos mostrando código relevante de todos los cuadros de stacks juntos, una "flamagrafía" de los datos de tu perfil en Instruments, que te da una idea más profunda del rendimiento de tu app, y mejoras en los catálogos de localización, para que puedas llevar tu app a más gente aún por todo el mundo. El primer beta de Xcode 16 ya está disponible, incluyendo la nueva finalización predictiva para las Macs con chip de Apple. Y Swift Assist estará disponible más adelante este año. Enseguida, hablemos sobre todos los emocionantes cambios en Swift. Y aquí está Ted para contarte todo al respecto. Ted Kremenek: Swift es el revolucionario lenguaje de programación accesible para los recién llegados y potente para los expertos. Es rápido, moderno, seguro y una alegría para escribir. Este año, ¡Swift celebra su cumpleaños número 10! Es buen momento para reflexionar sobre el camino hasta ahora y establecer un trayecto para la siguiente década de Swift. Antes de Swift, el software en los dispositivos de Apple se escribía primeramente usando C, C++ y Objective-C. Creamos Swift para ser un lenguaje de programación expresivo y seguro que simplificaría el proceso de escribir un software. Swift es un lenguaje ideal para desarrollar una app y es usado por casi un millón de apps. Pero Swift es genial para más que tan sólo las apps. Apple usa Swift a través de nuestro stack de software, desde apps y servicios de sistema hasta frameworks, llegando hasta el fondo, a firmwares como el Secure Enclave. Y también se usa para servicios de red, como Private Cloud Compute. A medida que Swift sigue evolucionando, se vuelve una elección convincente hasta para el código más seguro y sensible al rendimiento. La seguridad, velocidad y fácil acceso de Swift combinados con la interoperabilidad de C y C++ integrados significa que Swift es la mejor elección para reemplazar a C++. Apple se compromete a adoptar Swift en nuestras bases de código C++, y pasar a Swift mejorará la calidad del software, tanto en Apple como a través de la industria. Mirando adelante hacia los próximos diez años de Swift, estamos trabajando con la comunidad de código abierto para llevar Swift a más plataformas y dominios. Primero, para encontrar a los desarrolladores donde se encuentren, estamos invirtiendo en soporte para Swift en Visual Studio Code y otros editores que aprovechan el Language Server Protocol. También estamos expandiendo nuestro soporte Linux para incluir Debian y Fedora, y mejorando el soporte para Windows. Y Swift.org alberga una variedad de guías de autoría comunitaria sobre el uso de Swift a través de diferentes dominios, como crear un servicio web usando Vapor. La comunidad de Swift ha sido clave para su éxito. Herramientas y bibliotecas de código abierto apuntalan tantas de las cosas que ustedes construyen usando Swift a través del amplio ecosistema de software. Para apoyar más a la comunidad y promover una mayor colaboración, nos entusiasma anunciar una nueva organización GitHub, dedicada a Swift en github.com/swiftlang. Esta nueva organización albergará una cantidad de proyectos fundamentales para el ecosistema Swift, incluyendo el compilador Swift, Foundation y otras bibliotecas claves. Y este año trae también un nuevo y emocionante estreno con el lanzamiento de Swift 6. Swift 6 hace que las programaciones concurrentes sean increíblemente más fáciles al presentar la seguridad de carrera de datos. Una carrera de datos ocurre cuando las diferentes partes de un código intentan modificar y acceder a los mismos datos simultáneamente. Swift 6 elimina esta clase de errores diagnosticándolos en un tiempo de compilación. Desde la introducción de async/await, concurrencia estructurada y actores, Swift ha ganado progresivamente los pilares necesarios para brindar una seguridad total en carrera de datos que culmina en el nuevo modo de lenguaje Swift 6, que permite una seguridad de carrera de datos en tiempo de compilación. Como la seguridad de carrera de datos puede involucrar cambios en tu código, el nuevo modo de lenguaje Swift 6 es opcional. Puedes aprovecharlo cuando estés listo o lista para resolver carreras de datos en tu código. Cuando enciendes el modo lenguaje Swift 6, el compilador diagnosticará accesos concurrentes a la memoria por todo tu proyecto, y puedes arreglar muchos errores de seguridad de carrera de datos con limitados cambios en tu código. Puedes migrar a Swift 6 paulatinamente, un módulo a la vez. Tampoco tienes que esperar a que tus dependencias migren, y cuando lo hagan, no tienes que cambiar nada en tu código hasta que decidas usar el nuevo modo de lenguaje. Cada módulo que migra a Swift 6 contribuye a la transición a nivel de toda la comunidad para traer seguridad de carrera de datos al ecosistema del software Swift. Tú puedes ayudar actualizando tus paquetes de código abierto en Swift 6, y todos pueden seguir tus pasos en la adopción de Swift 6 en paquetes populares en SwiftPackageIndex.com. swift.org también tiene una guía de migración con ideas y patrones sobre cómo modificar mejor tu código para eliminar carreras de datos. Seguridad de carrera de datos en tiempo de compilación en Swift 6 aumentará más la seguridad de tu código y ayudará a garantizar su continuidad en el futuro. Y también hay muchos otros desarrollos emocionantes en Swift 6, junto con mejoras en las concurrencias, genéricos y un nuevo subconjunto "Embedded Swift" que apunta a entornos altamente restringidos, como kernels de sistemas operativos y microcontroladores. Otro aspecto importante del desarrollo de software es escribir pruebas. Nos entusiasma presentar un framework de pruebas totalmente nuevo, construido por completo para Swift. Lo llamamos, adecuadamente, Swift Testing. Swift Testing tiene APIs expresivas que simplifican escribir pruebas. Es fácil de aprender. Y es una plataforma cruzada, así que puedes usarlo para escribir pruebas para una variedad de plataformas y dominios. Swift Testing también ha sido desarrollado como un paquete de código abierto. Fue presentado hace nueve meses y el feedback de la comunidad ha sido invalorable. Escribir una prueba empieza con sólo agregar una función con el atributo Test a tu paquete de prueba. Puedes darle un título simpático y usar macros como 'expect' para evaluar el resultado de cualquier expresión Swift, haciendo fácil escribir revisiones complicadas. Swift Testing también incluye un sistema de tags flexible para ayudarte a organizar tus pruebas y planes de prueba. Con tags, puedes ejecutar pruebas de forma selectiva a través de tus paquetes de prueba, como pruebas que usan un módulo específico o que se ejecutan en un dispositivo en particular. Y con apenas algo de código, puedes parametrar pruebas fácilmente para que puedan reusarse muchas veces repitiendo la misma lógica en una secuencia de valores. Xcode 16 tiene el soporte completo para Swift Testing. El navegador de prueba organiza las pruebas por tags, y muestra las pruebas parametradas, y el editor fuente tiene una rica presentación en línea para ayudarte a diagnosticar lo que salió mal cuando una prueba falla. Swift Testing aprovecha al máximo la potencia de concurrencia en Swift ejecutando todas las pruebas de forma segura en paralelo. Está diseñado para todos los casos de uso de Swift, con soporte integrado en Xcode y Visual Studio Code. Swift nos ha ayudado a todos a escribir código de forma más segura y mejor, y nos entusiasma ver que Swift sigue transformando softwares por todo el mundo. Al unir Swift y los frameworks de Apple abrimos nuevos niveles de productividad y expresividad, y en ninguna parte eso es más potente que con SwiftUI. Aquí está Josh para contarte más. Josh Shaffer: SwiftUI es la mejor forma de construir apps para cualquier dispositivo Apple. Al igual que el lenguaje Swift, SwiftUI se aprende fácilmente y aún así está repleto de funcionalidades avanzadas. Su diseño se basa en la experiencia adquirida construyendo apps que funcionan entre dispositivos y se integran sin problema con el OS subyacente. Cuando escribes apps con SwiftUI, te enfocas en describir el UI que quieres, y SwiftUI se ocupa de detalles como modo oscuro, tipo dinámico y rastreo de cambios en tu modelo. Al permitirte expresar lo que quieres, no cómo construirlo, SwiftUI te permite compartir más de tu código a través de más dispositivos. Claro, siempre puedes personalizar y afinar la apariencia y estilo que brinda SwiftUI usando un gran conjunto de modificadores y protocolos, para que puedas alcanzar exactamente el resultado que quieres. Ya sea que estés construyendo una app totalmente nueva o una nueva funcionalidad en una app existente, SwiftUI es la herramienta correcta para hacerlo. Eso es exactamente lo que hemos estado haciendo en Apple con la adopción de SwiftUI. Hay apps totalmente nuevas construidas por completo con SwiftUI, como Image Playground, una app totalmente nueva con una interface estilizada y personalizada. Y la nueva app Passwords, que tiene una apariencia y estilo más estándar construida alrededor de formas y controles familiares. Y SwiftUI se usa también para nuevas funcionalidades en apps existentes, como el diseño totalmente nuevo de Photos, en donde elementos rediseñados, construidos usando SwiftUI, se ejecutan lado a lado con vistas preexistentes como las rejillas de fotos. SwiftUI también nos ha ayudado a compartir más código entre plataformas, como con Music, que primero adoptó SwiftUI para visionOS y tvOS, y ahora lo usa para consolidar y simplificar su código base por todo iOS y iPadOS también. Por todas nuestras plataformas han habido una enorme cantidad de apps y experiencias adoptando SwiftUI en años recientes. SwiftUI se usa en apps como Xcode, Pages y Music y experiencias del sistema central como Control Center, Notification Center y Finder. En watchOS, SwiftUI se usa ampliamente, incluso en apps claves como Workout, Activity y Sleep. Y en visionOS, SwiftUI es la elección perfecta para construir una app espacial. Con SwiftUI usándose en más y más lugares, seguimos haciendo inversiones de varios años para la experiencia del desarrollador. Este año nos enfocamos en vistas previas, personalizaciones e interoperabilidad. Primero, Xcode Previews tiene una nueva arquitectura dinámica unificadora que usa los mismos artefactos de construcción para vistas previas y para cuando creas y ejecutas. Esto te evita reconstruir tu proyecto cuando alternas entre uno y otro, haciendo el flujo de trabajo increíblemente más sencillo y productivo. Y ahora también es más fácil configurar Previews. Un nuevo macro @Previewable hace posible usar propiedades dinámicas como @State directamente en una Xcode Preview, reduciendo la cantidad de código que tienes que escribir. SwiftUI también ha ganado una cantidad de personalizaciones para ajustar con precisión la apariencia y estilo de tus apps, como efectos hover personalizados para visionOS, lo que le da contexto adicional a tus usuarios cuando interactúan con elementos UI, nuevas opciones para personalizar el comportamiento y estilo de ventanas en macOS, dándoles control sobre cosas como la barra de herramientas y fondo de la ventana, y una nueva API de renderizado de texto que permite un nivel totalmente nuevo de efectos visuales y animaciones juguetonas. Muchas apps que adoptan SwiftUI también usan vistas escritas con UIKit y AppKit, así que la gran interoperabilidad con estos frameworks es crucial. Lograr esto requiere una integración profunda con los frameworks en sí. Este año, todos nuestros frameworks UI comparten más bases comunes. El reconocimiento de gestos ha sido excluido de UIKit, permitiéndote tomar cualquier UIGestureRecognizer incorporado o personalizado y usarlo en tu jerarquía de vista SwiftUI. Esto funciona incluso en vistas SwiftUI que no están directamente respaldadas por UIKit, como aquellas en un grupo de dibujo acelerado por Metal. Y Animations ha sido excluido de SwiftUI para que ahora puedas configurar animaciones en vistas UIKit o AppKit y luego transportarlas con SwiftUI, incluyendo animaciones totalmente personalizadas. Y claro, hay muchas más funcionalidades útiles y emocionantes en SwiftUI este año, como contenedores personalizados, gradientes de malla, personalizaciones de desplazamiento y mucho más. Si todavía no estás usando SwiftUI en tus apps, no hay razón para que esperes. SwiftUI está listo para ayudarte a construir cualquier interface de usuario que quieras, usando menos código y mejor código. El lenguaje de programación Swift empezó una revolución en cuanto a lo productivas y expresivas que pueden ser las APIs. Desde la biblioteca estándar y Foundation hasta SwiftUI y el nuevo Swift Testing, las APIs diseñadas por Swift son muchísimo más fáciles de usar, y te vuelven más productivo, productiva. Justo el año pasado agregamos SwiftData a esta lista, ayudándote a modelar y conservar la información de tu app usando una API ligera que se siente totalmente natural en Swift. Puedes definir tu esquema con sólo unas cuantas adiciones a una clase Swift normal empezando por aplicar el macro @Model. Eso es en verdad todo lo que necesitas, pero puedes refinarlo aún más usando @Attribute para especificar comportamientos en las propiedades y @Relationship para describir cómo se relacionan los modelos entre sí. Este año, seguimos construyendo en la sintaxis simple y funcionalidades de modelado de SwiftData agregando #Index y #Unique. #Index hace más eficiente tus consultas diciéndole al almacenamiento subyacente qué propiedades se consultan usualmente juntas, para que puedan almacenarse y recuperarse rápidamente. Y #Unique indica que un conjunto de propiedades no puede tener entradas duplicadas. Y el nuevo macro @Previewable también funciona genial con SwiftData haciendo más fácil trabajar con tus consultas mientras reitera vistas. Más allá de estas adiciones de sintaxis, SwiftData también ha ampliado sus funcionalidades sobre cómo se almacenan tus datos y cómo se registran los cambios, empezando con almacenes de datos personalizados. Las apps de hoy se construyen usando una variedad de almacenamientos backend. Y por defecto, SwiftData usa Core Data para almacenar información. Con un almacén de datos personalizado, tienes la capacidad de almacenar datos usando un backend alternativo de tu elección. Esto posibilita usar la API de SwiftData con backends como SQLite, un servicio web remoto, o incluso sólo una colección mapeada de archivos JSON. Es realmente flexible. Y SwiftData ahora brinda acceso al historial de cambios en un almacén de datos. El historial de un almacén de datos lleva un registro de todos los cambios que han ocurrido en los datos subyacentes, facilitando inspeccionar todos los cambios que se hicieron recientemente. Esto es útil para rastrear los cambios locales que necesitan ser sincronizados con un servicio web remoto. Estas nuevas funcionalidades facilitan más que nunca trabajar con datos, el todo usando una API que se siente increíblemente natural en Swift. Ahora, hablemos sobre un framework clave que te ayuda a crear convincentes experiencias espaciales y 3D, y es RealityKit. RealityKit simplifica el proceso de rendereado de modelos 3D con una variedad de estilos, como realista, sombreado de celda o animación. RealityKit se embarcó primero en iPhone, iPad y Mac. Con el lanzamiento de Vision Pro, ganó nuevas funcionalidades importantes, junto con una herramienta totalmente nueva, Reality Composer Pro, que simplificó el desarrollo de las apps espaciales, pero sólo en soporte visionOS. Este año, estas APIs y herramientas están ahora alineadas por todo macOS, iOS y iPadOS también con RealityKit 4 ¡para que puedas construir fácilmente para todas estas plataformas al mismo tiempo! Todo lo que esperas, incluyendo MaterialX, Portals y Particles ahora están disponibles para ser usadas con RealityView en todas estas cuatro plataformas. Esto incluye APIs para materiales enriquecidos e iluminación virtual, brindando control creativo sobre cómo aparecen tus objetos 3D y cómo interactúan con el entorno del usuario o usuaria. Así como APIs y herramientas totalmente nuevas como BlendShapes, Inverse Kinematics y cronologías Animation, que trae funcionalidades ampliadas de animación de personaje permitiendo interacciones que son dinámicas y reaccionan al entorno inmediato y al comportamiento del usuario o usuaria. RealityKit 4 también brinda un acceso más directo al renderizado con nuevas APIs para Mesh y Textures de bajo nivel, que funcionan con Metal Compute Shaders para ofrecer un control mejorado sobre cómo se ven tus apps, permitiendo modelos completamente dinámicos y texturas en cada cuadro. En visionOS, estas funcionalidades trabajan en el Shared Space y en el Full Space de una app. También es más fácil inspeccionar el contenido de tu RealityKit, ya que la vista depuradora de Xcode ahora soporta hacer la introspección del contenido de tu escena 3D. Puedes investigar la jerarquía de objetos de tu escena e inspeccionar las propiedades de cada elemento, ambas incorporadas en RealityKit, así como los componentes personalizados que creas. Con Swift y frameworks como SwiftUI, SwiftData y RealityKit, los SDKs de Apple facilitan construir apps hermosas e inmersivas. También incluyen APIs potentes que extienden el alcance de tus apps en espacios del sistema, permitiendo una integración profunda con las plataformas subyacentes. Veamos algunas de las últimas funcionalidades en los lanzamientos OS de este año. Aquí está Jonathan para empezar con iOS. Jonathan Thomassian: Además de Apple Intelligence, hay muchas más APIs nuevas por todas nuestras plataformas para darte más posibilidades aún. Empecemos con iOS. Este año, iOS es más personalizable que nunca, y empieza con Controls. Hacen más fácil y rápido llegar a las tareas frecuentes de tus apps y son una forma genial de interactuar con tu app desde más lugares por todo el sistema. Controls puede alternar una configuración, ejecutar una acción o conectar de manera profunda y directa a una experiencia específica. Usando la nueva API Controls, puedes crear un control especificando el tipo, un símbolo y una App Intent. Una vez definidos, tu control estará disponible para los usuarios en la nueva Controls Gallery, en donde pueden agregarlo a su Control Center para un fácil acceso. Los usuarios también pueden asignar tu control al botón Action en sus iPhone 15 Pro o, por primera vez, aparecer como uno de los controles en sus Lock Screen. Y para apps que aprovechan la cámara, el nuevo framework LockedCameraCapture permite capturas incluso mientras el dispositivo está bloqueado. Hablemos ahora sobre otra forma en que iOS se está volviendo más personalizable, en la Pantalla Inicial. Íconos y widgets de apps ahora pueden aparecer Claros, Oscuros o con un Tinte. Para iniciarte, una versión con tinte del ícono de tu app estará automáticamente disponible para tus usuarios y usuarias después de que se actualicen a iOS 18. Este tratamiento se aplica a todos los íconos de apps y se crea de forma inteligente para preservar la intención de tu diseño y mantener su legibilidad. Esto resulta en una experiencia visual consistente por toda la Pantalla Inicial. Y sin importar cómo esté renderizado tu ícono, puedes asegurarte de que siempre se vea genial personalizando cada versión. Las Human Interface Guidelines han actualizado las plantillas de íconos y las mejores prácticas para adaptar tus íconos a estas nuevas apariencias. Y cuando estés listo, Xcode ahora tiene soporte para las variantes de íconos de las app Dark y Tinted que puedes colocar justo en tu catálogo de recursos. Desde extender tus controles a través del sistema hasta asegurarte de que los íconos y widgets de tus app se vean de lo mejor, iOS 18 te da nuevas formas increíbles para personalizar la forma en que tus usuarios interactúan con tus apps. Ahora, hablemos sobre seguridad. Hace dos años, iOS agregó soporte para contraseñas numéricas. Las contraseñas numéricas reemplazan a las claves por ser más seguras, más fáciles de usar y no pueden ser phished o suplantadas. Ofrecen un inicio de sesión más rápido, menos reconfiguraciones de claves y costos de soporte reducidos. Este año, hemos creado una forma simple de que más de tus usuarios transicionen a contraseñas numéricas con un nuevo registro API. Crea automáticamente contraseñas numéricas para usuarios y usuarias elegibles la siguiente vez que inicien sesión en tu app, para que los futuros inicios de sesión sean más rápidos y potentes que antes. Después de que la contraseña numérica ha sido creada, se informa a los usuarios que una contraseña numérica ha sido salvada sin interrumpirlos. Si ya has adoptado contraseñas numéricas, agregar registro automático de contraseña numérica sólo requiere un único parámetro nuevo. Nunca ha habido una mejor época para transicionar a contraseñas numéricas en tus apps. Y claro, todas estas funcionalidades también están disponibles en iPadOS. Este año, iPadOS brinda grandes actualizaciones a la forma en que tus usuarios interactúan con tus apps, empezando por la barra tabuladora rediseñada. Flota arriba de tu app y facilita saltar a tus tabs favoritas. Y se convierte en una barra lateral para esos momentos en los que quieres una inmersión más profunda. Como cuando quieres explorar tus canales en Apple TV. Hay una nueva API que simplifica construir importantes interacciones como personalización, menús y arrastrar y soltar. Así que puedes lograr más con menos código. Si tu app tiene una jerarquía simple, entonces puedes simplemente adoptar la barra tabuladora. Si tu app tiene una jerarquía más profunda, puedes implementar la barra tabuladora y la lateral con la misma API. Y hasta puedes permitir que tus usuarios personalicen lo que tienen en sus barras tabuladoras. Quizá hayas notado que la barra tabuladora se transforma elegantemente en la barra lateral. Este tipo de animaciones refinadas también están disponibles para tu app. Por ejemplo, a los usuarios les encantó la transición zoom en Photos. Se controla al tacto con precisión y hasta puede ser interrumpida mientras ocurre. Las animaciones interrumpibles hacen que tu app se sienta interactiva a medida que los usuarios navegan tu UI, porque no tienen que esperar a que las animaciones terminen antes de su siguiente interacción. Puedes aprovechar esa misma transición zoom fluida e interrumpible en tus apps en iOS y iPadOS. Esto es genial en apps como Notes, donde notas hermosamente animadas se abren ahora desde la vista Gallery y hasta pueden cerrarse con dos dedos. Y también puedes usar la nueva transición zoom con una Vista Document Launch actualizada. Te permite crear una apariencia a la medida para tu app y conectar tu experiencia de lanzamiento a tu marca. Puedes personalizar acciones, cambiar el fondo y agregar divertidos recursos animados para que tu encabezado cobre vida. Estas son tan sólo unas cuantas de las mejoras API que puedes aprovechar para integrar mejor tus apps en el sistema y mejorar la experiencia de tus clientes en iOS y iPadOS. Ahora, pasando a watchOS, aquí está Lori para contarte más. Lori Hylan-Cho: Apple Watch es la forma más fácil de que la gente acceda a la información más importante de su día de un vistazo. Desde cualquier carátula de reloj, referencias y acciones relevantes están a apenas un deslizamiento del Digital Crown. Este año, watchOS 11 te da aún más oportunidades de traer experiencias convincentes de tu app a Smart Stack con algunas nuevas APIs y aprovechando código que ya has escrito. De hecho, una de las nuevas funcionalidades más geniales en watchOS este año de hecho empieza en iOS: Live Activities. Si has adoptado Live Activities en tu app iOS, el sistema aprovechará el trabajo que ya hiciste para soportar la Dynamic Island para ofrecer una experiencia Live Activity en Apple Watch. Los usuarios de Watch verán tus vistas compactas, principal y secundaria, automáticamente en el Smart Stack, así como las notificaciones cuando ocurren eventos importantes. Puedes usar la All Variants Preview en Xcode 16 para ver cómo aparecerá tu Live Activity en watchOS con tu actual Configuración Widget Live Activity, y hasta puedes agregar una presentación watchOS personalizada indicando que soportas la pequeña familia de actividad suplementaria. Dar a tus clientes una gran experiencia en watchOS es tan simple como usar el Environment para personalizar más la vista de tu Live Activity cuando aparece en Apple Watch. Para aquellos de ustedes que ya tienen una app watchOS o planean construir una, puedes hacer tu experiencia aún más puntual, contextual y funcional aprovechando las funcionalidades expandidas de widgets en watchOS 11. Ahora puedes traer tus widgets interactivos a watchOS, usando las mismas APIs que usas actualmente en iOS y macOS. App Intents te permite crear widgets con múltiples áreas interactivas que realizan acciones y actualizan estado directamente en el widget. El nuevo diseño accesorio WidgetGroup es una forma de brindar más información e interactividad a tus clientes. Acomoda tres vistas separadas y soporta tanto un enlace profundo a diferentes partes de tu app e inicializadores Button y Toggle para realizar acciones sin salir del widget. Para asegurarte de que tus widgets informativos e interactivos aparezcan donde sean más útiles, ahora puedes especificar uno o más RelevantContexts, tales como hora del día, conexiones AirPods, ubicación y rutina, para que el sistema pueda insertarlos en el Smart Stack justo en el momento indicado. Y para aquellos de ustedes que ansían integrar Doble Toque en sus apps, handGestureShortcut es el modificador que han estado buscando. Usa este modificador para identificar un Button o Toggle como la acción primordial en tu app, widget o Live Activity para darle a tus clientes un control rápido con una sola mano. Actividades en vivo, widgets interactivos y contextuales, y soporte Doble Toque son sólo algunas de las nuevas oportunidades que llegan a watchOS 11 este año. Enseguida, Eric profundizará algunas emocionantes actualizaciones para macOS. Eric Sunalp: Este año, macOS soporta Apple Intelligence con funcionalidades como Writing Tools, Genmoji e Image Playground que puedes integrar justo en tus apps para crear experiencias apasionantes. También introduce funcionalidades de productividad como mosaico de ventanas más simple y duplicar pantalla en iPhone, y brinda nuevas APIs incluyendo soporte para sistema de archivos del espacio del usuario e importantes mejoras a MapKit. Y ahora quisiéramos enfocarnos en un área que está creciendo increíblemente rápido. Y es juegos. Con el increíble ritmo de innovación en Metal y el chip de Apple está ocurriendo un cambio fundamental. Cada Mac con chip de Apple, cada iPad con un chip M-series e incluso el último iPhone 15 Pro pueden realizar el tipo de juegos que previamente requerían sistemas de juego exclusivos con discretos GPUs hambrientos de potencia. Estos dispositivos Apple "clase consola" crean una plataforma de juego unificada construida con un software de gráficos integrado a la medida y una arquitectura hardware a escala. Y cada año, esta plataforma que crece rápidamente brinda nuevos avances en el chip de Apple y Metal para mejorar más la experiencia de juego. Para traer tus juegos de alta gama a esta plataforma y llegar a más jugadores aún, uno de los mejores lugares para empezar es el Game Porting Toolkit. Y ha sido tan genial ver la positiva acogida hasta ahora. Desarrolladores como Ubisoft pueden traer sus juegos a los dispositivos de Apple más rápido que nunca. Los entusiastas de los juegos pudieron evaluar exigentes juegos Windows como "Cyberpunk 2077" por primera vez en sus Mac. Y estamos tan entusiasmados de ver proyectos comunitarios como Whisky y Homebrew y productos como CrossOver usar Game Porting Toolkit para brindar más opciones aún para empezar con el proceso de evaluación. Este año, nos entusiasma anunciar Game Porting Toolkit 2, con grandes actualizaciones basadas en sus feedback que te ayudan a acelerar tu cronología sin importar si traes un juego existente o uno que está en desarrollo actualmente. Nuevas adiciones a la caja de herramientas te ayudan a traer juegos más avanzados a Mac, llevar juegos Mac a iPad y iPhone, y brindar una gran experiencia para el usuario o usuaria. Primero, veamos cómo llevar juegos avanzados a Mac. Con Game Porting Toolkit 2, ahora puedes evaluar más juegos Windows gracias a la compatibilidad mejorada con tecnologías como AVX2 y funcionalidades avanzadas de juego como rastreo de rayos, que te dan una imagen más completa del potencial de tu juego en Mac. Y Metal agrega mejoras API altamente solicitadas para ayudar a los desarrolladores DirectX a transferir sus códigos gráficos existentes. Por ejemplo, manejar recursos Metal debería sentirse mucho más familiar. Y Xcode agrega otra funcionalidad altamente solicitada, permitiéndote depurar y perfilar la fuente de tu sombreado HLSL original. Y puedes hacer esto en cualquier etapa del proceso de desarrollo, ya sea que estés evaluando tu binario Windows original o depurando la versión Metal de tu juego. Una vez que tienes un juego Mac optimizado, es mucho más simple llevar juegos Mac a iPad y iPhone, creando el escenario para una enorme oportunidad de llevar tus juegos a más jugadores aún. De hecho, no hay ninguna otra plataforma de juego en el mundo que permita a los desarrolladores llevar juegos como "Death Stranding: Director's Cut" a mucho más de cien millones de dispositivos de nivel consola, convirtiendo los teléfonos en computadoras personales. Para ayudarte a hacer lo mismo, Game Porting Toolkit 2 incluye útiles ejemplos de código para acelerar tu desarrollo al llevarte a través de pasos esenciales, como cómo convertir tus varios subsistemas de juego y cómo construir tus sombreadores una vez y desplegar por todas partes. Game Porting Toolkit 2 también te ayuda a brindar una gran experiencia de usuario con un conjunto expandido de Human Interface Guidelines para aprovechar al máximo el hardware de Apple. También cubre temas importantes, como cómo racionalizar mejor las descargas e instalación, adaptar el UI de tus juegos para varios tamaños de pantallas y crear controles táctiles fáciles de usar que se adecuen mejor al estilo de tu juego. Con mejoras claves en Metal y una colección de herramientas actualizadas a través de las fases más importantes del desarrollo de un juego, Game Porting Toolkit 2 hace más fácil que nunca crear juegos increíbles en las plataformas Apple. Todos los últimos lanzamientos OS están repletos con tantas funcionalidades nuevas para ayudarte a crear experiencias increíbles que sólo son posibles con los dispositivos Apple. Y Vision Pro ha llevado esto a un nivel totalmente nuevo. Aquí está En para cubrir lo nuevo en visionOS. En Kelly: Desde que se anunció Apple Vision Pro el año pasado en WWDC, ¡estamos encantados con el entusiasmo de la comunidad de desarrolladores! Los desarrolladores de todo el mundo han estado construyendo increíbles apps espaciales para visionOS. En los primeros días de estar disponible, ¡ya habían más de 1,000 apps en la App Store! Algunos de estos desarrolladores empezaron por compilar de nuevo sus apps iOS y iPadOS para obtener rápidamente el diseño espacial UI de visionOS y, luego, construir a partir de ahí. Por ejemplo, djay empezó con su app iPad con base SwiftUI, fácilmente recompilado para ejecutarse en visionOS, y luego extenderlo para computación espacial, ¡y es una experiencia genial! Así ya tengas una app visionOS o seas nuevo o nueva en la plataforma, la computación espacial brinda oportunidades increíbles para tus apps. visionOS está construida sobre la base de décadas de innovación tecnológica en macOS, iOS y iPadOS. Las herramientas y muchos de los frameworks que usas entre estas plataformas son comunes, ¡lo que significa que puedes escribir una línea de código una sola vez y usarla en todas las plataformas! SwiftUI, RealityKit y ARKit son el núcleo de desarrollo de las mejores apps espaciales para visionOS. ARKit es un framework fundamental para las experiencias AR entre plataformas, y potencia experiencias espaciales que tienen una interacción y entendimiento aún más profundo del mundo alrededor del usuario o usuaria. Y esto es poderoso, porque si tu app usa uno de estos frameworks hoy, ¡ya estás bien encaminado para una gran app de computación espacial! Estamos emocionados de compartir detalles sobre cómo visionOS 2 permite la creación de apps con experiencias espaciales más ricas que aprovechan profundidad y espacio al máximo. Con la introducción de Computación Espacial, creamos un nuevo tipo de escena SwiftUI, llamada un volumen. Los volúmenes son geniales para agregar objetos y escenas 3D con interacciones más ricas en una app. Las apps pueden ejecutarse lado a lado y darte un sentido real del tamaño y escala de los objetos virtuales.
Esta es una parte esencial de la computación espacial, llevando las múltiples e innovadoras tareas espaciales de Vision Pro al siguiente nivel. Con visionOS 2 ahora es fácil reajustar tu volumen. Igual que con una ventana, usas el modificador de escena SwiftUI windowResizability para establecer el tamaño de tu volumen para que sea perfectamente adecuado para tu contenido. Y si no es perfecto, los usuarios pueden reajustar los volúmenes ellos mismos. También tendrás la capacidad de elegir si quieres que tu volumen tenga una escala dinámica o fija, para que cuando el objeto 3D se aleje del usuario o usuaria, o aparezca constantemente del mismo tamaño o se haga más pequeño a medida que se aleje, exactamente como se vería un objeto del mundo real. visionOS permite que los adornos se adhieran a los volúmenes. Esto es genial para los controles, información adicional o cualquier UI en verdad. Ahora tienes hasta más flexibilidad para colocar adornos donde quieras por todo el borde de tu volumen, dándote la libertad de crear la interface de tu volumen de formas nuevas y astutas. Esos adornos, así como los cromos y contenidos de tu app también pueden moverse de forma dinámica ajustándose para mantenerse frente al usuario mientras camina por el espacio. Puedes ver que los adornos se mueven, así como el personaje, ¡en respuesta a la posición del usuario o usuaria! A algunos desarrolladores ya les hemos mostrado estas APIs Volumétricas, como "1640", que maximiza las APIs de reajuste de volumen; "Dear Reality" que aprovecha la forma en que los adornos cambian de posición basándose en la ubicación del usuario o usuaria;
y "Rezzil", que muestra cómo estas nuevas funcionalidades volumétricas pueden unirse para brindar una experiencia increíble para el análisis de juego en tiempo real, junto con otras apps que se ejecutan lado a lado. Apple Vision Pro ayuda a los usuarios a conectarse con su familia y amigos a través de experiencias compartidas junto con apps SharePlay. Para facilitar aún más las apps compartidas, hicimos TabletopKit, un framework para un fácil desarrollo de experiencias colaborativas centradas alrededor de una mesa. TabletopKit hace el trabajo pesado encargándose de manipular cartas y piezas, diseño y ubicación, y definiendo tableros de juego. Y también funciona sin problemas con Personas espaciales y SharePlay, ¡permitiendo juegos sociales para que los usuarios jueguen juntos! TabletopKit se integra con frameworks familiares como GroupActivities, RealityKit y SwiftUI, permitiéndote obtener rápidamente una experiencia lista y en marcha. El desarrollador detrás de "Checkmate Chronicles" hizo eso mismo, ¡creando una convincente experiencia de tablero de juego usando este nuevo framework! visionOS 2 no se detiene ahí. Hay APIs Enterprise totalmente nuevas que brindan acceso a escaneo de código de barra espacial, racionalización de cámara externa con baja latencia, y más. Estas permitirán casos de uso específicos del flujo de trabajo para aprovechar la computación espacial. Hemos hecho actualizaciones para introducirlas en Vision Pro. Ahora puedes decidir si quieres que la mano del usuario aparezca en frente o detrás del contenido, dándote más creatividad aún en la experiencia con tu app. Hemos extendido significativamente la fidelidad de nuestras funcionalidades Scene Understanding. Los planos pueden detectarse ahora con cualquier orientación y permiten anclar objetos en superficies de tu entorno. Hemos agregado el concepto de Room Anchors que considera los entornos del usuario según la habitación en que se halle. Hasta puedes detectar el movimiento del usuario a través de las habitaciones. Y tenemos una nueva API Object Tracking para visionOS que te permite adherir contenido a objetos individuales que se hallen alrededor del usuario. Esta nueva funcionalidad te permite adherir contenido virtual, como instrucciones, a un objeto físico para nuevas dimensiones de interactividad. Hemos hecho aún más fácil iniciarte en computación espacial brindándote más muestras y documentación para la plataforma visionOS. El futuro de la computación espacial es emocionante y te alentamos a ser parte de la historia con tu propia app visionOS. Ahora, vamos con Josh.
Josh: Apple construye productos que reúnen hardware, software y servicios para crear experiencias realmente encantadoras para nuestros usuarios. Nuestra consistente motivación es simple: Queremos construir las plataformas más avanzadas e innovadoras para que tú puedas crear las mejores apps del mundo. Queremos ayudarte a construir apps altamente integradas que se sientan como extensiones naturales del dispositivo del usuario, aprovechando al máximo su hardware y software. Y con cada lanzamiento, mejoramos nuestras plataformas con esta motivación en mente. Cuando construyes tus apps con los SDKs de Apple, consigues el rendimiento más rápido posible. Usas las mismas herramientas y frameworks que nosotros usamos, con APIs que han sido afinadas y optimizadas para nuestras plataformas y productos. Esas mismas APIs te dan acceso directo para integrarte con todas las funcionalidades de la plataforma que a los usuarios les encantan, como controles y widgets interactivos, accesibilidad y tipo dinámico y, por supuesto, Apple Intelligence. Integrarse a fondo con la plataforma significa que tu app está disponible en más lugares para que los usuarios puedan interactuar con ella de la mejor forma para ellos. Los SDKs de Apple también facilitan construir apps con una apariencia y estilo familiar que se comparte a través de las plataformas. Esto beneficia a tus usuarios y usuarias ya que pueden reusar las interacciones que ya conocen de otras apps. Los SDKs también comparten muchos frameworks comunes, así que la mayoría de códigos pueden expresar comportamientos comunes entre dispositivos mientras siguen permitiéndote ajustar los resultados cuando es necesario. Y los SDKs de Apple te dan todas las herramientas en una, brindándote todo lo que necesitas para construir tus apps. Puedes usar Swift, SwiftUI y Xcode para construir cualquier experiencia que quieras sin importar a qué dispositivos apuntes. Todos estos beneficios están disponibles cuando usas los SDKs nativos de Apple directamente. O, para decirlo más claro, las mejores apps se construyen con SDKs nativos. Estamos tan entusiasmados de poner nuestros SDKs en tus manos, y en las manos de otros millones de desarrolladores, para que puedas construir sobre las plataformas más avanzadas e innovadoras del mundo, y construir las mejores apps posibles. Ahora volvamos con Susan. Susan: Esa es una mirada más cercana a algunos de los mayores anuncios de nuestros desarrolladores. Apple Intelligence es el sistema de inteligencia personal que pone potentes modelos generativos justo en el corazón de tu iPhone, iPad y Mac, con nuevas funcionalidades para crear lenguaje e imágenes en apps junto con importantes actualizaciones en Siri. Echa mano del contexto personal para brindar inteligencia útil y relevante y se construye con privacidad desde la base. Swift se está expandiendo a Windows y Linux, y Swift Assist puede transformar tus ideas en código para que puedas enfocarte en problemas de más alto nivel. visionOS 2 lleva la computación espacial aún más lejos con un soporte mejorado para apps volumétricas, potentes APIs enterprise nuevas y nuevas tecnologías que hacen más fácil construir apps y juegos compartidos. Y Game Porting Toolkit 2 hace posible llevar tus juegos más intensos a Mac, iPad y iPhone. Explora estos temas y más con más de 100 sesiones en profundidad lanzadas a lo largo de toda la semana de WWDC. Tus preguntas pueden ser respondidas por ingenieros Apple y otros expertos Apple toda la semana en laboratorios y consultas en línea y en los Apple Developer Forums, ¡donde también puedes conectarte con la comunidad de desarrolladores! Puedes acceder a todo esto vía la app Developer y la página web Developer. Estamos agradecidos de que seas parte de la comunidad de desarrolladores Apple y nos entusiasma ver que le das vida a estas tecnologías en tus increíbles apps y juegos. ¡Que tengan una gran semana!
Este evento fue grabado en iPhone y editado en Mac.
-