
-
Explora las actualizaciones más importantes de la WWDC25
Sumérgete en las funcionalidades clave anunciadas en la WWDC25 en esta nueva sesión grabada en vivo en el Apple Developer Center en Cupertino. Este video es para todos los miembros del equipo, incluidos diseñadores, desarrolladores y gerentes de producto.
Capítulos
- 0:03:10 - Agenda
- 0:04:03 - The new design system
- 0:19:16 - Build with the new design
- 0:39:53 - Machine learning and Apple Intelligence
- 1:09:03 - What's new in visionOS
Recursos
Videos relacionados
WWDC25
- Comienza a usar MLX para el chip de Apple
- Conoce el diseño espacial de SwiftUI
- Conoce la estructura Foundation Models
- Conoce Liquid Glass
- Crea una app de AppKit con el nuevo diseño
- Crea una app de SwiftUI con el nuevo diseño
- Crea una app de UIKit con el nuevo diseño
- Descubre las estructuras de aprendizaje automático e IA en las plataformas de Apple
- Explora experiencias de video para visionOS
- Explora la entrada de accesorios espaciales en visionOS
- Novedades de visionOS 26
- Novedades de widgets
- Saluda a la nueva imagen de los íconos de las apps
-
Buscar este video…
Hola. Gracias, me encanta empezar el día así. Hola y bienvenidos al Apple Developer Center en Cupertino. Me llamo Leah y soy evangelista de la tecnología en Apple. Estamos entusiasmados por repasar los anuncios más importantes de la WWDC. Como pueden imaginarse hay mucho que cubrir.
Primero, quiero darles más detalles sobre dónde nos encontramos.
El Developer Center forma parte del Apple Park y es ideal para celebrar este evento, ya que cuenta con diferentes áreas para la colaboración y la conexión.
Esta sala es Big Sur. Es un espacio de vanguardia diseñado para albergar diversas actividades, como presentaciones, grabaciones en estudio y trasmisiones en vivo.
También hay laboratorios, salas de reuniones y conferencias para actividades como esta y muchas otras.
Este es uno de los 4 centros donde invitamos a diseñadores y desarrolladores a sesiones, laboratorios y talleres. ¿Alguien ha estado en un centro así? Genial. Bienvenidos. Y si nos acompañan por primera vez es un gusto tenerlos.
También tenemos muchas personas que se unen en línea, así que hola. Y gracias por conectarse.
Ahora quiero establecer el contexto para las presentaciones de hoy. La WWDC de este año estuvo repleta de anuncios emocionantes, y estamos reuniendo a desarrolladores de todo el mundo, en 28 ciudades, para repasar las actualizaciones más importantes.
En la WWDC, publicamos más de 100 videos con las últimas actualizaciones y recomendaciones en las plataformas. Como pueden imaginar, hay mucho que explorar.
Así que hoy, en las próximas 2 horas repasaremos las actualizaciones más importantes para que puedan obtener una visión general de las novedades. Con esto, esperamos que se inspiren para desarrollar sus ideas y decidan qué aprender a continuación de forma más profunda con videos y documentación.
Mi equipo tiene muchas ganas de empezar a trabajar con ustedes. Antes de empezar, tengo algunos anuncios que hacer para los presentes en la sala. Si aún no lo han descubierto, es muy fácil mantener la conexión durante todo el día con la red Wi-Fi de Apple. Si necesitan recargar sus dispositivos en cualquier momento, hay tomas de corriente debajo de cada asiento, delante de los reposabrazos.
Para todos los que nos acompañan hoy estas presentaciones son una experiencia especial solo para ustedes, así que absténganse de grabar videos o transmitir en vivo. Sin embargo, pueden tomar fotos durante el evento y, una vez que concluya les enviaremos información de seguimiento para que no se pierdan nada.
Con esos pequeños detalles aclarados tenemos una agenda completa en la que se resumen las novedades más importantes de la WWDC, incluido el nuevo sistema de diseño, Apple Intelligence, el aprendizaje automático y visionOS.
Por fin, el momento que todos esperaban: veamos el programa. Tenemos preparadas muchas presentaciones interesantes.
Primero, Majo y Curt hablarán sobre las novedades del nuevo sistema de diseño.
Luego, Shashank analizará las novedades sobre el aprendizaje automático y Apple Intelligence.
Después, haremos un breve descanso en el que podrán tomar un café, charlar con los desarrolladores o estirar las piernas. Por último, Allan hablará sobre las novedades en computación espacial para visionOS. Después, para aquellos que estén aquí con nosotros en Cupertino tendremos un encuentro social para disfrutar de un refrigerio y charlar con los ingenieros y diseñadores de Apple. Será muy divertido.
Ahora que ya hemos visto el programa, recibamos a Majo al escenario para que nos hable del nuevo sistema de diseño.
Hola a todos, gracias por venir y conectarse. Soy Majo y soy diseñadora en el equipo de Evangelism. Me complace presentarles una descripción del nuevo sistema de diseño y las increíbles posibilidades para sus apps.
Más adelante, mi colega Curt les explicará algunos detalles de la implementación.
En la WWDC25, anunciamos un nuevo e importante avance y una evolución en el aspecto del software de Apple.
Se trata de un nuevo lenguaje de diseño armonizado más cohesivo adaptable y expresivo.
Desde un aspecto completamente renovado de los íconos de las apps hasta la estructura de los controles y su diseño.
Estas actualizaciones proporcionan un lenguaje de diseño unificado para sus apps en varias plataformas. Obtendrás estas nuevas apariencias cuando recompilen para el nuevo SDK.
Hoy compartiré una descripción de Liquid Glass, las actualizaciones
de algunos componentes clave del sistema y cómo aplicar
este nuevo aspecto al ícono de su app.
El elemento central es un nuevo material adaptable para controles y elementos de navegación llamado Liquid Glass.
Este nuevo conjunto de materiales dobla, moldea y concentra la luz de forma dinámica y en tiempo real.
Al esculpir la luz de esta manera, los controles son casi transparentes pero siguen siendo nítidos.
A la vez, el material se comporta y mueve de manera orgánica, como si fuera un líquido ligero que responde con fluidez al tacto,
lo que hace que las transiciones se sientan naturales, ya que los controles cambian de forma continuamente.
Al mostrar un menú, el botón simplemente se abre con una transición que comunica una relación muy clara y directa entre sí mismo y sus opciones.
Con una intención similar, los elementos pueden convertirse en Liquid Glass al interactuar lo que te permite observar el valor que hay debajo.
Hay dos tipos de Liquid Glass: transparente y regular.
El Liquid Glass transparente es translúcido, por lo que el contenido debajo se ve y se integra con el vidrio de una manera increíble.
Para que los símbolos y las etiquetas sean legibles, hay que aplicar una capa que oscurezca el contenido debajo.
Luego está el Liquid Glass regular. Este es el que más van a utilizar. Es muy adaptable y ofrece legibilidad en diferentes condiciones.
El Liquid Glass regular detecta el nivel de luminosidad del fondo, por lo que el plato y los símbolos cambian entre claros y oscuros. Este comportamiento se produce automáticamente cuando se usa el estilo normal y funciona sin importar del modo claro u oscuro.
Para incorporar Liquid Glass a su app sin perder la esencia de la marca usen componentes comunes del sistema.
Como las barras de pestañas, para navegar entre las secciones de nivel superior.
Barras de herramientas, para agrupar acciones y facilitar la navegación.
Y láminas, para contenido o acciones en vistas modales o no modales.
Comenzaré con las barras de pestañas. Ofrecen una visión general de la app de un vistazo, facilitan la navegación entre las diferentes secciones y, como siempre están visibles es fácil acceder a ellas.
Se han rediseñado para que Liquid Glass flote sobre el contenido de la app, guiando la navegación.
Son translúcidas y se pueden configurar para minimizarse y volver a expandirse al desplazarse, dejando que el contenido destaque sin perder el sentido del lugar.
Si actualizan una barra de pestañas existente, hay un par de nuevas funcionalidades que pueden aprovechar.
Al igual que la nueva pestaña de búsqueda es una pestaña específica para facilitar la búsqueda y que esté siempre disponible desde cualquier parte de la app.
La barra de pestañas también puede mostrar una vista accesoria, como el mini reproductor de la app Música.
El sistema lo muestra encima de la barra de pestañas, adaptándose a su apariencia. Cuando la barra de pestañas se minimiza la vista accesoria se desplaza hacia abajo mostrando más contenido.
La vista de accesorios permanece visible en toda la app así que eviten usarla para acciones específicas. Mezclar elementos de diferentes partes puede difuminar la jerarquía y dificultar la distinción entre lo que es persistente y lo que es contextual.
En su lugar, manténganlos en el área de contenido con el contenido que admite.
Curt explicará cómo incorporar estas actualizaciones a la barra de pestañas.
Ahora, las barras de herramientas. Ofrecen un acceso cómodo a los controles de uso frecuente situados en la parte superior o inferior de la pantalla. Facilitan el acceso a la navegación y ayudan a las personas a orientarse mientras que Liquid Glass garantiza que el contenido sea el foco.
Para que las acciones de la barra de herramientas se entiendan rápidamente opten por símbolos reconocibles en lugar de texto.
Ahora, los controles relacionados con símbolos comparten el fondo de vidrio.
No deben usar símbolos para acciones como editar o seleccionar ya que no se pueden representar fácilmente con símbolos.
Si la barra tiene controles con texto y símbolos, se recomienda que estén separados para evitar confusiones o asociaciones no deseadas.
Si la barra de herramientas parece abarrotada, es una gran oportunidad para simplificar, priorizar y agrupar.
Para las que son secundarias, usen el menú Más que está representado por un símbolo de tres puntos suspensivos.
Con estos ajustes en la barra, la IU es más predecible y fácil de usar.
La introducción de Liquid Glass requirió un nuevo tipo de tratamiento: efecto de borde de desplazamiento. En Mail en iOS, el contenido está debajo de la barra de Liquid Glass. Este efecto deja los botones situados encima del contenido claros y visibles.
Recuerden incluirlo en su app siempre que haya controles flotantes de Liquid Glass.
Sin embargo, si su app tiene varias acciones en la barra de herramientas es mejor usar un estilo sólido. Crea una separación más clara con el área de contenido lo que aumenta la legibilidad. Se usa con más frecuencia en apps de iPadOS y macOS.
El color puede mejorar la comunicación y evocar su marca. Sin embargo, si se usa en exceso o en los lugares equivocados, puede percibirse como ruido visual. Esto es un resumen rápido de dónde y cómo aplicar un tinte efectivo a Liquid Glass.
Usen el color con cuidado y constancia. Resérvenlo para acciones clave que realmente se beneficien del énfasis y eviten agregar color solo para evocar su marca.
Por ejemplo, una preocupación habitual es cómo manejar los fondos con color. Aplicar un tinte a todos los botones de vidrio de la barra de herramientas puede desviar la atención del contenido.
Hagan que el color de su marca brille donde realmente importa: en el área de contenido. Este enfoque permite que su app siga expresando su personalidad única sin llamar la atención sobre la barra de herramientas.
Cuando apliquen un tinte a Liquid Glass usen el tinte incorporado. Genera una gama de tonos que cambian de matiz brillo y saturación dependiendo de lo que haya detrás sin desviarse demasiado del color deseado.
Además, se adapta a funcionalidades como la transparencia reducida. Hace que Liquid Glass sea más brillante y oscurece más el contenido que hay detrás. Al aumentar el contraste resalta los elementos y les aplica un borde contrastante.
Presenté varias formas en las que Liquid Glass cambia cómo interactuamos y navegamos con las apps. Otra pieza clave son las láminas. Se usan para pedir información específica o presentar una tarea sencilla. Además, se han rediseñado cuidadosamente para Liquid Glass.
Una lámina redimensionable se expande en función de unos retenes que son alturas específicas en las que la hoja descansa de forma natural. En sus retenes más pequeños y medianos, usan un nuevo inserto de vidrio flotante que ayuda a conservar su contexto original.
Al alcanzar su altura máxima, las láminas se expanden y el material se convierte en algo más opaco, lo que proporciona una experiencia más intensa que favorece un mayor nivel de implicación por parte de las personas. Curt explicará cómo incorporar este comportamiento en sus apps.
Desde el punto de vista de la usabilidad recuerden que, al trabajar con hojas, solo deben mostrar el controlador cuando admita varios retenes, ya que indica que se puede cambiar el tamaño. Usa un botón explícito para indicar cómo cerrarlo, incluso si admite el gesto de descartar.
Estos componentes se han rediseñado para el nuevo sistema de diseño Liquid Glass, y para que encajen de forma concéntrica con las esquinas de los dispositivos Apple, transmitiendo una relación entre hardware y software.
Es importante que su sistema de diseño y su diseño visual estén en armonía con Liquid Glass.
Por ejemplo, si en su sistema de diseño hay alguna esquina que parece fuera de lugar probablemente sea porque no es concéntrica. Esto es común en contenedores anidados, como ilustraciones en una tarjeta. Esto puede crear tensión o romper el sentido del equilibrio. La ventaja de este sistema es que calcula automáticamente el radio interior en relación con los contenedores y el dispositivo, lo que permite una integración perfecta. Curt lo explicará en detalle más adelante.
Por último, la sensación de armonía, dimensión y fluidez de Liquid Glass también se incorpora a los íconos de las apps en Mac iPad, iPhone, Watch y CarPlay.
Los íconos del sistema se rediseñaron para aprovechar el nuevo lenguaje y sus nuevas funcionalidades dinámicas.
Están hechos de capas apiladas de un material de Liquid Glass específico para la creación de íconos de apps, un diseño verdaderamente dimensional.
El material se adapta automáticamente a todos los modos de apariencia como el modo claro y el modo oscuro. Hay una nueva serie de modos de apariencia que usan Liquid Glass. Un vidrio monocromático que viene en versión clara y oscura. Por último, hay nuevos modos de tinte. Un tono oscuro que aporta color al primer plano y un tono claro, donde se difumina en el fondo.
Para crear estos íconos de apps expresivos y dimensionales con diferentes apariencias y plataformas, usen esta nueva herramienta llamada Icon Composer. Está diseñada para adaptarse a su flujo de trabajo actual y combinarse con sus herramientas de diseño actuales. Permite previsualizar y jugar con todos estos nuevos materiales y efectos.
Así es como se empieza a usar el nuevo sistema de diseño y Liquid Glass. Todo lo que he explicado hoy viene integrado, por lo que la experiencia en sus apps será más orgánica, envolvente y fluida. Me complace invitar a Curt al escenario para que les muestre lo fácil que es implementar y hacer que su app se destaque en el nuevo sistema de diseño. Gracias y bienvenido Curt.
Gracias Majo.
Hola, soy Curt. Soy evangelista tecnológico del equipo de Developer Relations y es un placer compartir cómo pueden incorporar el nuevo diseño a sus apps. Reforzaré lo que ha comentado Majo y mostraré cómo dar vida al nuevo diseño en su código. Como ejemplo principal, usaré Landmarks un proyecto de muestra disponible en el sitio web de Apple Developer. Aquí está en la Mac, el iPad y el iPhone. Cuando compilen su app con los SDK de Xcode 26 ya notarán cambios en toda la IU. Muchas de estas mejoras están disponibles automáticamente. Los describiré y les hablaré de algunas API nuevas en iOS 26 y macOS Tahoe que permiten personalizar aún más la experiencia. En todos mis ejemplos usaré SwiftUI pero también hay API paralelas en UIKit y AppKit. Comenzaré con las actualizaciones de los componentes estructurales. Luego, hablaré del nuevo aspecto y comportamiento de las barras de herramientas y daré las novedades relacionadas con la búsqueda.
Después, hablaré sobre cómo los controles cobran vida con Liquid Glass. Concluiré describiendo cómo adoptar Liquid Glass en sus propios elementos de IU personalizados. Para terminar, destacaré algunos cambios importantes en iPadOS 26.
Ahora veamos la estructura de las apps.
La estructura de la app se refiere a cómo se navega tu app a través de pestañas, barras laterales y láminas. Cada uno de estos elementos se ha perfeccionado para el nuevo diseño. Las barras laterales permiten navegar por una jerarquía de posibles categorías de rutas. Tanto en macOS Tahoe como en iPadOS 26, las barras ahora son de Liquid Glass y flotan. El comportamiento es el mismo en ambas plataformas, pero me centraré en la Mac. En la app Landmarks, las flores rosas y la arena del área de contenido se reflejan en la barra lateral. Pero el banner principal aquí se corta abruptamente en el borde de la barra. Permitir que el contenido se coloque debajo de la barra lateral permitiría que el Liquid Glass reflejara aún más los hermosos colores del banner.
Para ello, deben agregar el modificador de efecto de extensión de fondo. Esto amplía la vista fuera del área segura sin recortar el contenido. Ocultaré la barra lateral para revelar lo que está sucediendo detrás. La imagen está reflejada y desenfocada, lo que amplía el tono de la imagen debajo de la barra lateral y deja visible todo el contenido.
Las vistas de pestañas proporcionan una navegación persistente de nivel superior y son ideales para unas pocas secciones clave, normalmente cinco o menos.
Ahora, la barra de pestañas del iPhone flota sobre el contenido y se puede configurar para que se minimice al desplazarse.
Para ello, solo deben agregar el modificador tabBarMinimizeBehavior al TabView existente. Con el argumento onScrollDown la barra se minimiza al desplazarse hacia abajo y se expande al desplazarse hacia arriba.
Como dijo Majo, ahora pueden agregar vistas encima de la barra de pestañas. Úsenlo para las vistas que siempre quieran tener a mano, como la vista de reproducción en Música.
Coloquen una vista sobre la barra de pestañas con tabViewBottomAccessory. Esto también aprovecha el espacio que deja el comportamiento de la barra de pestañas.
Para responder a este colapso
solo deben leer el tabViewBottomAccessoryPlacement del entorno y ajustar el contenido de su accesorio cuando se colapse en el área de la barra de pestañas.
Al igual que las pestañas y las barras laterales, el nuevo diseño mejora automáticamente las láminas. En la app Landmarks al crear una nueva colección, aparece una lámina con opciones. En iOS 26, las láminas de altura parcial vienen con un fondo de Liquid Glass. A alturas más bajas, los bordes inferiores se retraen y se encajan en los bordes curvos de la pantalla. Al pasar a una lámina de altura completa el fondo de Liquid Glass cambia gradualmente, volviéndose opaco y fijándose a los bordes de la pantalla.
Las láminas se transforman directamente a partir de los botones que las presentan. Este es el código existente para presentar una lámina en la app Landmarks. Hay un botón en la barra de herramientas para presentar la lámina y un modificador que define su contenido. Hago que el contenido se transforme a partir de la vista de origen en 3 pasos. Primer paso: presento un Namespace para asociar la lámina y el botón. Segundo paso: marco el botón como origen de la transición. Y en el paso 3, marco el contenido como si tuviera una transición de zoom, y este es el resultado.
Otras presentaciones, como ventanas emergentes, alertas y menús, se muestran con fluidez desde los controles dirigiendo la atención desde la acción hacia el contenido que presentan. Esto se obtiene automáticamente. En el nuevo diseño, los diálogos también se transforman automáticamente a partir de los botones que los presentan. Solo has que agregar el modificador confirmationDialog al botón de origen.
Ahora, las barras de herramientas.
En el nuevo diseño, los elementos de la barra se colocan en una superficie de Liquid Glass que flota sobre la app. Los elementos se adaptan al contenido y se agrupan automáticamente.
Cuando compilé la app Landmarks con Xcode 26, los elementos personalizados de mi barra de herramientas se agruparon por separado del botón Atrás del sistema.
Los botones “Favorito” y “Agregar a colección” son acciones relacionadas.
Así que uso la nueva API ToolbarSpacer con espacios fijos para dividirlos en su propio grupo. Esto proporciona claridad visual de que las acciones grupales están relacionadas y las independientes, como Compartir enlace y Alternar inspector, tienen otro comportamiento.
ToolbarSpacer también puede crear un espacio flexible que se expande entre los elementos de la barra de herramientas. La app Mail usa esta técnica para alinear el elemento de filtro al principio y alinear los elementos de búsqueda y redacción al final.
Estas mejoras en el diseño de la barra están disponibles en Mac, iPad y iPhone. El nuevo diseño presenta otros cambios en las barras de herramientas. El nuevo diseño usa una paleta monocromática en más lugares, incluso en las barras de herramientas. Esto ayuda a reducir el ruido visual, resalta el contenido de su app y mejora la legibilidad.
Coloreen los íconos con el modificador de color o un estilo de botón destacado pero usen el color con moderación para transmitir un significado, como llamada a la acción o un siguiente paso, y no solo para lograr un efecto visual o reforzar la marca.
En este diseño, un efecto de borde de desplazamiento mantiene la legibilidad. Es un efecto sutil de desenfoque y desvanecimiento para el contenido al desplazarse por debajo de las barras.
Si su app tiene fondos adicionales o efectos de oscurecimiento detrás de la barra, quítenlos, ya que interferirán con este efecto.
Como compartió Majo, para IU más densas con elementos flotantes, como la app Calendario, ajusta la nitidez del efecto con el modificador scrollEdgeEffectStyle, pasando el estilo de borde duro.
Esas eran las barras de herramientas. Ahora pasaré a la búsqueda. El nuevo diseño incluye dos patrones de búsqueda principales. Uno es buscar en la barra de herramientas. En el iPhone, esto coloca el campo en la parte inferior, donde es fácil acceder, y en el iPad y la Mac, en la parte superior de la barra. El otro es tratar la búsqueda como una pestaña en una app con varias. Describiré cómo crear ambos patrones. Para la app Landmarks, coloqué la búsqueda en la barra de herramientas. Elijan esta ubicación en su app cuando los usuarios puedan acceder a todo o la mayor parte de su contenido mediante búsquedas.
El campo de búsqueda aparece en su propia superficie de Liquid Glass. Al tocarlo, se activa y aparece el teclado.
Para obtener esta variante en Landmarks, solo agregué el modificador en el NavigationSplitView existente.
Al declarar el modificador aquí, se indica que la búsqueda se aplica a toda la vista, no solo a una de sus columnas.
En el iPhone, esta variante se adapta para colocar el campo de búsqueda en la parte inferior de la pantalla.
Según el tamaño del dispositivo y otros factores el sistema puede optar por minimizar el campo en un botón como el que se muestra aquí en Mail.
Cuando toco el botón, aparece un campo de búsqueda de ancho completo sobre el teclado. Para optar explícitamente por el minimizado, por ejemplo porque la búsqueda no es una parte fundamental de la experiencia de su app usen el nuevo modificador searchToolbarBehavior.
Buscar en apps con pestañas suele empezar en una pestaña específica.
Este patrón se usa en apps de todas las plataformas de Apple, como la app Salud, tal como mencionó Majo.
Para hacerlo en su app agreguen una pestaña con la función de búsqueda y coloquen el modificador de búsqueda en su TabView. Ahora, cuando se selecciona esta pestaña aparece un campo de búsqueda en su lugar y el contenido de la pestaña de búsqueda. Se puede interactuar con sus sugerencias aquí o tocar el campo de búsqueda para que aparezca el teclado y buscar términos específicos.
En la Mac y el iPad, cuando alguien selecciona la pestaña de búsqueda el campo aparece centrado sobre las sugerencias de navegación de la app.
Estos patrones de búsqueda les brindan mayor flexibilidad y control sobre la experiencia de búsqueda en su app.
El nuevo diseño renueva la apariencia y la sensación en todas las plataformas para controles como botones controles deslizantes, menús y más. Además del efecto de Liquid Glass los controles son similares en todas las plataformas de Apple para que la experiencia sea familiar cuando se cambia de dispositivo.
Los botones con borde ahora tienen una forma de cápsula, siguiendo las esquinas del nuevo diseño. Pero hay una excepción: muchos controles pequeños y medianos en macOS conservan una forma rectangular redondeada que mantiene la densidad horizontal.
Usen el modificador de forma para ajustar la forma a cualquier tamaño.
Los tamaños de los controles son uniformes en todas las plataformas.
Algunos controles de macOS ahora son un poco más altos por lo que hay más espacio alrededor de la etiqueta del control y se ha aumentado el tamaño del objetivo de clic. Si tienen un diseño de alta densidad, por ejemplo, un inspector complejo usen el modificador controlSize para solicitar un tamaño más pequeño.
Además de los tamaños y formas que estandarizan los controles en todas las plataformas de Apple el nuevo diseño incorpora Liquid Glass a cualquier botón de su app con los estilos glass y glassProminent.
El nuevo diseño también aporta uniformidad a los controles deslizantes en macOS, iOS y iPadOS. En todas estas plataformas ahora admiten valores discretos con marcas de verificación. Ahora pueden establecer un punto de partida arbitrario. Esto es útil para valores que se pueden ajustar desde un valor predeterminado central. Piensen en seleccionar una mayor o menor velocidad en su app de podcasts favorita.
Los menús tanto en iOS como en macOS también tienen un nuevo diseño, y los íconos de macOS ahora aparecen arriba de los menús. Como siempre, usen una etiqueta u otro inicializador de control estándar al crear un menú. Ahora, la misma API genera el mismo resultado en iOS y macOS.
Además de las actualizaciones de los controles, hay nuevas API para actualizar los controles.
Muchos controles tienen las esquinas alineadas dentro de sus contenedores ya sea la ventana raíz en macOS o el bisel del iPhone.
Como dijo Majo, esto se llama concentricidad de esquina. Me encanta esa animación.
Para crear vistas que mantengan automáticamente la concentricidad usen la forma de rectángulo concéntrico. Pasen la configuración containerConcentric al parámetro de esquina de un rectángulo. La forma se ajustará automáticamente al contenedor en diferentes pantallas y formas de ventana.
La mejor manera de adoptar el nuevo diseño es usar controles estándar estructuras de app, ubicaciones de búsqueda y barras de herramientas.
Pero a veces su app puede necesitar un poco más de personalización. Veremos cómo crear elementos de Liquid Glass personalizados. Mapas es un gran ejemplo de esto, con los controles de Liquid Glass que flotan sobre el contenido. Agregaré insignias personalizadas de Liquid Glass a la app Landmarks para cada lugar emblemático que se visite. Crearé una vista de insignia con el efecto de Liquid Glass.
Para agregar Liquid Glass a las vistas personalizadas, usen glassEffect. El modificador glassEffect predeterminado coloca el contenido en forma de cápsula con el material de Liquid Glass debajo y efectos de resaltado arriba.
El contenido de texto dentro de un efecto de vidrio usa automáticamente un color que se adapta para mantener la legibilidad en fondos coloridos.
Personaliza la forma del efecto de vidrio proporcionando una forma al modificador.
Para vistas muy importantes, se puede personalizar el vidrio con un tinte. Al igual que la barra de herramientas debe usarse para transmitir significado y no para efectos o reforzar la marca.
Como el texto con efecto de vidrio el tinte también usa un color vibrante que se adapta al contenido detrás.
En iOS, para controles personalizados o contenedores con elementos interactivos, agreguen el modificador interactivo al efecto de vidrio.
Con este modificador, Liquid Glass reacciona a la interacción escalando rebotando y brillando, imitando el efecto de los botones y controles deslizantes de la barra.
Ahora que tengo una insignia personalizada, reuniré varias para que interactúen y se fusionen entre sí.
Para combinar varios elementos de Liquid Glass, usen GlassEffectContainer. Esta agrupación es esencial para la corrección visual y el rendimiento. El material Liquid Glass refleja y refracta la luz, captando los colores del contenido cercano. Para ello, tomen muestras del contenido que lo rodea.
Con un contenedor con efecto de vidrio, los elementos adyacentes comparten una región de muestreo, lo que evita interferencias. El uso de regiones de muestreo compartidas también es fundamental para el rendimiento: minimiza los pases.
Además de controlar el muestreo GlassEffectContainers también permite efectos de transformación. En la app Landmarks, uso GlassEffectContainer para agrupar mis insignias. Dentro del contenedor, muestro una pila de etiquetas de insignias cuando el estado está expandido y tengo un control para activar y desactivar el estado. Cuando pulso este botón para ampliar las insignias aparece esta increíble animación fluida.
Una vez que tengo mi GlassEffectContainer solo hay que seguir tres pasos para crear esta animación. Primero renderizo mis etiquetas y las alterno usando Liquid Glass.
Segundo, presento un Namespace local. Y tercero, asocio las etiquetas y el control con ese Namespace usando el modificador glassEffectID para que el sistema sepa que van juntos.
Ahora, cuando vuelvo a tocar el botón, las insignias de premios se reabsorben perfectamente.
El efecto de Liquid Glass es ideal para resaltar la funcionalidad que hace que la app sea verdaderamente única. Tras este resumen de las funcionalidades integradas en el nuevo diseño y las personalizaciones disponibles aquí hay un par de cambios más que llegarán con iPadOS 26.
iPadOS 26 trae cambios que hacen que el iPad sea más potente y versátil. Entre estas funcionalidades está el nuevo sistema de ventanas con una nueva forma de cambiar su tamaño. Todas las apps que admiten el cambio de tamaño ahora muestran un controlador en la esquina inferior derecha, igual que en visionOS. Al arrastrarlo, se iniciará el cambio de tamaño de la app a una ventana que flotará sobre el fondo.
Antes, era posible impedir el cambio de tamaño de las ventanas. Alguna de las apps de podría hacerlo. Esto está obsoleto en iPadOS 26. Después de iPadOS 26, todas las apps de iPadOS deberán admitir el cambio de tamaño.
iPadOS 26 también presenta una nueva forma de realizar varias tareas a la vez. Con la multitarea, hay una consideración importante que hay que tener en cuenta. En el centro están las escenas. Una escena representa una instancia de la interfaz de la app. Por ejemplo, Mail permite abrir una ventana para cada uno de los buzones de correo a fin de mantener el orden.
Cada buzón abierto se muestra en su propia escena.
Las apps basadas en SwiftUI incluyen compatibilidad con escenas. En las apps basadas en UIKit, las escenas son opcionales desde que se presentaron en iOS 13. De ahora en adelante serán obligatorias. Es válido tanto para iPadOS como para iPhone y Mac Catalyst. Después de iOS 26, solo se ejecutarán las apps que admitan escenas.
Una distinción importante: aunque se recomienda el soporte para varias escenas, el único requisito es adoptar el ciclo de vida basado en escenas.
Hay una guía en línea para agregar soporte para escenas a su app.
La compatibilidad con el cambio de tamaño y la multitarea son formas de ofrecer más flexibilidad al interactuar con la app. Este es el momento perfecto para mejorar la flexibilidad de la app para iPad y hacer que destaque en la plataforma.
Majo, yo y todos nuestros colegas estamos entusiasmados de compartir este nuevo capítulo del diseño de Apple y queremos ver qué crean con Liquid Glass.
Ahora le daré la bienvenida a mi colega Shashank, que les hablará de las novedades de Apple Intelligence. Shashank.
Gracias, señor.
Hola a todos soy Shashank. Soy evangelista técnico de IA/ML aquí en Apple. Hoy me complace ofrecerles un breve recorrido por las últimas novedades en aprendizaje automático y Apple Intelligence, que anunciamos en la WWDC 25. Les mostraré cómo aprovechar estas funcionalidades para hacer que sus apps sean más inteligentes.
Vamos a cubrir tres aspectos. En primer lugar, les daré una visión general de las funcionalidades de inteligencia integradas en el sistema operativo y cómo aprovecharlas a través de las estructuras del sistema. Les mostraré cómo integrar sus apps más profundamente en todo el sistema. Por último, explicaré cómo con las herramientas y API de Apple pueden optimizar e implementar modelos para ejecutar en el dispositivo.
Empecemos con el panorama general. El aprendizaje automático y Apple Intelligence son el núcleo de muchas apps y funcionalidades integradas en el sistema operativo de Apple. El año pasado, incorporamos la inteligencia generativa al núcleo de los sistemas operativos de Apple con modelos básicos que impulsan Apple Intelligence. Esto nos permitió integrar Herramientas de Escritura, Genmoji e Image Playground en el sistema y pueden integrar estas funcionalidades en sus propias apps. Por ejemplo, si la app utiliza controles de texto del sistema, obtienen compatibilidad con Genmoji. También pueden usar las nuevas API para que Genmoji aparezca en el texto donde quieran.
En Image Playground, los usuarios pueden generar imágenes usando Chat GPT y explorar nuevos estilos, como la pintura al óleo o el arte vectorial. La estructura Image Playground permite presentar una lámina de Image Playground directamente en la app, o crear imágenes mediante programación con la API Image Creator.
Si su app usa estructuras de IU estándar para mostrar vistas de texto, admite Herramientas de Escritura. Con Herramientas de Escritura, se puede perfeccionar lo que se redacta reescribiendo, corrigiendo o resumiendo el texto, todo en una sola aplicación y en un solo lugar. Ahora vienen con aún más capacidades. Como novedad en iOS, iPadOS y macOS 26, ahora se pueden seguir sugerencias de Herramienta de Escritura. Después de reescribirlo, pueden pedirle que el texto sea un poco más acogedor, coloquial o alentador.
Aunque Herramientas de Escritura aparece donde se selecciona el texto si la app tiene mucho texto se puede hacer más fácil de encontrar con un botón en la barra.
Del mismo modo, en el menú contextual los elementos de Herramienta de Escritura se agregan automáticamente. Si usan un menú personalizado o desean organizarlos de manera diferente pueden usar las API para obtener elementos estándar y colocarlos donde deseen. En la WWDC 25, también ampliamos la gama de idiomas compatibles con Apple Intelligence.
Muchos han expresado su interés en acceder a los modelos de lenguaje que impulsan las funcionalidades de Apple Intelligence. Me complace decir que tienen acceso directo a ellos. Usando la estructura Foundation Models. La estructura Foundation Models otorga acceso directo al mismo modelo de lenguaje grande integrado en el dispositivo que utiliza Apple Intelligence a través de una API de Swift cómoda y potente. Ahora pueden incorporar nuevas funcionalidades avanzadas en sus apps. Por ejemplo, se puede usar para mejorar las funcionalidades existentes, como ofrecer sugerencias de búsqueda personalizadas.
O se pueden crear experiencias completamente nuevas. Imaginen generar un itinerario en su app de viajes, diseñado sobre la marcha.
Incluso podrían usarlo para generar diálogos para los personajes de un juego totalmente en el dispositivo.
Creo que eso es genial.
Como la estructura se ejecuta por completo en el dispositivo los datos permanecen privados y no deben enviarse a ningún sitio.
Estas funcionalidades de IA están disponibles y funcionan sin conexión. No es necesario crear una cuenta ni manejar claves de API. Todo está listo para empezar.
Lo mejor es que no hay costos para ustedes ni para los usuarios por realizar varias solicitudes.
Lo más importante, todo está integrado en el sistema operativo por lo que no afecta al tamaño de la app.
Está disponible en macOS iOS, iPadOS y visionOS. Funciona en todo el hardware y los idiomas de Apple Intelligence. Veamos más de cerca la estructura y cómo funciona. La estructura Foundation Models permite un modelo de 3,000 millones de parámetros, que es un modelo a escala de dispositivo, y está optimizado para usar en dispositivos como generación de contenido síntesis, clasificación, conversaciones de varios turnos y mucho más. No se ha diseñado para tareas de conocimiento o razonamiento avanzado. Estas son tareas para las que se usaría un LLM a escala de servidor. Veamos cómo funciona esto.
Pueden usar la estructura Foundation Models para enviar un prompt al modelo de lenguaje grande del dispositivo, o LLM, por sus siglas en inglés. El modelo puede entonces razonar sobre la indicación y generar texto.
Por ejemplo, podrían pedirle que creara un cuento para dormir sobre un zorro. El modelo responde al detallado y creativo cuento para dormir. Es el mismo modelo de propósito general que impulsa funcionalidades como Herramientas de Escritura. Volvamos a nuestro ejemplo de búsqueda personalizada para ver cómo se implementaría esto con la estructura Foundation Models.
El modelo requiere tres líneas de código.
Primero, importamos la estructura. Después, creamos una sesión de modelo de lenguaje. Y luego enviamos el prompt al modelo. El prompt puede venir de ustedes o de la persona que usa la app. Incluso pueden generar prompts dinámicamente en función del input. Después de indicar el prompt obtienen una respuesta. Por defecto, los modelos de lenguaje producen resultados en lenguaje natural no estructurado, como aquí. Es fácil de leer, pero podría ser difícil de mapear en vistas personalizadas que puedan tener en sus apps. Para solucionar esto, Foundation Models ofrece una generación guiada. Así es como funciona.
Primero, especificamos cómo debe ser nuestro output con struct.
SearchSuggestions es un struct simple con elementos de búsqueda de cadenas. Ahora, esta lista es mucho más fácil de asignar a las vistas pero aún no está terminada.
A esta estructura le aplicamos la macro Generable. Generable es una forma sencilla de permitir que el modelo genere datos estructurados usando tipos de Swift. A continuación, especificamos las guías.
Las guías les permiten proporcionar descripciones y controlar los valores de su tipo asociado. Aquí, queremos generar 4 términos de búsqueda como una lista de cadenas. Ahora pueden pasarlo al modelo usando el argumento generador. El resultado ahora es una lista de cadenas de sugerencias que se pueden asignar fácilmente a las vistas.
La generación guiada permite controlar el modelo lo que debe generar el modelo ya sean cadenas, números, matrices o estructuras de datos personalizadas que se definan. También garantiza fundamentalmente la corrección estructural mediante la decodificación de restricciones. Con la generación guiada los prompts ahora pueden ser más sencillos y centrarse en el comportamiento deseado en lugar de dar instrucciones de formato en el prompt. Todo esto también contribuye a mejorar la precisión y el rendimiento del modelo.
Además de lo que proporcionan al prompt, el modelo aporta sus propios conocimientos a partir de los datos de entrenamiento. Recuerden que el modelo está integrado en el sistema operativo y los datos están congelados en el tiempo. Por ejemplo, si preguntara cómo está el tiempo ahora mismo en Cupertino, el modelo no tendría forma de saber esa información. Cuando se necesitan datos dinámicos o en tiempo real, la estructura admite la llamada de herramientas.
Por ejemplo, la llamada de herramientas
permite ir más allá de la generación de texto y realizar acciones. Pueden usar herramientas para dar acceso al modelo a datos en vivo o personales, como el clima o eventos. Incluso se pueden citar fuentes para que la gente pueda verificar los datos, y las herramientas también pueden realizar acciones en el mundo real desde la app, en el sistema o fuera de él. Veamos ahora cómo estos modelos básicos pueden potenciar las apps con nuevas capacidades.
Consideren una app de diario. En lugar de ofrecer sugerencias genéricas para un diario, los modelos básicos pueden generar sugerencias que parecen personales a partir de entradas anteriores y eventos del calendario. Como todo funciona en el dispositivo los datos personales y confidenciales, como la información médica, son privados.
O piensen en una app de gastos. Basta de ingresar datos a mano. Con los modelos básicos, su app puede extraer detalles de datos de gastos del texto. También podemos dar un paso más y combinarlo con una estructura Vision para extraer datos de una foto o captura de un recibo o procesarlos en el dispositivo.
En apps de productividad se pueden reescribir al instante notas complejas para que sean más claras o resumir transcripciones en puntos clave prácticos. Esto puede ahorrar tiempo y ayudarnos a centrarnos en lo que realmente importa.
Al combinar el reconocimiento de voz con modelos básicos, la app permite realizar búsquedas en lenguaje natural. Se puede decir: “Muéstrame una casa de 3 dormitorios apta para mascotas”. La app extrae los detalles del discurso y usa la llamada de herramientas para hacer la búsqueda simple, natural y rápida.
Y esto es sólo el comienzo. Hay mucho más que puedes crear con estas capacidades.
Pueden usar los modelos para muchas tareas lingüísticas comunes como generación de contenido, síntesis, análisis de entradas y más.
Para los profesionales avanzados en ML, si tienen un caso de uso especializado pueden entrenar sus propios adaptadores personalizados mediante el kit de entrenamiento de adaptadores. Pero tengan en cuenta que esto conlleva importantes responsabilidades ya que deberán volver a entrenarlo a medida que Apple mejore el modelo. Para más información, pueden consultar el sitio web para desarrolladores.
Cuando quieran empezar a experimentar pueden hacerlo con la nueva funcionalidad Playgrounds de Xcode.
Solo agreguen la macro #Playground usen #Playground en cualquier archivo de código y comiencen a escribir los prompts. La respuesta del modelo aparecerá inmediatamente a la derecha como las vistas previas de SwiftUI. En este ejemplo, el lienzo muestra la respuesta del modelo de generación no estructurada y la de generación guiada. Playground es una forma estupenda de experimentar con Foundation Model. Recomendamos probar varios tipos de prompts para encontrar el que mejor se adapte a su caso de uso. Y Playground ayuda a iterar rápidamente.
En resumen, el modelo Apple Foundation es un modelo integrado en el dispositivo optimizado y comprimido específicamente para caber en el bolsillo. Por su menor tamaño, el modelo tiene un conocimiento limitado del mundo. Se puede usar la llamada a herramientas para incorporar datos del mundo real. La funcionalidad Playgrounds facilita la evaluación y prueba de los prompts como se ha visto en el ejemplo. A medida que creen su app con los modelos básicos consideren compartir sus comentarios a través de Feedback Assistant lo que nos ayudará a mejorar el modelo y las API.
Esa fue la estructura Foundation Models. No podemos esperar a ver todas las cosas increíbles que crearán.
Además de los modelos básicos también tienen acceso a otras potentes API de aprendizaje automático.
Cada una adaptada a un ámbito específico. Hay Vision para comprender imágenes y videos. Natural Language para trabajar con texto. Translation para textos en varios idiomas, Sound Analysis para reconocer categorías de sonidos y Speech para transcribir palabras en audio.
Empecemos con Vision. Vision cuenta con más de 30 API para diferentes tipos de análisis de imágenes y hoy agrega dos nuevas. La nueva API de solicitud de documentos reconocidos para la comprensión de documentos y la API de solicitud de detección de manchas en el lente para identificar fotos tomadas con un lente manchado. Exploremos esto con un poco más de detalle.
Este año, Vision incorpora mejoras en el reconocimiento de texto. En lugar de solo leer líneas de texto ahora ofrece reconocimiento de documentos. Puede agrupar estructuras de documentos, lo que facilita su procesamiento y comprensión. Por ejemplo, si tienen un formulario de registro escrito a mano en lugar de escribir manualmente los nombres y los datos de contacto Vision pasa la tabla directamente. Las filas y celdas se agrupan automáticamente, por lo que se dedica menos tiempo a analizar los datos. Eso es genial.
Otro aspecto nuevo en Visión este año. Ahora, incluso detectamos manchas en los lentes de las cámaras para asegurarse de que se capturan imágenes nítidas y de alta calidad.
Por ejemplo, alguien que escanea un documento podría manchar accidentalmente el lente con el dedo.
Esto provoca imágenes borrosas difíciles de procesar.
La API de detección de manchas lo detecta. Esto les permite solicitar al usuario que limpie el lente o tome otra foto para que se procesen imágenes de calidad. Y esa fue la estructura Vision. Ahora, echemos un vistazo a la estructura Speech.
Este año, presentamos Speech Analyzer, una API de conversión de voz a texto integrada en el dispositivo que se puede utilizar con solo unas líneas de código. El nuevo modelo es más rápido y flexible que nunca. El modelo SpeechAnalyzer ya ofrece funcionalidades en notas notas de voz, diarios y mucho más. Además de SpeechAnalyzer SpeechTranscriber también se actualiza con un nuevo modelo que admite una amplia gama de casos de uso. Queríamos crear un modelo para conversaciones largas donde algunos participantes pudieran estar lejos del micrófono como en una grabación de una reunión.
También queríamos ofrecer experiencias de transcripción en vivo con baja latencia sin sacrificar la precisión ni la legibilidad, y manteniendo la privacidad del discurso. El nuevo modelo integrado en el dispositivo logra todo eso.
Ahora pueden admitir los mismos casos de uso en sus propias apps.
Lo mejor es que no tienen que adquirir ni administrar el modelo ustedes mismos. Los activos se descargan según necesidad se almacenan en el sistema y no aumentan el tamaño ni la memoria de la app, y se actualizan automáticamente. Actualmente, SpeechTranscriber puede transcribir estos idiomas, y pronto habrá más.
Con esto concluimos el tema de la inteligencia de plataformas.
Ahora, veamos más formas de integrar las funcionalidades del sistema en su app.
App Intents permite integrar la funcionalidad principal de la app en los dispositivos de los usuarios.
Con la estructura App Intents se puede encontrar y usar fácilmente lo que ofrece una app, incluso sin estar en ella. Conecta profundamente las acciones y el contenido con las experiencias. Es fantástico porque las funcionalidades aparecen en lugares como Intelligence Visual, Atajos y Spotlight. App Intents no es solo otra estructura sino que amplía el alcance de la app a todo el sistema. Comencemos con Inteligencia Visual. Inteligencia Visual se basa en Apple Intelligence y ayuda a las personas a explorar su entorno. Presentado en iOS 18, los usuarios podían apuntar con la cámara para obtener información sobre una cafetería o unas zapatillas. En iOS 26, ahora también funciona en las capturas de pantalla del iPhone, por lo que los usuarios pueden buscar o realizar acciones directamente en la pantalla.
Por ejemplo, alguien puede tomar una captura de un lugar emblemático. Luego hacer una búsqueda de imágenes. El sistema muestra un panel de búsqueda.
Puede elegir la app de la que quiere ver los resultados.
Y tocar para abrir la app directamente en la página correspondiente.
Si no encuentra lo que necesita, puede tocar el botón de más resultados.
La app se abre en la vista de búsqueda. Si la app ofrece capacidades de búsqueda de imágenes la integración con Inteligencia Visual ofrece una nueva y potente forma de descubrir e interactuar con el contenido incluso cuando se está fuera de la app. Esta integración amplía la funcionalidad de búsqueda de la app en el sistema lo que permite a los usuarios pasar sin problemas de objetos o imágenes del mundo real a información y acciones relevantes dentro de la app.
Tomemos como ejemplo una app de compras. Hoy en día, abren la app van a la búsqueda de imágenes y comienzan a buscar. Con Inteligencia Visual, pueden hacer una captura del bolso o vestido que les gusta en las redes sociales e iniciar al instante la búsqueda. Esto elimina la fricción y hace que la interacción resulte más natural.
Ahora veremos Atajos. Atajos permite automatizar tareas repetitivas y conectar funcionalidades de diferentes apps. Este año, traemos la potencia de Apple Intelligence a Atajos con acciones inteligentes. Con App Intents, las acciones de la app se pueden combinar con Atajos para que los usuarios puedan crear potentes flujos de trabajo. Lo más destacado es el modelo de uso. Se puede acceder a los modelos de Apple Intelligence para obtener respuestas que se incorporan al atajo. Pasar texto o datos de formato puede ser tan simple como escribir palabras. Se puede elegir entre un modelo basado en un servidor grande en una nube privada para procesar solicitudes complejas y proteger la privacidad. O el modelo en el dispositivo para procesar solicitudes sin necesidad de conexión a la red.
Se puede elegir ChatGPT para acceder a un amplio conocimiento y experiencia.
Esta acción del modelo de uso es una de tantas acciones inteligentes nuevas, junto con Image Playground, Herramientas de Escritura y otras en iOS 26.
Estos son algunos otros casos de uso. Por ejemplo, se pueden usar un modelo para filtrar los eventos del calendario.
O resumir contenido en la web como obtener la palabra del día.
Para aprovechar el modelo de uso expongan la funcionalidad de la app a través de App Intents. Esto permite a las personas integrar la app en sus atajos basados en modelos. Cuando se usa Atajos, se puede seleccionar el tipo de salida del modelo, como texto enriquecido o lista. Como desarrolladores, deben asegurarse de que los App Intents puedan recibir estos tipos de salida. Se puede pasar contenido desde la app al modelo. Este contenido se define como entidades de app usando la estructura App Intents. Esto permite al modelo razonar sobre los datos de la app. Estas integraciones convierten las acciones del modelo de uso en una gran herramienta para ampliar el alcance.
En resumen, App Intents ayuda a integrar la app en todo el sistema. Pueden usarlo para incorporar la búsqueda de imágenes a Inteligencia Visual. Y exponer el contenido de la app a Atajos. Y permitir la ejecución de acciones desde la app desde Spotlight en la Mac.
Hasta ahora vimos cómo aprovechar las funcionalidades de ML e IA integradas en el sistema.
A continuación, exploraremos cómo llevar cualquier modelo a un dispositivo y todas las consideraciones que ello conlleva. Esto puede parecer un poco complejo, pero con Core ML es muy fácil. Solo se necesita un modelo de aprendizaje en formato Core ML. Estos activos de modelo contienen una descripción de las entradas, salidas y arquitectura del modelo, junto con sus parámetros o pesos aprendidos.
Hay muchos modelos disponibles con varios entre los que elegir. Por ejemplo, existen modelos como Whisper para audio, Stable Diffusion para la generación de imágenes y Mistral para procesar el lenguaje. Todos disponibles y optimizados para dispositivos Apple.
¿Dónde se consiguen? Pueden descargarlos directamente desde la página de Apple en Hugging Face o desde developer.apple.com. Todos estos modelos están optimizados para el chip de Apple y vienen en formato de paquete de ML, lo que facilita su integración en el proyecto Xcode. Ahora explicaremos cómo usarlos.
Después de descargar un modelo, solo hay que arrastrarlo y soltarlo en Xcode para empezar a usarlo. Xcode no solo reconoce el modelo, sino que también genera código Swift para interactuar con el modelo basándose en las entradas y salidas. Xcode también muestra todos los metadatos justo después de importar el modelo, lo que permite conocer su estructura y funcionalidad.
Si se cuenta con un modelo que requiere un gran esfuerzo computacional, hay que asegurarse de que el rendimiento de predicción cumpla con la latencia deseada para que la experiencia sea buena. Con unos pocos clics, Xcode puede generar un informe de rendimiento que resume el tiempo de carga
y de finalización en el dispositivo
y la latencia de predicción, que es el tiempo que tarda en obtener respuestas del modelo.
También se puede verificar si el modelo es compatible con el motor neuronal para un rendimiento y una latencia aún mejores. ¿Y si los modelos que desean no están disponibles en el formato Core ML?
Supongamos que se usa una estructura como PyTorch para entrenar y ajustar modelos personalizados según las necesidades específicas. Una vez que estén conformes con el rendimiento del modelo, es hora de integrarlo en su app. Ahí entra en juego Core ML Tools. Es un paquete Python de código abierto con API para optimizar y convertir los modelos de estructuras de código abierto, como PyTorch, a un formato compatible con Core ML.
Por último, los pioneros en investigación sobre IA pueden aprovechar la potencia del chip de Apple para crear prototipos de soluciones personalizadas con los últimos modelos de investigación. Para mantenerse al día con la exploración, es necesario poder ejecutar modelos grandes, experimentar con arquitecturas únicas y aprender y colaborar con la comunidad abierta de ML. Contamos con herramientas y recursos avanzados para que exploren esta frontera.
MLX es una estructura de ML de código abierto diseñada para el chip de Apple. Es una herramienta flexible que se puede usar para cálculos numéricos básicos hasta ejecutar modelos avanzados de aprendizaje automático a gran escala en dispositivos Apple. Pueden usar MLX para generar texto con grandes modelos de lenguaje, generar imágenes, audio o incluso video con los últimos modelos. También pueden usarlo para entrenar, ajustar y personalizar modelos de aprendizaje automático en sus Mac.
MLX puede ejecutar inferencias de ML de última generación en grandes modelos de lenguaje como Mistral con una sola línea de comando en la Mac. Por ejemplo, aquí está generando código Swift para un algoritmo de ordenación rápida usando un LLM.
MLX permite estar al día con las últimas investigaciones gracias a la comunidad de código abierto que trabaja para que estos modelos estén disponibles en MLX.
Todo el software MLX es de código abierto bajo licencia MIT permisiva. El software principal está en GitHub, junto con varios ejemplos y paquetes creados con las API de Python y Swift. MLX cuenta con una comunidad de creadores de modelos en Hugging Face. Muchos de los últimos modelos ya se encuentran en la organización MLX Community Hugging Face y casi todos los días se suben nuevos modelos.
Además de MLX, si usan otras estructuras como PyTorch o JAX, también se aceleran en el chip de Apple mediante la API Metal. Así pueden seguir usando las herramientas que ya conocen y les gustan para explorar modelos, y cuando quieran usarlos en sus apps, pueden usar Core ML para implementarlos.
Esto es todo lo nuevo en aprendizaje automático y Apple Intelligence. Según sus necesidades y experiencia con el aprendizaje automático, elijan las estructuras y herramientas que mejor se adapten a su proyecto, ya sea para ajustar un LLM, optimizar a visión artificial para Vision Pro o aprovechar las API basadas en ML. Y a todo color.
Todo ello está optimizado para el chip de Apple, lo que proporciona una ejecución eficiente y potente para sus tareas de aprendizaje automático e IA.
Es es el momento ideal para agregar ML e IA a sus apps en las plataformas de Apple. Prueben los modelos básicos. Usen Xcode Playgrounds para empezar. Agreguen la búsqueda de imágenes a Inteligencia Visual para conocer más. Tengo muchas ganas de ver lo que construirán. Muchas gracias a todos por acompañarnos el día de hoy. Ahora.
De vuelta con Leah.
Vaya, ya se me están ocurriendo ideas sobre cómo usar el modelo básico. Ahora quisiera invitar a Allan a volver al escenario para hablar sobre las últimas actualizaciones de visionOS.
Gracias.
Hola a todos, ¿cómo están? Increíble. Bueno, gracias a todos por acompañarnos, y gracias también a todos los que nos siguen en línea. Mi nombre es Allan Schaffer. Soy evangelista tecnológico aquí, en relaciones con desarrolladores, y estoy encantado de contarles todo sobre visionOS 26 y las novedades de la WWDC. El mes pasado se celebró la WWDC. Y fue una gran actualización para visionOS. Este año tenemos 14 videos dedicados a visionOS y todos ellos están diseñados para ayudarlos a descubrir las últimas novedades en computación espacial. Hemos cubierto todo, desde el uso de Metal con servicios de compositor. Tuvimos actualizaciones en SwiftUI. Mejoras en RealityKit, accesorios de terceros, nuevas tecnologías de video y mucho más, y realmente todo esto es mucho más de lo que puedo cubrir aquí en la próxima media hora, así que el plan de hoy es solo darles lo más destacado y algunas de las actualizaciones más importantes de las novedades. Teniendo esto en cuenta, vamos a profundizar en visionOS 26 y echar un vistazo a nuestro programa. Primero, hablaré de algunas de las funcionalidades volumétricas de SwiftUI que harán que la app resulte mucho más envolvente. Hay nuevas funcionalidades del sistema. Por ejemplo, Apple Intelligence, y también hay nuevas formas de hacer que el contenido de la app permanezca persistente en la sala. Hay nuevo soporte para interacciones y accesorios para un control más preciso de la entrada de botones y la respuesta háptica. Después, hablaré sobre las actualizaciones de los medios envolventes y los nuevos formatos de video que se adaptan a Vision Pro.
Este año hay muchas funcionalidades nuevas para compartir y colaborar, y finalmente compartiré las novedades de las API empresariales para quienes estén aquí desarrollando apps empresariales. Pero bueno, empecemos con las funcionalidades volumétricas que llegan a SwiftUI.
Seguro que ya han oído todo esto antes, pero creo que vale la pena repetir que la mejor manera de crear apps, una gran app para Vision Pro y aprovechar nuestras herramientas y tecnologías nativas, es con SwiftUI, y ahora SwiftUI les ofrece nuevas formas de crear sus apps en 3D y hacerlas aún más envolventes. Una gran novedad de SwiftUI y visionOS 26 tiene que ver con el diseño del contenido y cómo muchas de las herramientas de diseño y modificadores de vista de SwiftUI, ya muy familiares, ahora han agregado análogos 3D de primera clase para dar profundidad y una posición Z a las vistas y luego actuar sobre ellas. Si tienen experiencia en el desarrollo de apps 2D en SwiftUI, ahora pueden crear diseños 3D muy completos de la misma manera a la que ya están acostumbrados.
Me gustaría destacar dos cosas: el nuevo depthAlignment y el rotation3DLayout, así que empezaré por el primero. Esta es una forma sencilla de manejar la composición para diseños 3D comunes. Por ejemplo, aquí usamos la alineación frontal depthAlignment para colocar automáticamente esta tarjeta de presentación al frente del volumen que contiene el modelo 3D, es muy sencillo.
Otra novedad es este modificador rotation3DLayout. Lo que hay que observar aquí es cómo el modelo de avión superior deja espacio para que el del medio pueda girar. En realidad, lo que ocurre es que la disposición 3D rotatoria permite rotar la geometría del sistema de disposición y comunica esas rotaciones a las vistas para que la app pueda reaccionar.
Otras actualizaciones que cabe mencionar brevemente son las presentaciones, en las que se puede habilitar contenido transitorio, como esta tarjeta sobre el sendero, y que ahora se pueden presentar dentro de volúmenes o como ornamentos de volúmenes. Esto se puede hacer con menús, información sobre herramientas, alertas, láminas, ventanas y presentaciones que pueden atravesar contenido 3D y permanecer visibles cuando se ocultan, para que se vean bien en cualquier contexto.
Otra funcionalidad más: normalmente, Windows y los volúmenes actúan como contenedores para la IU de la app y su contenido en el espacio compartido. Pero con una nueva funcionalidad llamada restricciones de límites dinámicos pueden permitir que el contenido, como las nubes que ven aquí, tenga objetos que sobresalgan fuera de los límites de la ventana o volumen, lo que ayuda a que el contenido resulte más envolvente.
Cambiando de tema (¡no son mis manos!), cambiando de tema ahora: los gestos y la manipulación de objetos son más fáciles de adoptar ahora. Es importante que las interacciones con el contenido virtual se sientan naturales y que imiten el mundo real, por lo que ahora los objetos se pueden manipular con simples movimientos de las manos, reorientarlos con una o ambas manos, escalarlos pellizcando y arrastrando con ambas manos, e incluso pasar un objeto de una mano a otra. Ahora viene integrado, por lo que no es necesario implementar un complicado conjunto de gestos.
Pueden aplicar este comportamiento a los objetos de su app con SwiftUI o RealityKit, según si el objeto es una vista personalizada o una entidad RealityKit, por lo que pueden usar el modificador de vista manipulable y SwiftUI o agregar el ManipulationComponent, en RealityKit o uno más si están usando una vista QuickLook3D que ya está integrada. Lo obtienen gratis.
Por cierto, hablando de RealityKit, ahora hay una alineación mucho más profunda entre SwiftUI, RealityKit y ARKit, especialmente con muchas mejoras que simplifican la interacción con RealityKit desde el código SwiftUI. Por ejemplo, ahora se pueden observar las entidades de RealityKit y sus animaciones, lo que facilita mucho la observación de los cambios en las vistas de SwiftUI. Hay una API mejorada para la conversión de coordenadas. Pueden crear controladores de gestos y SwiftUI, y adjuntar esos gestos directamente a entidades RealityKit. Ahora Model3D puede hacer mucho más, como reproducir animaciones, cargar variantes USD o cambiar entre diferentes configuraciones en sus modelos.
Por cierto, este ejemplo que he estado usando para mostrarles estas nuevas API está disponible para que lo descarguen. Se llama Canyon Crosser y está disponible en developer.apple.com.
Muy bien, continuando con nuestra agenda sobre las funcionalidades del sistema, hace un momento Shashank les ha hablado de muchos de los avances en Apple Intelligence y el aprendizaje automático en todos nuestros sistemas operativos, y esas capacidades forman parte integral de visionOS.
Uno de los cambios más importantes para el aprendizaje automático en visionOS es que ahora ofrecemos API con acceso al motor neuronal sin necesidad de permisos especiales, lo cual es muy importante. Esto les permitirá ejecutar sus propios modelos directamente en el dispositivo a través del Neural Engine, en lugar de solo en el CPU o el GPU.
Junto con eso, también incorporamos la nueva estructura Foundation Models a visionOS para que accedan directamente a cosas como el modelo de lenguaje más amplio que es el núcleo de todas esas funcionalidades de Apple Intelligence y es la misma estructura de nuestras otras plataformas, por lo que pueden dar indicaciones al LLM en su dispositivo y generar o crear resultados estructurados a partir de la generación guiada. Existe la llamada de herramientas al modelo para permitir que ese modelo recupere datos o realice acciones que se definen en el código, por ejemplo.
Además, también presentamos una nueva API de voz a texto para iOS, macOS y visionOS, llamada SpeechAnalyzer. Y ya se está usando en todo el sistema: en los subtítulos en vivo y FaceTime, en las transcripciones de audio de la app Notas, pero ahora también es posible incorporarlo a sus apps. Además, incluye un nuevo modelo de conversión de voz a texto llamado SpeechTranscriber, que mencionó Shashank, que es más rápido, más flexible y realmente ideal para cosas como subtítulos en medios de comunicación y, por supuesto, todo funciona en el dispositivo.
Bien, continuemos, hablemos de los widgets. Los widgets son extensiones de las apps que ofrecen información de un vistazo, como el pronóstico del tiempo o los eventos del calendario. Y realmente los widgets sirven para proporcionar a las personas información relevante y personalizada de un solo vistazo, mostrando información contextual sin necesidad de abrir una app. Y como plataforma espacial, visionOS permite que los widgets adopten una forma nueva. Se convierten en objetos tridimensionales que encajan perfectamente en el entorno, y muchos aspectos de su apariencia pueden personalizarse para que se adapten perfectamente al espacio.
Ahora los widgets se pueden colocar en superficies horizontales o verticales, como en una pared o en un estante, un escritorio, una encimera, etc. Y permanecen anclados en esa ubicación y persisten a lo largo de las sesiones. Así que si salen y vuelven más tarde, o si se quitan el dispositivo y se lo vuelven a poner más tarde, seguirán ahí, simplemente se convertirán en parte de su espacio.
Ahora los widgets tienen plantillas de varios tamaños entre las que elegir, pero en visionOS esos tamaños adoptan dimensiones del mundo real, lo que les da una presencia muy física en la habitación contigo. Así que, se debe pensar, si se está desarrollando con Widgets, dónde podría ubicarse el widget, si se montará en una pared, se colocará en el escritorio de alguien, etc. y luego elegir un tamaño que se adapte a ese contexto.
Otra funcionalidad exclusiva de visionOS es la detección de proximidad. Esto significa que los widgets pueden cambiar y adaptar su apariencia y diseño en función de distancia de la persona. Por ejemplo, en este widget deportivo, a medida que nos acercamos, se muestra información más detallada.
Por cierto, hay buenas noticias: si la app de iPhone o iPad ya incluye widgets, ya han dado un gran paso, porque si la app se ejecuta en modo de compatibilidad, los widgets se transferirán a visionOS y se adaptarán automáticamente a las nuevas cualidades espaciales.
Esas son algunas de las nuevas funcionalidades del sistema en visionOS y ahora quiero pasar a las interacciones. Como ya saben, las manos y los ojos son los principales métodos de entrada de Vision Pro y hemos creado visionOS para que puedan navegar por sus interfaces basándose en dónde miran y con movimientos intuitivos de las manos. Por cierto, hemos mejorado el seguimiento de manos en visionOS 26 para que sea hasta tres veces más rápido que antes, con una velocidad actual de 90 hercios, lo que hace que las apps y los juegos respondan aún mejor, sin necesidad de modificar el código. Simplemente está integrado porque funciona a esta velocidad.
Agregamos una forma de navegar por el contenido web y en sus apps, usando solo sus ojos, lo llamamos “desplazarse con la mirada”. Es solo una mejora agradable, una interacción muy sencilla que funciona junto con el desplazamiento con las manos, y que también pueden adoptar en sus apps, con API en SwiftUI y UIKit.
visionOS también es compatible con teclados y trackpads Bluetooth, en caso de que ese tipo de entrada sea adecuado para su uso, y también con controles de videojuegos, que pueden ser apropiados. Quizás necesiten joysticks, botones y un D-pad, o quizás estén trayendo un juego de otra plataforma y ya hayan diseñado toda la jugabilidad en torno a la entrada del control.
Pero ahora, en visionOS 26, hemos agregado otra opción: los accesorios espaciales. Ofrecen un control más preciso con seis grados de libertad, botones táctiles y respuesta háptica y agregamos compatibilidad con dos nuevos accesorios espaciales a través de Game Controller.
El primero de ellos, que pueden ver aquí, es el control PlayStation VR 2 Sense de Sony. Por supuesto, son ideales para juegos de alto rendimiento y otras experiencias totalmente envolventes. Tiene botones, joysticks, un gatillo, pero lo más importante es que rastrea su posición y orientación en el espacio mundial en seis grados de libertad.
El otro accesorio nuevo es el Logitech Muse, ideal para tareas que requieren precisión, como dibujar y esculpir. Cuenta con 4 sensores que permiten una entrada variable en la punta y el botón lateral, así como respuesta háptica. Aquí tienen un ejemplo. Esto es Spatial Analog, de Spatial Inc. Es una herramienta de diseño colaborativo que funciona con modelos USD y otros recursos 3D, y aquí se está usando Muse para anotar las dimensiones de esta silla virtual.
Ahora bien, algo que se está aprovechando es la riqueza de los datos que provienen del accesorio, por lo que la posición y la rotación se rastrean usando una combinación de las cámaras integradas en Vision Pro y los sensores incorporados en los accesorios, y ARKit también brinda acceso a datos adicionales, como qué mano sostiene el accesorio, la velocidad del accesorio a medida que se mueve en el espacio mundial y sus movimientos rotacionales.
Ahora, un accesorio espacial también puede tener respuesta háptica, lo que es un excelente mecanismo de respuesta. Hace que las interacciones se sientan muy realistas.
Otra cosa que cabe destacar es que es posible anclar contenido virtual a los propios accesorios utilizando la entidad de anclaje en RealityKit. En un juego, por ejemplo, podrían tener una pieza que se pueda fijar al mango de un control mientras alguien la mueve de un lugar a otro, y aquí tienen un ejemplo de eso. Esto es Pickleball Pro o PicklePro, de Resolution Games. Están jugando al pickleball y han fijado una paleta virtual directamente en el mango del controlador, y la pelota también. Simplemente funciona increíblemente bien y el seguimiento posicional es muy, muy preciso.
Eso son los accesorios espaciales. Pueden admitir accesorios espaciales especiales para ofrecer a las personas un control más preciso sobre sus entradas y es estupendo si pueden proporcionar una respuesta háptica que los jugadores y otras personas sientan estas interacciones virtuales. Y todo esto es compatible con la estructura Game Controller, junto con RealityKit y ARKit.
A continuación, hablemos de los medios envolventes y me gustaría empezar por las fotos. visionOS ahora puede presentar fotos y otras imágenes 2D de una forma nueva. Las llamamos escenas espaciales. Las escenas espaciales son imágenes en 3D con profundidad real. Se generan a partir de una imagen 2D como esta. Hay una especie de versión en diorama de la foto con paralaje de movimiento para acentuar la profundidad espacial de las escenas a medida que se mueve la cabeza.
Aquí hay un ejemplo real de Zillow. Así que estas son solo fotos normales tomadas por agentes inmobiliarios y muestran cómo este efecto se puede aplicar a cualquier imagen, fotografías, imágenes que se encuentran en Internet, viejas Polaroids, lo que sea, y realmente da la sensación de que estas imágenes tienen profundidad estereoscópica. Bien, esas son las escenas espaciales.
Ahora, en cuanto al video, Vision Pro ofrece un espectro completo o es compatible con una amplia gama de formatos multimedia. Esto incluye video 2D, películas estereoscópicas en 3D, videos espaciales y Apple Immersive Video, y con visionOS 26, incorporamos compatibilidad con tres tipos de medios adicionales para videos de 180, 360 y campo de visión amplio. Todo esto ahora proporciona este completo conjunto de opciones para medios envolventes, pero también significa que ustedes, como desarrolladores, tienen muchos formatos diferentes y diferentes tipos de experiencias para sus apps.
Para ofrecer soporte, hemos presentado un nuevo perfil de película QuickTime llamado Apple Projected Media Profile o APMP. APMP usa los metadatos de los archivos de video para identificar qué tipo de medio representan y, a continuación, indica una proyección de ese contenido al reproductor de video. Permítanme mostrarles un ejemplo para ilustrar este concepto. Aquí a la izquierda, hay algunos medios con un amplio campo de visión capturados con una cámara de acción.
Se puede observar que, solo con la imagen fija del fotograma, se aprecia cierta curvatura debido al lente ojo de pez, que proporciona un campo de visión más amplio. Ahora voy a ponerlos en marcha.
A la derecha, APMP está habilitando estructuras multimedia para proyectar ese video en una superficie curva con los ojos del espectador situados en el centro. Y como la curva coincide con el perfil del lente, básicamente elimina el efecto ojo de pez. Así que, dentro del Vision Pro, los espectadores, verán las líneas rectas como rectas, pero también en los laterales de la imagen.
Bien. Así que APMP tiene muchas utilidades y, para dar soporte a ello, hemos agregado la conversión automática a APMP desde cámaras que graban en 180 y 360 grados y con un amplio campo de visión de Canon. Tenemos estas GoPros, las Insta 360 y muchas otras.
Ya hay mucho contenido de 180 y 360 grados disponible, por lo que actualizamos la herramienta de línea de comandos de conversión AV en macOS para que admita la conversión de 180 y 360 grados a APMP.
Quiero retroceder un momento para mencionar Apple Immersive Video. Apple Immersive Video es un formato diseñado para Apple Vision Pro que usa video 8K en 3D de 180 grados con audio espacial para crear una experiencia visual profundamente envolvente. Ahora, en visionOS 26, ofrecemos Apple Immersive Video a desarrolladores y creadores de contenido.
Así es como sería el proceso para un creador de contenido hoy en día: capturar video envolvente de Apple usando la cámara envolvente URSA Cine de Black Magic, que es una cámara increíble, y luego editar y gradar en DaVinci Resolve. Pueden previsualizar y validar usando la utilidad Apple Immersive Video que está disponible en el App Store. Y a partir de ahí depende de su destino, pero supongamos que están haciendo streaming, pueden crear segmentos y crear un compresor, por ejemplo, para su distribución a través de HTTP Live Streaming.
Para los desarrolladores de apps profesionales creen sus propias herramientas para Apple Immersive Video, hay una estructura en macOS y visionOS: Immersive Media Support. Solo les permite leer y escribir contenido envolvente mediante programación, y tenemos un excelente código de muestra, llamado Authoring Apple Immersive Video, que puede ayudarles a empezar.
Con suerte, todo esto conducirá a la reproducción, tal vez en sus propias apps, de modo que Apple Immersive Video ahora se pueda reproducir en visionOS 26 con todas las estructuras de reproducción multimedia, como RealityKit, AVKit, Quick Look, WebKit, etc. para integrarlo en cualquier tipo de experiencia que estén creando aquí.
Esos son los medios envolventes: las escenas espaciales para fotos en 2D con profundidad y paralaje reales. Luego mencioné el nuevo perfil APMP y sus herramientas de conversión. Los creadores y desarrolladores de apps profesionales pueden sumergirse en Apple Immerse Video para ofrecer la mejor experiencia cinematográfica a los destinatarios.
Ahora vamos a ver las novedades sobre cómo compartir y colaborar. Uno de los pilares de la computación espacial es la capacidad de conectar a las personas, y una de las formas en que lo hacemos es con Spatial Personas. Por lo tanto, Spatial Personas son su representación espacial auténtica cuando usan un Vision Pro, de modo que otras personas puedan ver sus expresiones faciales y los movimientos de sus manos en tiempo real. Ahora, en visionOS 26, Spatial Personas ha superado la fase beta y presenta numerosas mejoras en aspectos como el cabello, la tez, las expresiones, la representación y mucho más.
Además, en visionOS 26 hemos ampliado SharePlay y FaceTime con la capacidad “compartir ventana con dispositivos cercanos”. Esta funcionalidad les permite a las personas ubicadas en el mismo espacio físico compartir una app e interactuar con ella de manera conjunta. Esta app se llama Defenderella. Es un juego de Rock Paper Reality: un juego multijugador de defensa de torres que cobra vida, justo ahí, en su espacio. Es muy divertido jugar con otras personas que están cerca.
Todo esto comienza con una nueva forma de compartir apps. Ahora, cada ventana tiene un botón para compartir junto a la barra de la ventana que abre esta ventana para compartir y, al tocarlo, se muestran las personas cercanas y se puede empezar a compartir fácilmente con ellas.
Y luego, cuando alguien comience a compartir, el sistema se asegurará de que su app aparezca en el mismo lugar para todos los que estén allí, con el mismo tamaño, y como la app está justo ahí con ustedes en su espacio, pueden tener una conversación, pueden señalar cosas, pueden interactuar con la app como si fuera un objeto físico que está ahí mismo en su habitación, y las personas incluso pueden intercambiar contenido.
Cualquiera que esté involucrado puede interactuar con la ventana compartida, moverla, cambiar su tamaño, incluso puede tomarla y colocarla en una pared u otra superficie en el entorno compartido, es decir, en el mundo real. Si alguien mantiene presionada la Digital Crown para volver a centrarla, la app volverá a un lugar adecuado para todos. Si alguien señala algo y termina ocultando la ventana virtual, el contenido se desvanecerá para garantizar que esa persona siga siendo visible para los demás.
Incluso pueden permitir que… digamos que es una app de muebles, incluso puedan permitir que las personas coloquen contenido mientras mantienen su contexto compartido, así que esto se hace con algo llamado anclajes de mundo compartido, por ejemplo, si tuvieran una app en la que colocan muebles virtuales en la habitación, aparecerán en el mismo lugar para todos los participantes cercanos.
Este contexto compartido no es solo para las personas que se encuentran en la misma habitación, sino que se puede invitar a participantes remotos a través de FaceTime, y si están usando Vision Pro, aparecerán como Spatial Personas.
Hay que mencionar también que, dado que el Apple Vision Pro forma parte de nuestro ecosistema general de Apple, es muy fácil crear experiencias colaborativas entre dispositivos. Déjenme mostrarles un ejemplo. Esto es Demeo, un juego cooperativo de mazmorras de Resolution Games, y es muy divertido jugar con un grupo. Una de las jugadoras está teniendo una experiencia envolvente usando un Vision Pro y su mano y sus amistades se han unido a la diversión en un iPad y desde una Mac.
Una experiencia increíble. Eso es todo por ahora en cuanto a SharePlay y cómo compartir ventana con dispositivos cercanos. Cuando incorporen SharePlay a su app, primero tengan en cuenta algunos consejos para asegurarse de que están diseñando la experiencia para los participantes cercanos y remotos. Además, creen su app teniendo en cuenta las Spatial Personas y piensen en experiencias que permitan a las personas conectarse a través de las plataformas de Apple.
Muy bien, y ahora mi sección final. El año pasado presentamos las primeras API empresariales para visionOS. Se trataba de cosas como el acceso a la cámara principal. Hay escaneo de códigos de barras, hay un margen de rendimiento adicional, etc. y desde entonces, ese equipo ha estado trabajando muy duro para ofrecer aún más capacidades a los desarrolladores empresariales. Estas son algunas de las novedades de visionOS 26 para los desarrolladores empresariales. Hay que mencionar que estas funcionalidades ofrecen un acceso más profundo al dispositivo. El acceso a las API se controla mediante un derecho y una licencia que se vinculan a su cuenta de desarrollador. Repasemos las opciones, empezando por un mayor acceso a las cámaras. Antes, una app empresarial autorizada podía acceder a la transmisión de video de la cámara principal del lado izquierdo, la del ojo izquierdo, pero ahora ampliamos este acceso a las cámaras izquierda o derecha, o a ambas, para el procesamiento y análisis estereoscópico. Si ya lo conocen, se trata del proveedor de marcos de cámara de la API que se encuentra en ARKit. Antes mencioné que las apps ahora tienen acceso al Neural Engine, así que pueden imaginarse juntar todo esto y ejecutar la transmisión de la cámara a través de su propio modelo personalizado de aprendizaje automático, que luego se ejecuta en el Neural Engine.
Otra novedad de visionOS 26 es una nueva funcionalidad que permite a las personas seleccionar un área específica dentro de su visión del mundo real y obtener una transmisión de video dedicada a esa área en su ventana. Es una nueva vista de SwiftUI y la llamamos vista de región de cámara. Así que aquí tenemos un ejemplo. Voy a colocar una ventana sobre un área en la parte inferior izquierda que quiero capturar, sobre ese manómetro y ahora puedo vigilarlo mientras hago otras cosas o puedo compartir esta transmisión de video con un participante remoto.
Hablando de compartir, hace un momento he hablado de las experiencias con SharePlay, pero algunas empresas no están utilizando FaceTime ni SharePlay, quizá porque tienen redes personalizadas u otros requisitos, por lo que hemos presentado nuevas API en ARKit para establecer un espacio de coordenadas compartido con personas que se encuentran en el mismo espacio. Se llama proveedor de espacio de coordenadas compartidas. Lo que esto hace es permitir ahora que varios participantes alineen sus sistemas de coordenadas e intercambien datos de colaboración y puntos de referencia mundiales a través de su red local. Es simplemente una excelente manera de colaborar en proyectos.
Otro es el modo de seguimiento de ventana. A veces, cuando están trabajando en una tarea, deben moverse, pero tal vez necesiten hacerlo mientras vigilan un panel de control o consultan un conjunto de instrucciones de reparación, o cualquiera que sea el caso, tal vez instrucciones de capacitación.
Y con el modo de seguimiento es posible, ya que permite a las personas elegir una ventana que permanecerá con ellas mientras se desplazan. Por cierto, no es necesario que caminen cuando lo hagan, basta con moverse un poco y se mantendrá en su sitio.
El último punto que tengo trata sobre la privacidad de los datos. Muchas apps empresariales manejan información confidencial, como datos financieros, registros de pacientes u otra información privada, y no quieren que esa información se grabe o sea visible si alguien comparte su pantalla. Ahora las apps pueden ocultar el contenido de una vista de las capturas y durante la duplicación de pantalla, etc. usando el contenido, la vista contentCaptureProtected, que es un modificador de vista para SwiftUI. Ese contenido sigue siendo perfectamente visible para la persona que lleva puesto el dispositivo, pero se restringe su captura de pantalla, grabación y vistas reflejadas y otras vistas compartidas.
Todas estas funcionalidades se unen a nuestra flota de API empresariales, lo que les permite crear soluciones empresariales y experiencias espaciales aún más potentes para sus apps internas.
Y con esto termino. Estas son algunas de las nuevas capacidades que incorporará visionOS 26. Repito: he cubierto muchos temas aquí, pero ha sido muy superficial y hay muchas, muchas más funcionalidades y API que pueden explorar. Muchas de ellas aparecen en los videos de las sesiones, así que no se pierdan los videos que publicamos desde la WWDC. Además, este año hemos publicado una gran cantidad de código de ejemplo nuevo para visionOS, que pueden descargar en developer.apple.com. Muy bien, y con eso, volvamos con Leah. Gracias.
Gracias.
Vaya, hay tantas actualizaciones interesantes para visionOS. Gracias a todos por acompañarnos y repasar las novedades más importantes de la WWDC. Hemos cubierto muchos temas hoy. Comenzamos con una descripción general del nuevo sistema de diseño y cómo usar Liquid Glass de manera inteligente en sus apps para que se adapten perfectamente a iOS 26 y macOS Tahoe. También explicamos por qué desarrollar con estructuras de IU nativas como SwiftUI, UIKit y AppKit facilita aprovechar las ventajas del nuevo diseño, aportando una interfaz limpia y coherencia en todas las plataformas.
Luego nos sumergimos en las novedades de Apple Intelligence. Pueden empezar a usar funcionalidades basadas en IA, como Herramientas de Escritura o Images Playground, aprovechar los modelos básicos del dispositivo, ampliar el alcance de su app con App Intents o aprovechar la potencia del chip de Apple con sus propios modelos.
Por último, exploramos visionOS 26. Las nuevas funcionalidades volumétricas de SwiftUI hacen que las apps sean aún más envolventes, y hay nuevas formas de crear experiencias colaborativas usando SharePlay, formatos multimedia envolventes para crear experiencias visuales increíbles y formas de controlar el Apple Vision Pro con accesorios. Como mencioné anteriormente, estos temas son solo la punta del iceberg. Si quieren profundizar en algunos de los temas tratados hoy o explorar otros que no hemos tenido oportunidad de abordar, el sitio web para desarrolladores de Apple ofrece abundante documentación, videos y código de ejemplo.
Hoy también enviaremos un correo electrónico con enlaces a recursos sobre todo lo que hemos hablado hoy para que puedan aprender más y profundizar sobre estos temas. El equipo de Worldwide Developer Relations está entusiasmado por poder colaborar con todos ustedes durante este verano y otoño, y nos complace ayudarlos a adoptar estos nuevos sistemas y tecnologías en sus apps. Para más detalles sobre las próximas oportunidades para reunirse con nosotros, consulten los boletines Meet with Apple y Hello Developer, y visítenos en la app para desarrolladores y en el sitio web. Y a los que están en línea, muchas gracias por participar hoy, y esperamos tener la oportunidad de volver a verlos, ya sea aquí en el centro para desarrolladores o en línea. Y para todos los que están aquí en Cupertino, acompáñennos en el vestíbulo para tomar un refrigerio y conversar con los ingenieros y diseñadores de Apple. Gracias a todos por participar. Quiero ver qué crean en el futuro.
-