
-
Explore as principais atualizações da WWDC25
Descubra os principais recursos anunciados na WWDC25 nesta nova sessão gravada ao vivo no Apple Developer Center em Cupertino. Este vídeo é destinado a todos os membros da sua equipe, incluindo designers, desenvolvedores e gerentes de produto.
Capítulos
- 0:03:10 - Agenda
- 0:04:03 - The new design system
- 0:19:16 - Build with the new design
- 0:39:53 - Machine learning and Apple Intelligence
- 1:09:03 - What's new in visionOS
Recursos
Vídeos relacionados
WWDC25
- Conheça o framework Foundation Models
- Conheça o layout espacial do SwiftUI
- Conheça o Liquid Glass
- Conheça o novo visual dos ícones de apps
- Conheça os frameworks de aprendizado de máquina e IA nas plataformas Apple
- Crie um app do AppKit com o novo design
- Crie um app do UIKit com o novo design
- Crie um app em SwiftUI com o novo design
- Explore a entrada de acessórios espaciais no visionOS
- Explore experiências de vídeo para o visionOS
- Introdução ao MLX para Apple Silicon
- Novidades do visionOS 26
- Novidades dos widgets
-
Buscar neste vídeo...
Olá. Obrigada. Começamos bem o dia. Olá! Boas-vindas ao Apple Developer Center em Cupertino. Meu nome é Leah. Eu sou Technology Evangelist na Apple. Hoje, estamos animados para falar sobre alguns dos maiores anúncios da WWDC. Como podem imaginar, há muita coisa para compartilhar.
Antes, quero falar mais sobre onde estamos.
O Developer Center faz parte do Apple Park e é um ótimo lugar para o evento de hoje, com várias áreas para colaborar e conhecer pessoas.
Este teatro é o Big Sur. É um espaço moderno criado para a realização de diversas atividades, incluindo apresentações presenciais, gravações e transmissões ao vivo.
Há também laboratórios, salas de reunião e salas de conferência para realizar atividades como esta e muito mais.
Este é um dos 4 centros ao redor do mundo, onde reunimos designers e desenvolvedores para sessões, atividades práticas e workshops. Alguém já esteve em um desses centros? Legal. Bem-vindos de volta. Se esta for a sua primeira vez, estamos muito felizes em receber você.
Há também muitas pessoas assistindo online agora. Olá! Obrigada por assistirem.
Agora, quero preparar o terreno para as apresentações de hoje. A WWDC deste ano estava repleta de anúncios incríveis. Estamos reunindo desenvolvedores de todo o mundo, em 28 cidades, para revisar as principais atualizações.
Na WWDC, lançamos mais de 100 vídeos com as últimas novidades e melhores práticas para todas as plataformas. Como pode imaginar, temos muita coisa para explorar.
Então, nas próximas 2 horas, vamos revisar as atualizações mais importantes para que você ficar por dentro das novidades. Com isso, esperamos que você se inspire a ter suas próprias ideias e escolha no que quer se aprofundar por meio dos vídeos e documentação.
Minha equipe está animada para começar a apresentação. Antes disso, tenho alguns avisos para quem está no teatro. Caso ainda não saiba, é fácil ficar conectado o dia todo com a rede AppleWiFi. Se você precisar recarregar seus dispositivos, há portas de alimentação sob cada assento, na frente dos apoios de braço.
Se estiver assistindo online, estas apresentações foram pensadas para ser uma experiência especial, então não grave vídeos ou faça transmissões ao vivo. No entanto, você pode tirar fotos durante o evento. Enviaremos informações complementares assim que o evento terminar para que você não perca nada.
Dito isso, temos uma agenda completa para revisar as novidades da WWDC, incluindo o novo sistema de design, a Apple Intelligence e o aprendizado de máquina e o visionOS.
Chegamos finalmente ao momento que todos estavam esperando: vamos conferir a agenda. Preparamos muitas apresentações excelentes.
Majo e Curt falarão sobre as principais atualizações do novo sistema de design.
Em seguida, Shashank revisará as novidades do aprendizado de máquina e da Apple Intelligence.
Depois, vamos fazer uma pausa rápida para você tomar um café, falar com desenvolvedores ou se alongar. Por fim, Allan compartilhará as novidades da computação espacial para o visionOS. Depois disso, teremos um evento social para os participantes que estiverem aqui em Cupertino beliscarem algo e conversarem com engenheiros e designers da Apple. Vai ser muito divertido.
Agora que sabemos a agenda, vamos dar as boas-vindas à Majo, que falará sobre o novo sistema de design.
Olá! Agradeço sua participação online ou presencial. Meu nome é Majo. Sou designer na equipe Evangelism. Estou animada para dar uma visão geral do novo sistema de design e das possibilidades incríveis que ele oferece aos seus apps.
Mais tarde, meu colega Curt dará detalhes sobre a implementação dele.
Na WWDC25, anunciamos uma grande evolução na aparência e experiência do software da Apple.
Esta é uma nova linguagem de design harmoniosa que é mais coesa, adaptável e expressiva.
Desde a aparência totalmente reformulada dos ícones dos apps até os controles, a estrutura e o layout dos apps.
Essas atualizações proporcionam uma linguagem de design unificada para seus apps em várias plataformas. Você terá os novos visuais, assim que recompilar seu app com o novo SDK.
Hoje, vou dar uma visão geral do Liquid Glass,
atualizações de alguns componentes importantes no sistema e
vou mostrar como adotar essa nova aparência no ícone do seu app.
No centro dessas atualizações, há um novo material adaptável para controles e elementos de navegação chamado Liquid Glass.
Esse novo conjunto de materiais se curva, se molda e concentra a luz de forma dinâmica em tempo real.
Ao modelar a luz desse modo, os controles ficam quase transparentes, mas ainda são distintos.
Ao mesmo tempo, o material se comporta e se move organicamente, parecendo um líquido leve que responde fluidamente ao toque,
fazendo com que as transições entre as seções sejam naturais conforme os controles mudam de forma.
Ao mostrar um menu, o botão abre com uma transição que comunica uma relação muito clara e direta entre ele e as suas respectivas opções.
De modo semelhante, os elementos podem até flutuar como Liquid Glass conforme você interage com o controle, permitindo que você observe o valor por baixo dele.
Existem dois tipos de Liquid Glass: translúcido e regular.
O Liquid Glass translúcido é sempre transparente, permitindo ver o conteúdo abaixo dele e interagir com o vidro de maneiras incríveis.
Para que símbolos e rótulos sejam legíveis, é necessária uma camada de escurecimento sobre o conteúdo de fundo.
Há também o Liquid Glass regular. Esse é o tipo que você mais vai usar. Ele é muito adaptável e garante a legibilidade em diferentes condições.
O Liquid Glass regular detecta se o fundo está claro ou escuro, então o painel e os ícones sobre ele ajustam os modos para manter a visibilidade. Esse comportamento acontece automaticamente ao usar o estilo regular e é independente dos modos claro e escuro.
Para usar o Liquid Glass no seu app sem perder a identidade visual da marca, utilize os componentes comuns do sistema.
Como as barras de abas, para navegar entre as seções de nível superior do app,
as barras de ferramentas, para agrupar ações e facilitar a navegação na tela,
e as folhas, para exibir conteúdo ou ações simples de forma modal ou não modal.
Vou começar pelas barras de abas. Elas fornecem uma visão geral rápida do seu app, permitindo a navegação entre as diferentes seções, e como estão sempre visíveis, é fácil acessá-las a qualquer momento.
Elas foram reformuladas com o Liquid Glass, para flutuar sobre o conteúdo do app, guiando a navegação.
Elas são translúcidas e podem ser configuradas para minimizar e expandir novamente durante a rolagem, permitindo que o conteúdo se destaque sem perder a noção de contexto.
Se for atualizar uma barra de abas existente, há alguns novos recursos que você pode aproveitar.
Por exemplo, a nova aba de busca, que é uma aba exclusiva para facilitar o acesso à busca e que está sempre disponível em todas as partes do seu app.
A barra de abas também pode exibir uma visualização acessória, como o mini player do app Música.
O sistema o exibe acima da barra de abas, combinando com sua aparência. Quando a barra é minimizada ao rolar, a visualização acessória vai para baixo de modo alinhado, exibindo mais conteúdo.
A visualização acessória fica visível em todo o seu app, então evite usá-la para ações específicas da tela. Misturar elementos de diferentes partes do app pode deixar a hierarquia confusa e dificultar a distinção entre elementos persistentes e contextuais.
Em vez disso, mantenha-os junto com o conteúdo ao qual está associado.
Curt explicará, depois, como incluir essas atualizações na barra de abas.
Agora, as barras de ferramentas. Elas oferecem acesso prático a controles usados com frequência, dispostos na parte superior ou inferior da tela. Elas também facilitam o acesso à navegação e ajudam as pessoas a se orientarem, enquanto o Liquid Glass garante que o conteúdo continue sendo o foco.
Para garantir a compreensão rápida das ações na barra de ferramentas, use símbolos fáceis de reconhecer em vez de texto.
No novo design, controles relacionados que usam símbolos compartilham o mesmo fundo.
Evite usar símbolos para ações como editar ou selecionar, que não são representadas facilmente com ícones.
Se a sua barra de ferramentas tem controles com texto e símbolos, é recomendável que eles fiquem separados para evitar confusão ou associações não intencionais.
Se a barra tiver elementos demais, aproveite para simplificar, priorizar e agrupar ações.
Para elementos secundários, use um menu Mais, representado por um símbolo de reticências.
Esses ajustes deixam a interface mais previsível e prática.
A implementação do Liquid Glass exigiu um novo tipo de tratamento visual chamado efeito de borda de rolagem. No app Mail no iOS, o conteúdo rola sob a barra de ferramentas em Liquid Glass. O tratamento deixa os botões sobre o conteúdo para que permaneçam visíveis.
Inclua-o no seu app, nas partes que têm controles flutuantes em Liquid Glass.
Porém, se o seu app tem várias ações na barra de ferramentas, é melhor usar um estilo rígido. Ele cria uma separação mais clara da área de conteúdo, aumentando a legibilidade. Ele costuma ser usado em apps para iPadOS e macOS.
As cores podem melhorar a comunicação e evocar sua marca. No entanto, cores em excesso ou nos lugares errados podem gerar ruído visual. Vou dar uma visão geral de como e onde usar cores no Liquid Glass
Use cores com moderação e consistência. Use-as apenas nas ações principais que precisam de ênfase e evite adicioná-las só para evocar sua marca.
Por exemplo, uma preocupação comum é como lidar com fundos coloridos. Colorir cada botão de Liquid Glass pode gerar distrações, desviando a atenção do conteúdo.
Em vez disso, faça as cores da sua marca se destacarem onde importa: na área de conteúdo. Essa abordagem permite que seu app continue expressando sua personalidade sem chamar a atenção para a barra de ferramentas.
Por fim, ao colorir o Liquid Glass, use a coloração integrada. Ela gera diversos tons que mudam de matiz, brilho e saturação dependendo do conteúdo por trás, sem desviar muito da cor pretendida.
E se adapta a recursos de acessibilidade, como transparência reduzida. Ela deixa o Liquid Glass mais fosco e faz o conteúdo... e oculta mais o conteúdo por trás. Também tem um maior contraste. Destaca elementos adicionando uma borda contrastante.
Mostrei vários exemplos de como o Liquid Glass está mudando o modo como interagimos e navegamos nos apps. Outra peça-chave disso são as folhas. Elas são usadas para solicitar informações específicas ou apresentar uma tarefa simples. Elas também foram cuidadosamente reformuladas para usar o Liquid Glass.
Uma folha redimensionável se expande com base em pontos de retenção, que são alturas específicas em que a folha repousa naturalmente. Nas alturas pequenas e médias, elas usam um novo recuo com aparência de vidro flutuante, preservando o contexto.
Na altura total, as folhas se expandem, e o material de vidro dá lugar a um material mais opaco, proporcionando uma experiência focada compatível com o maior nível de engajamento das pessoas. Curt vai explicar como incluir esse comportamento em seus apps.
Do ponto de vista da usabilidade, ao trabalhar com folhas, mostre a alça somente quando a folha tiver vários pontos de retenção, pois isso indica que ela pode ser redimensionada. E use um botão explícito para indicar como fechá-la, mesmo que ela aceite o gesto de descartar.
Estes componentes foram reformulados para o novo sistema de design, Liquid Glass e para se alinharem de forma concêntrica aos cantos dos dispositivos da Apple, transmitindo uma relação sutil entre hardware e software.
É importante que o seu sistema de design e o design visual estejam também em harmonia com o Liquid Glass.
Por exemplo, se o seu sistema de design tiver cantos que pareçam desajustados, é provável que o formato deles precise ser concêntrico. Isso é muito comum em contêineres aninhados, como artes em um cartão. Isso pode criar tensão ou atrapalhar a sensação de equilíbrio. A parte boa é que o sistema calcula automaticamente o raio interno relativo aos contêineres e ao dispositivo, criando uma integração perfeita. Curt abordará isso em mais detalhes.
Por último, a sensação de harmonia, a dimensão e a fluidez do Liquid Glass também foi incorporada aos ícones de apps no Mac, iPad, iPhone, Apple Watch e CarPlay.
Os ícones do sistema foram redesenhados para aproveitar ao máximo a nova linguagem e seus novos recursos dinâmicos.
Eles são compostos por camadas empilhadas de um material Liquid Glass especificamente criado para ícones de apps, criando um design verdadeiramente tridimensional.
O material se adapta automaticamente a todos os modos de aparência, como os modos claro e escuro. E há uma variedade de novos modos de aparência que usam o Liquid Glass. Um vidro monocromático disponível em versão clara e também escura. Por último, há novos modos de tonalidade. Uma tonalidade escura que adiciona cor ao primeiro plano, e uma tonalidade clara, na qual a cor é infundida no plano de fundo.
Para criar esses ícones de apps expressivos e dimensionais em diferentes aparências e plataformas, use a nova ferramenta Icon Composer. Ela foi projetada para se encaixar no seu fluxo de trabalho atual e se integrar às suas ferramentas de design. Ela permite ver uma prévia e testar todos esses novos materiais e efeitos.
E é assim que você começa a usar o novo sistema de design e o Liquid Glass. Todos esses recursos são integrados, permitindo que você deixe a experiência em seus apps mais orgânica, imersiva e fluida. Estou animada para chamar o Curt ao palco para mostrar como é fácil implementar os recursos e fazer seu app se destacar com o novo design. Obrigada! Fiquem com o Curt.
Obrigado, Majo.
Olá! Eu sou o Curt. Sou Technology Evangelist na equipe Developer Relations na Apple e estou animado para mostrar como você pode incluir o novo design em seus apps. Vou reforçar os pontos que a Majo abordou e demonstrar como fazer o novo design ganhar vida em seu código. Como exemplo, vou usar o Landmarks, um projeto de amostra disponível no site Apple Developer. Aqui está ele no Mac, iPad e iPhone. Ao compilar seu app com os SDKs do Xcode 26, você já perceberá mudanças em toda a interface. Muitas dessas melhorias estão disponíveis automaticamente. Vou descrevê-las e falar sobre algumas novas APIs no iOS 26 e macOS Tahoe que permitem personalizar ainda mais a experiência. Todos os meus exemplos usarão o SwiftUI, mas há APIs paralelas no UIKit e no AppKit. Começarei pelas atualizações em componentes estruturais, como abas e barras laterais. Depois, abordarei a nova aparência e comportamento das barras de ferramentas e compartilharei novidades sobre a experiência de busca.
Em seguida, falarei sobre como os controles ganham vida com o Liquid Glass. Encerrarei o tópico do novo design descrevendo como adotar o Liquid Glass em seus elementos de interface. Por fim, vou destacar algumas mudanças importantes no iPadOS 26.
Vou começar pela estrutura do app.
A estrutura do app refere-se aos modos pelos quais as pessoas navegam em seu app, como abas, barras laterais e folhas. Todas elas foram aprimoradas para o novo design. As barras laterais permitem a navegação por uma hierarquia de muitas categorias de rota possíveis. No macOS Tahoe e iPadOS 26, as barras laterais são de Liquid Glass e flutuam acima do conteúdo. O comportamento é o mesmo nas duas plataformas, mas vou mostrar os detalhes no Mac. No app Landmarks, as flores rosa e a areia na área de conteúdo se refletem na barra lateral. Mas o banner principal termina de forma abrupta bem na borda da barra lateral. Posicionar o conteúdo sob a barra lateral, por sua vez, permitiria que o Liquid Glass refletisse ainda mais as belas cores do banner.
Para isso, inclua o novo modificador de efeito de extensão do fundo. Isso amplia a visualização para fora da área segura sem cortar o conteúdo. Vou ocultar a barra lateral para mostrar o que está acontecendo atrás. A imagem é, na verdade, espelhada e desfocada, estendendo as cores da imagem sob a barra lateral, enquanto deixa todo o conteúdo visível.
A visualização de abas oferece uma navegação persistente de nível superior e é mais adequada para um número reduzido de seções principais, geralmente 5 ou menos.
No novo design, a barra de abas do iPhone flutua acima do conteúdo. Você pode configurá-la para que minimize ao rolar.
Para isso, adicione o modificador tabBarMinimizeBehavior à TabView existente. Com o argumento onScrollDown, a barra minimiza ao rolar para baixo e se expande novamente ao rolar para cima.
Como a Majo disse, você pode adicionar visualizações acima da barra de abas. Use essa opção para visualizações que você deseja manter ao alcance, como a reprodução no app Música.
Inclua uma visualização acima da barra com o modificador tabViewBottomAccessory. Isso também aproveita o espaço liberado pelo comportamento de recolhimento da barra de abas.
Para lidar com esse recolhimento, basta ler
tabViewBottomAccessoryPlacement do ambiente e ajustar o conteúdo do seu acessório quando ele for ocultado na barra de abas.
Assim como faz com abas e barras laterais, o novo design aprimora automaticamente as folhas. No app Landmarks, criar uma coleção exibe uma folha de pontos de referência. No iOS 26, folhas com altura parcial usam um fundo de Liquid Glass por padrão. Em alturas menores, as bordas inferiores se retraem, aninhando-se nas bordas curvas da tela. Ao mudar para uma folha com altura total, o fundo de Liquid Glass muda de forma gradual, ficando opaco e se ancorando nas bordas da tela.
As folhas se expandem diretamente a partir dos botões que as abrem. Este é o código existente para exibir uma folha no app Landmarks. Há um botão toolbar para exibir a folha e um modificador sheet, que define o conteúdo da folha. Faço o conteúdo aparecer a partir do elemento de origem em apenas em 3 etapas. Etapa 1: incluo um Namespace para associar a folha e o botão. Etapa 2: marco o botão como a origem da transição. Etapa 3: marco que o conteúdo da folha tem uma transição de zoom. Este é o resultado.
Outros elementos, como pop-overs, alertas e menus, aparecem suavemente a partir dos controles de Liquid Glass, desviando o foco da ação para o conteúdo exibido. Esse comportamento é automático. No novo design, caixas de diálogo também são exibidas automaticamente a partir dos botões que as abrem. Basta anexar o modificador confirmationDialog ao botão de origem.
A seguir, as barras de ferramentas.
No novo design, os itens da barra de ferramentas flutuam sobre o app uma superfície Liquid Glass. Os itens se adaptam ao conteúdo abaixo deles e são agrupados automaticamente.
Quando compilei o app Landmarks com Xcode 26, os itens da barra de ferramentas foram agrupados separadamente do botão de voltar fornecido pelo sistema.
No app Landmarks, os botões Favorite e Add to collection são ações relacionadas.
Então, uso a nova API ToolbarSpacer com espaçamentos fixos para separá-los em seus próprios grupos. Isso oferece clareza visual, indicando que as ações do grupo estão relacionadas, enquanto ações separadas, como Share Link e Inspector Toggle, têm comportamentos distintos.
O ToolbarSpacer também pode criar um espaço flexível que se expande entre os itens da barra de ferramentas. O app Mail usa essa técnica para alinhar o item de filtro à esquerda e os itens de busca e composição à direita.
Essas melhorias na barra de ferramentas estão disponíveis no Mac, iPad e iPhone. O novo design também apresenta outras mudanças nas barras de ferramentas. O novo design usa uma paleta monocromática em mais lugares, inclusive na barras de ferramentas. Isso reduz o ruído visual, enfatiza o conteúdo do app e ajuda na legibilidade.
Aplique cores nos ícones com o modificador tint ou um estilo de botão proeminente, mas use cores com moderação. Como disse a Majo, aplique cores nos botões para transmitir significados como uma chamada para ação ou próxima etapa, e não apenas para fins de efeito visual ou branding.
No novo design, o efeito de borda de rolagem automático mantém os controles legíveis. É um efeito sutil de desfoque e esmaecimento aplicado ao conteúdo à medida que ele rola sob as barras.
Se o app tiver fundos extras ou efeitos de escurecimento sob os itens da barra, remova-os porque eles interferem nesse efeito.
Como a Majo disse, para interfaces com muitos elementos flutuantes, como o app Calendário, ajuste a nitidez do efeito com o modificador scrollEdgeEffectStyle, passando o estilo de borda sólida.
Falamos sobre as barras de ferramentas. Agora, vou falar sobre a busca. O novo design usa dois padrões principais de busca. O primeiro é a busca na barra. No iPhone, isso coloca o campo na parte inferior da tela para acesso fácil. No iPad e Mac, ele fica na parte superior direita da barra de ferramentas. O segundo padrão coloca a busca em uma aba dedicada em um app com várias abas. Vou mostrar como criar os dois padrões. No app Landmarks, coloquei a busca na barra de ferramentas. Escolha esse posicionamento no seu app quando as pessoas puderem acessar todo ou a maior parte do conteúdo fazendo buscas.
O campo de busca aparece em sua própria superfície de Liquid Glass. Tocar no campo aumenta o foco dele e exibe o teclado.
Para usar essa variante no Landmarks, adicionei o modificador searchable na NavigationSplitView existente.
Declarar o modificador aqui indica que a busca se aplica a toda a visualização, não apenas a uma de suas colunas.
No iPhone, essa variante se adapta automaticamente para mover o campo de busca para a parte inferior da tela.
Dependendo do tamanho do dispositivo e de outros fatores, o sistema pode optar por minimizar o campo para um botão, como este no Mail.
Quando toco no botão, um campo de busca completo aparece acima do teclado. Para optar explicitamente pelo comportamento minimizado, talvez porque a busca não seja uma parte principal da experiência no seu app, use o novo modificador searchToolbarBehavior.
Em apps com abas, a busca geralmente é feita em uma aba de busca dedicada.
Esse padrão é usado em apps em todas as plataformas Apple, por exemplo, no app Saúde, como a Majo mencionou.
Para fazer isso no seu app, adicione uma aba com a função de busca e coloque o modificador searchable na TabView. Agora, quando alguém seleciona essa aba, um campo de busca é acionado e o conteúdo da aba de busca é exibido. As pessoas podem interagir com as sugestões de navegação aqui ou tocar no campo de busca para abrir o teclado e buscar termos específicos.
No Mac e iPad, quando alguém seleciona a aba de busca, o campo de busca aparece centralizado, acima das sugestões de navegação do app.
Esses padrões oferecem maior flexibilidade e controle na experiência de busca em seu app.
O novo design atualiza a aparência e usabilidade, em todas as plataformas, de controles como botões, controles deslizantes, menus e outros. Além do efeito de Liquid Glass, o novo design deixa os controles mais semelhantes em todas as plataformas Apple, proporcionando uma experiência consistente em qualquer dispositivo.
Os botões com bordas agora têm formato de cápsula por padrão, mantendo os cantos curvos do novo design. Há uma exceção: os controles pequenos e médios no macOS mantêm a forma retangular arredondada, preservando a densidade horizontal.
Use o modificador buttonBorderShape para ajustar a forma de qualquer controle.
Com o novo design, os controles também têm tamanhos consistentes entre plataformas.
A maioria dos controles no macOS está um pouco mais alta, aumentando o espaço ao redor do rótulo do controle e aumentando o tamanho do alvo do clique. Se o seu layout for muito denso, por exemplo, ele tem um inspetor complexo, use o modificador controlSize para solicitar um tamanho menor.
Além de tamanhos e formas atualizados que padronizam os controles nas plataformas Apple, o novo design adiciona Liquid Glass aos botões do seu app com os novos estilos de botão glass e glassProminent.
O novo design traz consistência aos controles deslizantes no macOS, iOS e iPadOS. Em todas essas plataformas, os controles deslizantes agora aceitam valores discretos com marcações. Agora, você pode definir um ponto de partida arbitrário. Isso é útil para valores que as pessoas podem aumentar ou diminuir com base em um padrão central. Por exemplo, aumentar ou diminuir a velocidade no app de podcasts.
Os menus do iOS e macOS também estão de cara nova, e os novos ícones do macOS agora aparecem na borda esquerda dos menus. Como sempre, use um rótulo ou outro inicializador de controle padrão ao criar um menu. Agora, a mesma API oferece o mesmo resultado no iOS e macOS.
Além das atualizações nos controles, há novas APIs para atualizar seus controles para o novo design.
Os cantos de muitos controles do sistema estão alinhados dentro dos contêiners, seja a janela de origem no macOS ou a moldura do iPhone.
Como a Majo disse, isso é chamado de concentricidade de cantos. Adoro essa animação.
Para criar visualizações que mantenham concentricidade automática com o contêiner, use a forma de retângulo concêntrico. Passe a configuração containerConcentric para o parâmetro corner de um retângulo. A forma corresponderá automaticamente ao seu contêiner em diferentes telas e formatos de janela.
A melhor maneira de adotar o novo design é usar controles padrão, estruturas de app, posicionamentos de busca e barras de ferramentas.
Mas, às vezes, seu app pode precisar ser um pouco mais personalizado. Vou mostrar como criar elementos de Liquid Glass personalizados para seu app. O app Mapas é um bom caso de uso devido aos controles em Liquid Glass que flutuam sobre o conteúdo do mapa. Vou adicionar selos de Liquid Glass semelhantes ao app Landmarks para cada ponto que as pessoas visitam. Vou criar uma visualização de selo personalizada com o efeito de Liquid Glass.
Adicione o Liquid Glass a visualizações com o modificador glassEffect. O modificador glassEffect padrão coloca o conteúdo em uma forma de cápsula com o material Liquid Glass por baixo e efeitos de destaque por cima.
O texto dentro de um efeito de vidro usa automaticamente uma cor vibrante que se adapta para manter a legibilidade em fundos coloridos.
Personalize a forma do efeito de vidro incluindo uma forma no modificador.
Para visualizações importantes, modifique o vidro com uma cor. Como nos botões da barra de ferramentas, use cor para transmitir significado, e não só para efeito visual ou branding.
Assim como o texto em um efeito de vidro, Tint também usa uma cor vibrante que se adapta ao conteúdo atrás dele.
Em controles ou contêiners personalizados com elementos interativos no iOS, adicione o modificador interactive ao efeito de vidro.
Com ele, o Liquid Glass reage à interação mudando de tamanho, saltando levemente e cintilando, acompanhando o efeito usado pelos controles deslizantes e botões da barra.
Agora que tenho um selo personalizado, vou reunir vários selos para interagirem e se misturarem uns com os outros.
Para combinar vários elementos de Liquid Glass, use GlassEffectContainer. Esse agrupamento é essencial para a precisão visual e o desempenho. O material Liquid Glass reflete e refrata a luz, absorvendo as cores do conteúdo próximo. Ele faz isso por meio da amostragem do conteúdo ao redor.
Usar um contêiner de efeito de vidro permite que os elementos adjacentes compartilhem uma região de amostragem, o que evita interferências. Usar regiões de amostragem compartilhadas é crucial para o desempenho, pois minimiza as passagens de amostragem.
Além de controlar a amostragem, GlassEffectContainers também permite efeitos de transformação. No app Landmarks, estou usando o GlassEffectContainer para agrupar meus selos. Dentro do contêiner, mostro uma pilha de rótulos de selos quando o estado está expandido e tenho um botão para ativar e desativar esse estado. Quando toco nesse botão para expandir meus selos, vejo esta animação fluida de transformação.
Depois de criar o GlassEffectContainer, preciso seguir só 3 etapas para criar essa animação. Etapa 1: renderizo meus rótulos e botão usando Liquid Glass.
Etapa 2: declaro um Namespace local. Etapa 3: associo meus rótulos e botão a esse Namespace usando o modificador glassEffectID para que o sistema saiba que eles devem ficar juntos.
Agora, quando toco no botão novamente, os selos de prêmio são reabsorvidos lindamente.
O efeito Liquid Glass oferece um jeito excelente de destacar as funcionalidades que tornam seu app único. Depois dessa revisão dos recursos integrados ao novo design e das personalizações disponíveis, vamos conferir algumas outras mudanças incluídas no iPadOS 26.
O iPadOS 26 traz mudanças que deixam o iPad mais potente e versátil. Entre esses recursos está o novo sistema de disposição de janelas, que inclui um novo modo de redimensionar janelas. Os apps compatíveis com o redimensionamento mostram uma alça no canto inferior direito, exatamente como no visionOS. Arrastar a alça redimensionará o app para uma janela que flutua acima da imagem de fundo.
Antes, era possível evitar o redimensionamento de janelas. Seus apps para iPad talvez façam isso. Isso será descontinuado no iPadOS 26. A partir da próxima versão principal após o iPadOS 26, todos os apps deverão devem ser compatíveis com redimensionamento.
Além do redimensionamento, o iPadOS 26 também apresenta uma nova forma de multitarefa. Há algo importante para considerar em relação à multitarefa. No centro da multitarefa estão as cenas. Uma cena representa uma instância da interface do seu app. Por exemplo, o Mail permite abrir uma janela para cada caixa de correio, ajudando a manter a organização.
Cada caixa de correio aberta é exibida em sua própria cena.
Os apps baseados em SwiftUI são automaticamente compatíveis com cenas. Em apps baseados no UIKit, as cenas são opcionais desde que foram lançadas no iOS 13. No futuro, as cenas serão obrigatórias. Isso vale para o iPadOS, o iPhone e o Mac Catalyst. A partir da próxima versão principal após o iOS 26, só apps com suporte a cenas irão funcionar.
Uma distinção importante: embora o suporte a várias cenas seja incentivado, o único requisito é a adoção do ciclo de vida baseado em cenas.
Há um ótimo guia online para ajudar a incluir o suporte a cenas em apps.
Oferecer suporte ao redimensionamento e à multitarefa é uma ótima maneira de dar mais flexibilidade na forma como as pessoas interagem com seu app. Este é o momento perfeito para você aprimorar seu app para iPad para que seja mais flexível e se destaque na plataforma.
Majo, eu e todos os nossos colegas estamos animados para compartilhar esse novo capítulo do design da Apple. Mal podemos esperar para ver o que você irá criar com o Liquid Glass.
Em seguida, chamarei o meu colega Shashank para falar sobre as atualizações da Apple Intelligence. Shashank.
Obrigado!
Olá a todos. Meu nome é Shashank. Sou Technical Evangelist de AI/ML na Apple. Hoje, farei um tour rápido pelas novidades mais recentes do aprendizado de máquina e da Apple Intelligence que anunciamos na WWDC25. E mostrarei como você pode aproveitar esses recursos para deixar seus apps ainda mais inteligentes.
Vamos abordar 3 tópicos. Primeiro, darei uma visão geral dos recursos de inteligência integrados ao sistema operacional e como você pode usá-los por meio de frameworks do sistema. Depois, mostrarei como integrar melhor seus apps em todo o sistema. Por fim, explicarei como as ferramentas e APIs da Apple podem ajudar você a otimizar e a implantar modelos de aprendizado de máquina para execução no dispositivo.
Vamos começar pela visão geral. O ML e a Apple Intelligence são o pilar de muitos apps e recursos integrados em todos os sistemas operacionais da Apple. No ano passado, incluímos a inteligência generativa nos sistemas operacionais da Apple usando modelos de base que viabilizam a Apple Intelligence. Isso integrou as Ferramentas de Escrita, o Genmoji e o Image Playground, diretamente no sistema. Você pode integrar esses recursos em seus próprios apps. Por exemplo, se o seu app usa controles de texto do sistema, terá automaticamente suporte ao Genmoji. Você também pode usar as novas APIs para fazer um Genmoji aparecer no texto onde quiser.
No Image Playground, as pessoas podem gerar imagens com o chatGPT e explorar novos estilos, como pintura a óleo ou arte vetorial. O framework Image Playground permite exibir um modal do Image Playground no seu app, ou você pode criar imagens de modo programático com a API Image Creator.
Apps que usam frameworks padrão de interface para exibir textos já tem suporte às Ferramentas de Escrita. Com as Ferramentas de Escrita, é possível aprimorar a escrita reescrevendo, revisando ou resumindo textos, tudo em um só lugar. E essas ferramentas agora têm ainda mais recursos. No iOS, iPadOS e macOS 26, agora as pessoas podem interagir mais com as sugestões das Ferramentas de Escrita. Depois de reescrever o texto, você pode pedir para deixá-lo mais amigável, mais coloquial ou mais encorajador.
Embora as Ferramentas de Escrita apareçam onde é possível selecionar texto, se o seu app tiver muito texto, você pode facilitar o acesso com um botão na barra de ferramentas.
De modo semelhante, no menu de contexto, os itens das Ferramentas de Escrita são adicionados automaticamente. Se você usa um menu personalizado ou quer organizar os itens de modo diferente, use as APIs para obter itens padrão e colocá-los onde quiser. Na WWDC25, também expandimos a lista de idiomas com suporte da Apple Intelligence.
Muitos de vocês demonstraram interesse em acessar os modelos de linguagem por trás dos recursos da Apple Intelligence. Bem, tenho o prazer de informar que vocês têm acesso direto a eles usando o framework Foundation Models. O framework Foundation Models oferece acesso direto ao grande modelo de linguagem que viabiliza a Apple Intelligence por meio de uma API conveniente e robusta do Swift. Agora, você pode criar recursos avançados em seus apps. Por exemplo, você pode usar isso para aprimorar recursos existentes, como fazer sugestões de busca personalizadas.
Ou você pode criar experiências totalmente novas. Imagine gerar um itinerário em seu app de viagem, adaptado em tempo real.
Você pode até mesmo usá-lo para gerar diálogos para personagens em um jogo, tudo no dispositivo.
Isso é muito legal.
Como o framework é executado totalmente no dispositivo, os dados permanecem privados e não precisam ser enviados para outro lugar.
Esses recursos de IA estão à sua disposição e funcionam offline. Não é necessário configurar contas ou gerenciar chaves de API. Já está tudo pronto.
E o melhor de tudo: não há custo para você nem seus usuários ao fazerem quantas solicitações quiserem.
O mais importante é que tudo está integrado ao sistema operacional, sem impacto no tamanho do seu app.
O framework está disponível no macOS, iOS, iPadOS e visionOS e é executado nos hardwares e idiomas compatíveis com a Apple Intelligence. Então, vamos conferir mais detalhes do framework e saber como ele funciona. O framework Foundation Models dá acesso a um modelo com 3 bilhões de parâmetros, que é um modelo que roda no dispositivo e é otimizado para casos de uso no próprio dispositivo, como geração de conteúdo, resumos, classificações, diálogos e muito mais. Ele não foi projetado para conhecimento global ou tarefas de raciocínio avançado. Essas são tarefas para as quais vocês usaria um LLM em servidor. Vamos ver como isso funciona.
Você pode usar o framework Foundation Models para enviar um prompt para o grande modelo de linguagem no dispositivo, ou LLM. O modelo pode processar o prompt e gerar texto.
Exemplo: Você pode pedir para ele criar uma história infantil sobre uma raposa. O modelo responderá com uma história criativa e detalhada. Este é o mesmo modelo de uso geral que viabiliza recursos como as Ferramentas de Escrita em todo o sistema. Vamos voltar ao nosso exemplo de busca personalizada para saber como implementá-lo com o framework Foundation Models.
Acionar o modelo exige 3 linhas de código.
Primeiro, importamos o framework. Depois, criamos uma sessão do modelo de linguagem. Por último, enviamos o prompt ao modelo. O prompt pode vir de você ou da pessoa usando o app. Você pode até gerar prompts dinamicamente com base nas entradas do usuário. Depois de enviar o prompt, você recebe uma resposta. Por padrão, os modelos de linguagem geram resultados em linguagem natural não estruturada, como pode ver aqui. Eles são lidos facilmente por humanos, mas podem ser difíceis de mapear em visualizações personalizadas nos seus apps. Para resolver isso, o framework Foundation Models oferece geração guiada. Vamos ver como funciona.
Primeiro, especificamos como deve ser o resultado com struct.
Sugestões de busca são um struct simples contendo uma lista do tipo String. Agora, é mais fácil mapear essa lista em suas visualizações, mas ela ainda não está pronta.
Para esse struct, aplicamos a macro Generable. Generable é uma forma simples de permitir que o modelo gere dados estruturados usando tipos do Swift. Em seguida, especificamos Guides.
Com Guides, você pode fornecer descrições e valores de controle para o tipo associado. Aqui, queremos gerar 4 termos de busca como uma lista de strings. Agora, você pode passá-la para o modelo usando o argumento de geração. O resultado agora é uma lista de strings de sugestão que podem ser facilmente mapeadas em suas visualizações.
A geração guiada oferece controle sobre o modelo e sobre o que ele deve gerar, sejam strings, números, conjuntos ou estruturas de dados personalizadas que você define. A geração guiada garante a exatidão estrutural usando uma técnica chamada decodificação restrita. Com a geração guiada, seus prompts podem ser mais simples e focados no comportamento desejado em vez de incluir instruções de formato. Tudo isso também melhora a precisão e o desempenho do modelo.
Além do que você informa no prompt, o modelo traz o próprio conhecimento central dos seus dados de treinamento. Mas lembre-se: o modelo é integrado no sistema operacional, e seu conhecimento não evolui. Por exemplo, se eu perguntar qual é o clima agora lá fora em Cupertino, o modelo não saberá essa informação. Para casos de uso em que você precisa de dados dinâmicos ou em tempo real, o framework aceita chamadas de ferramentas.
Por exemplo,
a chamada de ferramentas também permite ir além da geração de texto e executar ações. Você pode usar ferramentas para conceder ao modelo acesso a dados pessoais ou ao vivo, como clima ou eventos do calendário. Você pode citar fontes para que as pessoas possam verificar a exatidão da resposta, e as ferramentas também podem realizar ações no seu app, no sistema ou no mundo real. Vamos ver como o Foundation Models pode potencializar seus apps com recursos totalmente novos.
Pense em um app de diário. Em vez de fazer sugestões genéricas de entradas para o diário, o Foundation Models pode gerar sugestões personalizadas com base em entradas anteriores e eventos do calendário. E, como tudo é executado no dispositivo, os dados das pessoas, como informações de saúde, permanecem privados.
Ou pense em um app de despesas. Chega de entradas manuais tediosas. Com o Foundation Models, seu app pode extrair detalhes sobre dados de gastos diretamente do texto. Você pode ir além e combiná-lo com um framework Vision para extrair dados de uma foto ou captura de tela de um recibo, tudo processado diretamente no dispositivo.
Em apps de produtividade, as pessoas podem reescrever instantaneamente notas longas para maior a clareza ou resumir transcrições de reuniões em pontos de ação. Isso poupa tempo precioso, ajudando as pessoas a se concentrarem no que importa.
Ao combinar o reconhecimento de fala com o Foundation Models, o app pode permitir buscas usando linguagem natural. Por exemplo, você pode falar: me mostre uma casa de 3 quartos que aceita pets. Seu app extrairá os detalhes da fala e usará chamadas de ferramentas para deixar a busca simples, natural e rápida.
E isso é só o começo. Você pode criar muito mais com esses recursos.
Você pode usar os modelos para várias tarefas com linguagem comum, como gerar conteúdo, criar resumos, analisar entradas e muito mais.
Para os profissionais avançados de ML na plateia, se tiver um caso de uso especializado, você pode treinar adaptadores personalizados usando o adapter training toolkit. Mas saiba que isso exige muita responsabilidade, pois precisará treiná-lo novamente à medida que a Apple melhora o modelo. Para obter mais detalhes, acesse o site para desenvolvedores.
Quando quiser experimentar, um ótimo lugar para começar é o novo recurso Playgrounds no Xcode.
É só adicionar a macro #Playground... É só usar #Playground no arquivo de código do projeto e começar a escrever seus prompts. A resposta do modelo aparecerá imediatamente na tela à direita, assim como nas prévias do SwiftUI. Neste exemplo, a tela mostra a resposta não estruturada e de geração guiada do modelo. O Playground é ótimo para experimentar o framework Foundation Models. Recomendamos testar várias opções de prompts para encontrar o que funciona melhor para o seu caso de uso. E o Playground ajuda você a iterar rapidamente.
Resumindo, o modelo Apple Foundation é um modelo no dispositivo, otimizado e compactado para caber no seu bolso. Por ser menor, ele tem conhecimento global limitado. Você pode usar chamadas de ferramentas para importar dados do mundo real. O recurso Playgrounds facilita a avaliação e o teste de prompts, como você viu no exemplo. E, conforme você cria seu app usando o Foundation Models, considere compartilhar seu feedback por meio do Assistente de Feedback para nos ajudar a melhorar o modelo e as APIs.
Esse foi o framework Foundation Models. Estamos animados para ver o que você criará com ele.
Além do Foundation Models, você também tem acesso a outras APIs avançadas de aprendizado de máquina.
Cada uma é adaptada a um domínio específico. Temos Vision para entender imagens e vídeos, Natural Language para trabalhar com texto, Translation para traduzir texto, Sound Analysis para reconhecer categorias de sons e Speech para transcrever as palavras em um áudio.
Vamos começar pelo Vision. O Vision tem mais de 30 APIs para diferentes tipos de análise de imagem, e hoje, o Vision está adicionando duas novas APIs. A nova API RecognizeDocumentsRequest para compreensão de documentos estruturados e a API DetectLensSmudgeRequest para identificar fotos tiradas com a lente borrada. Vamos explorar isso em mais detalhes.
Este ano, o Vision vai aprimorar o reconhecimento de texto. Em vez de só ler linhas de texto, o Vision agora oferece reconhecimento de documentos. Ele pode agrupar estruturas de documentos, facilitando o processamento e a compreensão de documentos. Por exemplo, se você tiver um formulário preenchido à mão, em vez de precisar digitar manualmente nomes e dados de contato, o Vision processa a tabela para você. E as linhas e células são agrupadas automaticamente, para gastar menos tempo analisando dados. Isso é muito legal.
Temos outra novidade no Vision. Agora, ele até mesmo detecta manchas na lente da câmera, ajudando a garantir a captura de imagens claras e de alta qualidade.
Por exemplo, ao escanear um documento, uma pessoa pode sujar acidentalmente a lente com o dedo.
Isso resulta em imagens borradas que são difíceis de processar.
A API de detecção de manchas detecta isso. Assim, você pode pedir para o usuário limpar a lente ou tirar de novo a foto para sempre processar imagens de qualidade. Esse foi o framework Vision. Agora, vamos saber mais sobre o framework Speech.
Este ano, vamos lançar a nova API Speech Analyzer, uma API integrada de fala para texto que exige poucas linhas de código. O novo modelo está ainda mais rápido e flexível. O modelo SpeechAnalyzer já viabiliza recursos em notas, gravações, diários e muito mais. Além do SpeechAnalyzer, o SpeechTranscriber também foi atualizado com um novo modelo que oferece suporte a vários casos de uso. Queríamos criar um modelo capaz de lidar com conversas longas e complexas em que alguns locutores estão longe do microfone, como em gravações de reuniões.
Também queríamos possibilitar transcrições ao vivo que exigissem baixa latência sem sacrificar a precisão ou a legibilidade e mantendo o conteúdo privado. Nosso novo modelo no dispositivo faz tudo isso.
Agora você pode oferecer suporte a esses casos de uso em seu próprio app.
O melhor de tudo é que você não precisa buscar ou gerenciar o modelo sozinho. Os assets são baixados quando necessário, ficam no armazenamento do sistema, não aumentam o tamanho do app nem usam memória e são atualizados automaticamente conforme a Apple os aprimora. O SpeechTranscriber, pode transcrever conteúdo nesses idiomas, e outros serão incluídos.
Isso conclui o tópico de inteligência da plataforma.
A seguir, vamos ver mais formas de integrar recursos do sistema no seu app.
O App Intents permite integrar os principais recursos do app nos dispositivos das pessoas.
Com o framework App Intents, as pessoas podem encontrar e usar facilmente o que app oferece, mesmo quando não estão usando o app. Ele conecta as ações e o conteúdo do seu app com as experiências do sistema. Isso é ótimo, pois os recursos aparecem em lugares como Inteligência Visual, Atalhos e Spotlight. O App Intents não é só mais um framework. Ele amplia o alcance do seu app em todo o sistema. Vamos começar pela Inteligência Visual. A Inteligência Visual se baseia na Apple Intelligence e ajuda as pessoas a explorar o ambiente ao redor. Desde o iOS 18, as pessoas podem apontar a câmera para saber mais sobre um café ou um tênis legal que encontram por aí. No iOS 26, isso agora também funciona nas capturas de tela do iPhone, permitindo que as as pessoas busquem ou realizem ações sobre o conteúdo em relação a algo que elas gostem diretamente na tela.
Por exemplo, uma pessoa pode fazer uma captura de um ponto de referência e então realizar uma busca por imagem. O sistema mostra um painel de busca.
É possível escolher o app de onde se quer ver os resultados
e tocar para abrir o app na página relevante.
Se a pessoa não encontrar o que precisa, poderá tocar no botão de mais resultados.
O app abrirá na busca. Se o seu app oferece recursos de busca de imagens, a integração com a Inteligência Visual oferece uma maneira poderosa para as pessoas descobrirem e interagirem com o conteúdo, mesmo quando estão fora do seu app. Essa integração amplia a funcionalidade de busca do seu app para todo o sistema, permitindo que as pessoas façam a transição de objetos ou imagens do mundo real para informações e ações relevantes dentro do app.
Vamos pegar um app de compras. Hoje, você abre o app, acessa a busca de imagens e faz uma pesquisa. Com a Inteligência Visual, você pode fazer uma captura de tela da bolsa ou vestido que adorou nas redes sociais e iniciar instantaneamente a busca no app. Isso remove o atrito e deixa a interação mais natural.
Em seguida, temos os Atalhos. Os Atalhos permitem automatizar tarefas repetitivas e conectar recursos de diferentes apps. Este ano, incorporaremos o poder da Apple Intelligence ao Atalhos com os novos recursos de ação inteligente. Com o App Intents, as ações do seu app podem ser combinadas com Atalhos, permitindo a criação de fluxos de trabalho avançados e personalizados. Um destaque é a ação Use Model. As pessoas podem acessar os modelos da Apple Intelligence para obter respostas que viabilizam os atalhos. Passar texto ou dados de formatação pode ser simples como escrever palavras. É possível escolher entre um grande modelo baseado em servidor na nuvem privada para processar solicitações complexas e proteger a privacidade ou o modelo no dispositivo para processar solicitações sem precisar de conexão com a rede.
É possível também usar o ChatGPT para acessar um amplo conhecimento global e especializado.
A ação Use Model é apenas uma das várias novas ações inteligentes, como Image Playground, Ferramentas de Escrita e outras no iOS 26.
Vamos conferir outros casos de uso. As pessoas podem usar um modelo para filtrar eventos de viagem no calendário
ou para resumir conteúdo da web, como pegar a palavra do dia.
Para aproveitar a ação Use Model, primeiro exponha a funcionalidade do seu app por meio do App Intents. Isso permite que as pessoas integrem o app em seus Atalhos orientados por modelos. Quem usa os Atalhos pode escolher explicitamente o tipo de resultado do modelo, como texto formatado, lista ou dicionário. Como desenvolvedor, garanta que seus App Intents possam processar esses tipos de resultado. As pessoas podem passar conteúdo do seu app para o modelo. Defina esse conteúdo como entidades do app usando o framework App Intents. Assim, o modelo poderá raciocinar sobre seus dados no app. Com essas integrações, as ações Use Model são uma ferramenta robusta para ampliar o alcance do seu app.
Em resumo, o App Intents ajuda você a integrar seu app em todo o sistema. Você pode usá-lo para permitir a busca de imagens na Inteligência Visual, expor conteúdo do seu app nos Atalhos e permitir a execução de ações do app diretamente no Spotlight no Mac.
Até agora, abordamos como aproveitar os recursos baseados em ML e IA integrados ao sistema.
Em seguida, vamos explorar como incluir qualquer modelo em um dispositivo e todas as considerações relacionadas a essa ação. Isso pode parecer complexo, mas fica fácil com o Core ML. Você só precisa de um modelo de aprendizado de máquina no formato Core ML. Esses assets de modelo contêm a descrição das entradas, resultados e arquitetura do modelo, além dos parâmetros ou pesos aprendidos.
Há muitos modelos disponíveis publicamente com diversas opções. Por exemplo, existem modelos como Whisper para áudio, Stable Diffusion para geração de imagens e Mistral para processamento de linguagem. Todos eles estão disponíveis e são otimizados para dispositivos Apple.
De onde você pode baixá-los? Diretamente na página da Apple no Hugging Face ou em developer.apple.com. Todos esses modelos são otimizados especificamente para o Apple Silicon e vêm no formato de pacote de ML, facilitando a integração diretamente no seu projeto do Xcode. Veja como você pode usá-los.
Depois de baixar um modelo, você pode só arrastá-lo e soltá-lo no Xcode para começar. O Xcode reconhece seu modelo e gera código em Swift para interagir com o modelo com base nas entradas e resultados dele. E o Xcode apresenta todos os metadados logo após a importação do modelo, fornecendo insights sobre sua estrutura e funcionalidade.
Se você tiver um modelo com alta demanda computacional, é importante garantir que o desempenho das previsões atenda à latência desejada para proporcionar uma boa experiência do usuário no app. Com alguns cliques, o Xcode pode gerar um relatório de desempenho que resume o tempo de carregamento,
o tempo de conclusão no dispositivo
e a latência da previsão, que é o tempo necessário para obter respostas do modelo.
Você também pode verificar se o modelo é compatível com o Neural Engine para obter um desempenho e latência ainda melhores. E se os modelos que deseja usar não estiverem disponíveis no formato Core ML?
Digamos que você ou sua equipe de ciência de dados use o framework PyTorch para treinar e ajustar modelos personalizados para suas necessidades personalizadas. Quando estiver satisfeito com o desempenho do modelo, será hora de integrá-lo ao seu app. É aí que entra o Core ML Tools. É um pacote Python de código aberto com APIs para otimizar e converter modelos de vários frameworks de código aberto, como o PyTorch, para um formato compatível com o Core ML.
Por fim, os profissionais que fazem pesquisas sobre IA podem aproveitar toda a potência do chip da Apple para criar protótipos de soluções com os modelos de pesquisa mais recentes. Para acompanhar o nível atual de exploração, você precisa executar grandes modelos, mexer com arquiteturas únicas e aprender e colaborar com a comunidade de ML de código aberto. Temos ferramentas e recursos avançados para ajudar nisso.
O MLX é um framework de ML de código aberto criado para o Apple Silicon. É uma ferramenta flexível que pode ser usada para computação numérica básica e até executar modelos avançados de ML em maior escala em dispositivos Apple. Você pode usar o MLX para gerar texto com grandes modelos de linguagem e gerar imagens, áudios ou vídeos com os modelos mais recentes. E você pode usá-lo para treinar, ajustar e personalizar modelos de ML diretamente no Mac.
O MLX executa inferências de ML avançadas em grandes modelos como o Mistral, com uma única chamada da linha de comando diretamente no seu Mac. Por exemplo, aqui ele está gerando código em Swift para um algoritmo quicksort usando um LLM.
O MLX permite que você acompanhe o ritmo da pesquisa de última geração graças à comunidade de código aberto que disponibiliza esses modelos no MLX.
Todo o software MLX é de código aberto sob licença permissiva do MIT. O software está disponível no GitHub, junto de vários exemplos e pacotes criados usando as APIs Python e Swift. O MLX tem uma comunidade ativa de criadores de modelos no Hugging Face. Muitos dos modelos mais recentes já estão na MLX Community no Hugging Face, e novos modelos são adicionados quase todos os dias.
Além do MLX, outros frameworks como PyTorch ou JAX já estão mais rápidos no Apple Silicon usando a API Metal. Então, você pode continuar usando as ferramentas que já conhece e adora para explorar modelos. Quando quiser usar esses modelos em seus apps, utilize o Core ML para implantá-los.
Essas são as novidades do aprendizado de máquina e da Apple Intelligence. Com base em suas necessidades e experiência com aprendizado de máquina, escolha os frameworks e ferramentas mais adequadas para seu projeto, seja ao ajustar um LLM, otimizar a visão computacional para o Vision Pro ou aproveitar APIs viabilizadas por ML. Pensamos em tudo para você.
Tudo isso é otimizado para o Apple Silicon, permitindo a execução eficiente de cargas de trabalho de ML e IA.
Agora é o momento ideal para incluir ML e IA em seus apps nas plataformas Apple. Experimente o Foundation Models Use os Playgrounds do Xcode para começar. Inclua a busca de imagens na Inteligência Visual e teste as possibilidades. Estou muito animado para ver o que você vai criar. Obrigado... Muito obrigado por estarem aqui hoje. Agora...
Devolvo a palavra para a Leah.
Já estou tendo ideias de como usar o Foundation Models. Agora, gostaria chamar o Allan de volta ao palco para falar sobre as atualizações do visionOS.
Obrigado.
Olá! Como estão? Ótimo. Agradeço por estarem conosco hoje. Obrigado a todos que estão online também. Meu nome é Allan Schaffer. Eu sou Technology Evangelist na equipe Developer Relations. Estou feliz de poder contar tudo sobre o visionOS 26 e as novidades da WWDC. A WWDC aconteceu no mês passado. Tivemos muitas atualizações para o visionOS. Neste ano, temos 14 vídeos dedicados ao visionOS, desenvolvidos para ajudar você a descobrir todas as novidades sobre computação espacial que abordamos, como o uso do Metal com o Compositor Services. Tivemos atualizações no SwiftUI e melhorias no RealityKit e em acessórios de terceiros. Há novas tecnologias de vídeo e muito mais do que eu conseguiria abordar nesta sessão na próxima meia hora. Hoje, o plano é só mostrar os destaques e falar sobre algumas das principais atualizações. Com isso em mente, vamos explorar o visionOS 26 e conferir nossa agenda. Primeiro, vou abordar alguns dos recursos volumétricos no SwiftUI que vão deixar seu app muito mais imersivo. Além disso, há novos recursos do sistema. Por exemplo, a Apple Intelligence, e novas maneiras de manter o conteúdo do seu app persistente no ambiente. Há também novas interações e suporte a acessórios para um controle mais preciso de botões e resposta tátil. Depois, vou abordar atualizações relacionadas a mídias imersivas. Há novos formatos de vídeo criados para o Vision Pro.
Este ano, lançaremos muitos novos recursos de compartilhamento e colaboração. Por fim, falarei sobre as novidades nas APIs empresariais para quem desenvolve apps empresariais. Então, vamos começar pelos recursos volumétricos que serão disponibilizados no SwiftUI.
Tenho certeza de que você já sabe tudo isso, mas acho que vale a pena repetir que a melhor maneira de criar um app ótimo para o Vision Pro e aproveitar nossas ferramentas e tecnologias nativas é usar o SwiftUI, que agora oferece novas maneiras de criar apps 3D ainda mais imersivos. Uma das principais adições ao SwiftUI e ao visionOS 26 está relacionada ao layout do seu conteúdo. Muitas ferramentas de layout e modificadores de visualização do SwiftUI que você já conhece ganharam versões 3D mais avançadas com profundidade e posição no eixo Z permitindo interagir nas visualizações. Se você já conhece o desenvolvimento de apps 2D em SwiftUI, agora poderá criar layouts 3D ricos e detalhados da mesma forma que você provavelmente já está acostumado.
Gostaria de destacar os novos modificadores depthAlignment e rotation3DLayout. Vou começar pelo depthAlignment. Ele oferece um jeito fácil de lidar com a composição para layouts 3D comuns. Por exemplo, aqui estamos usando o depthAlignment frontal para posicionar automaticamente este cartão de nome na frente do volume que contém o modelo 3D. Muito simples.
Outra adição é o modificador rotation3DLayout. Perceba como o modelo de avião superior abre espaço para o modelo do meio girar com folga. Na verdade, o rotation3DLayout permite que você gire a geometria dentro do sistema de layout e comunica essas rotações às suas visualizações para que o app possa reagir.
Vou mencionar brevemente outras novidades sobre apresentações. Agora é possível ativar conteúdo transitório, como este cartão informativo sobre a trilha, que pode ser exibido dentro de volumes ou como volumes decorativos. Isso pode ser feito com menus, dicas, alertas, folhas e pop-overs. As apresentações podem sobrepor o conteúdo 3D e continuar visíveis mesmo quando estariam sendo obstruídas, o que garante que fiquem ótimas em qualquer contexto.
Há outro recurso. Normalmente, janelas e volumes atuam como contêineres para a interface do seu app e o seu conteúdo no espaço compartilhado. Porém, com o novo recurso Dynamic Bounds Restrictions, você pode permitir que o conteúdo do app, como estas nuvens, tenham objetos que ultrapassem os limites da janela ou do próprio volume. Isso torna o conteúdo mais imersivo.
Não são minhas mãos... Mudando de assunto, está mais fácil adotar gestos e manipulação de objetos. É importante que interações com conteúdo virtual sejam naturais e imitem o mundo real. Agora os objetos podem ser manipulados com movimentos simples, reposicionados com uma ou as duas mãos, redimensionados, ao diminuir e arrastar com as mãos, e até mesmo transferidos de uma mão para outra. Esses recursos agora são integrados, então você não precisa implementar gestos complexos.
E você pode aplicar esse comportamento a objetos no seu app com SwiftUI ou RealityKit, dependendo se o objeto é uma visualização personalizada ou uma entidade do RealityKit. Nesse caso, você pode usar o modificador Manipulable no SwiftUI ou adicionar ManipulationComponent no RealityKit. Ou, se você já usa uma visualização QuickLook3D, o comportamento já vem integrado, você ganha isso de graça.
Por falar no RealityKit, agora há um alinhamento maior entre o SwiftUI, o RealityKit e o ARKit, com diversas melhorias que simplificam a interação com o RealityKit a partir do seu código SwiftUI. Por exemplo, as entidades do RealityKit e suas animações agora são observáveis. Isso facilita a observação de mudanças nas suas visualizações SwiftUI. Há uma API aprimorada de conversão de coordenadas. Você pode escrever controladores de gestos no SwiftUI e anexar esses gestos diretamente às entidades do RealityKit. Agora, o Model3D pode fazer muito mais, como reproduzir animações, carregar variantes de USD ou alternar entre diferentes configurações nos seus modelos.
Aliás, este exemplo que tenho usado para mostrar as novas APIs está disponível para download. Ele se chama Canyon Crosser e está disponível em developer.apple.com.
Agora, vamos falar sobre os recursos do sistema. Há alguns minutos, o Shashank falou sobre vários avanços na Apple Intelligence e no aprendizado de máquina em todos os nossos sistemas operacionais. Esses recursos também são parte integrante do visionOS.
Uma das principais mudanças no aprendizado de máquina no visionOS é que agora concedemos às APIs acesso ao Neural Engine sem a necessidade de direitos especiais. Isso é muito importante. Isso permitirá que você execute seus modelos diretamente no dispositivo por meio do Neural Engine em vez de fazer isso só na CPU ou na GPU.
Além disso, disponibilizamos o novo framework Foundation Models para o visionOS para você ter acesso direto ao grande modelo de linguagem que está no núcleo de todos os recursos da Apple Intelligence. É o mesmo framework usado em nossas outras plataformas, onde você pode enviar solicitações ao LLM, direto no dispositivo, e gerar ou criar resultados estruturados com a geração guiada. A chamada de ferramentas permite ao modelo buscar dados ou executar ações definidas no seu código e muito mais.
Além disso, disponibilizamos uma nova API de fala para texto para iOS, macOS e visionOS chamada SpeechAnalyzer. Ela já está sendo usada em todo o sistema: em legendas ao vivo no FaceTime, em transcrições de áudio no app Notas. Agora, também é possível incluí-la em seus apps. Além disso, há um novo modelo de fala para texto, chamado SpeechTranscriber, que o Shashank mencionou. Ele é mais rápido e mais flexível, sendo ideal para legendas de mídias, por exemplo. E tudo executado inteiramente no dispositivo.
Seguindo em frente, vamos falar sobre Widgets. Os Widgets são extensões leves de apps que mostram informações rápidas, como a previsão do tempo ou um evento do calendário. Os Widgets foram criados para fornecer às pessoas detalhes personalizados, relevantes e rápidos, exibindo informações contextuais sem precisar abrir um app. Por ser uma plataforma espacial, o visionOS permite que os Widgets assumam uma nova forma. Eles se tornam objetos 3D que se misturam ao ambiente em volta. Muitos aspectos da aparência deles podem ser personalizados para que combinem com o espaço.
É possível colocar Widgets em superfícies horizontais ou verticais, como uma parede, uma prateleira, uma mesa, uma bancada e muito mais. Eles permanecem ancorados naquele local e persistem entre as sessões. Se você sair do ambiente e voltar depois ou tirar o dispositivo e colocá-lo mais tarde, os Widgets ainda estarão lá. Eles viram parte do espaço.
Agora, os Widgets têm vários modelos de tamanho para escolher, mas no visionOS, eles podem ter tamanho real proporcional, então ficam presentes fisicamente no ambiente com você. Se você planeja desenvolver Widgets, deve estar se perguntando onde eles vão ficar: pendurados em uma parede, em cima da mesa ou em outro lugar? Escolha um tamanho que combine com o contexto.
Outro recurso exclusivo do visionOS é a percepção de proximidade. Isto significa que os Widgets podem adaptar sua aparência e layout com base na distância de uma pessoa. Por exemplo, neste widget de esportes, conforme nos aproximamos, informações mais detalhadas aparecem.
Uma boa notícia: se o seu app para iPhone ou iPad já inclui Widgets, você já começou bem, pois se o seu app for executado no modo de compatibilidade, seus Widgets serão transferidos para o visionOS e se adaptarão às novas qualidades espaciais.
Esses são alguns dos novos recursos do sistema no visionOS. Agora, vou falar sobre interações. As mãos e os olhos são os principais métodos de entrada do Vision Pro. Nós criamos o visionOS para que você navegue em suas interfaces com base no lugar para onde está olhando e com movimentos intuitivos das mãos. A propósito, melhoramos o rastreamento de mãos no visionOS 26 para que seja até 3 vezes mais rápido, com 90 hertz. Isso deixa seus apps e jogos ainda mais responsivos, sem que você precise escrever código. Ele é integrado e já é executado nessa velocidade.
Incluímos um novo jeito de acessar conteúdo da web e navegar em seus apps usando apenas os olhos, chamado de Look to Scroll. É uma boa melhoria, uma interação leve que funciona junto com a ação de rolar com as mãos. Você pode adotar o recurso em seus apps com as APIs no SwiftUI e no UIKit.
O visionOS também aceita teclados e trackpads Bluetooth se esse tipo de entrada fizer sentido para o seu caso de uso. E ele aceita controles de jogos, o que pode ser útil. Talvez você precise de joysticks, botões e um D-pad, ou talvez esteja trazendo um jogo de outra plataforma, e já desenvolveu a jogabilidade com base no uso de controles.
Agora, no visionOS 26 adicionamos a opção de usar acessórios espaciais. Eles oferecem controle mais preciso, rastreamento em seis graus de liberdade (6DoF) e botões e resposta táteis. Também adicionamos suporte a dois novos acessórios espaciais por meio do framework Game Controller.
O primeiro deles é o controle PlayStation VR2 Sense, da Sony. Ele é ótimo para jogos de alto desempenho e outras experiências imersivas. Ele tem botões, joysticks e um gatilho, mas o mais importante é que rastreia a posição e orientação no espaço em seis graus de liberdade (6DoF).
O outro novo acessório é o Logitech Muse, que é ótimo para tarefas de precisão, como desenhar e esculpir. Ele tem 4 sensores que permitem entrada variável na ponta e no botão lateral, além de resposta tátil. Confira um exemplo. Este é o Spatial Analogue, da Spatial Inc. É uma ferramenta colaborativa de design que funciona com modelos USD e outros assets 3D. Eles estão usando o Muse aqui para anotar as dimensões desta cadeira virtual.
Eles estão aproveitando a riqueza dos dados fornecidos pelo acessório. A posição e a rotação são rastreadas usando uma combinação das câmeras integradas do Vision Pro e dos sensores integrados aos acessórios. O ARKit também dá acesso a dados adicionais, como qual mão está segurando o acessório, a velocidade do acessório, conforme ele se move no espaço, e seus movimentos de rotação.
Um acessório espacial também pode ter resposta tátil, que é sempre um ótimo retorno sensorial. Isso deixa as interações muito realistas.
Outro ponto a destacar é que agora é possível ancorar o conteúdo virtual aos próprios acessórios usando AnchorEntity no RealityKit. Em um jogo, por exemplo, uma peça pode ser ancorada ao grip do controle enquanto alguém a move de um lugar para outro. Este é um exemplo exatamente disso. Este é o PicklePro, da Resolution Games. Eles estão jogando pickleball. Eles ancoraram a bola e a raquete virtual diretamente ao grip do controle. Isso funciona incrivelmente bem. O rastreamento de posição é muito preciso.
Ok, esses são os acessórios espaciais. Você pode incluir suporte a acessórios espaciais para dar às pessoas um controle mais preciso nas interações. Considere incluir resposta tátil para permitir que os jogadores e outras pessoas sintam essas interações virtuais. Isso tudo é viabilizado pelo framework Game Controller, junto com o RealityKit e o ARKit.
Em seguida, vamos falar sobre mídia imersiva. Quero começar falando sobre fotos. Agora, o visionOS pode exibir fotos e outras imagens 2D de um modo novo. Chamamos isso de cenas espaciais. As cenas espaciais são imagens 3D com profundidade real. Elas são geradas com base em uma imagem 2D, como neste exemplo. Elas são uma versão em diorama da foto com paralaxe de movimento para acentuar a profundidade da cena conforme o espectador move a cabeça em relação àquela cena.
Este é um exemplo do mundo real do Zillow. Estas são fotos comuns tiradas por corretores de imóveis que mostram como esse efeito pode ser aplicado a qualquer imagem, fotografia, imagem da web, Polaroid antiga e muito mais. Elas transmitem a sensação de imagens com profundidade estereoscópica. Essas são as cenas espaciais.
Vamos falar sobre vídeos. O Vision Pro oferece vários... quer dizer, é compatível com vários formatos de mídia. Isso inclui vídeos 2D, filmes 3D estereoscópicos, vídeos espaciais e Apple Immersive Video. No visionOS 26 incluímos suporte a mais 3 tipos de mídia: vídeos em 180º, em 360º e com amplo campo de visão.
Tudo isso agora oferece um pacote abrangente de opções de mídia imersiva, mas também significa que você, desenvolvedor, precisa considerar vários formatos e tipos de experiências diferentes para seus apps.
Para ajudar nessa tarefa e para ajudar você, lançamos um novo perfil de filme do QuickTime chamado Apple Projected Media Profile, ou APMP. O APMP usa os metadados dos arquivos de vídeos para identificar que tipo de mídia eles representam e indicar o tipo de projeção desse conteúdo ao reprodutor de vídeo. Vou mostrar um exemplo disso para ilustrar o conceito. À esquerda, temos uma mídia com FOV amplo capturada com a câmera de ação.
Então, é possível ver, só pela imagem estática do quadro, a curvatura devido à lente olho de peixe que permitiu um campo de visão mais amplo. Agora, vou reproduzir os dois vídeos.
À direita, o APMP permite que os frameworks de mídia projetem o vídeo em uma superfície curva, atraindo os olhos do espectador para o centro da ação. Como a curva corresponde ao perfil da lente da câmera, ela desfaz o efeito de olho de peixe. Então, dentro do Vision Pro, o espectador verá linhas retas como sendo retas, mesmo nas laterais da imagem.
Certo. O APMP é muito útil. Para incluí-lo, adicionamos a conversão automática para APMP de várias câmeras que gravam vídeos em 180º, em 360º com FOV amplo, como Canon, GoPros, Insta 360s e muito mais.
Há muito conteúdo em 180º e em 360º já disponível por aí. Então, atualizamos a ferramenta de linha de comando avconvert no macOS para permitir a conversão de conteúdo em 180º e em 360º para APMP.
Quero voltar rapidamente para mencionar o Apple Immersive Video. O Apple Immersive Video é um formato criado para o Apple Vision Pro que usa vídeos 3D em 8K de 180º com áudio espacial para criar uma experiência visual imersiva. No visionOS 26, vamos disponibilizar o Apple Immersive Video para desenvolvedores e criadores de conteúdo.
Este seria o fluxo de um criador de conteúdo. Você pode capturar Apple Immersive Video usando a câmera URSA Cine Immersive da Black Magic, que é uma câmera incrível, depois editar e corrigir as cores no DaVinci Resolve e ver uma prévia e validar o vídeo com o Apple Immersive Video Utility, disponível na App Store. As etapas seguintes dependem do seu objetivo. Se for transmitir o vídeo, você poderá criar segmentos e comprimir o arquivo, por exemplo, para distribuição via HTTP Live Streaming.
Para desenvolvedores de apps profissionais que querem criar ferramentas para trabalhar com Apple Immersive Video, há um novo framework no macOS e visionOS chamado Immersive Media Support. Ele permite ler e gravar conteúdo imersivo da Apple de modo programático. Há uma ótima amostra de código chamada Authoring Apple Immersive Video para ajudar você a começar.
Espero que tudo isso leve à reprodução do vídeo em seus próprios apps. O Apple Immersive Video pode agora ser reproduzido no visionOS 26 com nossos frameworks de reprodução de mídia, como RealityKit, AVKit, Quick Look, WebKit e muito mais, para que você possa integrá-lo em qualquer tipo de experiência que você criar.
Essas foram as mídias imersivas, começando pelas cenas espaciais, que adicionam profundidade a fotos 2D. Falei sobre o novo perfil APMP e suas ferramentas de conversão automática. Como digo para criadores e desenvolvedores de apps profissionais, use o Apple Immerse Video para oferecer a melhor experiência cinematográfica.
A seguir,vamos ver as novidades sobre compartilhamento e colaboração. Um dos pilares da computação espacial é a capacidade de conectar pessoas. Podemos fazer isso com Personas Espaciais. Uma Persona Espacial é a sua representação espacial autêntica quando você usa um Vision Pro para que outras pessoas vejam suas expressões faciais e os movimentos de suas mãos em tempo real. Agora no visionOS 26, as Personas Espaciais saem do beta com muitas melhorias no cabelo, aparência, expressões, representação e muito mais.
Também no visionOS 26, ampliamos o SharePlay e o FaceTime com um novo recurso chamado Nearby Window Sharing. Esse recurso permite que pessoas que estão no mesmo espaço físico compartilhem um app e interajam com ele juntas. Este é o app Defenderella. É um jogo multiplayer de defesa de torre criado pela Rock Paper Reality que ganha vida no seu espaço. É superdivertido jogar com outras pessoas por perto.
Tudo isso começa com um novo jeito de compartilhar apps. Agora, cada janela tem um botão de compartilhamento ao lado da barra de janelas que abre esta janela de compartilhamento. Tocar nela mostra as pessoas próximas. Você pode compartilhar facilmente experiências com elas.
Quando alguém começa a compartilhar, o sistema garante que o app apareça no mesmo lugar para todos, com o mesmo tamanho. Como o app está presente para todos no espaço, você pode conversar, apontar para as coisas, e interagir com o app como se fosse um objeto físico. As pessoas podem até mesmo passar conteúdo uma para outra.
Qualquer jogador pode interagir com a janela compartilhada, movê-la, redimensioná-la e até mesmo posicioná-la em uma parede ou em outra superfície do ambiente compartilhado no mundo real ali ao redor. E se alguém pressionar a Digital Crown para recentralizar, o app voltará à posição ideal para todos no ambiente. Se uma pessoa apontar para algo e obstruir a janela virtual, o conteúdo vai sumir aos poucos para garantir que a pessoa continue visível para todos.
Você pode permitir que as pessoas... Em um app de móveis, você pode permitir que as pessoas coloquem conteúdo enquanto mantêm o próprio contexto compartilhado. Isso é feito com as âncoras de mundo compartilhado. Por exemplo, ao usar um app que coloca móveis virtuais no ambiente, o item aparecerá no mesmo lugar para todos os participantes próximos.
Esse contexto compartilhado não é destinado só para pessoas que estão no mesmo ambiente. Você pode convidar participantes remotos via FaceTime. Se estiverem usando um Vision Pro, eles aparecerão como Personas Espaciais.
Também gostaria de mencionar que, como o Apple Vision Pro faz parte do ecossistema geral da Apple, é muito fácil criar experiências colaborativas entre dispositivos. Vou mostrar um exemplo. Este é o Demeo, um jogo cooperativo em masmorras da Resolution Games. É muito divertido jogá-lo em grupo. Você pode ver que uma jogadora está tendo uma experiência imersiva usando um Vision Pro e os amigos dela estão jogando em um iPad e um Mac.
Uma experiência muito legal. Ótimo. Essa foi uma atualização breve sobre o SharePlay e o Nearby Window Sharing. Ao incluir o SharePlay no seu app, pense que está criando a experiência para participantes próximos e remotos. Além disso, desenvolva seu app com foco nas Personas Espaciais e pense em experiências que permitam às pessoas se conectarem usando várias plataformas Apple.
Vamos para a última seção. No ano passado, lançamos as primeiras APIs empresariais para visionOS. Elas incluíam recursos como acesso à câmera principal, leitura de códigos de barras, maior capacidade de desempenho e muito mais. Desde então, essa equipe vem trabalhando duro para disponibilizar ainda mais recursos para os desenvolvedores empresariais. Vamos conferir algumas novidades do visionOS 26 para quem desenvolve apps para empresas. É importante mencionar que, como esses recursos oferecem acesso avançado aos dispositivos, o acesso às APIs é gerenciado por meio de um direito e uma licença que são vinculados à sua conta de desenvolvedor. Vamos analisar os recursos, começando pelo maior acesso à câmera. Anteriormente, um app empresarial com direitos podia acessar o feed de vídeo da câmera principal do lado esquerdo, aquela usada para o olho esquerdo. Agora, expandimos esse acesso para usar a câmera da esquerda ou da direita ou ambas, para análise e processamento estéreo. Se você já está familiarizado com isso, esta é a API CameraFrameProvider do ARKit. Aliás, anteriormente eu mencionei que os apps agora têm acesso ao Neural Engine, então imagine só combinar isso tudo e processar o feed da câmera com seu modelo de aprendizado de máquina que é executado no Neural Engine.
Outra novidade do visionOS 26: um novo recurso que permite selecionar uma área específica dentro da sua visão do mundo real e obter um feed de vídeo dedicado dessa área em uma janela separada. É uma nova visualização do SwiftUI: chamada CameraRegionView Aqui está um exemplo disso. Vou posicionar uma janela em uma área à esquerda que eu quero capturar: a área do medidor de pressão. Agora, posso ficar de olho nela enquanto faço outra coisa ou posso compartilhar esse feed de vídeo com um participante remoto.
Falando em compartilhamento, mencionei há pouco experiências próximas com o SharePlay, mas algumas empresas não usam FaceTime nem SharePlay. Talvez porque tenham redes próprias ou outros requisitos. Pensando nelas, lançamos novas APIs no ARKit que permitem criar um espaço de coordenadas compartilhado entre pessoas no mesmo espaço físico. Ele é chamado de SharedCoordinateSpaceProvider. Ele possibilita que vários participantes alinhem seus sistemas de coordenadas e compartilhem dados de colaboração e âncoras de mundo por meio da rede local. É uma ótima maneira de colaborar em projetos.
A seguir, temos o Window Follow Mode. Às vezes, você precisa realizar uma tarefa em que precisa se mover, mas talvez precise fazer isso enquanto fica de olho em um painel, consulta um conjunto de instruções de reparo ou algo do tipo, talvez instruções de treinamento.
O Follow Mode possibilita isso, permitindo que as pessoas escolham uma janela que as acompanhará enquanto se movem de um lugar para outro. Você não precisa estar andando para fazer isso. Se você se mover, a janela te acompanhará.
O último tópico envolve privacidade de dados. Muitos apps empresariais lidam com informações confidenciais, como dados financeiros, prontuários ou outros dados proprietários, mas as empresas não querem que essas informações sejam gravadas ou fiquem visíveis se um usuário compartilhar a tela. Agora, os apps podem ocultar conteúdo de uma visualização ao capturar ou espelhar a tela e muito mais usando o content... perdão, o contentCaptureProtected, um modificador de view para SwiftUI. Esse conteúdo permanece visível para a pessoa usando o dispositivo, mas é ocultado em capturas de tela, gravações, visualizações espelhadas e mais.
Todos esses recursos fazem parte das nossas APIs empresariais, permitindo criar soluções mais robustas e experiências espaciais para seus apps internos.
Isso é tudo. Esses são alguns dos novos recursos que chegam com o visionOS 26. Para relembrar, falei sobre muita coisa, mas de forma superficial. Há muito mais recursos e APIs para você explorar. Muitos são explicados nas sessões, então assista aos vídeos que publicamos da WWDC. Neste ano, publicamos diversas amostras de código do visionOS. Elas estão disponíveis para download em developer.apple.com. Com isso, devolvo a palavra para a Leah. Obrigado.
Obrigada.
Há tantas novidades legais para o visionOS. Agradeço por estarem aqui hoje para rever as principais atualizações da WWDC. Falamos sobre muita coisa hoje. Começamos com uma visão geral do novo sistema de design e falamos sobre como usar o Liquid Glass com cuidado nos apps para que se encaixem bem no iOS 26 e macOS Tahoe. Explicamos também por que usar frameworks nativos de UI, como SwiftUI, UIKit e AppKit, facilita incorporar o novo design, oferecendo uma interface limpa e mantendo a consistência entre as plataformas.
Depois, conferimos as novidades da Apple Intelligence. Você pode utilizar recursos viabilizados por IA, como as Ferramentas de Escrita ou o Image Playground, explorar o Foundation Models no dispositivo, ampliar o alcance do seu app com o App Intents ou aproveitar o poder do Apple Silicon em seus próprios modelos.
Por fim, exploramos o visionOS 26. Os novos recursos volumétricos do SwiftUI deixam os apps ainda mais imersivos, há novas formas de criar experiências colaborativas com o SharePlay, os formatos de mídia imersiva criam experiências visuais incríveis e há formas de controlar o Apple Vision Pro com acessórios espaciais. Como mencionei hoje, esses tópicos são apenas a ponta do iceberg. Se você quiser se aprofundar em alguns dos tópicos abordados ou explorar outros que não tivemos a chance de compartilhar, o site Apple Developer tem muita documentação, vídeos e amostras de código para ajudar.
Também enviaremos um e-mail ainda hoje com links para recursos relacionados a tudo que abordamos para você aprender mais e se aprofundar nesses tópicos. E a equipe Worldwide Developer Relations está animada para interagir com vocês nos próximos meses. Queremos ajudar você a adotar esses novos sistemas e tecnologias nos seus apps. Para saber mais sobre as próximas oportunidades de se reunir com a gente, confira os boletins informativos Meet with Apple e Hello Developer e acesse o app e o site para desenvolvedores. Agradeço aos participantes online. Esperamos encontrar vocês de novo, seja aqui, em um Developer Center ou online. E para todos aqui conosco em Cupertino, nos encontre na recepção para relaxar e conversar com engenheiros e designers da Apple. Agradeço sua participação. Quero muito ver o que vocês vão criar.
-