View in English

  • Global Nav Open Menu Global Nav Close Menu
  • Apple Developer
Search
Cancel
  • Apple Developer
  • News
  • Discover
  • Design
  • Develop
  • Distribute
  • Support
  • Account
Only search within “”

Quick Links

5 Quick Links

Vídeos

Abrir menu Fechar menu
  • Coleções
  • Tópicos
  • Todos os vídeos
  • Sobre

Voltar para WWDC25

  • Sobre
  • Resumo
  • Transcrição
  • Código
  • Novidades do visionOS 26

    Explore os novos recursos do visionOS 26. Descubra APIs volumétricas aprimoradas e saiba como você pode combinar a potência do SwiftUI, do RealityKit e do ARKit. Descubra como criar apps e jogos mais envolventes usando o rastreamento de mãos mais rápido e entrada por acessórios espaciais. Confira uma prévia das atualizações do SharePlay, Compositor Services, mídia imersiva, web espacial, APIs empresariais e muito mais.

    Capítulos

    • 0:00 - Introdução
    • 1:34 - Recursos volumétricos
    • 10:28 - Recursos do sistema
    • 15:21 - Jogos e acessórios espaciais
    • 23:00 - Experiências compartilhadas
    • 25:03 - Ecossistema de mídia imersiva
    • 31:04 - Web espacial
    • 34:13 - Novas APIs empresariais

    Recursos

    • Canyon Crosser: Building a volumetric hike-planning app
    • Petite Asteroids: Building a volumetric visionOS game
    • TabletopKit
      • Vídeo HD
      • Vídeo SD

    Vídeos relacionados

    WWDC25

    • Compartilhe experiências do visionOS com pessoas próximas
    • Conheça o framework Foundation Models
    • Conheça o layout espacial do SwiftUI
    • Explore a entrada de acessórios espaciais no visionOS
    • Explore as melhorias em seu app espacial de negócios
    • Explore experiências de vídeo para o visionOS
    • Integre a reprodução de vídeo imersivo em apps para visionOS
    • Melhor juntos: SwiftUI e RealityKit
    • Novidades do RealityKit
    • Novidades do SwiftUI
    • Novidades dos recursos espaciais para a web
    • Novidades na renderização no Metal para apps imersivos
    • Prepare o ambiente com o SwiftUI no visionOS
    • Saiba mais sobre as tecnologias Apple Immersive Video
    • Saiba mais sobre o Apple Projected Media Profile (APMP)
    • Sessão prática de codificação: integre a IA no dispositivo ao seu app usando o framework Foundation Models

    WWDC24

    • Bring your iOS or iPadOS game to visionOS
  • Buscar neste vídeo...

    Olá! Meu nome é Edwin. Estou na equipe Software Engineering do Apple Vision Pro. Nesta sessão, juntamente com minhas colegas, Sharlene e Enrica, vamos apresentar alguns recursos incríveis e novos do visionOS. Ano passado, lançamos o Apple Vision Pro mundialmente. E tudo o que vocês criaram para essa plataforma nos impressionou e inspirou muito. Desde apps espaciais, que utilizam a tela infinita, e o streaming de conteúdo de mídia imersivo em tamanho de cinema na sua sala de estar até os novos apps e jogos de produtividade.

    O conteúdo ganha vida com o visionOS. Neste ano, apresentamos ainda mais recursos para levar seus apps a outro nível com o visionOS 26. Vamos começar com novos recursos volumétricos que permitem aproveitar ainda mais o poder do 3D nos apps. Em seguida, vamos explorar os aprimoramentos que tornam o visionOS uma experiência espacial ainda mais consistente. Vamos abordar os novos recursos e suporte a acessórios para criar jogos espaciais inovadores, além de explicar como a experiência em apps e jogos pode acontecer junto com as pessoas ao seu lado. Você pode integrar Apple Immersive Video diretamente em seus apps e oferecer experiências espaciais por meio do Safari diretamente na internet. Por fim, vamos abordar os recursos novos, únicos e poderosos que as empresas podem aproveitar. Vamos começar com os novos recursos volumétricos que chegam à SwiftUI.

    SwiftUI é a melhor maneira de criar apps incríveis para o Vision Pro. Seja trazendo seus apps para iOS, iPadOS ou macOS para o visionOS ou criando uma experiência totalmente nova, o app vai ter uma aparência espacial desde o início.

    E agora você pode torná-los ainda mais imersivos com um pacote de recursos que adicionamos à SwiftUI, com foco em criar experiências volumétricas incríveis.

    Vamos começar com o layout do conteúdo. Com alinhamentos de profundidade adicionados aos layouts existentes, novas ferramentas para rotações com reconhecimento de layout e suporte 3D para muitos modificadores da SwiftUI, você pode criar layouts 3D avançados de modo semelhante à interface 2D. Vamos nos aprofundar um pouco.

    Os alinhamentos de profundidade são uma maneira fácil de criar layouts 3D comuns com pilhas e tipos de layout 2D. Você pode usar depthAlignment.front para alinhar suas visualizações e melhorar a legibilidade, como demonstrado no exemplo. Se quiser girar um objeto 3D no app, com o modificador rotation3DLayout, você pode girar a geometria dentro do sistema de layout, tudo isso enquanto comunica essas rotações de volta à visualização para que o app possa reagir. Como mencionado, muitas ferramentas e modificadores de layout da SwiftUI já conhecidas agora têm analógicos 3D sofisticados. Para saber mais sobre eles, confira nossa sessão "Conheça o layout espacial na SwiftUI".

    Os apps para visionOS são compostos por Janelas, Volumes e Espaços. As experiências volumétricas são excepcionalmente atraentes, especialmente no espaço compartilhado. Por isso, este ano, expandimos o suporte para esse recurso, começando com as apresentações de interface. Informações momentâneas, como alertas, folhas, menus e popovers, são usadas com frequência em apps e são parte essencial da experiência do usuário. No visionOS 26, a apresentação desse conteúdo transitório dentro e em cima dos volumes passa a ser possível. Em experiências espaciais em que o conteúdo 3D pode se sobrepor às interfaces, elementos-chave, como apresentações, atravessam o conteúdo para continuarem visíveis. Com esses tratamentos visuais, suas apresentações ficarão incríveis em qualquer contexto. Para saber mais sobre Apresentações em Volumes, consulte "Aprimorar com o SwiftUI no visionOS". As Janelas e os Volumes atuam como contêineres que restringem a interface e o conteúdo do app, fornecendo regiões definidas para apresentar e interagir com o conteúdo no espaço compartilhado. Agora, ao configurar restrições de limites dinâmicos, seus apps podem se misturar de um jeito ainda melhor com o mundo real, sendo renderizados para fora dos limites do app.

    Para aplicar esse efeito aos apps, basta adicionar um modificador de visualização simples, especificando o quanto você deseja que o conteúdo fique para fora dos limites. Essa é uma ótima maneira de aumentar a capacidade de imersão do app sem ter que mudar o tamanho. A interação com objetos virtuais deve ser natural, imitando o mundo real. Agora, os objetos podem girar de modo intuitivo com a mão das pessoas como se elas estivessem segurando algo real. Isso foi integrado com a Visualização Rápida, então manipular e reposicionar conteúdo 3D dentro do seu espaço ficou ainda mais fácil. É muito simples aplicar esse comportamento a objetos dentro dos apps. Não é preciso implementar um pacote complicado de movimentos. Em vez disso, você pode optar pelos aprimoramentos na nova API de manipulação de objetos usando um único modificador de visualização da SwiftUI.

    Ou, no RealityKit, usando o novo ManipulationComponent. Se você estiver usando a API Quick Look para visualizar modelos 3D nos apps, receberá suporte gratuito para ObjectManipulation. Há diversos frameworks conhecidos que você pode usar para criar apps no visionOS. A SwiftUI fornece a base e os elementos da interface do seu app. O RealityKit é a melhor maneira de mostrar conteúdo 3D. E o ARKit fornece informações contextuais detalhadas sobre o ambiente do mundo real. Juntos, eles fornecem uma poderosa caixa de ferramentas para criar as melhores experiências espaciais da categoria. Agora, um novo pacote de APIs aprofunda a integração entre esses frameworks. Vamos explorar alguns deles de modo mais aprofundado. A API de conversão de coordenadas unificadas simplifica a movimentação de visualizações e entidades entre cenas, mesmo entre visualizações e âncoras de acessórios do ARKit. Isso simplifica drasticamente o posicionamento do conteúdo ao criar espaços de coordenadas de SwiftUI, RealityKit e ARKit. A entidade do RealityKit e suas animações são observáveis, o que permite que sejam usadas diretamente nas visualizações da SwiftUI. O RealityKit agora pode contribuir com atualizações da SwiftUI como qualquer outro observável, permitindo a fácil reação a alterações no conteúdo 3D. Você pode criar manipuladores de movimentos na SwiftUI e anexá-los diretamente a entidades do RealityKit sem passar pelo RealityView como intermediário. Aplicar movimentos da SwiftUI diretamente a entidades produz uma superfície de API mais consistente e poderosa que unifica ainda mais a manipulação de gestos em várias plataformas e frameworks. No visionOS 1, fornecemos uma maneira de adicionar visualizações da SwiftUI à cena do RealityKit por meio de anexos do RealityView. Agora, estamos introduzindo um ViewAttachmentComponent, que permite declarar a interface alinhada com o restante do código do RealityKit. Você não precisa mais declarar seus anexos com antecedência e pode adicioná-los como desejado diretamente na cena como componentes. O Model 3D é uma ótima maneira de apresentar conteúdo 3D no app, e estamos ampliando esse recurso para fazer ainda mais, como alternar entre as configurações definidas nos modelos. Agora você pode reproduzir, pausar, retomar e interromper animações, controlar o tempo de reprodução da animação, carregar e selecionar variantes de um arquivo USD e carregar e selecionar configurações de um arquivo .reality. Mas e se você quiser fazer mais com seu conteúdo 3D? Como fazê-lo se destacar com efeitos de partículas? Para isso, você precisa do RealityView. O RealityView funciona perfeitamente com o sistema de layout e inclui um novo modificador de visualização, o realityViewSizingBehavior, que oferece flexibilidade no modo como o RealityView será dimensionado em relação ao conteúdo 3D dentro dele.

    Essas são apenas algumas melhorias que estão chegando à SwiftUI e ao RealityKit. Para saber mais, confira estas sessões.

    E para ter um exemplo de como essas novas APIs incríveis se juntam em um único app, confira o exemplo do Canyon Crosser em developer.apple.com.

    Visuais atraentes são apenas parte da história. Agora é possível criar experiências de Áudio Espacial ainda mais avançadas, não importa qual é a API de reprodução ideal para você. Antes, no visionOS, todos os sons eram reproduzidos usando os frameworks AudioToolbox ou AVFoundation, com recursos espaciais adicionados na primeira janela do app. Agora, a nova API de experiência de Áudio Espacial permite incluir recursos espaciais em cada som em sua própria janela ou volume. Você pode até mover facilmente os sons de uma cena para outra. Este ano, também vamos incluir novos recursos no RealityKit para permitir que os apps se misturem de um jeito ainda melhor com o mundo real.

    A oclusão do ambiente permite que objetos virtuais sejam ocultados por objetos estáticos do mundo real. Esse comportamento é aplicado automaticamente para fixar Widgets e modelos 3D do QuickLook. Você pode usar esse comportamento em apps do Immersive RealityKit adicionando EnvironmentBlendingComponent a qualquer entidade. Outro recurso interessante é o novo MeshInstancesComponent, que permite desenhar com eficiência inúmeras variações exclusivas de um ativo. Este exemplo demonstra a renderização e animação de 1.000 objetos distintos derivados de apenas cinco ativos únicos. Combinado com o suporte à textura de formato de arquivo de imagem AV1 e maneiras mais fáceis de exibir imagens de todos os tipos, inclusive imagens espaciais, você pode aumentar a qualidade e o desempenho das cenas 3D no espaço compartilhado. Estamos adicionando muitos recursos, como atualizações de compreensão de cena, atualizações de entidade e um novo tipo de imagem com o novo ImagePresentationComponent. Mal podemos esperar para saber as maneiras criativas e divertidas como vocês vão usar essas APIs nos apps. Para saber mais sobre essas atualizações, confira a sessão "Novidades no RealityKit". Ou para ver como você pode criar um jogo usando o RealityKit, baixe o exemplo de Petite Asteroids no site Apple Developer. Agora vou passar para Sharlene apresentar os Recursos do sistema. Obrigada, Edwin. Olá! Meu nome é Sharlene e eu sou Program Manager do visionOS. Vamos explorar os recursos do sistema. O aprendizado de máquina avançado é parte integrante dos produtos Apple. Em março, lançamos um pacote de recursos da Apple Intelligence e continuamos incluindo atualizações aos nossos modelos e recursos fundamentais, como Image Playground. Vamos a algumas delas. Com o novo framework Foundation Models, você tem acesso direto ao modelo de linguagem grande no aparelho que está no centro de muitos recursos da Apple Intelligence. O Guided Generation permite gerar uma saída estruturada, e o Tool Calling permite que o modelo execute as ações definidas no código de modo autônomo. Para saber mais sobre esses recursos, confira estas sessões. No visionOS 2.4, lançamos o Image Playground para visionOS, para transformar descrições, conceitos e pessoas em imagens originais divertidas, além de integrar recursos de geração de imagens nos apps por meio do framework Image Playground. Nos modelos mais recentes do iOS, macOS e visionOS, o Image Playground conta com mais formas de se expressar.

    Ao criar imagens inspiradas em amigos e familiares, você tem mais controle para personalizar expressões ou atributos, como penteado. No Image Playground, agora você pode criar imagens usando o ChatGPT, bem como acessar todos os novos estilos, como pintura a óleo ou vetor. E para momentos em que você tem uma ideia específica em mente, use o estilo "Any" para descrever o que deseja. Todos esses recursos estão disponíveis automaticamente por meio de APIs existentes do Image Playground. Além dos recursos da Apple Intelligence, estamos introduzindo uma nova API de conversão de fala em texto para iOS, macOS e visionOS chamada SpeechAnalyzer. O SpeechAnalyzer usa o poder da Swift, uma tecnologia avançada de reconhecimento de fala, para liberar recursos avançados de conversão de fala em texto. Ele já impulsiona recursos em muitos apps do sistema, como transcrição de áudio e ligações no Notas, legendas ao vivo no FaceTime e muito mais. Com o SpeechAnalyzer, é fácil criar recursos interessantes como esses para seus próprios apps. Junto com a nova API, estamos lançando um novo modelo de conversão de fala em texto, o SpeechTranscriber. Esse modelo é mais rápido e flexível do que o modelo da geração anterior e é ideal para tarefas difíceis de transcrição, como legendas de mídia. E o SpeechAnalyzer é executado inteiramente no dispositivo, mantendo total privacidade dos dados. Parte da magia da computação espacial é sua capacidade de planejar perfeitamente o conteúdo digital no ambiente existente. Agora, suas janelas, cenas e até mesmo conteúdo 2D ou 3D na Visualização Rápida podem persistir, reaparecendo no mesmo lugar mesmo após a reinicialização. APIs adicionais de restauração de SwiftUI permitem especificar quais cenas podem ser restauradas, bem como reagir a superfícies de encaixe. Por exemplo, o acesso às suas janelas, como a janela do Inspetor no app, agora pode ser suprimido durante a inicialização e marcado para desativar a restauração usando duas APIs que talvez você conheça do macOS Essas APIs e uma nova propriedade de ambiente de encaixe de superfície permitem integrar o app em um espaço, mudando dinamicamente o conteúdo com base no tipo de superfície e fornecendo o conjunto certo de janelas na próxima vez que o app é acessado em um espaço. Esse comportamento também será incluído em uma nova classe de conteúdo. Widgets. Os widgets são extensões de app leves que oferecem informações úteis e personalizadas rapidamente, como uma previsão do tempo ou um evento do calendário. Os widgets podem se encaixar em paredes e mesas, misturando-se ao ambiente e permanecendo exatamente onde você os coloca. No visionOS, os widgets criados para iOS e iPadOS usando o WidgetKit e a SwiftUI ficam ainda melhores. Sua visualização de widgets adotará automaticamente os novos tratamentos visuais, aproveitando a profundidade e a dimensão, sem alterações. Também estamos introduzindo mais APIs para widgets do visionOS. Como os widgets ficam como objetos virtuais no espaço, você pode interagir com eles de diferentes distâncias. Uma API levelOfDetail permite mostrar visualizações alternativas com base na proximidade do usuário para que os widgets exibam a quantidade ideal de informações. Adicionamos a API widgetTexture, que permite ajustar a aparência dos widgets do vidro para o papel. A seguir, vamos saber mais sobre jogos, começando pela entrada. No Vision Pro, a entrada gerada com as mãos e os olhos é a principal maneira de as pessoas interagirem com o conteúdo. Para apps de espaço imersivo e jogos que exigem movimentos rápidos das mãos, o visionOS 26 agora conta com um rastreamento manual até três vezes mais rápido. Isso pode deixar seus jogos ainda mais responsivos sem códigos extras. Também estamos introduzindo suporte para dois acessórios espaciais que oferecem novos mecanismos de entrada no visionOS: o controle Sony PlayStation VR2 Sense e o Logitech Muse. Esse controle de jogos espacial é ótimo para jogos. Ele pode ser rastreado sem fio em 6 graus de liberdade, aceita o avanço das mãos e a navegação do sistema, além de movimentos no nível do sistema, como tocar para fora da caixa. Com esses novos recursos, títulos como Resolution Game's Pickle Pro podem desbloquear novas experiências poderosas para os jogadores. Também facilitamos a localização dos acessórios conectados. Agora, seus controles PlayStation Dual Sense, Xbox Series X e S e Xbox One atravessam o conteúdo virtual por padrão, mesmo durante a imersão nos jogos. Para experiências espaciais que exigem tarefas precisas, como desenhar ou esculpir, o Logitech Muse oferece fluxos de trabalho criativo totalmente novos para o visionOS. Seus quatro sensores permitem a entrada variável na ponta e no botão lateral, assim como ocorre com a resposta tátil para integração nos apps. Esses acessórios espaciais funcionam quando há um ou vários apps abertos. Eles fornecem resposta tátil para aprimorar a imersão no app. Você pode usar o framework já conhecido GameController para descobrir conexões Bluetooth. E, para o rastreamento, você poderá usar o RealityKit ou ARKit se o app usar um renderizador personalizado com Metal e Compositor Services. Para saber mais sobre como adicionar a entrada de acessórios espaciais aos apps, confira a sessão "Entrada de acessórios espaciais no visionOS". Além dos acessórios, um novo pacote de recursos de software amplia as possibilidades ao levar seus jogos para o Vision Pro. Este ano, com o novo limite de memória aumentado no visionOS, você pode levar jogos avançados de iPad para o Vision Pro usando a App Store Connect. Ao desenvolver seu jogo existente com o SDK do visionOS, você pode aproveitar a tela de alta resolução do Vision Pro e o suporte a controles de jogos prontos para uso com pouco ou nenhum código adicional. Ao criar com frameworks nativas, você pode usar o estilo de imersão progressiva para trazer mais dimensão aos apps e jogos existentes para iOS. Isso permite personalizar seu alcance de imersão, além de ser uma maneira atraente de apresentar gradualmente uma experiência imersiva, mantendo as pessoas ancoradas no mundo real. Isso é ótimo para jogos existentes para iPhone ou iPad que foram recompilados para funcionar no visionOS. Este ano, expandimos o estilo de imersão progressiva para oferecer suporte à nova proporção de paisagem e retrato, que é ideal para apresentar jogos com movimento intenso. Você pode aproveitar esses dois novos tratamentos usando a SwiftUI e o RealityKit e, se estiver trazendo seu próprio mecanismo de renderização de metal para o visionOS, estenderemos o estilo de imersão progressiva para o Compositor Services. Para saber mais sobre como usar o estilo de imersão progressiva no jogo ou como transformar seu jogo para iOS ou iPadOS existente em uma experiência espacial única, confira estas sessões. O Compositor Services permite trazer seu próprio mecanismo de renderização de metal para o visionOS, permitindo renderizar em um espaço imersivo no estilo de imersão completa, mista ou progressiva. Este ano, o Compositor Services está adicionando dois novos recursos para melhorar sua experiência no app. Efeitos de foco e qualidade de renderização dinâmica. Vamos descobrir o que eles fazem. Os efeitos de foco melhoram a interação adicionando um efeito de realce quando os usuários observam os elementos interativos no app. Neste ano, incluímos o efeito de foco de proteção de privacidade para Metal Immersive Apps. Para usar esse recurso, configure o formato de textura da área de rastreamento, adicione áreas de rastreamento ao desenho, configure o efeito de foco na área de rastreamento e desenhe o valor de renderização.

    Otimizar o desempenho de renderização do app exige um controle refinado, então este ano adicionamos suporte para qualidade de renderização dinâmica no Compositor Services, permitindo que cenas muito detalhadas ganhem destaque.

    O aumento da resolução nas cenas renderizadas pode melhorar muito a experiência do usuário. Com esse novo recurso, você pode controlar a qualidade dos quadros renderizados pelo app.

    À medida que aumenta a qualidade da renderização, a área de alta relevância na textura se expande, levando a um tamanho geral de textura maior. Aumentar a qualidade também significa que o app vai usar mais memória e energia.

    Se você estiver renderizando texto ou elementos da interface, será útil configurar uma qualidade de renderização mais alta. Para garantir que o app funcione bem, é importante encontrar um equilíbrio entre imagens de maior resolução e gerenciar o uso de energia e memória do app.

    Outro recurso poderoso que estará disponível este ano é a renderização espacial do macOS, que permite usar a potência do Mac para renderizar e transmitir conteúdo imersivo diretamente no Vision Pro. Desde a pré-visualização de conteúdo espacial, adicionando experiências imersivas a apps existentes para Mac, até a criação de um jogo totalmente imersivo, o app combina os incríveis recursos de renderização do Mac com as telas avançadas de alta resolução do Vision Pro. Para criar uma experiência imersiva compatível com o Mac, vamos usar os mesmos frameworks que permitem criar apps imersivos nativos. O Compositor Services e o ARKit agora estão disponíveis no Mac e podem ser usados com o novo tipo de cena Remote Immersive Space da SwiftUI. Para saber mais sobre efeitos de foco, qualidade da renderização dinâmica e renderização espacial do macOS, confira a sessão "Novidades do Metal Rendering para Immersive Apps".

    No visionOS 26, também estamos tornando os jogos em conjunto ainda mais envolventes com as novas funcionalidades do TabletopKit. O TabletopKit permite que você se concentre em dar vida aos seus jogos compartilhados mais imaginativos, lidando com redes, entradas, animações e layout do jogo. Para permitir ainda mais flexibilidade e controle, vamos introduzir duas novas APIs. CustomEquipmentState permite adicionar seus próprios campos de dados às peças do jogo, conhecidas como Equipamento. Esse estado personalizado é conectado automaticamente em rede para uma sincronização contínua. E, com CustomActions, você pode definir ações a serem acionadas ao longo do jogo. De mudanças de propriedade a atualizações dinâmicas de cores, suas ações personalizadas são executadas em rede sem esforço.

    Você não precisa se preocupar com as partes difíceis, como rede e entrada, para se concentrar no que mais importa: seu jogo. Para saber mais, confira o minijogo de amostra TabletopKit. Agora Enrica apresentar falar as Experiências compartilhadas.

    Olá! Meu nome é Enrica. Sou engineering director na equipe visionOS Apps. Vamos mostrar alguns dos incríveis novos recursos que chegarão ao visionOS este ano.

    Muitas das melhores experiências espaciais são compartilhadas e ganham vida por meio do SharePlay e Spatial Personas. O SharePlay traz experiências compartilhadas aos apps. É incrível poder experimentar conteúdo virtual com pessoas do outro lado do mundo. Vimos esse recurso desbloquear casos de uso notáveis, que variam de empresa, produtividade, entretenimento e muito mais. Mas e se você quiser incluir alguém que está fisicamente ao seu lado em uma experiência espacial no Vision Pro?

    No visionOS 26, o Compartilhamento de janelas próximas permite criar experiências espaciais compartilhadas para pessoas que estão no mesmo cômodo. Vejamos o Defenderella by Rock Paper Reality, um jogo para defender a torre que ganha vida na sua própria sala de estar.

    Você pode usar o Compartilhamento de janelas próximas nos apps existentes do SharePlay sem códigos extras.

    Além disso, o ARKit agora funciona com Shared World Anchors, tornando possível ancorar corretamente o conteúdo compartilhado no cômodo. Você pode mover, redimensionar e ajustar apps e conteúdo ao seu redor durante uma sessão do SharePlay. E com a Visualização Rápida, você pode manipular, dimensionar e transferir objetos virtuais uns para os outros, igual faz com objetos físicos.

    O Spatial Persona saiu da versão beta e conta com um pacote completo de aprimoramentos no cabelo, tom de pele, expressões, representação e muito mais. Para saber mais sobre como criar experiências de compartilhamento de janelas próximas, confira esta sessão. As novas experiências espaciais incríveis não param por aí. Vamos explorar a mídia.

    Pessoas no mundo todo adoram reviver suas memórias no Vision Pro. E agora elas contam com uma nova maneira incrível de interagir com fotos. Você pode usar o novo ImagePresentationComponent do RealityKit para aproveitar a IA generativa no dispositivo e exibir conteúdo estéreo monoscópico ou espacial em uma cena espacial 3D, otimizada para renderização em tempo real de vários pontos de vista. Isso permite que os usuários se inclinem e olhem ao redor do conteúdo como se estivessem fisicamente nele. O Vision Pro é a melhor maneira de ver filmes, fotos espaciais e vídeos 2D e 3D. Temos também o inovador Apple Immersive Video, que continua desafiando os limites do que é possível com a agilidade da vida real e a fidelidade de presença.

    Atualmente, os formatos de mídia tem um espectro abrangente. Eles incluem vídeo 2D, filmes 3D estereoscópicos, vídeos espaciais gravados no iPhone ou Vision Pro. E o Apple Immersive Video, que coloca você no centro da ação, com o Áudio Espacial da Apple. Este ano, vamos ainda mais longe ao adicionar suporte para três novos tipos de experiência de mídia. Estamos trazendo suporte no nível do sistema para mídia 180°, 360° e ultra-angular capturada por câmeras populares da Canon, GoPro e Insta360. Somando isso, o visionOS 26 oferece a linha mais abrangente de maneiras de experimentar mídia imersiva. Esse suporte líder do setor é possível graças ao Apple Projected Media Profile, que oferece uma maneira flexível de expressar operações geométricas adicionais por pixel, chamadas de projeção, para uma apresentação ideal para o espectador. O Apple Projected Media Profile, ou APMP, é uma abordagem baseada em metadados que permite que os arquivos do QuickTime e MPEG-4 sinalizem que são 180°, 360° ou ultra-angular. Isso é fundamental para permitir fluxos de trabalho ideais de reprodução e edição. Também incorporamos ao APMP a detecção de movimentos intensos, oferecendo conforto ocular ao apresentar de maneira imersiva conteúdo complexo, como imagens de ação.

    E como existem muitas bibliotecas de conteúdo semelhante feito por câmeras populares de terceiros, o visionOS vai gerar automaticamente metadados APMP para algumas dessas câmeras. Mencionamos o tratamento exclusivo de mídia ultra-angular filmada por de câmeras de ação. Por isso, vamos analisar os princípios fundamentais do APMP. A dispositivo de captura à esquerda cria um quadro de vídeo padrão.

    Devido à natureza das lentes grande-angulares, a imagem está distorcida. A filmagem de origem contém distorção em barril introduzida pela lente. Inspirado na abordagem do Apple Immersive Video, o APMP permite que frameworks de mídia corrijam a distorção da lente ao projetar os pixels em uma superfície curva definida pela lente e pelo modo de captura. Isso traz conteúdo anteriormente visto em 2D para o mundo da mídia imersiva, proporcionando uma maneira fantástica de aliviar suas próprias experiências de câmera de ação. No APMP, adotamos totalmente a mídia 180°, 360° e ultra-angular, integrando suporte ao sistema. E mal podemos esperar para ver como isso abre novas possibilidades criativas para seus apps e dispositivos com câmera. Você pode experimentar todos esses formatos de mídia imersivos, incluindo Apple Immersive Video, imediatamente na Visualização Rápida pelo app Arquivos ou dentro do seu app com suporte completo para Imersão Progressiva para personalizar os níveis de imersão.

    A reprodução funciona nas APIs AVKit, RealityKit e Quick Look, além de WebKit. Assim, não importa a experiência criada, é possível integrar mídias impressionantes em diversos formatos.

    Profissionais de criação podem reproduzir o conteúdo Apple Immersive Video produzidos com Blackmagic, URSA Immersive Camera e DaVinci Resolve em seus apps ou no Safari. Com as atualizações do macOS e visionOS, o novo framework Immersive Media Support permite criar, processar e compartilhar conteúdo do Apple Immersive Video dos próprios pipelines de produção. Saiba mais sobre o APMP e o Apple Immersive Video e como oferecer suporte a experiências de vídeo imersivas em seus apps nas sessões indicadas aqui.

    Se estiver gravando conteúdo no Vision Pro, agora você poderá capturar três vezes mais conteúdo por sessão com o Reality Composer Pro. O simulador agora suporta resolução 4K, além de gravação para quando você não tem um dispositivo em mãos.

    A seguir, vamos dar uma olhada em alguns recursos novos no Safari.

    A navegação espacial transforma a internet de um plano 2D em uma tela que ganha vida com experiências espaciais.

    Temos uma nova maneira simples de assistir e procurar vídeos, mantendo a reprodução do vídeo no campo de visão enquanto faz referência a outro conteúdo na página.

    Você pode transformar páginas online para desbloquear mídia espacial integrada que ganha vida na rolagem, bastando selecionar o botão de navegação espacial na barra de navegação. Páginas que possam ser visualizadas no Modo Leitor no iOS e macOS podem se transformar quando você entra em tela cheia para ver a mídia espacial ao seu redor, tudo isso sem sair Safari.

    Agora web developers podem incorporar modelos 3D em sites usando o novo elemento de modelo HTML. A API declarativa simples permite mostrar seu modelo USDZ estereoscopicamente. O modelo passa a ser parte da página e pode ser estilizado com CSS, além de configurado com JavaScript. Também pode ser arrastado para o mundo real com a Visualização Rápida, que transmite a sensação de poder tocar no item que você está olhando.

    Como mencionado anteriormente, o Safari agora também aceita vários formatos de mídia espacial. Além de exibir imagens espaciais dentro do Safari, agora você pode adicionar vídeos espaciais usando todos os formatos suportados, incluindo Apple Immersive Video, nas páginas da internet com o elemento de vídeo HTML existente, de modo a aproveitar o conteúdo espacial de forma imersiva ao entrar em tela cheia.

    Também estamos habilitando uma nova visualização para desenvolvedores chamada Web Backdrop, na qual você pode oferecer ambientes imersivos personalizados a visitantes por meio de marcação HTML. Estamos ansiosos para ver a criatividade dos seus sites no visionOS.

    Saiba mais sobre esses recursos e outros na sessão "Novidades nos recursos espaciais para internet".

    Também adicionamos uma nova maneira de navegar na internet e no conteúdo sem as mãos, apenas com os olhos, chamada "Look to Scroll". Isso funciona na criação de apps como Safari, TV, Música, App Store, Notas e Mail, além da Visualização Rápida.

    Você pode usar esse recurso em apps com APIs na SwiftUI e UIKit. À medida que a computação espacial transforma as experiências pessoais, ela também revela oportunidades poderosas na empresa. Nossa inspiração foi a incrível diversidade de casos de uso, que abrangem setores como saúde, manufatura e transporte, para citar apenas alguns.

    Nesses ambientes, adoramos o que as empresas estão fazendo em relação a design colaborativo, simulação, trabalho guiado e muito mais. Agora, o visionOS 26 torna ainda mais fácil para as empresas trazerem o Vision Pro para suas organizações.

    Usando os direitos corporativos aprovados, os apps para empresas podem estender o acesso da câmera principal ao espaço compartilhado, permitindo executar experiências com câmera ao mesmo tempo que outros apps espaciais.

    E o app agora pode acessar uma câmera principal individual ou os feeds da câmera principal esquerda e direita simultaneamente.

    Usando o novo CameraRegionProvider do ARKit, você pode receber um feed de vídeo estabilizado aprimorado de uma região de interesse selecionada.

    As pessoas podem aproveitar esse recurso para trazer informações críticas da periferia para sua linha de visão ou para compartilhar uma parte estabilizada da visão com um participante remoto. Você também pode fornecer parâmetros adicionais para melhorar a região fixa, como alterar o contraste e aumentar a vibração. Além das câmeras, adicionamos uma nova API, o Protected Content, para proteger melhor os dados confidenciais. Usando um único modificador de exibição, você pode marcar a visualização do app como protegida, e o sistema proibirá capturas de conteúdo dessa visualização. Capturas de tela, gravações de tela, AirPlay e SharePlay serão desativados. Por fim, para apps para visionOS com direitos licenciados, agora você pode colocar o Windows no Window Follow Mode, permitindo que os apps sigam automaticamente sua posição conforme você se move no espaço. Além desses novos recursos, estamos facilitando ainda mais a implantação do Apple Vision Pro em ambientes corporativos. O recurso Retorno ao Funcionamento permite que as empresas compartilhem dispositivos com mais facilidade e segurança entre membros da equipe. Quando ativado, o Vision Pro preserva os apps baixados via MDM para várias pessoas e garante que todas as informações confidenciais sejam apagadas entre as sessões.

    Essa redefinição pode ser acionada em um intervalo predefinido ou manualmente, preparando o dispositivo para a próxima pessoa.

    Para usar o recurso Retorno ao Funcionamento, os dispositivos devem ser configurados no Apple Business Manager. Os dispositivos são registrados automaticamente no Apple Business Manager quando comprados por meio de canais corporativos autorizados. No caso de dispositivos comprados em outros lugares, atualizamos o Apple Configurator para iOS para que profissionais de TI registrem manualmente o Apple Vision Pro no Apple Business Manager para supervisionar os dispositivos da empresa.

    Também fizemos melhorias para que as pessoas possam começar a usar o Vision Pro mais rápido do que nunca. Com os aprimoramentos no Início Rápido, as pessoas agora podem importar os dados de configuração do Vision Pro armazenados no iCloud ou no dispositivo iOS, eliminando a necessidade de recadastrar mãos e olhos. Para as empresas que ainda não usam o FaceTime e SharePlay, agora é possível criar experiências compartilhadas localmente aproveitando a própria infraestrutura. Por meio da API SharedCoordinateSpaceProvider no ARKit usando direitos gerenciados, agora você pode solicitar acesso aos dados subjacentes de pessoas no mesmo espaço físico, permitindo casos de uso como design colaborativo e revisão. Para saber como aproveitar os vários recursos de que falamos hoje, acesse developer.apple.com para obter exemplos e documentação.

    Esses foram alguns dos recursos incríveis disponíveis no visionOS 26. Mal podemos esperar para saber o que você criará com eles! Agradecemos a participação. Curtam o restante da WWDC.

    • 2:25 - DepthAlignment

      // Layout types back align views by default
      
      struct LandmarkProfile: View {
      
          var body: some View {
             VStackLayout().depthAlignment(.front) {
                  ResizableLandmarkModel()
                  LandmarkNameCard()
              }
          }
      }
    • 2:41 - rotation3DLayout

      // Rotate using any axis or angle
      
      struct PlaneStack: View {
          
          var body: some View {
              VStack {
                  ToyPlaneModel()
                  ToyPlaneModel()
                    .rotation3DLayout(angle, axis: .z)
                  ToyPlaneModel()
              }
          }
      }
    • 4:22 - Dynamic Bounds Restrictions

      // Dynamic Bounds Restrictions
      
      struct ContentView: View, Animatable {
      
          var body: some View {
              VStackLayout().depthAlignment(.front) {
                  // . . .
              }
              .preferredWindowClippingMargins(.all, 400)
          }
      }
    • 5:05 - Model3D manipulable view modifier

      // Apply the manipulable view modifier to each Model3D block per 3D object
      
      struct RockView: View {
          var body: some View {
              RockLayout {
                  ForEach(rocks) { rock in
                      Model3D(named: rock.name, bundle: realityKitContentBundle) {
                          model in
                          model.model?
                              .resizable()
                              .scaledToFit3D()
                      }
                      .manipulable()
                  }
              }
          }
      }
    • 5:14 - ManipulationComponent

      // Add a ManipulationComponent to each entity in your scene
      
      struct RealityKitObjectManipulation: View {
          var body: some View {
              RealityView {ccontent in
                  let rocks = await loadRockEntities()
                  arrangeRocks(rocks)
                  for rock in rocks {
                      ManipulationComponent.configureEntity(rock)
                      content.add(rock)
                  }
              }
          }
      }
    • 5:18 - QuickLook3DView

      // Preview multiple 3D models simultaneously in your space with Quick Look and 
      // get object manipulation on each of them by default
      
      struct QuickLook3DView: View {
          
          let url: URL
          var body: some View {
              VStack {
                  Button("View in your space") {
                      _ = PreviewApplication.open(urls: [url])
                  }
              }
          }
      }
    • 6:36 - Gestures on entities

      // Gestures on entities
      struct GestureExample: View {
          @GestureState private var dragMountain: Float = 0
          @GestureState private var dragTerrain: Float = 0
      		var body: some View {
              RealityView { content in
                  let drag1 = GestureComponent(
                      DragGesture().updating($dragMountain) { value, offset, _ in
                          offset = Float(value.translation.width)
                      })
                  let drag2 = GestureComponent(
                      DragGesture().updating($dragTerrain) {evalue, offset, _ in
                          offset = Float(value.translation.width)
                      })
                  mountain.components.set(drag1)
                  terrain.components.set(drag2)
              } update: { content in
                  // . . .
              }
          }
      }
    • 6:55 - Attachments on entities

      // Attachments on entities
      
      struct AttachmentComponentExample: View {
          var body: some View {
              RealityView { content in
                  // ... Load the mountain entity
                  
                  // Create an AttachmentComponent with any SwiftUI View
                  let attachmentComponent = ViewAttachmentComponent(
                      rootView: NameSign()
                  )
                  mountain.components.set(attachmentComponent)
              }
          }
      }
    • 13:43 - SwiftUI restoration APIs

      var body: some Scene {
          // . . .
          WindowGroup(id: "Editor") {
              EditorView()
          }
      
          Window("Inspector", id: "Inspector") {
              InspectorView()
          }
          // Prevent the inspector window from being launched on its own without an
          // editor window present.
          .defaultLaunchBehavior(.suppressed)
          // Prevent the inspector window from being persisted and restored across
          // different process or boot sessions.
          .restorationBehavior(.disabled)
      }
    • 33:45 - Look to scroll

      // SwiftUI
      var body: some View {
          ScrollView {
              HikeDetails()
          }
          .scrollInputBehavior(.enabled, for: .look)
      }
      
      
      // UIKit
      let scrollView: UIScrollView = {
          let scroll = UIScrollView()
          scroll.lookToScrollAxes = .vertical
          return scroll
      }()
    • 0:00 - Introdução
    • Saiba mais sobre as atualizações do visionOS 26, incluindo novas APIs volumétricas, recursos no nível do sistema, recursos aprimorados para jogos e SharePlay, integração do Apple Immersive Video, experiências espaciais do Safari, ferramentas empresariais e muito mais.

    • 1:34 - Recursos volumétricos
    • No visionOS 26, o SwiftUI pode ser usado na criação de experiências volumétricas mais imersivas para apps do Apple Vision Pro. Os novos recursos do SwiftUI estendem as funcionalidades existentes e facilitam o trabalho com conteúdo 3D. Você pode criar layouts 3D modernos usando ferramentas e modificadores 2D conhecidos, bem como compor cenas 3D com alinhamentos de profundidade e rotações com reconhecimento de layout que garantem que seu conteúdo seja legível e visualmente atraente. As experiências volumétricas agora incluem apresentações de interface do usuário, como pop-overs, alertas e planilhas, que podem ser exibidas dentro e por cima dos volumes. Os apps integram-se de maneira mais fluida ao mundo real ao renderizar conteúdo além de seus limites, criando uma sensação mais natural e imersiva. A nova API de Manipulação de Objetos permite que as pessoas interajam mais facilmente com objetos virtuais usando movimentos naturais das mãos. SwiftUI, RealityKit e ARKit estão mais integrados, oferecendo uma poderosa caixa de ferramentas para criar experiências espaciais. As novas APIs permitem mover facilmente visualizações e entidades entre cenas, tornar entidades do RealityKit observáveis no SwiftUI e anexar movimentos do SwiftUI diretamente a entidades do RealityKit.

    • 10:28 - Recursos do sistema
    • O visionOS 26 apresenta vários recursos novos do sistema. O framework Foundation Models tem novas funcionalidades de aprendizado de máquina, permitindo acesso a modelos de linguagem no dispositivo e ações autônomas. O Image Playground, disponível no visionOS, iOS e macOS, agora permite que as pessoas criem imagens usando o ChatGPT, apliquem novos estilos, como pintura a óleo, e personalizem expressões. Uma nova API de conversão de fala em texto com tecnologia Swift, o SpeechAnalyzer, permite que você crie recursos avançados de reconhecimento de fala em seu app. O SpeechAnalyzer é executado totalmente no dispositivo, garantindo a privacidade dos dados. O visionOS agora permite que janelas, cenas e conteúdo persistam no mesmo local físico, mesmo durante as reinicializações do sistema. Os widgets espaciais podem se encaixar em paredes e mesas, e a API "levelOfDetail" permite ajustar a aparência e os detalhes dos widgets de acordo com a proximidade.

    • 15:21 - Jogos e acessórios espaciais
    • O rastreamento de mãos está até três vezes mais rápido no visionOS 26, o que torna os jogos mais responsivos. O Apple Vision Pro agora é compatível com dois novos acessórios espaciais: o controle Sony PlayStation VR2 Sense, para experiências de jogo imersivas, e o mouse da Logitech, para tarefas precisas como desenhar e esculpir. Você pode integrar esses acessórios usando frameworks conhecidos. Além disso, o visionOS 26 introduz suporte ao aumento no limite de memória, permitindo que jogos de iPad compatíveis e de alto desempenho sejam executados no Apple Vision Pro. Recursos como os novos tratamentos de estilo de imersão "progressiva", efeitos de foco, qualidade de renderização dinâmica e renderização espacial do macOS permitem criar apps e jogos mais dimensionais e visualmente impressionantes. Você pode usar as novas APIs no TabletopKit para criar experiências de jogo compartilhadas mais flexíveis e envolventes, enquanto lida tranquilamente com a rede e a entrada de dados.

    • 23:00 - Experiências compartilhadas
    • O visionOS 26 traz compartilhamento de janelas com pessoas próximas na mesma sala, suporte do ARKit para âncoras de mundo compartilhadas e Personas Espaciais aprimoradas. Você pode integrar esses recursos a apps existentes do SharePlay para interações virtuais perfeitas na mesma sala.

    • 25:03 - Ecossistema de mídia imersiva
    • As pessoas usam o Apple Vision Pro para reviver memórias por meio de fotos e vídeos espaciais, além de assistir a vídeos em 2D, 3D e espaciais, incluindo o Apple Immersive Video. O visionOS 26 introduz suporte no nível de sistema para três novos tipos de experiência de mídia: Mídia em 180°, 360° e com campo de visão amplo capturada por câmeras populares de terceiros como Canon, GoPro e Insta360. Você cria essas experiências com o APMP (Apple Projected Media Profile), uma abordagem baseada em metadados que permite fluxos de trabalho corretos de reprodução e edição para esses formatos. O APMP gera metadados automaticamente para câmeras selecionadas e corrige a distorção da lente olho de peixe em grande angular, tornando o conteúdo de vídeo mais imersivo. A combinação de suporte à mídia, novas ferramentas para criadores e funcionalidades aprimoradas do simulador abre novas possibilidades criativas e torna o Apple Vision Pro o principal dispositivo para consumo e criação de mídia imersiva.

    • 31:04 - Web espacial
    • O novo recurso de Navegação Espacial no Safari transforma páginas em ambientes 3D imersivos. As pessoas podem assistir a vídeos enquanto navegam, interagir com mídia espacial em linha e arrastar modelos 3D para o mundo real usando a Visualização Rápida. Você pode incorporar modelos 3D e vídeos espaciais em páginas da internet usando uma API declarativa simples. Além disso, uma nova pré-visualização para desenvolvedores chamada Web Backdrop permite oferecer ambientes imersivos personalizados por meio de marcação HTML, e o novo recurso Olhe para Rolar a Tela permite navegação sem as mãos usando movimentos oculares.

    • 34:13 - Novas APIs empresariais
    • O visionOS 26 apresenta vários aprimoramentos para melhorar as experiências empresariais em setores como saúde, manufatura e transporte. Esses aprimoramentos incluem acesso à câmera principal em espaço compartilhado – possibilitando experiências ativadas para câmera simultaneamente com outros apps espaciais; acesso à câmera estéreo – permitindo que os feeds da câmera dos olhos esquerdo e direito estejam disponíveis simultaneamente; a nova API da região da câmera – que fornece um feed de vídeo estabilizado e aprimorado de uma região de interesse selecionada; e o modo de acompanhamento de janela – permitindo que os apps sigam automaticamente a sua posição, conforme você se move pelo ambiente. Também há novas APIs para proteger dados confidenciais desativando capturas de conteúdo e para permitir que os apps acompanhem a posição do usuário. Você pode proteger o conteúdo com um único modificador de visualização, "contentCaptureProtected". O recurso Retornar ao Funcionamento simplifica o compartilhamento de dispositivo nas empresas ao apagar informações confidenciais entre as sessões. Os aprimoramentos do QuickStart aceleram a configuração do dispositivo, e agora você pode criar experiências compartilhadas localmente usando a infraestrutura empresarial. Esses aprimoramentos ajudam a tornar o Apple Vision Pro mais integrado e seguro para uso empresarial.

Developer Footer

  • Vídeos
  • WWDC25
  • Novidades do visionOS 26
  • Open Menu Close Menu
    • iOS
    • iPadOS
    • macOS
    • tvOS
    • visionOS
    • watchOS
    Open Menu Close Menu
    • Swift
    • SwiftUI
    • Swift Playground
    • TestFlight
    • Xcode
    • Xcode Cloud
    • Icon Composer
    • SF Symbols
    Open Menu Close Menu
    • Accessibility
    • Accessories
    • App Store
    • Audio & Video
    • Augmented Reality
    • Business
    • Design
    • Distribution
    • Education
    • Fonts
    • Games
    • Health & Fitness
    • In-App Purchase
    • Localization
    • Maps & Location
    • Machine Learning & AI
    • Open Source
    • Security
    • Safari & Web
    Open Menu Close Menu
    • Documentation
    • Sample Code
    • Tutorials
    • Downloads
    • Forums
    • Videos
    Open Menu Close Menu
    • Support Articles
    • Contact Us
    • Bug Reporting
    • System Status
    Open Menu Close Menu
    • Apple Developer
    • App Store Connect
    • Certificates, IDs, & Profiles
    • Feedback Assistant
    Open Menu Close Menu
    • Apple Developer Program
    • Apple Developer Enterprise Program
    • App Store Small Business Program
    • MFi Program
    • News Partner Program
    • Video Partner Program
    • Security Bounty Program
    • Security Research Device Program
    Open Menu Close Menu
    • Meet with Apple
    • Apple Developer Centers
    • App Store Awards
    • Apple Design Awards
    • Apple Developer Academies
    • WWDC
    Get the Apple Developer app.
    Copyright © 2025 Apple Inc. All rights reserved.
    Terms of Use Privacy Policy Agreements and Guidelines