
-
Platforms State of the Union (ASL)
Discover the newest advancements on Apple platforms.
Ressources
-
Rechercher dans cette vidéo…
Bienvenue dans l’évènement Platforms State of the Union 2025. Une grande année pour nos plateformes. Aujourd’hui, nous allons découvrir des fonctionnalités, des API et des technologies incroyables pour vos apps et vos jeux. Tout notre travail, cette année, exploite les puissantes plateformes d’Apple, qui donnent vie à vos idées les plus folles. Et cela grâce à la parfaite synergie du matériel, des logiciels et des services Apple avec vos apps. Avec la puce Apple, nos plateformes n’ont jamais été aussi puissantes et efficaces. Elle intègre une mémoire unifiée qui optimise les performances, des accélérateurs dédiés pour la vidéo et l’apprentissage automatique et une Secure Enclave qui garantit l’intégrité du système. Ensemble, ces caractéristiques offrent une base solide sur laquelle s’appuient nos technologies logicielles, comme Metal, des API de bas niveau décuplant les performances du matériel, Apple Intelligence, qui offre de puissants modèles génératifs et une confidentialité au cœur de sa conception ; Swift, qui apporte performances et sécurité au système, au SDK et aux apps ; SwiftUI, qui garantit une interactivité, des animations et une conception adaptative avancées.
Et puisque des concepts comme la confidentialité l’internationalisation et l’accessibilité sont au cœur de nos plateformes, vos apps peuvent également en profiter. Ainsi, les utilisateurs accèdent à vos apps de la manière qu’ils préfèrent. Et nous allons encore plus loin avec des API de niveau supérieur qui permettent de profiter de vos apps sur tous les appareils. En utilisant iCloud et CloudKit, leurs données se synchronisent d’un appareil à l’autre tout en profitant d’une confidentialité et d’une sécurité avancées. Les widgets affichent le contenu et les notifications de vos apps exactement où et quand vous en avez besoin Cela fonctionne également pour les activités en temps réel. Vos utilisateurs accèdent directement aux actions et aux données de votre app. Et avec les mêmes frameworks et concepts, il est possible de prendre en charge d’autres plateformes comme visionOS. Lorsque vos apps tirent parti des plateformes Apple, l’expérience devient absolument grisante et constitue une opportunité incroyable. Et nous avons vu encore plus grand cette année. Découvrez comment booster vos apps avec le nouveau design et les effets Liquid Glass, décupler les possibilités des utilisateurs avec Apple Intelligence et l’apprentissage automatique, transformer la façon dont vous écrivez des apps avec l’intelligence générative dans Xcode et les mises à jour de Swift, et améliorer les performances et les capacités de vos apps avec les frameworks repensés, comme SwiftUI et Metal. Commençons par le design de notre UI Liquid Glass, dont Billy va nous parler maintenant.
Cette année constitue une véritable évolution qui marque le début d’une nouvelle ère de notre conception logicielle. De telles évolutions sont rares et constituent un tournant qui redéfinit le champ des possibles. Et c’est indéniablement le cas pour nous. L’ensemble des apps et plateformes Apple bénéficient de ce nouveau design tout en continuant à offrir l’expérience emblématique à laquelle les utilisateurs sont habitués. Surtout, cela vous donne une occasion unique d’actualiser et de moderniser le design de vos apps, pour en créer la meilleure version à ce jour. Aujourd’hui, nous allons vous présenter notre approche ainsi que les concepts essentiels à prendre en compte, les nouveautés de notre API développeurs pour créer vos apps et les nouvelles icônes qui donnent du cachet à vos apps.
Les logiciels sont indissociables de l’identité de nos produits. Et notre intention avec ce design était parfaitement réfléchie, car nous avions plusieurs idées derrière la tête. Tout d’abord, mettre davantage en avant les contenus chers aux utilisateurs. L’UI doit être au service de l’expérience. Elle doit être accessible à tout moment et s’effacer élégamment lorsque les utilisateurs n’en ont pas besoin, afin qu’ils profitent d’une expérience de lecture, de création et de visionnage aussi immersive et impactante que possible. Nous souhaitons également créer un langage de conception universel plus cohérent, harmonieux et pratique. Un langage qui fluidifie les interactions entre les plateformes tout en préservant leur caractère unique. Enfin, grâce aux nouvelles technologies de notre matériel, nous sommes en mesure de créer un design qui était impossible auparavant. Dynamique et expressif, il veille à rendre les expériences utilisateur agréables et ludiques. Commençons par la star de ce nouveau design : Liquid Glass.
Il offre une profondeur et une vitalité jamais vues auparavant en combinant les qualités optiques du verre avec une réactivité sans à-coups. Ainsi, il reflète le contenu en arrière-plan et la lumière des éléments qui l’entourent, tandis les bords bénéficient d’un effet de lentille. Vos interactions sont fluides et organiques, comme si l’interface utilisateur était elle-même en verre. Il ne s’agit pas d’une simple évolution esthétique. L’interactivité est au cœur du nouveau design. Les reflets spéculaires, la réfraction et les propriétés translucides de Liquid Glass donnent vie aux commandes tout en mettant en valeur le contenu affiché en arrière-plan. Maintenant que vous en savez plus cette révolution graphique, découvrons ensemble trois principes qui ont guidé l’implémentation du nouveau design dans vos apps. Établir une hiérarchie. Créer une harmonie. Maintenir la cohérence. Commençons par la hiérarchie. Avec Liquid Glass, les commandes et les éléments de navigation semblent flotter au dessus votre app. Vous gagnez ainsi en profondeur tout en mettant davantage en valeur votre contenu. À cet égard, les éléments autrefois imaginés pour des écrans rectangulaires ont été repensés pour s’adapter davantage aux coins désormais arrondis. offrant plus d’espace pour le contenu de votre app. En regroupant ingénieusement les options, cette nouvelle couche flottante aère les informations à l’écran et permet au contenu de s’étendre jusqu’aux bords de l’écran. La couleur de Liquid Glass change en fonction du contenu de votre app en s’adaptant intelligemment aux environnements clairs et sombres. Et vous pouvez évidemment appliquer vos propres couleurs personnalisées.
Gardez cela à l’esprit quand vous définirez les actions clés, l’état de sélection ou le statut au sein de votre app. Liquid Glass est dynamique par conception. L’utilisateur peut porter toute son attention sur le contenu, car les commandes se mettent en retrait automatiquement avant de s’agrandir lorsque nécessaire. Ça fonctionne sur différents types d’apps, qu’elles arborent une vue unique ou à plusieurs onglets. Avec ce nouveau design, le contenu est au centre de l’expérience. En repensant les commandes et en adaptant leur forme selon leur état, le nouveau design renforce élégamment la hiérarchie tout au long de l’expérience utilisateur. Il semble familier et à la fois entièrement nouveau. Cela nous amène à notre deuxième principe de conception. Une véritable harmonie se dégage du matériel, du contenu et des contrôles. La forme de nos appareils modernes influence la courbure, la taille et la forme de nos éléments d’interface et contribue à la concentricité et l’harmonie visuelle. Pour aller plus loin, les nouvelles formes arrondies s’inspirent de la forme de vos doigts. Les interactions tactiles sont ainsi plus naturelles dans les apps.
La concentricité est essentielle à la capacité du nouveau design à s’ajuster aux tailles d’écran où les barres latérales et d’outils sont parfaitement intégrées aux fenêtres. Outre les formes, tailles et couleurs, la typographie a aussi évolué. Pour rendre le contenu plus convivial, le nouveau design propose une typographie plus grande, épaisse et alignée à gauche. Lorsque vous appliquerez les conventions du nouveau design à votre app, vous remarquerez que chaque composant et commande adopte désormais une taille plus importante et des formes plus douces. Vous bénéficiez d’une expérience harmonisée sur les plateformes Apple et que votre app ne passe pas inaperçue. Ce qui est un véritable atout pour notre troisième principe : maintenir la cohérence. La nouvelle identité s’applique à toutes les plateformes. Il n’a donc jamais été aussi simple de maintenir la cohérence de vos apps. Sous macOS, l’aspect visuel de votre app se rapproche d’iOS et iPadOS tout en conservant la densité appréciée des utilisateurs du Mac. iPadOS partage désormais une disposition similaire à macOS, telle que le placement cohérent d’éléments communs, ou les fenêtres évolutives et les commandes flottantes. Sous watchOS, le contenu transparaît à travers les commandes Liquid Glass. Pour renforcer la cohérence de votre conception tout au long de l’expérience utilisateur, il convient d’adopter les nouvelles commandes Liquid Glass.
Vos éléments d’interface essentiels sont ainsi adaptés à l’ensemble des plateformes, et des tailles d’écrans et fenêtres. Vous venez donc d’avoir un premier aperçu du nouveau look. Nous avons hâte de le découvrir dans vos apps, qui gagneront en fluidité et seront plus agréables à l’œil, tout en permettant aux utilisateurs de profiter davantage de leur contenu, et en leur offrant une expérience harmonisée et une cohérence intra-plateformes. Taylor va maintenant vous parler des API qui permettent d’implémenter le nouveau design dans votre app. SwiftUI, UIKit et AppKit, les frameworks d’UI natifs d’Apple, vous offrent tous les outils dont vous avez besoin pour adopter le nouveau design. Vous commencez par simplement recompiler votre app et examiner le résultat sans aucune modification de code. Vous utilisez ensuite les nouvelles API pour adapter le design à votre app et vous ajustez vos vues personnalisées selon les principes de conception et les effets Liquid Glass. Découvrons d’abord le résultat attendu d’une recompilation de votre app pour les nouvelles versions. Les vues de framework que votre app utilise déjà s’adaptent automatiquement au nouveau design. Voici quelques-unes des plus courantes. Les apps à onglets qui utilisent TabView ou une API équivalente bénéficient automatiquement des barres d’onglets Liquid Glass. Si vous utilisez NavigationSplitView, l’app dispose d’une barre latérale Liquid Glass sur macOS et iPadOS. Sur l’iPad, il est désormais possible de redimensionner les colonnes. Les colonnes inspector ont été remplacées par une application bord à bord unique Liquid Glass pour refléter la relation avec le contenu que les utilisateurs modifient. Les barres d’outils et de navigation s’appuient sur les modèles existants pour les adapter à la manière dont votre app les utilise. Les éléments toolbar de votre app sont désormais intégrés dans Glass et bénéficient d’un nouvel effet de défilement, qui constitue une séparation entre Glass et le contenu principal de l’app. Les piles de navigation ont été mises à jour pour permettre à la barre d’outils de changer de manière fluide pendant la navigation des utilisateurs. Les menus ou pop-ups de la barre d’outils de votre app se transformeront automatiquement dans ces présentations. Et une nouvelle API vous donne un contrôle supplémentaire pour d’autres utilisations comme des présentations. Il ne s’agit que de quelques exemples. La plupart des vues utilisées par votre app bénéficieront automatiquement d’un nouveau look et de nouvelles mesures pour une convivialité et lisibilité améliorées. Ces mises à jour s’appliquent à toutes les plateformes sur lesquelles votre app s’exécute. Voyons ce que donne ce nouveau design. Je vais utiliser un exemple de projet sur lequel nous avons travaillé l’année dernière, Destination Video. Je viens de télécharger le projet, que j’ai ouvert dans Xcode 26, sans y apporter la moindre modification. L’aperçu me montre à quoi ressemble l’app avec la nouvelle barre d’onglets Liquid Glass. Je vais la prévisualiser sur l’appareil pour la découvrir plus en détail.
Observez les sublimes effets Liquid Glass tandis que je fais défiler le contenu. Les onglets disposent d’un nouvel effet d’interaction quand je passe de l’un à l’autre. Et quand j’ouvre une vidéo, le bouton Retour est intégré à Glass. Enfin, le lecteur vidéo dispose d’un nouveau design doté de commandes Liquid Glass.
Destination Video est l’app idéale pour profiter au maximum des vues fournies par le framework. Aucune modification n’était nécessaire pour adopter le nouveau design. Ce sera également le cas pour la plupart de vos apps. C’est aussi le moment opportun pour identifier les composants personnalisés qui peuvent être simplifiés pour bénéficier davantage des vues du framework. Maintenant que l’app dispose de Liquid Glass, nous pouvons affiner le résultat initial et utiliser de nouvelles API pour adapter le design à votre app. Votre app n’utilisera probablement pas toutes ces nouvelles API. Vous pouvez donc choisir celles qui conviendront le mieux à la conception et à l’objectif de votre app. Avec les nouvelles API de barre d’outils, vous pouvez séparer et styliser les éléments selon leur rôle. Certaines vues séparent ainsi automatiquement les éléments en fonction de leurs caractéristiques. La nouvelle API de séparateur vous permet de créer d’autres groupes. Par défaut, l’interface Glass est monochrome, mais vous pouvez lui donner des couleurs avec les modificateurs de teinte et faire ressortir les éléments clés avec un style spécifique. Avec la nouvelle API pour TabView, ajoutez un élément inférieur personnalisé, au-dessus de la barre d’onglets. C’est idéal pour afficher des commandes de lecture ou l’état général de votre app. La barre d’onglets dispose d’une API qui la réduit pendant le défilement, offrant plus d’espace pour le contenu de votre app. Le design du champ de recherche a été mis à jour pour plus de cohérence dans et entre les plateformes. Sur iPhone, il apparaît en bas de l’écran, pour un accès rapide. Avec l’API searchable, nous intégrons à iPadOS le champ de recherche dans la barre d’outils propre à macOS pour davantage de cohérence entre les deux plateformes. Examinons ensemble un exemple. Nous avons travaillé sur une app appelée Landmarks. Le projet est ouvert dans Xcode, et je me trouve sur une des pages. Voici le code et un aperçu de l’app exécutée sous macOS. Il intègre le nouveau design des barres latérale et d’outils. J’aimerais que l’image s’étende au-delà du séparateur pour profiter de l’effet de barre latérale Liquid Glass. C’est le cas d’utilisation parfait pour l’effet d’extension en arrière-plan. Ce nouveau modificateur étend une copie de l’image pour éviter de masquer une partie de l’image d’origine. Ça rend tout de suite mieux. C’est tellement gratifiant. Je vais maintenant ajouter des séparateurs fixes entre les éléments de la barre d’outils pour créer des sections d’éléments associés.
Voyons maintenant le rendu sur iPad. Comme vous le voyez, nos deux changements ont également été appliqués. Outre les vues de framework générales, il existe des API qui permettent de créer des expériences personnalisées exploitant Liquid Glass et d’appliquer des caractéristiques de teinte ou d’interactivité. Nous allons les intégrer à un contrôle personnalisé que j’ai développé dans l’app Landmarks. Voici notre projet, mais, maintenant nous allons modifier la vue badges qui affiche à droite de l’écran les badges de récompense que j’ai reçus. Elle apparaît déjà au-dessus du contenu. Je ne pouvais pas trouver mieux pour appliquer le style Liquid Glass. Je remplace l’arrière-plan des badges par le nouveau modificateur glassEffect et le style de bouton personnalisé par le nouveau style de bouton Glass. J’ajoute aussi un conteneur glassEffect pour faire en sorte que ces effets s’appliquent tous ensemble. L’aperçu s’actualise pour prendre en compte ces changements. Ça rend déjà très bien. Comme vous l’avez constaté, Liquid Glass est très proche d’un matériau physique. Mais, l’avoir en main est une toute autre expérience.
Au toucher, le bouton ressort pour mettre en évidence l’action par un subtile effet d’étirement. En relâchant, Liquid Glass se transforme pour afficher les badges. Bien sûr, chaque app adoptera ce nouveau design à sa manière en fonction de sa conception et de sa complexité. Grâce aux frameworks natifs d’Apple, vous pourrez appliquer facilement ce nouveau design à votre app. Je passe le relais à Bobby, qui va nous parler de la mise à jour des icônes de vos apps. Avec Liquid Glass, les icônes de votre app brilleront de mille feux. Ce nouveau design offre des possibilités de personnalisation, et, pour la première fois, garantit une identité visuelle cohérente entre les plateformes Apple. L’icône de votre app requiert une attention particulière. Elle fait partie intégrante de votre identité et renforce l’engagement. Et Liquid Glass lui apporte perspective, profondeur et vie. Les utilisateurs peuvent choisir des apparences expressives, chacune offrant une variante claire et sombre. La plus répandue est l’apparence classique en couleur. Le mode Teinte propose une variante épurée qui ressort davantage et une variante sombre plus translucide. Et cette année, nous introduisons un mode Clair, qui met superbement en valeur le style Liquid Glass. Sur Mac, les icônes prennent en charge les modes Clair et Teinte et adoptent la forme rectangulaire arrondie propre à l’iPhone. Et puisque la conception des couches, des effets et de la transparence de votre icône vous importent, voici Icon Composer, un nouvel outil pour créer de superbes icônes pour les plateformes Apple. En redesignant nos propres icônes, il est apparu qu’une composition de 2 à 4 couches faisait toute la différence. Et Icon Composer est précisément là pour ça. Voyons cela. Importez d’abord un contenu vectoriel. Vous pouvez organiser et annoter les calques pour divers modes de rendu, ajouter un effet de flou, tester des effets de lumière spéculaire et prévisualiser l’icône dans diverses teintes pour vous assurer qu’elle est impeccable. Lorsque vous êtes prêt à publier, Icon Composer génère un seul artefact source que vous pouvez importer dans Xcode. Il est aussi possible d’exporter des versions haute résolution pour des besoins de marketing et de communication. Liquid Glass offre un nouvel éclat à vos icônes. Et Icon Composer renforcera comme jamais la cohérence visuelle de votre app. Icon Composer est inclus dans Xcode, et vous pouvez obtenir la dernière version sur le site web Apple Developer. À toi de jouer, Matthew. Voici donc le nouveau design emblématique des apps et des expériences système sur les plateformes Apple. Avec Liquid Glass, vos apps se fondent parfaitement dans l’écran et bénéficient d’une meilleure profondeur pour mettre plus en valeur votre contenu. Tous nos frameworks d’UI prennent en charge Liquid Glass. Que vous utilisiez SwiftUI, UIKit ou AppKit, vous pouvez donner une nouvelle envergure à votre app. Sous iOS 26 et macOS Tahoe, les apps conçues avec Xcode 16 conserveront leur interface utilisateur, en gardant leur design actuel. Lorsque vous la retravaillerez dans Xcode 26, les commandes standard bénéficieront automatiquement du nouveau design. Vous pourrez ensuite identifier d’autres aspects d’amélioration visuelle de votre app avec Liquid Glass, notamment les contrôles et les vues personnalisés. En évaluant l’UI de votre app et le temps nécessaire pour adopter le nouveau design, vous pouvez garder le design actuel de votre app dans Xcode 26, mais cette option ne sera plus disponible dans la prochaine version majeure. Il nous tarde de voir les nouvelles moutures de vos apps avec Liquid Glass. Parlons maintenant de l’intelligence. Chez Apple, nous utilisons l’IA et l’apprentissage automatique pour ajouter des fonctions innovantes à toutes nos plateformes. Vos apps peuvent aussi en bénéficier. Et Josh va nous dire comment.
Apple Intelligence est le système d’intelligence artificielle personnelle intégré au cœur de nos systèmes d’exploitation pour aider les utilisateurs, via diverses fonctionnalités comme les outils d’écriture, GenMoji et Image Playground, dans les apps du système, y compris les vôtres. Pour la plupart d’entre vous qui utilisez des frameworks d’UI standard pour intégrer les champs de texte, vos apps prennent automatiquement en charge les outils d’écriture. Et si vous utilisez des moteurs de texte personnalisés, des API permettent à vos utilisateurs de profiter de ces fonctionnalités dans vos apps. De même, GenMoji est disponible sous forme d’autocollants dans votre app lorsque vous utilisez les contrôles de texte système. Des API vous permettent de les restituer avec des moteurs de texte personnalisés. Les API Image Playground peuvent prendre en charge la génération d’images sur l’appareil directement dans vos apps. Et vous n’avez encore rien vu. Les possibilités sont infinies pour intégrer l’intelligence artificielle des appareils Apple à vos apps. Cette année, n’importe quelle app peut bénéficier d’une IA puissante, rapide, respectueuse de la confidentialité et accessible hors ligne grâce au modèle de base intégré à l’appareil qui alimente de nombreuses fonctionnalités : le framework Foundation Models. Cette API permet d’exploiter notre modèle de base optimisé et dédié aux tâches quotidiennes. Grâce au framework, vous intégrez des fonctions intelligentes à votre app via des capacités de modèle comme l’extraction de texte, la synthèse et bien plus encore. Pour interroger le modèle, trois lignes de code suffisent : importer le framework, créer une session et envoyer votre requête au modèle. Le modèle est optimisé par des techniques de quantification de pointe et le décodage spéculatif pour améliorer les performances, l’efficacité et la qualité. Et avec l’aide de Swift, l’API vous permet d’afficher la réponse directement ou progressivement avec la sortie en flux continu. Le framework intègre des garde-fous pour nos fonctionnalités de base. Et vous pouvez ajouter des règles de sécurité pour vos cas d’utilisation. C’est idéal pour la génération de contenu, les guides intégrés l’apprentissage personnalisé, et bien plus encore. Nous réglons le modèle pour des cas d’utilisation étendus. Et lorsque vous l’appelez, vous pourrez ajouter d’autres adaptateurs comme le tagging de contenu pour améliorer davantage les performances de tâches spécifiques. Lorsque vous interrogez un modèle, le LLM doit générer des réponses structurées exploitables par votre app. Et c’est là que la génération guidée entre en jeu. Les données de vos propres structures peuvent être générées automatiquement. Lorsque vous envoyez une requête au modèle, les informations correspondantes sont associées à la structure. Lorsqu’il est interrogé, le modèle produit des instances du type de données, ce qui vous permet de vous consacrer aux fonctionnalités uniques de votre app plutôt que d’avoir à définir et analyser le résultat du modèle. Avec la prise en charge des données structurées en plus du langage naturel, vous pouvez facilement intégrer des fonctionnalités intelligentes parfaitement adaptées à l’expérience utilisateur visée. Une expérience de premier ordre créée dans Swift pour Swift. L’API Foundation Models prend aussi en charge les appels d’outils. Le modèle identifie une tâche nécessitant des informations ou des actions supplémentaires et appelle la fonction appropriée tout en traitant la requête. Pour cela, vous définissez dans Swift les outils que le modèle peut utiliser, comme la récupération de contenus Wikipédia à jour, la consultation d’informations sur l’app ou la création d’une entrée de journal. Le modèle décide par lui-même de l’outil à utiliser et quand y faire appel, sans aucune programmation de votre part. Je vous laisse avec Richard qui va nous faire une démonstration. Nous allons utiliser le framework Foundation Models pour ajouter du contenu génératif à une app de voyage que je développe. Mais d’abord, je vais vous montrer comment interroger le modèle dans Xcode. J’importe d’abord Foundation Models, puis j’utilise la macro Playground pour prévisualiser le code non lié à l’UI. Pour interagir avec le modèle, je crée une LanguageModelSession. À mesure que je tape, le canevas apparaît à droite confirmant le lancement de la session. J’appelle session.respond pour envoyer ma première requête. Je souhaite trouver un nom sympa pour un voyage au Japon. La réponse du modèle apparaîtra instantanément dans le canevas. Pour les grands modèles de langage, l’ingénierie des requêtes consiste à essayer différentes requêtes pour trouver les meilleures. Je veux voir si ma requête fonctionne pour diverses destinations de voyage. Je peux donc ajouter une boucle for pour itérer sur toutes les destinations présentées dans mon app. Depuis le canevas, j’ai accès à l’historique des réponses à différentes requêtes. Playgrounds facilite vraiment l’ingénierie des requêtes. Nous avons vu l’app en action. Ajoutons maintenant une fonctionnalité pour générer des plans de voyage. J’ai conçu son interface sur ces structures de données Swift. Avec la génération guidée, je peux ajouter une mention @Generable afin que le modèle les crée automatiquement selon ma requête. Je peux aussi fournir des guides supplémentaires sur les propriétés pour que le modèle ne génère que des valeurs précises. Selon la logique de mon app, je dois maintenant créer une session et transmettre mes instructions personnalisées au modèle. Je lui demande de générer un itinéraire pour aider un utilisateur à visiter un lieu touristique. Je peux également inclure un exemple d’itinéraire que j’ai créé en amont pour lui donner une idée de la réponse que j’attends. Dans ma session, je peux tirer parti de la capacité d’appel d’outils du modèle. Grâce à elle, vous pouvez amener le modèle à extraire des informations par lui-même. Voici mon outil personnalisé qui utilise MapKit pour rechercher des points d’intérêt lorsque le modèle en a besoin.
J’appelle maintenant session.streamResponse et je demande au modèle de générer une structure de données d’itinéraire. Je transmets ma requête. streamResponse renvoie une séquence asynchrone. Je peux ajuster l’itinéraire dans l’UI à mesure que le modèle le génère. Voyons ce que ça donne. Je sélectionne Grand Canyon, puis je touche Générer un itinéraire. Le modèle génère une description et des activités pour chaque jour. Il a également recherché des points d’intérêt comme les hôtels, avec notre outil personnalisé.
Avec l’envoi de requêtes, la génération guidée et l’appel d’outils, le modèle a créé un périple entier autour du Grand Canyon directement dans mon app. C’est impressionnant. À toi, Josh. Le modèle étant sur l’appareil, les données des utilisateurs sont privées et ne passent par aucun serveur ni un aucun autre système. Le modèle de base intégré est directement accessible. Les fonctionnalités seront disponibles hors connexion, et aucune configuration de compte ni clé d’API ne sont requises. Et tout cela sans frais pour vous ou vos utilisateurs. Le framework Foundation Models rejoint la suite d’API et d’outils d’apprentissage automatique qui permet aux fonctionnalités de votre app de bénéficier de l’intelligence de l’appareil, y compris l’API Speech qui sera bientôt mise à jour. Au-delà des modèles que nous avons fournis sur l’appareil, Vous pouvez utiliser CoreML pour exécuter les modèles sur l’appareil. Il tire parti du CPU, du GPU et du moteur neuronal pour de meilleures performances. D’autres frameworks optimisent vos charges de travail ML pour le traitement du signal en temps réel sur le CPU ou activent l’accès de bas niveau au calcul GPU, et sont tous alimentés par la puce Apple. Selon vos besoins et votre niveau d’expertise avec les modèles, vous pouvez utiliser les frameworks et outils d’apprentissage automatique et d’IA les mieux adaptés pour nos plateformes. Quant à ceux qui testent, entraînent ou règlent des grands modèles de langage ou autres, vous pouvez utilisez MLX, une bibliothèque open source qui tire pleinement parti de la mémoire unifiée de la puce Apple. Vous pouvez améliorer les fonctionnalités et capacités de votre app en leur donnant plus de visibilité sur nos plateformes via le framework App Intents. Les utilisateurs accèdent ainsi aux fonctions de base de votre app, même en dehors de celle-ci. Avec ce framework, vous définissez les App Intents, qui sont les actions qu’elle peut réaliser, et les App Entities, le contenu que votre app peut gérer et produire. Ensemble, ils décrivent les fonctions importantes de votre app. Vous pouvez définir des App Intents liées aux boutons d’action contextuelle, à l’interactivité dans les widgets, à l’automatisation dans Raccourcis, aux commandes du centre de contrôle et aux résultats personnalisés dans Spotlight. Et avec la nouvelle expérience Spotlight sous macOS Tahoe, les utilisateurs accèdent aux App Intents que vous avez créées depuis Spotlight. Si une App Intent dispose de paramètres, les utilisateurs peuvent les remplir. La recherche et l’utilisation de votre app où que vous soyez dans le système deviennent plus naturelles et fluides. Nous introduisons aussi un nouveau schéma d’App Intents pour Visual Intelligence. Vous pouvez appliquer au contenu dans Visual Intelligence la logique de recherche visuelle de votre app. Vos résultats apparaissent directement dans l’expérience de recherche afin que les utilisateurs accèdent à votre app depuis les résultats. Les App Intents sont essentielles pour offrir des expériences riches à vos utilisateurs dans tout le système. Maintenant, retour à Matthew.
L’IA transforme véritablement la façon dont nous rédigeons le code. De nouveaux outils et modèles de programmation puissants libèrent notre créativité et notre productivité. Swift et SwiftUI sont tellement simples qu’ils vous permettent de concrétiser vos idées les plus complexes. Découvrons ensemble quelques fonctionnalités de nos outils et langages imaginés pour transcender vos talents de développeurs. Ken et Holly vont vous dévoiler les nouveautés de Xcode.
Des millions de développeurs à travers le monde utilisent déjà Xcode pour concevoir les apps les plus innovantes pour les plateformes Apple. Xcode 26 regorge de fonctionnalités et d’outils incroyables pour donner vie à toutes vos idées. Commençons par l’intelligence artificielle. Nous avions déjà introduit la saisie semi-automatique du code reposant sur un modèle local alimenté par la puce Apple. En s’inspirant de votre code, elle propose des suggestions pour votre projet. Des millions de lignes de code sont générées chaque semaine grâce à la saisie semi-automatique du code. Nous continuons d’améliorer le modèle en affinant sa précision et en optimisant la collecte de contexte pour l’aider à exploiter votre code, le tout sans quitter votre ordinateur. Au-delà de la saisie semi-automatique du code, l’intelligence générative excelle lorsque vous utilisez le langage naturel. Après des tests de Swift Assist, les retours des développeurs portaient surtout sur les modèles. Vous êtes nombreux à utiliser des modèles de différents fournisseurs. Comme Xcode joue un rôle capital dans votre flux de développement, ces modèles doivent être à portée de main à mesure que vous programmez. C’est une véritable révolution qui apporte de nouvelles capacités, comme le raisonnement et la multimodalité. Nous nous positionnons comme précurseurs en vous offrant une expérience que vous allez adorer. Grande nouvelle : ChatGPT débarque dans Xcode ! Nous coopérons avec OpenAI pour intégrer leurs modèles de codage directement dans Xcode. Vous pouvez tester ChatGPT avec la version bêta de Xcode 26. Voyons comment ça marche. À toi de jouer, Holly. J’ai une idée de fonctionnalité pour l’app Landmarks. Vous allez voir combien il est facile de la concrétiser. J’ouvre le nouvel assistant de codage depuis la barre d’outils de Xcode. Xcode est déjà configuré. C’est parti… Je vais d’abord ajouter une nouvelle vue à l’app Landmarks. Je souhaite afficher des statistiques sur mes lieux préférés. Xcode a créé la vue statistiques et a modifié ma liste de navigation actuelle. Je peux cliquer sur un extrait de code pour voir les changements. Je peux aussi ouvrir l’aperçu. J’y vois tous les fichiers modifiés ainsi que les annotations en surbrillance qui pointent toutes les modifications du code.
Le meilleur dans tout ça ? Xcode met automatiquement le code à jour à ma place. Grâce aux aperçus, je peux consulter l’UI de mon app instantanément. Maintenant que les statistiques sont implémentées, je vais demander quelles sont les données utiles pour créer un tableau de bord intéressant. Pour interagir avec le modèle, Xcode envoie le contexte, comme le fichier que j’ai ouvert, le code que j’ai sélectionné, les erreurs et les fichiers associés. Le modèle peut demander d’autres détails lorsqu’il élabore sa réponse. Ici, il a examiné différents fichiers de mon projet pour en comprendre le code, résumer ses structures de données et en dégager les concepts principaux. Xcode me suggère des références afin que je puisse améliorer mon code.
C’est un bon début. Je vais maintenant lui demander d’implémenter ces idées.
Je n’ai pas donné de directives sur la façon de les présenter. Voyons concrètement comment ça se passe. Maintenant que j’ai les données, élaborons notre futur tableau de bord. Voici un croquis de mon projet. Je l’associe à ma requête.
Une image vaut mille mots. Donc, vous pouvez vous servir d’un dessin, d’une maquette ou encore d’une capture d’écran. Waouh. Impressionnant ! Il a repris les couleurs du système et intègre même des symboles SF. Le concept prend totalement forme ! Mon idée s’est transformée en fonctionnalité dans mon app. Et pour continuer sur votre lancée et être encore plus productif dans vos tâches quotidiennes comme écrire des tests ou de la documentation, corriger des bugs ou simplement comprendre le code, nous plaçons tous ces outils là où vous en avez réellement besoin. Commençons par cette fonctionnalité appelée Outils de codage. C’est comme les outils d’écriture, mais pour la programmation. Je peux les utiliser n’importe où et obtenir des suggestions d’actions, comme générer un aperçu ou un playground, ou même corriger des erreurs. Si je souhaite quelque chose de plus spécifique, j’ai juste à le demander. Le meilleur moyen de comprendre du code, en dehors de toute UI, est de le tester. Une toute nouvelle macro de playground vous permet d’explorer le code. Cela vous permet de prévisualiser littéralement n’importe quel type de code. Je clique sur Generate Playground.
Le code s’affiche directement dans mon fichier. Je vois en temps réel toutes les requêtes exécutées par le code et je peux prévisualiser ce que je souhaite. J’ai vu comment se comporte le code, passons à la documentation. Je sélectionne un élément, puis Document.
La documentation est générée avec des commentaires DocC.
Je suis sûre que vos apps n’ont jamais le moindre bug. Personne n’est parfait, et un bug est vite arrivé… mais aussi vite corrigé ! Je clique sur le problème pour résoudre le bug Et voilà ! L’historique des conversations est de loin ma fonctionnalité favorite. Quand j’utilise des modèles, j’adore pouvoir explorer mes idées précédentes. Parfois, je consulte l’historique, et mon projet prend alors une toute autre direction. Avec ce curseur, je remonte le temps comme si j’étais au volant d’une Delorean. Je peux voir tous les changements et repartir d’une version antérieure. Avec les actions rapides, la résolution intelligente des erreurs, l’historique des conversations, Xcode est plus puissant que jamais. En seulement quelques clics, vous utilisez Xcode et ChagtGPT sans même devoir vous créer un compte. Vous disposez alors d’un nombre limité de requêtes chaque jour, que vous pouvez augmenter avec un abonnement ChatGPT. Et vous gardez le contrôle des données partagées avec OpenAI. Si vous préférez un modèle concurrent, vous pouvez aussi l’utiliser avec Xcode. Il suffit de renseigner la clé d’API Anthropic pour utiliser les derniers modèles comme Claude 4 Opus ou Sonnet directement dans Xcode. Vous pouvez exécuter ces modèles sans que vos données ne quittent votre Mac ou votre réseau privé. Vous avez donc la liberté de choisir le modèle et le prestataire qui vous conviennent le mieux.
Lorsqu’un nouveau modèle est publié, vous pouvez le tester avec Xcode. Avec son intelligence native associée aux meilleurs modèles de codage, Xcode 26 va transformer la façon dont vous créez des apps. Et vous n’avez encore rien vu. Les onglets ont ainsi été simplifiés et repensés. Dans Safari, vous pouvez ouvrir un nouvel onglet simplement et rapidement avec les touches Commande + T. Si vous souhaitez vous concentrer sur un fichier, épinglez juste cet onglet. Xcode n’est pas en reste avec l’accessibilité. Xcode 26 donne une autre dimension au contrôle vocal. Sans clavier et grâce à votre voix, vous pouvez dicter directement votre code Swift et naviguer dans l’interface. Pour améliorer la traduction de votre app, vous pouvez générer automatiquement des commentaires dans le fichier de langue, et donner du contexte pour une traduction plus précise. La première bêta de Xcode 26 est dès à présent disponible. Vous pouvez commencer à coder avec ChatGPT et d’autres modèles. Je vais maintenant laisser la parole à Ben, qui va nous parler des nouveautés de Swift, Avec Swift, notre objectif était simple. Nous voulions un langage qui allie innovation, performance et sécurité. Un langage facile à maîtrise et très puissant. Avec Swift 6.2, nous allons encore plus loin. Priorité à la performance avec de nouvelles fonctionnalités. L’une des plus attendues sont les inline arrays. Ils vous permettent de déclarer une taille de tableau fixe que vous stockez sur une pile ou directement dans d’autres types sans utiliser la mémoire dynamique. Connaître la taille d’un tableau lors de la compilation permet au compilateur Swift d’optimiser l’exécution, pour des gains importants de performances. Nous introduisons un nouveau type de span. Il constitue une alternative sûre aux pointeurs pour un accès direct et rapide à la mémoire contiguë. Ce nouveau type de span améliore la communication avec des langages moins sécurisés comme C. Lorsque les pointeurs C affichent la longueur et la durée de vie, ils peuvent être convertis dans Swift en élément span plus facile à utiliser et sans risque pour la mémoire. Grâce à cet équilibre entre sécurité et de performance, Swift est idéal pour répondre à ces exigences. C’est pourquoi WebKit introduit Swift dans sa base de code, et utilise une fonction optionnelle de sécurité stricte de la mémoire, qui sécurise les interactions avec les API C. Nous avons également amélioré l’interopérabilité avec C++ avec du code basé sur ses fonctionnalités plus avancées, qui peut être appelé depuis Swift. Et au-delà de C, Swift prend en charge Java et JavaScript grâce à des paquets dédiés. Vous pouvez exécuter Swift depuis le navigateur. En collaboration avec la communauté open source, Swift 6.2. prend officiellement en charge la chaîne d’outils de WebAssembly.
Parlons maintenant de concurrence. Pour que votre app soit stable et sécurisée, votre code ne doit présenter aucune course critique sur les données. Le modèle de langage Swift 6 est conçu pour rendre votre code concurrent plus sûr. Dans de nombreux cas, comme l’UI de votre app ou des outils de ligne de commande, vous écrivez du code monothread. Et Swift 6.2 en facilite l’écriture. Vous pouvez configurer des modules ou des fichiers individuels qui s’exécutent sur le MainActor par défaut sans aucune annotation supplémentaire. Les appels asynchrones sont plus faciles depuis MainActor, grâce à de meilleures valeurs par défaut qui génèrent moins d’avertissements du compilateur pour le code qui ne doit pas être exécuté en parallèle.
Avec le nouvel attribut concurrent, vous pouvez décharger en arrière-plan les tâches gourmandes en CPU pour préserver la réactivité des apps. Chez Apple, nous utilisons Swift vraiment partout. Même dans la puce qui sécurise la gestion de la mémoire sur le GPU, ou encore pour les charges de travail intensives liées au service Mots de passe, qui traite des milliards de requêtes par jour. Une récente réécriture de Swift a permis de réduire l’empreinte des serveurs. Beaucoup d’entre vous développent des services cloud pour vos apps.
Réutiliser le code Swift de votre app dans l’implémentation de votre serveur est une véritable opportunité pour vous en tant que développeur. L’équipe de Cultured Code, par exemple, utilise Swift pour la synchronisation sur le serveur de son gestionnaire de tâches primé, Things. Pour accélérer le développement de ces composants côté serveur, nous avons créé Containerization : un nouveau framework et outil pour les conteneurs. Son outil en ligne de commande vous permet de créer, télécharger, et exécuter des images de conteneurs Linux directement sur votre Mac. Il a été développé avec un framework open source optimisé pour la puce Apple et permet une isolation sécurisée entre les différents conteneurs. Containerization est basé sur du code Swift, et est disponible en open source. Vous pouvez télécharger les binaires ou consulter le dépôt sur GitHub. Le nouveau site Swift.org propose des guides pour apprendre à coder des services cloud avec Swift, et un nouveau programme d’installation de chaîne d’outils. Il n’a jamais été aussi simple d’utiliser Swift sur Linux. Swift vous ouvre de nouveaux horizons où que vous l’utilisiez. Matthew, on revient à toi.
Avec les frameworks natifs d’Apple, vous développez de meilleures apps avec moins de code. Certains frameworks vous promettent une prise en charge pour iOS et Android. Sur le papier, cela semble génial. En pratique, le code doit être compatible avec chaque plateforme, avec plein de périphériques différents, sans parler des API spécifiques à chaque système, de l’accessibilité, etc. Lorsque vous avez surmonté tous ces défis avec une flopée de plugins, il y a fort à parier que votre code sera interminable, votre app très lente et sûrement incompatible avec des fonctionnalités comme les activités en temps réel et les widgets. Les frameworks natifs d’Apple n’ont qu’un seul objectif : créer les meilleures apps du marché. Découvrons certaines des nouvelles expériences et des possibilités offertes par nos SDK. Commençons par les améliorations apportées à SwiftUI. Je vous présente Sommer.
Que vous soyez aux prémic es d’une nouvelle app ou que vous améliorez une app existante, SwiftUI est votre meilleur allié. Et grâce à tous vos feedbacks, questions et idées, nous apportons un flot de nouveautés comme les nouvelles API web, de nouveaux outils d’édition de texte et la prise en charge des graphiques 3D, Sans parler des améliorations notables de performances. Débutons par nos nouvelles et puissantes API web. Vos apps peuvent intégrer du contenu web avec l’API WKWebView de WebKit. La nouvelle version d’OpenURL de SwiftUI vous permet d’afficher directement un navigateur intégré à l’app. Pour plus de puissance, WebKit ajoute un composant déclaratif WebView, conçu spécialement pour SwiftUI. Avec une nouvelle API de page web, vous contrôlez le contenu web. Ces trois nouvelles API sont proposées avec les technologies Swift modernes comme l’observation et la concurrence stricte. Il n’a jamais été aussi simple d’intégrer du contenu web directement dans vos apps. Ensuite, nous avons l’une de vos fonctionnalités les plus plébiscitées. L’éditeur de texte SwiftUI passe au niveau supérieur. Pour activer l’édition de texte enrichi, changez simplement la liaison du texte de votre éditeur de texte d’une chaîne à une chaîne attribuée. Vous pouvez personnaliser cet éditeur de texte enrichi. En suivant les attributs du texte sélectionné, vous pouvez développer vos propres expériences d’édition, avec des contrôles et des inspecteurs pour formater le texte sélectionné. Enfin, SwiftCharts prend désormais en charge la 3D grâce à RealityKit. Cette mise à jour permet de changer de point de vue. Vous pouvez zoomer sur vos graphiques ou les faire pivoter sous tous les angles. Sur visionOS, SwiftCharts fonctionne aussi dans les environnements spatiaux. Maintenant, parlons performance. Rien ne rend une app aussi rapide qu’un défilement fluide. iOS, SwiftUI et UIKit utilisent une technique appelée prélecture inactive, profitant du temps d’inactivité après le rendu de la frame actuelle afin d’avoir une avance sur le rendu de la suivante. Le risque de déperdition durant le défilement est ainsi réduit. Cette année, SwiftUI dote le Mac de la prélecture inactive avec un impact considérable en termes de performance et des optimisations pour toutes les autres plateformes. Et SwiftUI devient encore plus rapide pour afficher ou faire défiler des listes et des tableaux très volumineux. Sur macOs, une liste de 100 000 éléments se charge désormais 6 fois plus vite. Les changements incrémentiels sont jusqu’à 16 fois plus rapides, et les listes encore plus grandes verront des gains conséquents. Dans l’ensemble, ces améliorations représentent un grand pas en avant en matière de défilement dans SwiftUI. Cette année, nous vous proposons un nouvel outil de performance puissant pour vous aider à optimiser votre code. Il vous permet de comprendre quelle partie du code impacte les performances de votre app et d’analyser précisément où et pourquoi vos vues sont mises à jour. De puissantes API web, le texte enrichi, des graphiques 3D et des performances plus rapides feront partie de la prochaine vague d’améliorations pour SwiftUI, comme une version plus flexible de SwiftData, les modèles de sous-classement, l’héritage d’entité et la prise en charge de types de données communs comme des chaînes attribuées. Il y a tellement de choses géniales : les notifications push pour les widgets, un meilleur contrôle du glisser-déposer et l’interopérabilité de scène. Et si vous créez une app spatiale avec SwiftUI, il y a encore plus de fonctionnalités intéressantes cette année. Voici En qui va vous en dire plus. Avec visionOS 26, vos apps et jeux bénéficieront d’expériences spatiales révolutionnaires Cette mise à jour introduit de nouvelles API volumétriques, des capacités de partage avancées, de puissantes fonctionnalités d’entreprise et des outils multimédias immersifs. Les améliorations apportées aux API SwiftUI facilitent le développement d’expériences volumétriques convaincantes. Vous pouvez créer des dispositions 3D encore plus riches, qui prennent en charge des effets visuels comme la rotation. Les API existantes vous permettent d’aligner vos vues dans les volumes. Alignez le contenu superposé grâce au conteneur spatial ou ancrez du contenu à des endroits spécifiques avec l’ancrage 3D, le tout depuis SwiftUI. Les restrictions de limites vous permettent de dessiner en dehors des limites de votre app, dans des volumes et fenêtres avec un simple modificateur de vue. Avec l’occlusion environnementale, des objets virtuels peuvent être masqués par des objets statiques réels. Pour que vos apps en bénéficient, ajoutez à une entité un composant d’intégration environnementale.
Parlons maintenant de la nouvelle suite d’API intégrées à SwiftUI, RealityKit et ARKit. Il est plus facile de positionner et de traduire le contenu à travers ces trois frameworks, quel que soit l’espace dans lequel vous travaillez. L’entité de RealityKit et ses animations sont observables et peuvent être utilisées directement dans les vues SwiftUI. Vous pouvez appliquer directement des gestes aux entités ou présenter et animer du contenu 3D dans votre app avec Model3D. Les meilleures expériences spatiales étant partagées, visionOS 26 introduit une nouvelle option. Avec le partage de fenêtre à proximité, les utilisateurs dans une même pièce peuvent partager des expériences spatiales comme Defender-Ella de Rock Paper Reality. D’autres personnes peuvent participer à distance avec FaceTime et les personas spatiaux. Les nouvelles API SharePlay facilitent la transition, et vos apps SharePlay existantes fonctionneront automatiquement. ARKit prend aussi en charge l’ancrage partagé qui dispose avec précision le contenu dans la pièce. Dans visionOS 26, les apps et le contenu QuickLook restent affichés ou réapparaissent au même endroit, même après redémarrage. Il en va de même pour les widgets. Le framework widgetKit, ainsi que de nouvelles API pour spécifier la texture ou réagir aux utilisateurs à proximité, sont disponibles. Vous pouvez créer des widgets dynamiques toujours accessibles au même endroit. Les utilisateurs aiment visionner du contenu sur le Vision Pro, et les photos ne sont désormais plus en reste. Avec le composant de présentation d’images de RealityKit, votre app peut transformer des images 2D en de véritables scènes spatiales 3D. Elle tire parti des algorithmes d’IA générative de l’appareil pour créer une représentation 3D de votre image, observable en temps réel sous tous les angles. Si vous créez des apps multimédias, vous pouvez lire et distribuer davantage de types de contenus immersifs avec la prise en charge intégrée de la vidéo à 180 degrés, 360 degrés et large champ de vision grâce à Apple Projected Media Profile, ou APMP. Vous pouvez lire et diffuser ces nouveaux formats multimédias immersifs dans votre app à l’aide des API AVKit, RealityKit, WebKit et QuickLook. Et si vous produisez du contenu vidéo immersif Apple avec la nouvelle caméra Blackmagic et l’app DaVinci Resolve, vous pouvez le lire directement dans vos apps ou dans Safari en utilisant l’élément vidéo HTML. Dans un contexte professionnel, visionOS 26 permet aux développeurs d’adopter plus facilement le Vision Pro dans leurs organisations. Avec les droits d’entreprise, vous pouvez empêcher les captures du contenu de votre app, permettre aux apps de suivre la position de l’utilisateur lorsqu’il évolue dans un espace, accéder en même temps aux flux gauche et droit de la caméra ou se focaliser sur une région spécifique du flux de la caméra afin de le stabiliser et de l’améliorer. Ce ne sont que quelques-unes des nouveautés incroyables de visionOS. Maintenant, Eric va nous donner envie de jouer. La puce Apple offre des performances et des visuels exceptionnels pour les jeux les plus exigeants. Cette année, il est encore plus facile de proposer votre jeu sur la plateforme de jeux unifiée d’Apple. Nous nous sommes concentrés sur trois domaines clés : des technologies graphiques avancées, des outils de développement améliorés et des fonctionnalités système pour ravir tous vos joueurs. La technologie graphique principale derrière ces innovations s’appelle Metal. Il y a dix ans, Metal arrivait sur le Mac, et il n’a cessé d’évoluer pour gérer les flux de travail graphiques les plus avancés. Nous introduisons Metal 4 avec des tonnes de fonctionnalités pour prendre en charge des technologies graphiques et ML les plus avancées comme le rendu neuronal qui combine des graphiques traditionnels à l’inférence d’apprentissage automatique. Avec Metal 4, vous pouvez exécuter des réseaux d’inférence directement dans vos shaders pour calculer l’éclairage, les textures et la géométrie permettant des effets visuels réalistes pour vos jeux. Et vous pouvez utiliser les API Upscaling, Frame Interpolation et Denoising MetalFX pour améliorer les performances graphiques. MetalFX Frame Interpolation génère une image intermédiaire toutes les deux images d’entrée pour obtenir des fréquences d’images plus élevées et plus stables. Voici la prochaine version Mac de Cyberpunk 2077 tournant sur un MacBook Air M4. À droite, CD Projekt Red utilise l’interpolation d’images de Metal FX pour augmenter les performances à 60 images par seconde. Ils utilisent aussi le denoising de MetalFX pour activer le ray tracing sur les paramètres ultra du jeu sur le MacBook Pro M4 Max. Metal 4 a été conçu spécifiquement pour la puce Apple. Il poses les bases de la prochaine génération de jeux sur Mac. Nous avons encore rationalisé l’expérience de conception de jeux avec des outils de développement améliorés. La mise à jour du Game Porting Toolkit vous propose tout ce dont vous avez besoin pour adapter votre jeu Windows aux exigences des plateformes Apple. Comme des outils pour évaluer et profiler votre jeu, convertir vos shaders et assets, et les directives interface-humain et des échantillons de code pour créer des jeux natifs pour tous les appareils Apple. Par exemple, CD Projekt Red utilise Game Porting Toolkit pour accélérer le portage de Cyberpunk 2077 sur le Mac. La dernière version de Game Porting Toolkit apporte des nouveaux outils pour optimiser votre jeu avec les technologies d’upscaling de Windows. Par exemple, un développeur comme Remedy a pu tirer profit du portage pour évaluer comment Metal FX pouvait améliorer les performances de son jeu, Control, grâce à la puce Apple. Game Porting Toolkit fournit des informations et des conseils à l’écran pour optimiser le code graphique et offrir les meilleures performances. Et vous pouvez personnaliser l’interface de Metal Performance lorsque vous déboguez votre code. Vous pouvez créer, exécuter et déboguer des jeux à distance depuis un environnement Windows. C’est parfait pour convertir un jeu depuis un outil de compilation existant. Et une fois votre jeu opérationnel, vos joueurs bénéficient de graphismes et de sons immersifs, d’un rendu réactif et d’une expérience de jeu transparente avec les frameworks système. Cette année, les frameworks qui gèrent les périphériques sur iPhone, iPad, Mac et Vision Pro connaissent des mises à jour importantes pour associer les manettes PlayStation DualSense à tous vos appareils. Une nouvelle API Touch Controller offre un moyen facile d’ajouter des commandes à l’écran pour iPhone et iPad, Vous pouvez activer de nouvelles façons puissantes de jouer à des jeux avec votre Vision Pro, avec la prise en charge des manettes PlayStation VR2 Sense et un suivi des mains jusqu’à trois fois plus rapide. Pour permettre une lecture transparente sur tous les appareils, sauvegardez vos jeux dans le cloud avec le nouveau framework GameSave. Pour jouer en déplacement, macOS Tahoe a optimisé le mode économie d’énergie pour les jeux. Vous pouvez prolonger davantage l’autonomie de la batterie grâce à des paramètres de jeu optimisés lorsque le système est en économie d’énergie. Avec la nouvelle API Game Center Challenges, vous transformez des sessions de jeu solo en véritables expériences sociales avec des amis. Ces défis apparaissent dans la nouvelle app Jeux et les joueurs peuvent aussi y accéder via un menu pour interagir avec d’autres joueurs ou modifier des paramètres sans quitter le jeu. Avec toutes ces nouvelles fonctionnalités, c’est le moment idéal d’apporter vos jeux de nouvelle génération sur la plateforme de jeux unifiée d’Apple. Matthew, tu peux conclure. Metal 4 est un excellent exemple de l’intégration étroite de l’environnement logiciel bà la puce Apple permettant une expérience d’un tout autre niveau. Depuis le début de la transition vers la puce Apple il y a plus de cinq ans nous avons ajouté des fonctionnalités incroyables comme Apple Intelligence, le mode Jeu, Superposition du présentateur, etc. Cette transition s’est achevée sur toute notre gamme de produits il y a deux ans. Vos apps peuvent profiter de toute la puissance de cette architecture. La puce Apple nous permet à tous d’accomplir des choses qui étaient auparavant inimaginables. L’heure est venue d’écrire un nouveau chapitre pour le Mac. macOS Tahoe sera le dernier OS à tourner sur les Mac à puce Intel. C’est donc le moment opportun pour aider vos utilisateurs à migrer vers la version de vos apps conçues pour la puce Apple. Les sorties de cette année vont vous époustoufler. Le nouveau design Liquid Glass apporte profondeur, fluidité et dynamisme à vos apps. Apple Intelligence tire parti des modèles intégrés à l’appareil avec la génération guidée. Xcode révolutionne la création d’apps à partir de n’importe quel modèle. Les mises à jour de Swift et SwiftUI améliorent les performances de vos apps et facilite son intégration sur toutes les plateformes Apple. On a fait le tour ? Même pas ! Il y a tellement de fonctionnalités et d’API à explorer. Une centaine de sessions approfondissent ce que nous avons vu aujourd’hui et ce qu’il reste à découvrir. En voici quelques-uns. Passons- les rapidement en revue. Vous pouvez créer des menus et commandes inclus dans la nouvelle barre des menus de l’iPad. Avec la nouvelle mouture de l’API Background Task sur iOS et iPadOS, vous pouvez effectuer des tâches qui seront exécutées en arrière-plan, comme l’exportation d’une vidéo. Avec les activités en direct, CarPlay affiche désormais les notifications appropriées, même lorsque les utilisateurs sont au volant. macOS propose Terminal relooké avec couleur 24 bits, des thèmes inspirés de Liquid Glass et les polices Powerline. L’élément de modèle HTML intègre des modèles 3D dans vos pages web. Et sur visionOS, un élément d’une page peut être vu en stéréoscopie en ligne et bougé dans le monde réel. Lorsque vous adoptez Look to Scroll sur visionOS, les utilisateurs naviguent sans les mains juste en regardant les bords du contenu. L’API de déclaration de tranche d’âge ajuste l’expérience de l’app pour les différents publics tout en préservant la vie privée. Grâce au framework PermissionKit, vos apps protègent les communications des enfants avec le contrôle parental. Une section de l’App Store décrit les options d’accessibilité de votre app. Et pour l’accès assisté, vous pouvez personnaliser votre app avec des fonctionnalités plus ciblées et une interface simplifiée. Il y a tellement de choses à découvrir. Ces nouveautés sont disponibles dès aujourd’hui. Elles n’attendent que vous. Nous avons hâte de vous rencontrer dans les ateliers et d’échanger sur les Apple Developer Forums. Nous vous sommes tellement redevables. Vous transformez de simples idées en expériences géniales. Nos différentes plateformes existent grâce à vous. Les apps sont essentielles à notre communication, notre travail, nos interactions et notre vision du monde de demain. Que vous débutiez ou que vous soyez un développeur averti, merci de faire partie d’une communauté de développeurs aussi dynamique. Nous avons hâte d’écrire le futur avec vous.
-