-
Explorez la conception rapide et la sécurité pour les modèles de fondation sur l’appareil
Concevez des expériences d'IA générative qui tirent parti des points forts du framework de Foundation Models. Nous allons commencer par montrer comment concevoir des invites pour le grand modèle de langage sur l'appareil au cœur d'Apple Intelligence. Ensuite, nous présenterons des idées clés sur la sécurité de l'IA et proposerons des stratégies concrètes pour rendre vos fonctionnalités d'IA générative sûres, fiables et agréables.
Chapitres
- 0:00 - Introduction
- 2:30 - Conception pour la gestion de LLM sur l’appareil
- 6:14 - Encourager les meilleures pratiques
- 11:03 - Sécurité de l’IA
- 18:37 - Évaluer et tester
Ressources
-
Rechercher dans cette vidéo…
-
-
- 0:00 - Introduction
Le nouveau framework de Foundation Models simplifie la conception d’expériences d’IA générative pour les apps sur tous les appareils Apple. L’IA générative, optimisée par les grands modèles de langage (LLM), peut raisonner et générer du texte en langage naturel. Ce framework vous permet d’utiliser sur l’appareil des LLM à usage général et intégrés à iOS, iPadOS, macOS et VisionOS.
- 2:30 - Conception pour la gestion de LLM sur l’appareil
Ce modèle de langage embarqué est optimisé pour diverses tâches de langage courantes, telles que la synthèse, la classification, les conversations, la composition de texte et la révision. Notez que la petite taille du modèle signifie qu’il comporte certaines limites. Il peut ne pas être aussi performant dans les tâches de raisonnement complexes, les mathématiques ou la génération de code, et sa connaissance du monde est limitée aux évènements précédant sa date d’entraînement. Cependant, il peut être utile pour les tâches créatives telles que la génération de dialogues ou d’idées, en particulier lorsque la précision n’est pas essentielle.
- 6:14 - Encourager les meilleures pratiques
Vous pouvez contrôler les réponses du modèle système en spécifiant la longueur de sortie souhaitée à l’aide d’expressions telles que « en trois phrases » ou « en détail ». Vous pouvez également attribuer des rôles au modèle ou fournir des exemples de sorties souhaitées pour améliorer ses performances. Enfin, vous pouvez influencer le comportement du modèle à travers plusieurs invites en incluant des instructions, notamment pour préciser le ton ou l’objectif des réponses.
- 11:03 - Sécurité de l’IA
Le framework de Foundation Models fournit un point de départ sûr aux développeurs d’apps qui utilisent l’IA générative. Il intègre, en outre, des garde-fous entraînés par Apple pour bloquer les entrées et sorties nuisibles. Toutefois, il vous incombe de garantir la sécurité et la pertinence du contenu de votre app. Une approche de la sécurité reposant sur plusieurs couches est recommandée, avec les garde-fous du framework comme base, suivis d’instructions de sécurité dans le modèle, d’une gestion minutieuse des entrées utilisateur et, enfin, d’atténuations spécifiques aux cas d’utilisation. Cette approche signifie que les problèmes de sécurité ne surviennent que lorsque plusieurs couches échouent.
- 18:37 - Évaluer et tester
Pour évaluer et tester efficacement les apps optimisées par l’IA générative, il faut sélectionner divers ensembles de données, notamment ceux relatifs aux principaux cas d’utilisation et aux éventuels déclencheurs de sécurité. Utilisez l’automatisation pour exécuter vos ensembles de données à travers vos fonctionnalités d’IA de bout en bout. L’inspection manuelle des résultats convient aux petits ensembles de données, tandis que les plus grands peuvent être mis à l’échelle à l’aide d’un autre grand modèle de langage pour évaluer automatiquement les réponses. Assurez-vous de gérer les erreurs de garde-fous, d’intégrer la sécurité aux instructions et d’équilibrer la flexibilité et la sécurité lorsque vous incluez les entrées utilisateur dans vos invites.