View in English

  • Global Nav Open Menu Global Nav Close Menu
  • Apple Developer
Search
Cancel
  • Apple Developer
  • News
  • Discover
  • Design
  • Develop
  • Distribute
  • Support
  • Account
Only search within “”

Quick Links

5 Quick Links

Videos

Abrir menú Cerrar menú
  • Colecciones
  • Temas
  • Todos los videos
  • Información

Volver a WWDC25

  • Información
  • Resumen
  • Transcripción
  • Explora el diseño rápido y la seguridad para los modelos base en el dispositivo

    Diseña experiencias de IA generativa que aprovechen las fortalezas de la estructura Foundation Models. Comenzaremos mostrando cómo diseñar prompts para el modelo de lenguaje de gran tamaño que es el núcleo de Apple Intelligence. Luego, presentaremos ideas sobre la seguridad de la IA y estrategias para que tus funcionalidades de IA generativa sean seguras, confiables y agradables.

    Capítulos

    • 0:00 - Introducción
    • 2:30 - Diseño para LLM en el dispositivo
    • 6:14 - Prácticas recomendadas para prompts
    • 11:03 - Seguridad de IA
    • 18:37 - Evaluación y prueba

    Recursos

    • Adding intelligent app features with generative models
    • Human Interface Guidelines: Generative AI
    • Human Interface Guidelines: Machine learning
    • Improving the safety of generative model output
      • Video HD
      • Video SD
  • Buscar este video…

    Hola, soy Mary Beth e investigo la IA centrada en el ser humano. Yo soy Sprite, ingeniera de seguridad de IA. Simplificamos al máximo el diseño de experiencias de IA generativa para tu app con la nueva estructura Foundation Models. La IA generativa es apasionante. El reto clave es crear una experiencia sólida y útil para las personas que usan tu app en diferentes situaciones reales. Mary Beth y yo estamos aquí para ayudarte. Así es. Si te dedicas al diseño o la ingeniería, esta charla es para ti. Antes de comenzar, veamos rápidamente qué son los prompts y los LLM. Un prompt es el texto que se ingresa en un modelo de IA generativa para guiar su respuesta. Se redacta en un lenguaje natural, como si enviaras un mensaje a alguien.

    Veamos un prompt que escribí como variable de cadena. “Crea un cuento para dormir sobre un zorro”. Escribí este prompt en inglés, pero se puede escribir en cualquier idioma compatible con Apple Intelligence. Veamos el código para ejecutar mi prompt en una sesión de modelo de lenguaje. Al ejecutarlo, el modelo crea un cuento para dormir imaginativo y detallado. ¡Increíble! Veamos más de cerca lo que pasa aquí. Con la estructura Foundation Models, tu prompt se envía a un gran modelo de lenguaje (LLM) en el dispositivo. Los LLM pueden razonar y generar texto. Este modelo de uso general se incluye en los sistemas operativos iOS, iPadOS, macOS y visionOS.

    De hecho, Apple Intelligence usa este modelo para funcionalidades como Herramientas de Escritura. Apple Intelligence también usa prompts para dar instrucciones al modelo. Ahora que sabemos qué son los prompts y los LLM, veamos qué abarcará esta charla. Primero, veremos estrategias de diseño propias del modelo de lenguaje en el dispositivo y, luego, prácticas recomendadas para los prompts. Sprite explicará el diseño basado en la seguridad de IA y terminará con estrategias para evaluar la calidad y seguridad de las prompts. Comencemos. Analicemos el diseño para el LLM en el dispositivo. Este modelo se aloja en tus dispositivos y sirve para tareas lingüísticas comunes, como resumir, clasificar, mantener conversaciones, redactar, corregir y generar etiquetas a partir de un texto. Pero recuerda que este gran modelo está optimizado y comprimido para caber en tu bolsillo. Tiene unos 3.000 millones de parámetros. Es decir, sigue siendo un enorme modelo de aprendizaje automático. Para ponerlo en perspectiva, imagina que este círculo es un LLM popular, como ChatGPT. Estos LLM tienen cientos de miles de millones de parámetros y se ejecutan en servidores masivos. Por esta diferencia de tamaño, un LLM en el dispositivo no podrá hacer lo mismo que un LLM basado en servidores. Las tareas que funcionan en un LLM podrían no funcionar igual en un modelo pequeño. Si no tienes buenos resultados con un modelo de sistema para una tarea de razonamiento compleja, divide el prompt en pasos más simples. Para tareas de matemáticas, evita usar este pequeño modelo como calculadora. El código que no es de IA es mejor para eso. El modelo del sistema no está optimizado para código, así que evita esas tareas.

    Por su tamaño, tampoco tiene mucho conocimiento de mundo. Por ejemplo, no sabrá nada de eventos recientes posteriores a su fecha de entrenamiento. No uses el modelo del sistema para obtener datos salvo que hayas verificado a fondo que sabe del tema, como los bagels. Le pediré que enumere diez sabores de bagels.

    Y esto es lo que genera para mi prompt. Sin duda sabe qué es un bagel, pero dice que uno simple trae muchos toppings, lo cual no es así. Este modelo no debe usarse como enciclopedia de bagels porque no es muy preciso. Pero puede servir para otras tareas, como un juego de panadería. Por ejemplo, puedes usarlo para generar un diálogo para clientes que piden bagels. Si el modelo se equivoca, un sabor extraño en un juego puede ser divertido, en vez de confuso. También es vital conocer el impacto de las alucinaciones. Si el modelo no sabe algo, puede “alucinar”, que es la palabra técnica para “inventar totalmente una respuesta”. Evita confundir al usuario con alucinaciones cuando la precisión sea clave, como en instrucciones. No uses el modelo del sistema para hechos. Si deseas generar datos fácticos, proporciona al modelo información verificada en tu prompt. Verifica en detalle los resultados del modelo para todas tus prompts. Por ahora, puedes mejorar la confiabilidad con una funcionalidad especial del modelo: la generación guiada. Con la estructura Foundation Models, la generación guiada te da control sobre lo que debe generar el modelo, como cadenas, números, arrays o una estructura de datos personalizada por ti. Para más información al respecto, consulta la charla sobre la estructura Foundation Models. Pasemos a las prácticas recomendadas para los prompts. La ingeniería de prompts es un gran tema. Te recomiendo estudiarlo más a fondo. Empecemos con algunas prácticas recomendadas. Puedes controlar la cantidad de contenido que genera el modelo del sistema si se lo dices. Mi prompt dice: “Crea un cuento para dormir sobre un zorro”. Lo cambiaré para pedir solo un párrafo.

    ¡Y funciona! Un cuento mucho más corto. Acorta el resultado con frases como “en tres oraciones” o “en pocas palabras”. Y expándelo con frases como “en detalle”. Puedes controlar el estilo y tono del texto que produce el modelo si especificas un rol en tu prompt. Le diré que es un zorro que habla inglés shakespeariano.

    ¡Y funciona! El modelo asume el rol de un zorro shakespeariano y escribe una simpática entrada de diario como ese personaje. El modelo puede asumir muchos roles según tus prompts. Tengo algunos consejos más basados en cómo se entrenó este modelo. Formula tus prompts como una orden clara. El modelo suele funcionar mejor si se le asigna una única tarea en detalle. Mejora el rendimiento de tu tarea dando al modelo menos de cinco ejemplos de los tipos de resultados que deseas. Escríbelos directamente en tu prompt. Si ves un resultado que deseas detener, usa un comando en mayúscula sostenida, como “NO”. Así indicarás rigor o seriedad.

    Cuando quieras empezar a experimentar, prueba tus prompts en la nueva funcionalidad Playground de Xcode. Agrega #Playground a un archivo de código de tu proyecto y escribe tu prompt en una sesión de modelo de lenguaje. La respuesta del modelo aparecerá de inmediato a la derecha, como una vista previa de la IU de Swift. Es ideal para experimentar y descubrir qué prompt funciona mejor para tu app. Las prácticas recomendadas de ingeniería de prompts aplican a prompts e instrucciones. Las instrucciones son un tipo de prompt que ofrece la estructura Foundation Models y cumplen una finalidad diferente. Al crear una sesión de modelo de lenguaje, puedes incluir instrucciones como argumento. Las instrucciones son un tipo especial de prompt que indica al modelo cómo comportarse y responder en lo sucesivo. Escribí estas instrucciones: “Eres un asistente útil que crea cuentos de miedo aptos para adolescentes”. Veamos su efecto.

    Al principio, cuando pedimos un cuento con un prompt simple, pasaba esto. Si agregamos instrucciones, el modelo las recibirá antes de los prompts. Entonces, al enviar el prompt del cuento para dormir, el tono del cuento cambiará drásticamente para cumplir la instrucción de que debe ser aterrador.

    Podemos seguir enviando prompts, y las instrucciones se mantendrán. Si envío el prompt “Escribe un poema sobre bagels”, lógicamente el modelo genera un poema de miedo sobre bagels. Cerremos el tema de los prompts con una nota sobre la interactividad. Los prompts no tienen que venir solo del diseñador de la app. Si combinas instrucciones y prompts, puedes crear una sesión de modelo interactiva donde los prompts provengan de usuarios de tu app. Veamos cómo. Digamos que deseo crear una app de diario. Primero, le daré al modelo estas instrucciones. “Eres un asistente útil que ayuda a las personas a escribir su diario haciéndoles preguntas sobre su día”. Ahora quiero que los usuarios de mi app puedan empezar a escribir su diario directamente con un prompt. Alguien dice: “¡Qué día tan duro!” y el modelo responde con un prompt de diario. “¿Qué hizo difícil tu día?”. En este caso, si usas las entradas de usuario como prompts para tu modelo, no puedes saber qué ingresarán. Los prompts afectan la seguridad. A propósito o sin querer, alguien podría ingresar algo que provocara respuestas inútiles o incluso perjudiciales. Sprite ahondará en la seguridad de la IA. Gracias, Mary Beth. Ya vimos cómo escribir excelentes prompts para aprovechar al máximo el modelo en el dispositivo. El diseño de prompts es lo primero en tu kit de seguridad. Veamos cómo diseñar tu app teniendo en cuenta la seguridad. Creamos una serie de principios para que Apple Intelligence reflejara nuestros valores. Y los seguimos al diseñar la estructura Foundation Models para ayudarte a crear una experiencia mágica y segura para tu app. Así podrás crear apps que empoderen a las personas, ya sea creando cuentos infantiles para dormir o planificando vacaciones de ensueño. La IA generativa puede usarse mal o causar daño. Aunque Foundation Models incluye controles para garantizar una experiencia de app segura, debes considerar qué podría salir mal en el caso de uso de tu app. Diseñamos nuestro modelo y la estructura teniendo en cuenta la privacidad, y los mejoramos continuamente para evitar perpetuar estereotipos y sesgos sistémicos. Hablemos de esos controles. La estructura Foundation Models viene con controles entrenados por Apple que evitan lo peor.

    Estos controles se aplican a entradas y salidas del modelo. Tus instrucciones, prompts y llamadas a la herramienta son entradas al modelo. Los controles bloquean las entradas con contenido dañino. Y también protegen las salidas del modelo. Esto garantiza el bloqueo de resultados dañinos, incluso si los prompts logran eludir los controles de entrada.

    Veamos cómo detectar errores de seguridad en Swift. Cuando ocurre un error, debes pensar en cómo comunicárselo a los usuarios de tu app. Si la funcionalidad es proactiva, es decir, independiente de la acción del usuario, puedes ignorar el error sin interrumpir la IU con información inesperada.

    Si la funcionalidad depende de la acción del usuario e implica una espera, debes explicar con un elemento de IU adecuado que la app no puede procesar la solicitud. Puedes usar una simple alerta o aprovechar la ocasión para mostrar acciones alternativas entre las cuales elegir. Por ejemplo, Image Playground permite al usuario anular fácilmente el prompt que provocó el error de seguridad. La estructura Foundation Models es un gran punto de partida, pero tú sigues siendo responsable de la experiencia de tu app. Así la gente podrá confiar en que generará contenido adecuado acorde a sus expectativas.

    Veamos tres formas de generar confianza entre los usuarios de tu app. Asegúrate de que tu app no genere contenido inapropiado. Los controles de la estructura Foundation Models lo bloquearán. Maneja las entradas de los usuarios con cuidado. Para ello, redacta detenidamente tus instrucciones y prompts.

    Piensa qué pasaría si las personas actuaran según las respuestas de tu app y cómo esto podría afectarlas. Luego compartiré algunos ejemplos para que veas qué puedes hacer. Retomemos el ejemplo del diario que dio Mary Beth. El modelo prioriza las instrucciones sobre los prompts. Por ende, puedes usarlas para mejorar la seguridad de las respuestas.

    Aquí agregué una oración para indicar al modelo que responda a los prompts negativos con empatía y amabilidad. Verás cómo las nuevas instrucciones guían el resultado del modelo. Aunque no son infalibles, las instrucciones de seguridad bien redactadas mejoran la calidad de las respuestas de tu app. Asegúrate de que las instrucciones solo provengan de ti y no incluyan contenido o entradas de usuario poco confiables. Sí puedes usar las entradas de usuario en tus prompts. Veamos cómo. Es muy común que las entradas se usen directamente como prompts. Piensa en un chatbot que toma todas las entradas de usuario de tu app. Esto ofrece mucha flexibilidad, pero conlleva riesgos de seguridad. Cuando uses este patrón, indica al modelo que maneje con cuidado una amplia variedad de entradas de usuario. Una buena forma de reducir riesgos sin perder flexibilidad es combinar tu prompt con la entrada del usuario. Mejor aún, tu app puede brindar una lista de prompts integrados para que las personas elijan. Así tendrás control total sobre los prompts. Si bien este patrón no es tan flexible, te permite seleccionar un conjunto de prompts ideales para tu app y garantizar que el modelo dé excelentes respuestas. Aún con buenas instrucciones y un buen control de las entradas, tu app puede tener riesgos de seguridad. Debes prever el impacto y las consecuencias cuando las personas inician la generación de contenido en tu app. Veamos algunos ejemplos.

    Este es el prompt para generar sabores de bagels que Mary Beth mostró.

    Un riesgo potencial cuando las personas usan tu app es que algunos sabores del modelo pueden contener alérgenos, como nueces o ajo. Una forma de mitigarlo es mostrar una advertencia de alergia en la IU. O puedes agregar ajustes para que las personas definan sus restricciones de dieta y tu app filtre las recetas del modelo.

    Otro ejemplo es si creas una app para generar trivias, donde quizá quieras evitar generar preguntas sobre temas controversiales o extranjeros que no sean apropiados para el público. Considera agregar instrucciones adicionales o una lista de palabras clave denegadas. Si te dedicas al AA, también puedes entrenar un clasificador como solución más robusta. En última instancia, eres responsable de aplicar mitigaciones para tu caso. Como en otros sistemas de seguridad, este enfoque se basa en capas para garantizar que un problema de seguridad solo pueda ocurrir si todas las capas fallan. Estas capas son como una pila de lonchas de queso suizo. Aunque cada loncha tiene agujeros, los agujeros de toda la pila tendrán que estar alineados para que algo pueda pasar. Desglosemos nuestro kit de seguridad. La primera capa de nuestra pila son los controles integrados en la estructura Foundation Models. Agregarás seguridad en tus instrucciones al modelo. Las instrucciones tendrán prioridad sobre los prompts. Diseñarás tu app para controlar cómo incluir las entradas de usuario en los prompts a tu modelo. La última capa son las medidas de mitigación según tu propio caso de uso. Otro paso crucial al crear una app que usa IA generativa son las evaluaciones y pruebas.

    Selecciona conjuntos de datos según su calidad y seguridad. Recopila prompts que abarquen los principales casos de uso de tu app y que puedan provocar problemas de seguridad.

    Automatizarás la ejecución del conjunto de datos de principio a fin dentro de tu funcionalidad. Para ello, podrías crear una herramienta de línea de comandos exclusiva o una app de prueba de IU.

    Si el conjunto es pequeño, revisa cada respuesta manualmente para ver si hay problemas. Si el conjunto de datos es más grande, usa otro gran modelo de lenguaje para calificar automáticamente las respuestas. No olvides probar casos negativos en tu app para asegurarte de que su comportamiento sea el previsto cuando haya errores de seguridad.

    Invertir en evaluaciones y pruebas permite registrar mejoras y regresiones con el tiempo a medida que actualizas los prompts y ajustamos el modelo. Así confiarás en la calidad y seguridad de la funcionalidad inteligente de tu app. Siempre actualizaremos nuestro modelo y seguridad para seguir las prácticas recomendadas y resolver problemas. Si tienes problemas de seguridad mientras desarrollas tu app, infórmalos en Asistente de comentarios. Crea una IU para recopilar comentarios de usuarios sobre funcionalidades de tu app. Al hacerlo, asegúrate de que las personas sepan qué datos se recopilan en tu app y cómo se usan. Lee acerca de la recopilación y privacidad de datos en nuestro sitio web para desarrolladores. Ya vimos mucho en este video. Concluyamos el tema de seguridad con una lista de verificación. Tu app debe manejar los errores de seguridad en los prompts al modelo. Integra la seguridad en las instrucciones. Al incluir entradas de usuario en tus prompts, piensa en cómo equilibrar la flexibilidad y la seguridad. Anticipa el impacto de tus funcionalidades de inteligencia y aplica mitigaciones según el caso de uso. Invierte en evaluaciones y pruebas para poder confiar en la calidad y seguridad de la funcionalidad de inteligencia de tu app. Informa los problemas de seguridad en el Asistente de comentarios. Eso es todo en seguridad de IA. Ya queremos ver qué creas con la IA generativa en tu app. Te dejo algunos otros recursos y herramientas de ayuda. No olvides probar la nueva funcionalidad Playground de Xcode para tu ingeniería de prompts. Compartimos varias recomendaciones para la seguridad en tu app. Hay más detalles sobre el enfoque de Apple hacia la IA responsable, como las mitigaciones de seguridad integradas del modelo fundacional, en el artículo de machinelearning.apple.com. Por último, consulta las nuevas pautas sobre diseño de IA generativa y Human Interface Guidelines. Eso es todo en prompts y seguridad. ¡Éxitos con los prompts! ¡Y pon la seguridad ante todo!

    • 0:00 - Introducción
    • Con la nueva estructura Foundation Models, se pueden diseñar fácilmente experiencias de IA generativa para apps en todos los dispositivos Apple. La IA generativa, impulsada por los modelos de lenguaje de gran tamaño (LLM), puede razonar y generar texto en lenguaje natural. La estructura te permite utilizar LLM en el dispositivo, los cuales tienen fines generales y se encuentran integrados en iOS, iPadOS, macOS y VisionOS.

    • 2:30 - Diseño para LLM en el dispositivo
    • Este modelo de lenguaje en el dispositivo está optimizado para diversas tareas lingüísticas comunes, como resumen, clasificación, conversación, redacción de texto y revisión. Ten en cuenta que debido al pequeño tamaño del modelo, este tiene algunas limitaciones. Es posible que no funcione tan bien en tareas de razonamiento complejo, matemáticas o generación de código, y su conocimiento del mundo está limitado a eventos anteriores a su fecha de entrenamiento. Sin embargo, puede ser útil para tareas creativas, como generar diálogo o ideas, especialmente cuando la precisión no es fundamental.

    • 6:14 - Prácticas recomendadas para prompts
    • Para controlar las respuestas del modelo del sistema, puedes especificar la longitud deseada del resultado con frases como “en tres oraciones” o “en detalle”. También puedes asignar roles al modelo o proporcionar ejemplos de los resultados deseados para mejorar el rendimiento del modelo. Por último, puedes influir en el comportamiento del modelo por medio de múltiples prompts si incluyes instrucciones, como indicaciones sobre el tono o el propósito de las respuestas.

    • 11:03 - Seguridad de IA
    • La estructura Foundation Models proporciona un punto de partida seguro para los desarrolladores de apps que usan IA generativa, con controles integrados entrenados por Apple que bloquean las entradas y salidas dañinas. Sin embargo, garantizar la seguridad y la idoneidad del contenido de tu app aún forma parte de tus responsabilidades. Se recomienda adoptar un enfoque basado en capas para la seguridad, en el que los controles de la estructura funcionen como base, y, luego, se apliquen las instrucciones de seguridad en el modelo, con un manejo cuidadoso de las entradas de los usuarios, y, por último, mitigaciones específicas para cada caso de uso. Con este enfoque, los problemas de seguridad ocurren solo cuando hay fallas en varias capas.

    • 18:37 - Evaluación y prueba
    • La evaluación y la prueba efectivas de las apps impulsadas por IA generativa implican seleccionar conjuntos de datos diversos, incluidos aquellos de casos de uso principales y los que podrían generar problemas de seguridad. Utiliza la automatización para ejecutar conjuntos de datos a través de tus funcionalidades de IA de extremo a extremo. La inspección manual de los resultados es adecuada para los conjuntos de datos pequeños, mientras que, en los más grandes, este proceso se puede escalar por medio de otro modelo de lenguaje grande para calificar automáticamente las respuestas. Asegúrate de gestionar los errores de protección, incorporar medidas de seguridad en las instrucciones y lograr un balance entre flexibilidad y seguridad a la hora de incluir las entradas de los usuarios en tus prompts.

Developer Footer

  • Videos
  • WWDC25
  • Explora el diseño rápido y la seguridad para los modelos base en el dispositivo
  • Open Menu Close Menu
    • iOS
    • iPadOS
    • macOS
    • tvOS
    • visionOS
    • watchOS
    Open Menu Close Menu
    • Swift
    • SwiftUI
    • Swift Playground
    • TestFlight
    • Xcode
    • Xcode Cloud
    • Icon Composer
    • SF Symbols
    Open Menu Close Menu
    • Accessibility
    • Accessories
    • App Store
    • Audio & Video
    • Augmented Reality
    • Business
    • Design
    • Distribution
    • Education
    • Fonts
    • Games
    • Health & Fitness
    • In-App Purchase
    • Localization
    • Maps & Location
    • Machine Learning & AI
    • Open Source
    • Security
    • Safari & Web
    Open Menu Close Menu
    • Documentation
    • Sample Code
    • Tutorials
    • Downloads
    • Forums
    • Videos
    Open Menu Close Menu
    • Support Articles
    • Contact Us
    • Bug Reporting
    • System Status
    Open Menu Close Menu
    • Apple Developer
    • App Store Connect
    • Certificates, IDs, & Profiles
    • Feedback Assistant
    Open Menu Close Menu
    • Apple Developer Program
    • Apple Developer Enterprise Program
    • App Store Small Business Program
    • MFi Program
    • News Partner Program
    • Video Partner Program
    • Security Bounty Program
    • Security Research Device Program
    Open Menu Close Menu
    • Meet with Apple
    • Apple Developer Centers
    • App Store Awards
    • Apple Design Awards
    • Apple Developer Academies
    • WWDC
    Get the Apple Developer app.
    Copyright © 2025 Apple Inc. All rights reserved.
    Terms of Use Privacy Policy Agreements and Guidelines