-
Explora el diseño rápido y la seguridad para los modelos base en el dispositivo
Diseña experiencias de IA generativa que aprovechen las fortalezas de la estructura Foundation Models. Comenzaremos mostrando cómo diseñar prompts para el modelo de lenguaje de gran tamaño que es el núcleo de Apple Intelligence. Luego, presentaremos ideas sobre la seguridad de la IA y estrategias para que tus funcionalidades de IA generativa sean seguras, confiables y agradables.
Capítulos
- 0:00 - Introducción
- 2:30 - Diseño para LLM en el dispositivo
- 6:14 - Prácticas recomendadas para prompts
- 11:03 - Seguridad de IA
- 18:37 - Evaluación y prueba
Recursos
-
Buscar este video…
-
-
- 0:00 - Introducción
Con la nueva estructura Foundation Models, se pueden diseñar fácilmente experiencias de IA generativa para apps en todos los dispositivos Apple. La IA generativa, impulsada por los modelos de lenguaje de gran tamaño (LLM), puede razonar y generar texto en lenguaje natural. La estructura te permite utilizar LLM en el dispositivo, los cuales tienen fines generales y se encuentran integrados en iOS, iPadOS, macOS y VisionOS.
- 2:30 - Diseño para LLM en el dispositivo
Este modelo de lenguaje en el dispositivo está optimizado para diversas tareas lingüísticas comunes, como resumen, clasificación, conversación, redacción de texto y revisión. Ten en cuenta que debido al pequeño tamaño del modelo, este tiene algunas limitaciones. Es posible que no funcione tan bien en tareas de razonamiento complejo, matemáticas o generación de código, y su conocimiento del mundo está limitado a eventos anteriores a su fecha de entrenamiento. Sin embargo, puede ser útil para tareas creativas, como generar diálogo o ideas, especialmente cuando la precisión no es fundamental.
- 6:14 - Prácticas recomendadas para prompts
Para controlar las respuestas del modelo del sistema, puedes especificar la longitud deseada del resultado con frases como “en tres oraciones” o “en detalle”. También puedes asignar roles al modelo o proporcionar ejemplos de los resultados deseados para mejorar el rendimiento del modelo. Por último, puedes influir en el comportamiento del modelo por medio de múltiples prompts si incluyes instrucciones, como indicaciones sobre el tono o el propósito de las respuestas.
- 11:03 - Seguridad de IA
La estructura Foundation Models proporciona un punto de partida seguro para los desarrolladores de apps que usan IA generativa, con controles integrados entrenados por Apple que bloquean las entradas y salidas dañinas. Sin embargo, garantizar la seguridad y la idoneidad del contenido de tu app aún forma parte de tus responsabilidades. Se recomienda adoptar un enfoque basado en capas para la seguridad, en el que los controles de la estructura funcionen como base, y, luego, se apliquen las instrucciones de seguridad en el modelo, con un manejo cuidadoso de las entradas de los usuarios, y, por último, mitigaciones específicas para cada caso de uso. Con este enfoque, los problemas de seguridad ocurren solo cuando hay fallas en varias capas.
- 18:37 - Evaluación y prueba
La evaluación y la prueba efectivas de las apps impulsadas por IA generativa implican seleccionar conjuntos de datos diversos, incluidos aquellos de casos de uso principales y los que podrían generar problemas de seguridad. Utiliza la automatización para ejecutar conjuntos de datos a través de tus funcionalidades de IA de extremo a extremo. La inspección manual de los resultados es adecuada para los conjuntos de datos pequeños, mientras que, en los más grandes, este proceso se puede escalar por medio de otro modelo de lenguaje grande para calificar automáticamente las respuestas. Asegúrate de gestionar los errores de protección, incorporar medidas de seguridad en las instrucciones y lograr un balance entre flexibilidad y seguridad a la hora de incluir las entradas de los usuarios en tus prompts.