-
Explore a criação de prompts e a segurança de IA para modelos base no dispositivo
Crie experiências de IA generativa que aproveitem os pontos fortes do framework Foundation Models. Começaremos mostrando como criar prompts para o LLM (grande modelo de linguagem) no dispositivo que está no centro da Apple Intelligence. Em seguida, vamos apresentar as principais ideias sobre segurança de IA e oferecer estratégias concretas para tornar seus recursos com IA generativa seguros, confiáveis e agradáveis.
Capítulos
- 0:00 - Introdução
- 2:30 - Criar para LLMs no dispositivo
- 6:14 - Melhores práticas de prompts
- 11:03 - Segurança de IA
- 18:37 - Avaliar e testar
Recursos
-
Buscar neste vídeo...
-
-
- 0:00 - Introdução
O novo framework Foundation Models simplifica o design de experiências com IA generativa para apps em dispositivos Apple. A IA generativa, alimentada por grandes modelos de linguagem (LLMs), pode raciocinar e gerar texto em linguagem natural. O framework permite que você utilize LLMs no dispositivo, que são de uso geral e integrados ao iOS, iPadOS, macOS e VisionOS.
- 2:30 - Criar para LLMs no dispositivo
Esse modelo de linguagem no dispositivo é otimizado para várias tarefas comuns de linguagem, como resumo, classificação, conversas, composição de texto e revisão. Lembre-se de que o tamanho reduzido do modelo significa que ele tem algumas limitações. Ele pode não ter um desempenho tão bom em tarefas complexas de raciocínio, matemática ou geração de código, e seu conhecimento de mundo é limitado a eventos antes da data de treinamento. No entanto, ele pode ser útil para tarefas criativas, como gerar diálogo ou ideias, especialmente quando precisão não é essencial.
- 6:14 - Melhores práticas de prompts
Você pode controlar as respostas do modelo do sistema, especificando o comprimento desejado da saída, usando frases como "em três frases" ou "em detalhes". Você também pode atribuir funções ao modelo ou fornecer exemplos de saídas desejadas para aprimorar o desempenho dele. Finalmente, você pode influenciar o comportamento do modelo em vários prompts incluindo instruções, como especificar o tom ou a finalidade das respostas.
- 11:03 - Segurança de IA
O framework Foundation Models é um ponto de partida seguro para desenvolvedores de app usarem IA generativa, com proteção integradas treinadas pela Apple para bloquear entradas e saídas prejudiciais. No entanto, você ainda é responsável por garantir a segurança e a adequação do conteúdo do seu app. Recomendamos uma abordagem de segurança baseada em camadas, com as proteções do framework como base, seguida por instruções de segurança no modelo, manuseio cuidadoso da entrada do usuário e mitigações específicas para casos de uso. Essa abordagem significa que os problemas de segurança ocorrem somente quando várias camadas falham.
- 18:37 - Avaliar e testar
A avaliação e o teste eficazes de apps baseados em IA generativa envolvem a curadoria de diversos conjuntos de dados, incluindo aqueles para os principais casos de uso e possíveis gatilhos de segurança. Use a automação para executar conjuntos de dados em seus recursos de IA de ponta a ponta. A inspeção manual dos resultados é ideal para conjuntos de dados pequenos, enquanto os maiores podem ser dimensionados usando outro LLM (grande modelo de linguagem) para classificar automaticamente as respostas. Lembre-se de lidar com erros das proteções, incorporar a segurança nas instruções e equilibrar flexibilidade e segurança ao incluir a entrada do usuário nos seus prompts.