Engenharia de prompts avançada com chain-of-thought e function calling
Técnicas avançadas de prompt engineering para extrair o máximo de performance de LLMs em produção.
Objetivo do Prompt
Dominar técnicas de prompt engineering que melhorem a qualidade, consistência e confiabilidade das respostas de LLMs em aplicações de produção.
Exemplo Real de Uso
A healthtech catarinense SaudePlus usa GPT-4 para triagem de sintomas, mas 15% das respostas são inconsistentes e 8% contêm informações que contradizem guidelines médicos brasileiros. Precisam de prompts mais robustos que garantam segurança e consistência.
Prompt
Desenvolva um sistema de prompts avançado para [NOME DO PROJETO], que usa [GPT-4/CLAUDE/LLAMA] para [CASO DE USO] via API.
**Contexto:**
- Caso de uso: [DESCRIÇÃO DETALHADA]
- Volume: [NÚMERO] chamadas à API por dia
- Requisitos de qualidade: [DESCREVA: precisão, consistência, tom, etc.]
- Custo atual: R$ [VALOR]/mês com [MODELO ATUAL]
- Problemas atuais: [DESCREVA: inconsistência, alucinações, etc.]
**1) System Prompt Engineering:**
- Persona e role definition (quem é o assistente)
- Constraints explícitos (o que NUNCA deve fazer)
- Output format specification (JSON schema, markdown structure)
- Tone and language guidelines (português brasileiro, formal/informal)
- Knowledge boundaries ("diga que não sabe quando...")
- Exemplos do que constitui resposta boa vs. ruim
- Prompt completo otimizado (sem ambiguidades)
**2) Chain-of-Thought (CoT):**
- Quando usar: decisões complexas, cálculos, análises multi-step
- Template CoT para [CASO DE USO]:
```
Analise passo a passo:
1. Identifique [X]
2. Avalie [Y]
3. Considere [Z]
4. Conclua com base nos passos anteriores
```
- CoT com few-shot: 2-3 exemplos demonstrando o raciocínio ideal
- Auto-consistency: gerar N respostas e escolher a mais frequente
- Trade-off: CoT aumenta tokens (custo) mas melhora qualidade
**3) Function Calling / Tool Use:**
- Definição de tools (JSON schema de cada function)
- Tools para [CASO DE USO]:
- `search_database(query, filters)`: busca em dados da empresa
- `calculate(expression)`: cálculos exatos (sem alucinação)
- `validate(data, rules)`: validação contra regras de negócio
- `format_output(data, template)`: formatação padronizada
- Parallel tool calls: quando disparar múltiplas tools
- Fallback se tool falhar
- Logging de tool usage para debugging
**4) Guardrails e Validação:**
- Input validation: sanitização e limites de tamanho
- Output validation: JSON schema validation, regex para formatos
- Content moderation: filtro de conteúdo inapropriado
- Factuality check: comparar resposta com fontes conhecidas
- Retry com prompt modificado se output inválido
- Circuit breaker: fallback para resposta segura padrão
**5) Otimização de Custo:**
- Prompt caching (mesma pergunta → mesma resposta)
- Modelo routing: GPT-4 para complexo, GPT-3.5 para simples
- Token counting e budget por request
- Compressão de contexto (summarize conversation history)
- Batch processing para operações não-urgentes
**6) Avaliação e Iteração:**
- Dataset de avaliação: [NÚMERO] exemplos com resposta ideal
- Métricas: accuracy, consistency, latency, cost per query
- A/B testing de prompts em produção
- Logging de todas as interações para análise
- Review mensal: identificar padrões de falha e ajustar
Forneça os prompts completos e código de integração em [PYTHON/NODE.JS].Como usar este prompt
- 1Cole o prompt diretamente no ChatGPT, Claude, Gemini ou qualquer assistente de IA.
- 2Personalize os campos entre colchetes [assim] com suas informações específicas.
- 3Para melhores resultados, forneça contexto adicional sobre seu caso de uso.
- 4Combine múltiplos prompts em uma conversa para resultados mais completos.
- 5Salve os prompts que mais usa para acesso rápido no futuro.
Prompts relacionados
Ver todosFine-tuning de LLMs com dados customizados usando LoRA e QLoRA
Guia completo para fine-tunar modelos de linguagem com técnicas eficientes de adaptação de parâmetros.
Pipeline RAG (Retrieval-Augmented Generation) com embeddings e vector database
Implementação completa de RAG com chunking, embeddings, busca semântica e geração aumentada.
MLOps pipeline completo com treinamento, versionamento e deploy de modelos
Infraestrutura de MLOps para gerenciar o ciclo de vida de modelos de ML em produção.
Pipeline de pré-processamento de dados para treino de modelos de NLP
Pipeline robusto de coleta, limpeza e preparação de dados textuais em português para treinamento de modelos.
Explore outras categorias de prompts
Assine o AulasDeIA para desbloquear
Acesse 10.000+ prompts prontos para usar em qualquer profissão, além de todos os cursos da plataforma.
Cancele quando quiser. Sem multas.
