Function calling (também chamado de tool use) é a capacidade do LLM de, dada uma tarefa, decidir que precisa chamar uma função externa, identificar qual função e quais argumentos passar — em formato JSON estruturado e válido.
Como funciona:
1. Você declara funções disponíveis no prompt: nome, descrição, schema dos parâmetros. 2. Manda a pergunta do usuário. 3. O modelo responde de duas formas: - Resposta normal se não precisa de função. - Tool call: JSON com qual função e quais argumentos. 4. Você executa a função no seu código. 5. Manda o resultado de volta ao modelo. 6. Modelo gera resposta final usando o resultado.
Exemplo:
Funções disponíveis:
- buscar_clima(cidade: string): retorna clima atual.
- enviar_email(destinatario: string, assunto: string, corpo: string).Usuário: "Que clima faz em São Paulo? Manda essa info pro meu chefe ([email protected])."
Modelo decide: 1. Chama buscar_clima("São Paulo") → "23°C, parcialmente nublado". 2. Chama enviar_email("[email protected]", "Clima SP", "23°C, parcialmente nublado"). 3. Responde: "Pronto, enviei!" ```
Por que é revolucionário: transforma LLMs de "chatbots que só falam" em "agentes que agem". É a base de qualquer sistema agentico em 2026.
Suporte em 2026:
- OpenAI: Function Calling nativo desde 2023, evoluído para tools.
- Anthropic Claude: tool use (sintaxe similar, muito robusto).
- Gemini: function calling integrado.
- Llama, Mistral: suporte via instruct tuning específico, ferramentas como LangChain.
Funções típicas:
- Buscar na web (search engine).
- Consultar banco de dados.
- Enviar e-mail / SMS / WhatsApp.
- Calculadora.
- CRUD em sistemas internos: criar lead, atualizar pedido.
- APIs externas: Stripe, Google Maps, ERPs.
- Code execution: Python sandbox.
- Computer use: clicar, digitar, navegar.
Boas práticas:
- Descrições claras: o modelo decide com base nelas.
- Schemas precisos: tipos, enums, restrições.
- Idempotência: funções que podem ser chamadas várias vezes sem efeito acumulado.
- Tratamento de erros: o que retornar se algo dá errado.
- Validação de inputs: nunca confie cegamente nos argumentos do modelo.
- Limites: número máximo de chamadas para evitar loops.
Para o profissional brasileiro:
- Atendimento via WhatsApp: bot que de fato resolve, não só responde.
- Operações internas: assistente que cria tickets, atualiza CRM, agenda reuniões.
- Integrações: ChatGPT chamando ERP brasileiro (Bling, Omie, Tiny).
- Análise + ação: lê dado, decide, executa.
Em 2026, function calling é a habilidade que distingue "demo de IA" de "produto de IA". Combinado com JSON mode, RAG e bons prompts, é a base de praticamente todo agente sério. Quem domina function calling constrói produtos verdadeiramente úteis.
