Transfer learning é a ideia de pegar um modelo já treinado em uma tarefa e adaptá-lo para outra tarefa relacionada — em vez de treinar do zero. É um dos avanços mais práticos da IA moderna e a razão pela qual fine-tuning ficou viável para qualquer empresa.
Funciona porque modelos grandes aprendem representações genéricas. Um modelo de visão treinado no ImageNet aprende a detectar bordas, texturas, partes — conhecimento útil para classificar tumores em raios-X, mesmo sem nunca ter visto raios-X.
Pipeline típico:
- Pré-treinamento: modelo grande treinado em dataset massivo e genérico. Caro mas feito uma vez (geralmente por OpenAI, Meta, Google).
- Transfer: você baixa esse modelo pré-treinado.
- Fine-tuning: você re-treina (parcialmente) em seu dataset menor e específico.
Vantagens enormes:
- Precisa de muito menos dados: 1.000 exemplos podem ser suficientes em vez de 1 milhão.
- Treina muito mais rápido: horas em vez de semanas.
- Performance maior: modelos pré-treinados trazem conhecimento "de mundo" embutido.
Exemplos no Brasil:
- Hospital Sírio-Libanês fine-tuna modelos de visão para detectar achados em exames de imagem.
- Itaú fine-tuna LLMs para análise de risco em linguagem natural.
- Magalu usa modelos pré-treinados para classificar reviews de produtos em sentimentos brasileiros.
Variações importantes:
- Feature extraction: congela o modelo base, treina só uma camada nova em cima. Rápido mas limitado.
- Full fine-tuning: re-treina todos os pesos. Melhor performance, mais caro.
- PEFT (Parameter Efficient Fine-Tuning): treina só pequena fração dos pesos. LoRA, adapters, prefix tuning. Padrão em 2026.
- Few-shot prompting: nem treina, só dá exemplos no prompt. Funciona com LLMs grandes.
Transfer learning democratizou IA. Em vez de precisar de Google Brain para criar um classificador, qualquer dev brasileiro com um Mac e 200 exemplos rotulados consegue um modelo decente em uma tarde. É a tecnologia que tornou IA acessível para PMEs.
