Rede neural artificial é uma estrutura matemática composta por "neurônios" — pequenas unidades que recebem números, multiplicam por pesos, somam, aplicam uma função e passam o resultado adiante. Inspirada no cérebro biológico, mas é uma analogia frouxa: redes neurais são pura matemática, não biologia.
Uma rede neural típica tem três tipos de camadas:
- Camada de entrada: recebe os dados (ex: pixels de uma imagem, tokens de um texto).
- Camadas ocultas: fazem o processamento. Quanto mais camadas, mais "profunda" a rede.
- Camada de saída: devolve a previsão (ex: "isso é um gato com 92% de confiança").
Cada conexão entre neurônios tem um peso, e treinar a rede significa ajustar esses pesos para minimizar o erro. Uma rede como GPT-4 tem centenas de bilhões desses pesos — chamamos eles de parâmetros.
Existem várias arquiteturas de rede neural:
- Feedforward (MLP): a mais simples, dados fluem em uma direção.
- Convolucional (CNN): ótima para imagens, aprende padrões locais.
- Recorrente (RNN/LSTM): trata sequências, usada antes em tradução.
- Transformer: a arquitetura dominante hoje, base de todos os LLMs.
No Brasil, redes neurais alimentam desde o reconhecimento facial em delegacias até a recomendação de filmes na Globoplay. Para um líder de negócio, basta entender que rede neural é o "motor" — você não precisa abrir o capô, mas precisa saber que ele consome dados, energia (eletricidade) e GPUs caras para funcionar. Por isso modelos grandes custam caro para rodar e por isso a Anthropic, OpenAI e Google cobram por token.
