GPU (Graphics Processing Unit) é o chip que tornou a IA moderna possível. Originalmente projetada para renderizar gráficos de videogames, a GPU se mostrou ideal para os cálculos massivamente paralelos que treinar e rodar redes neurais exige.
A diferença em relação à CPU:
- CPU: poucos núcleos (4-32 em PCs comuns), cada um muito rápido. Boa para tarefas sequenciais.
- GPU: milhares de núcleos, cada um mais lento. Boa para fazer milhões de multiplicações em paralelo — exatamente o que redes neurais fazem.
Em 2026, a NVIDIA domina o mercado com seus chips H100, B100 (Blackwell) e H200, usados em data centers de OpenAI, Anthropic, Google e Meta. AMD com MI300 e Intel com Gaudi tentam competir. Apple usa seus próprios chips M-series (que são CPU+GPU+NPU integradas) para inferência on-device.
Custos:
- Uma GPU de servidor (H100) custa US$ 30-40 mil. Anthropic e OpenAI usam dezenas de milhares delas.
- Treinar GPT-4 custou estimativamente US$ 100 milhões em compute.
- Inferência de um modelo grande consome quilowatts de energia por hora.
Para o profissional brasileiro:
- Não precisa comprar GPU se vai usar via API (OpenAI, Anthropic, Replicate).
- Locação na nuvem: AWS, Google Cloud, Azure, RunPod, Vast.ai. Custa de US$ 1 a US$ 10 por hora dependendo do modelo de GPU.
- GPU local: viável para experimentação. Uma RTX 4090 (R$ 12-15 mil) roda modelos open de até 70B parâmetros (com quantização).
- GPUs em jogos do Brasil: muitos devs brasileiros começaram com a placa de vídeo do PC gamer, depois migraram para RunPod ou Lambda Labs.
Em pauta no Brasil em 2026: faltou GPU? Investimento em data centers nacionais (Equinix, Ascenty), debates sobre soberania computacional, e o quanto dependemos de NVIDIA importada.
