Dica quente para quem está fazendo desenvolvimento de IA: Use o Ollama para executar facilmente modelos como Deepseek-r1 ou Gemma localmente em sua máquina. Ele os baixa e ativa um servidor com uma API compatível com OpenAI SDK Os modelos menores são rápidos e bons o suficiente para trabalhar em novos recursos ou depurar streaming sem ter que pagar por solicitações de API
145,7K