scostadavid.dev

DeepSeek e Ollama: rodando LLMs localmente com o poder da sua GPU

Introdução: O universo da IA e dos LLMs está mudando rápido demais

Semana passada, a Nvidia gigante por trás do hardware de IA viu suas ações caírem. Por quê, você pergunta? Porque o mundo está percebendo que não precisa mais depender de infraestrutura cara na nuvem ou de GPUs caríssimas pra aproveitar o poder da IA.

O novo modelo desenvolvido de LLM desenvolvido pela chinesa DeepSeek Inc, abalou a mercado tech global oferecendo uma alternativa aos modelos já consolidados no mercado.

Mas vamos deixar a volatilidade da bolsa de lado e aprender como rodar o DeepSeek localmente no seu PC, passo a passo. Sem enrolação.

Passo 1: Instale o Ollama

Mas o que é o Ollama David?

Ollama é uma ferramenta open-source que roda modelos de linguagem (LLMs) direto na sua máquina, usando o poder da sua GPU, sem precisar de servidor, nuvem ou complicação.

Abra seu terminal e rode o seguinte comando:

$ curl -fsSL https://ollama.com/install.sh | sh

Esse script vai instalar e configurar o Ollama no seu sistema.

Passo 2: Verifique se a instalação deu certo

Depois que o Ollama estiver instalado, cheque se está funcionando:

$ ollama

Se você receber uma resposta no terminal, tá tudo certo. Ollama instalado com sucesso.

Passo 3: Escolha seu modelo DeepSeek

O Ollama já suporta diferentes versões do modelo DeepSeek. As duas principais são:

  1. DeepSeek-R1
  1. DeepSeek-V3

Mas o que são parâmetros?

Parâmetros são os "neurônios" do modelo quanto mais ele tem, mais inteligente e complexo ele é. Resumindo:

Passo 4: Rode o modelo escolhido

Depois de decidir qual modelo quer usar, rode ele com o Ollama

$ ollama run deepseek-r1
$ ollama run deepseek-v3

Passo 5: Hora de experimentar

Com o modelo rodando, você já pode usar ele para:

Conclusão

Seja você iniciante ou veterano no mundo da IA, rodar o DeepSeek localmente com o Ollama é libertador.

O importante é: você não precisa mais da nuvem para brincar com IA de verdade, aproveite.