Como Rodar o DeepSeek GRÁTIS na Sua Máquina: Guia Completo

Se você deseja explorar o poder do modelo de linguagem DeepSeek-R1 de 14 bilhões de parâmetros, este tutorial irá te guiar passo a passo sobre como rodá-lo gratuitamente em sua máquina. Além disso, abordaremos o processo de instalação do Ollama e do Open WebUI, explicando os prós e contras de cada ferramenta e os requisitos mínimos para que tudo funcione corretamente.

O que é o DeepSeek-R1?

O DeepSeek-R1 é um modelo de linguagem avançado criado pela startup chinesa DeepSeek. Ele se destaca por sua capacidade de raciocínio lógico, matemática e codificação, oferecendo um desempenho comparável a modelos como o OpenAI GPT. A principal vantagem do DeepSeek-R1 é a sua eficiência, proporcionando uma performance notável a um custo muito mais baixo em comparação com outros modelos de ponta. Além disso, o modelo é gratuito e de código aberto, o que o torna acessível para desenvolvedores em todo o mundo que desejam experimentar ou adaptar suas capacidades.

Requisitos Mínimos

Antes de iniciar o processo de instalação, é importante garantir que sua máquina atenda aos seguintes requisitos para uma execução sem problemas:

  • Sistema operacional: macOS, Windows ou Linux.
  • Memória RAM: Pelo menos 8GB (idealmente 16GB para desempenho mais suave).
  • Espaço em disco: 10GB disponíveis para o modelo e dependências.
  • Conexão à internet: Necessária para baixar o modelo e as dependências.

Agora que você conhece os requisitos, vamos iniciar a instalação.


Instalando o Ollama

O Ollama é uma plataforma que permite rodar modelos de linguagem localmente em sua máquina, proporcionando maior controle sobre os dados e privacidade. O Ollama é compatível com o DeepSeek-R1 e facilita a execução de modelos de linguagem em sua máquina.

Para macOS

  1. Instale o Homebrew (se ainda não o tiver): O Homebrew é um gerenciador de pacotes para macOS. Se você não o tiver instalado, execute o seguinte comando no terminal: /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
  2. Instale o Ollama: Com o Homebrew instalado, execute: brew install ollama
  3. Verifique a instalação: Para garantir que o Ollama foi instalado corretamente, execute: ollama --version Isso retornará a versão instalada do Ollama.

Para Windows

  1. Baixe o instalador do Ollama: Acesse o site oficial do Ollama e clique em “Download for Windows”.
  2. Execute o instalador: Abra o arquivo baixado e siga as instruções no assistente de instalação.
  3. Verifique a instalação: Abra o Prompt de Comando e digite: ollama --version Se a versão do Ollama for exibida, a instalação foi concluída com sucesso.

Para Linux

  1. Atualize os pacotes do sistema: Execute o seguinte comando no terminal: sudo apt update && sudo apt upgrade -y
  2. Instale as dependências necessárias: sudo apt install -y curl
  3. Baixe e execute o script de instalação do Ollama: curl -fsSL https://ollama.com/install.sh | sh
  4. Verifique a instalação: Para garantir que o Ollama foi instalado corretamente, execute: ollama --version

Executando o Modelo DeepSeek-R1 de 14B no Ollama

Agora que o Ollama está instalado, você pode baixar e executar o modelo DeepSeek-R1.

  1. Baixe o modelo DeepSeek-R1: Execute o seguinte comando para fazer o download do modelo de 14 bilhões de parâmetros: ollama pull deepseek-r1:14b
  2. Execute o modelo: Para iniciar uma sessão interativa com o DeepSeek-R1, execute: ollama run deepseek-r1:14b Isso abrirá um prompt onde você poderá inserir suas perguntas e interagir com o modelo.

O que é o Open WebUI?

O Open WebUI é uma interface web de código aberto, projetada para operar modelos de linguagem localmente de forma intuitiva. Ele oferece uma maneira simples de interagir com o DeepSeek-R1 e outros modelos de linguagem, permitindo experimentação e desenvolvimento de aplicações baseadas em LLMs (Large Language Models).

Instalando o Open WebUI

O Open WebUI pode ser instalado de duas formas: via Docker ou manualmente. Abaixo, explicamos os dois métodos.

Instalando via Docker

Pré-requisitos:

  • Docker instalado no seu sistema.
  1. Baixe e execute o Open WebUI: Execute o comando abaixo para iniciar o Open WebUI via Docker: docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama Isso irá baixar a imagem do Open WebUI e rodá-la em um contêiner Docker.
  2. Acesse a interface web: Abra o seu navegador e vá para http://localhost:3000/. Na primeira vez, será solicitado que você crie uma conta de administrador, fornecendo nome, e-mail e senha.

Integrando o Open WebUI com o Ollama para Executar o Modelo DeepSeek-R1

Agora que o Open WebUI está instalado, vamos integrá-lo com o Ollama para rodar o modelo DeepSeek-R1.

  1. Baixe o modelo DeepSeek-R1: Execute novamente o comando de download: ollama pull deepseek-r1:14b
  2. Configure o Open WebUI: Acesse a interface do Open WebUI e vá até a seção de Modelos. Adicione o modelo deepseek-r1:14b à lista de modelos disponíveis.
  3. Interaja com o modelo: No Open WebUI, selecione o modelo DeepSeek-R1 e comece a enviar comandos e perguntas para obter respostas geradas pelo modelo.

Conclusão

Parabéns, agora você tem o modelo DeepSeek-R1 rodando na sua máquina! Usando o Ollama e a interface Open WebUI, você tem total controle sobre o modelo de linguagem, podendo personalizá-lo e interagir com ele localmente. Aproveite para experimentar diversos tipos de prompts e explorar as funcionalidades do modelo!

Prós e Contras

Prós:

  • Custo zero: O DeepSeek-R1 é gratuito e de código aberto.
  • Controle total: Executando localmente, você tem controle completo sobre os dados.
  • Desempenho eficiente: Comparado a outros modelos, o DeepSeek-R1 oferece excelente desempenho a um custo menor.

Contras:

  • Requisitos de hardware: Modelos de grande escala exigem uma máquina com boa capacidade de RAM e armazenamento.
  • Complexidade na instalação: A instalação pode ser um pouco desafiadora para quem não tem experiência com ferramentas como Docker e Ollama.

Agora é com você! Divirta-se explorando o potencial do DeepSeek-R1 na sua própria máquina.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *