Se você deseja explorar o poder do modelo de linguagem DeepSeek-R1 de 14 bilhões de parâmetros, este tutorial irá te guiar passo a passo sobre como rodá-lo gratuitamente em sua máquina. Além disso, abordaremos o processo de instalação do Ollama e do Open WebUI, explicando os prós e contras de cada ferramenta e os requisitos mínimos para que tudo funcione corretamente.
O que é o DeepSeek-R1?
O DeepSeek-R1 é um modelo de linguagem avançado criado pela startup chinesa DeepSeek. Ele se destaca por sua capacidade de raciocínio lógico, matemática e codificação, oferecendo um desempenho comparável a modelos como o OpenAI GPT. A principal vantagem do DeepSeek-R1 é a sua eficiência, proporcionando uma performance notável a um custo muito mais baixo em comparação com outros modelos de ponta. Além disso, o modelo é gratuito e de código aberto, o que o torna acessível para desenvolvedores em todo o mundo que desejam experimentar ou adaptar suas capacidades.
Requisitos Mínimos
Antes de iniciar o processo de instalação, é importante garantir que sua máquina atenda aos seguintes requisitos para uma execução sem problemas:
- Sistema operacional: macOS, Windows ou Linux.
- Memória RAM: Pelo menos 8GB (idealmente 16GB para desempenho mais suave).
- Espaço em disco: 10GB disponíveis para o modelo e dependências.
- Conexão à internet: Necessária para baixar o modelo e as dependências.
Agora que você conhece os requisitos, vamos iniciar a instalação.
Instalando o Ollama
O Ollama é uma plataforma que permite rodar modelos de linguagem localmente em sua máquina, proporcionando maior controle sobre os dados e privacidade. O Ollama é compatível com o DeepSeek-R1 e facilita a execução de modelos de linguagem em sua máquina.
Para macOS
- Instale o Homebrew (se ainda não o tiver): O Homebrew é um gerenciador de pacotes para macOS. Se você não o tiver instalado, execute o seguinte comando no terminal:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
- Instale o Ollama: Com o Homebrew instalado, execute:
brew install ollama
- Verifique a instalação: Para garantir que o Ollama foi instalado corretamente, execute:
ollama --version
Isso retornará a versão instalada do Ollama.
Para Windows
- Baixe o instalador do Ollama: Acesse o site oficial do Ollama e clique em “Download for Windows”.
- Execute o instalador: Abra o arquivo baixado e siga as instruções no assistente de instalação.
- Verifique a instalação: Abra o Prompt de Comando e digite:
ollama --version
Se a versão do Ollama for exibida, a instalação foi concluída com sucesso.
Para Linux
- Atualize os pacotes do sistema: Execute o seguinte comando no terminal:
sudo apt update && sudo apt upgrade -y
- Instale as dependências necessárias:
sudo apt install -y curl
- Baixe e execute o script de instalação do Ollama:
curl -fsSL https://ollama.com/install.sh | sh
- Verifique a instalação: Para garantir que o Ollama foi instalado corretamente, execute:
ollama --version
Executando o Modelo DeepSeek-R1 de 14B no Ollama
Agora que o Ollama está instalado, você pode baixar e executar o modelo DeepSeek-R1.
- Baixe o modelo DeepSeek-R1: Execute o seguinte comando para fazer o download do modelo de 14 bilhões de parâmetros:
ollama pull deepseek-r1:14b
- Execute o modelo: Para iniciar uma sessão interativa com o DeepSeek-R1, execute:
ollama run deepseek-r1:14b
Isso abrirá um prompt onde você poderá inserir suas perguntas e interagir com o modelo.
O que é o Open WebUI?
O Open WebUI é uma interface web de código aberto, projetada para operar modelos de linguagem localmente de forma intuitiva. Ele oferece uma maneira simples de interagir com o DeepSeek-R1 e outros modelos de linguagem, permitindo experimentação e desenvolvimento de aplicações baseadas em LLMs (Large Language Models).
Instalando o Open WebUI
O Open WebUI pode ser instalado de duas formas: via Docker ou manualmente. Abaixo, explicamos os dois métodos.
Instalando via Docker
Pré-requisitos:
- Docker instalado no seu sistema.
- Baixe e execute o Open WebUI: Execute o comando abaixo para iniciar o Open WebUI via Docker:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Isso irá baixar a imagem do Open WebUI e rodá-la em um contêiner Docker. - Acesse a interface web: Abra o seu navegador e vá para
http://localhost:3000/
. Na primeira vez, será solicitado que você crie uma conta de administrador, fornecendo nome, e-mail e senha.
Integrando o Open WebUI com o Ollama para Executar o Modelo DeepSeek-R1
Agora que o Open WebUI está instalado, vamos integrá-lo com o Ollama para rodar o modelo DeepSeek-R1.
- Baixe o modelo DeepSeek-R1: Execute novamente o comando de download:
ollama pull deepseek-r1:14b
- Configure o Open WebUI: Acesse a interface do Open WebUI e vá até a seção de Modelos. Adicione o modelo
deepseek-r1:14b
à lista de modelos disponíveis. - Interaja com o modelo: No Open WebUI, selecione o modelo DeepSeek-R1 e comece a enviar comandos e perguntas para obter respostas geradas pelo modelo.
Conclusão
Parabéns, agora você tem o modelo DeepSeek-R1 rodando na sua máquina! Usando o Ollama e a interface Open WebUI, você tem total controle sobre o modelo de linguagem, podendo personalizá-lo e interagir com ele localmente. Aproveite para experimentar diversos tipos de prompts e explorar as funcionalidades do modelo!
Prós e Contras
Prós:
- Custo zero: O DeepSeek-R1 é gratuito e de código aberto.
- Controle total: Executando localmente, você tem controle completo sobre os dados.
- Desempenho eficiente: Comparado a outros modelos, o DeepSeek-R1 oferece excelente desempenho a um custo menor.
Contras:
- Requisitos de hardware: Modelos de grande escala exigem uma máquina com boa capacidade de RAM e armazenamento.
- Complexidade na instalação: A instalação pode ser um pouco desafiadora para quem não tem experiência com ferramentas como Docker e Ollama.
Agora é com você! Divirta-se explorando o potencial do DeepSeek-R1 na sua própria máquina.