Como usar o GPT local e grátis!

C

Caio Ramos

23/04/2025

How to Install and Run Ollama with Docker: A Beginner's Guide – Collabnix


Olá!

Já pensou em rodar um modelo LLM (cujo uso mais comum hoje é chat GPT) localmente sem pagar nada totalmente FREE?
Não é um sonho! Hoje com o Ollama + o Open webUI é totalmente possível e rápido (Sério menos de 2 minutinhos)

Instalação:

Linux

ruby
curl -fsSL https://ollama.com/install.sh | sh

MAC

Basta instalar baixando pelo site https://ollama.com/

Após a instalação rodar o serviço:

ruby
ollama run llama3

Aqui você já é capaz de fazer conversação com o modelo direto do console.Liga interface gráfica:
Recomendo não alterar as portas, então tomem cuidado com problema de bind de port, caso já esteja sendo usada.

ruby
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Carregando GIF...
1

Comments (1)

Marco

23/04/2025

🔝