Ho fatto funzionare ollama sia con docer che con uv. Aggiornato il readme

This commit is contained in:
Simone Garau
2025-09-16 14:46:15 +02:00
parent 96ef5ae745
commit 0f6a7dabb6
8 changed files with 252 additions and 12 deletions

View File

@@ -8,8 +8,30 @@ services:
- .:/app
env_file:
- .env
# Aggiunte chiave:
environment:
# Questa variabile dice alla tua app dove trovare il servizio Ollama
- OLLAMA_HOST=http://ollama:11434
# Le tue API keys esistenti
- GOOGLE_API_KEY=${GOOGLE_API_KEY}
- ANTHROPIC_API_KEY=${ANTHROPIC_API_KEY}
- DEEPSEEK_API_KEY=${DEEPSEEK_API_KEY}
- OPENAI_API_KEY=${OPENAI_API_KEY}
# Assicura che ollama parta prima della tua app
depends_on:
- ollama
# Nuovo servizio per Ollama
ollama:
image: ollama/ollama
container_name: ollama
# Aggiungi il runtime NVIDIA per GPU support
runtime: nvidia
environment:
- NVIDIA_VISIBLE_DEVICES=all
ports:
- "11434:11434"
volumes:
# Mappa la cartella dei modelli del tuo PC a quella interna del container
# ${OLLAMA_MODELS_PATH} sarà letto dal file .env
- ${OLLAMA_MODELS_PATH}:/root/.ollama