Fixed Docker
- Update Dockerfile, docker-compose - fixed app instructions not working - fixed json ouput sanification - added tests for predictor
This commit is contained in:
@@ -8,30 +8,13 @@ services:
|
||||
- .:/app
|
||||
env_file:
|
||||
- .env
|
||||
# Aggiunte chiave:
|
||||
environment:
|
||||
# Questa variabile dice alla tua app dove trovare il servizio Ollama
|
||||
- OLLAMA_HOST=http://ollama:11434
|
||||
# Le tue API keys esistenti
|
||||
# Modelli supportati
|
||||
- OLLAMA_HOST=http://host.docker.internal:11434
|
||||
- GOOGLE_API_KEY=${GOOGLE_API_KEY}
|
||||
- ANTHROPIC_API_KEY=${ANTHROPIC_API_KEY}
|
||||
- DEEPSEEK_API_KEY=${DEEPSEEK_API_KEY}
|
||||
- OPENAI_API_KEY=${OPENAI_API_KEY}
|
||||
# Assicura che ollama parta prima della tua app
|
||||
depends_on:
|
||||
- ollama
|
||||
|
||||
# Nuovo servizio per Ollama
|
||||
ollama:
|
||||
image: ollama/ollama
|
||||
container_name: ollama
|
||||
# Aggiungi il runtime NVIDIA per GPU support
|
||||
runtime: nvidia
|
||||
environment:
|
||||
- NVIDIA_VISIBLE_DEVICES=all
|
||||
ports:
|
||||
- "11434:11434"
|
||||
volumes:
|
||||
# Mappa la cartella dei modelli del tuo PC a quella interna del container
|
||||
# ${OLLAMA_MODELS_PATH} sarà letto dal file .env
|
||||
- ${OLLAMA_MODELS_PATH}:/root/.ollama
|
||||
# Chiavi per le crypto API
|
||||
- CDP_API_KEY_NAME=${CDP_API_KEY_NAME}
|
||||
- CDP_API_PRIVATE_KEY=${CDP_API_PRIVATE_KEY}
|
||||
- CRYPTOCOMPARE_API_KEY=${CRYPTOCOMPARE_API_KEY}
|
||||
- BINANCE_API_KEY=${BINANCE_API_KEY}
|
||||
- BINANCE_API_SECRET=${BINANCE_API_SECRET}
|
||||
|
||||
Reference in New Issue
Block a user