Inserito ollama fra le possibilità usando il modello gpt-oss:latest. La risposta di ollama è parsificata male, vede anche il thinking del modello

This commit is contained in:
Simone Garau
2025-09-19 11:55:14 +02:00
parent 6729a66d50
commit 25b93985e5
2 changed files with 2 additions and 2 deletions

View File

@@ -14,7 +14,7 @@ class PredictorAgent:
def __init__(self):
# Ollama via HTTP locale
self.providers = {
"ollama": {"type": "ollama", "host": os.getenv("OLLAMA_HOST", "http://localhost:11434"), "model": "llama3"}
"ollama": {"type": "ollama", "host": os.getenv("OLLAMA_HOST", "http://localhost:11434"), "model": "gpt-oss:latest"}
}
# OpenAI