Aggiornamento documentazione
This commit is contained in:
66
README.md
66
README.md
@@ -25,7 +25,10 @@ Nota che alcune API sono gratuite con limiti di utilizzo, altre sono a pagamento
|
|||||||
Per utilizzare modelli AI localmente, è necessario installare Ollama:
|
Per utilizzare modelli AI localmente, è necessario installare Ollama:
|
||||||
|
|
||||||
**1. Installazione Ollama**:
|
**1. Installazione Ollama**:
|
||||||
- **Linux**: `curl -fsSL https://ollama.com/install.sh | sh`
|
- **Linux**:
|
||||||
|
```sh
|
||||||
|
curl -fsSL https://ollama.com/install.sh | sh
|
||||||
|
```
|
||||||
- **macOS/Windows**: Scarica l'installer da [https://ollama.com/download/windows](https://ollama.com/download/windows)
|
- **macOS/Windows**: Scarica l'installer da [https://ollama.com/download/windows](https://ollama.com/download/windows)
|
||||||
|
|
||||||
**2. GPU Support (Raccomandato)**:
|
**2. GPU Support (Raccomandato)**:
|
||||||
@@ -34,7 +37,10 @@ Per utilizzare la GPU con Ollama, assicurati di avere NVIDIA CUDA Toolkit instal
|
|||||||
- **Documentazione WSL**: [CUDA WSL User Guide](https://docs.nvidia.com/cuda/wsl-user-guide/index.html)
|
- **Documentazione WSL**: [CUDA WSL User Guide](https://docs.nvidia.com/cuda/wsl-user-guide/index.html)
|
||||||
|
|
||||||
**3. Installazione Modelli**:
|
**3. Installazione Modelli**:
|
||||||
Esempio per installare un modello locale: `ollama pull gpt-oss`
|
Si possono avere più modelli installati contemporaneamente. Per questo progetto si consiglia di utilizzare il modello open source `gpt-oss` poiché prestante e compatibile con tante funzionalità. Per il download:
|
||||||
|
```sh
|
||||||
|
ollama pull gpt-oss:latest
|
||||||
|
```
|
||||||
|
|
||||||
### Variabili d'Ambiente
|
### Variabili d'Ambiente
|
||||||
|
|
||||||
@@ -85,4 +91,58 @@ docker compose up --build -d
|
|||||||
Il file `.env` verrà automaticamente caricato nel container grazie alla configurazione in `docker-compose.yaml`.
|
Il file `.env` verrà automaticamente caricato nel container grazie alla configurazione in `docker-compose.yaml`.
|
||||||
|
|
||||||
# Applicazione
|
# Applicazione
|
||||||
L'applicazione è attualmente in fase di sviluppo. Maggiori dettagli saranno aggiunti durante l'implementazione.
|
**L'applicazione è attualmente in fase di sviluppo.**
|
||||||
|
## Aggiornamento del 19 Giugno 2024
|
||||||
|
Usando la libreria ``gradio`` è stata creata un'interfaccia web semplice per interagire con gli agenti. Gli agenti si trovano
|
||||||
|
nella cartella `src/app/agents` e sono:
|
||||||
|
- **Market Agent**: Recupera i dati di mercato (prezzi, volumi, ecc.). ***MOCK***
|
||||||
|
- **News Agent**: Recupera le notizie finanziarie più recenti utilizzando. ***MOCK***
|
||||||
|
- **Social Agent**: Analizza i sentimenti sui social media utilizzando. ***MOCK***
|
||||||
|
- **Predictor Agent**: Utilizza i dati raccolti dagli altri agenti per fare previsioni.
|
||||||
|
|
||||||
|
L'applicazione principale si trova in `src/app.py` e può essere eseguita con il comando:
|
||||||
|
```sh
|
||||||
|
uv run python src/app.py
|
||||||
|
```
|
||||||
|
|
||||||
|
### Albero delle cartelle:
|
||||||
|
```txt
|
||||||
|
upo-appAI/
|
||||||
|
├── Dockerfile
|
||||||
|
├── LICENSE
|
||||||
|
├── README.md
|
||||||
|
├── docker-compose.yaml
|
||||||
|
├── docs/
|
||||||
|
├── pyproject.toml
|
||||||
|
├── requirements.txt
|
||||||
|
├── src/
|
||||||
|
│ ├── __pycache__/
|
||||||
|
│ ├── app/
|
||||||
|
│ │ ├── __init__.py
|
||||||
|
│ │ ├── __pycache__/
|
||||||
|
│ │ ├── agents/
|
||||||
|
│ │ │ ├── __init__.py
|
||||||
|
│ │ │ ├── __pycache__/
|
||||||
|
│ │ │ ├── market_agent.py
|
||||||
|
│ │ │ ├── news_agent.py
|
||||||
|
│ │ │ ├── predictor_agent.py
|
||||||
|
│ │ │ └── social_agent.py
|
||||||
|
│ │ └── tool.py
|
||||||
|
│ ├── app.py
|
||||||
|
│ ├── example.py
|
||||||
|
│ └── ollama_demo.py
|
||||||
|
└── uv.lock
|
||||||
|
```
|
||||||
|
|
||||||
|
### Problemi noti
|
||||||
|
1. Google ci sono differenze fra i modelli 1.x e i modelli 2.x. Si suggerisce la costruzione di due metodi differenti.
|
||||||
|
2. `gemini-1.5-flash` funziona perfettamente
|
||||||
|
3. `gemini-2.5-flash` non funziona passando parametri come *temperature* e *max_tokens*, bisogna trovare la nuova sintassi.
|
||||||
|
2. Ollama viene correttamente triggerato dalla selezione da interfaccia web ma la generazione della risposta non viene parsificata correttamente.
|
||||||
|
|
||||||
|
### ToDo
|
||||||
|
1. Per lo scraping online bisogna iscriversi e recuperare le chiavi API
|
||||||
|
2. **Market Agent**: [CoinGecko](https://www.coingecko.com/it)
|
||||||
|
3. **News Agent**: [CryptoPanic](https://cryptopanic.com/)
|
||||||
|
4. **Social Agent**: [post più hot da r/CryptoCurrency (Reddit)](https://www.reddit.com/)
|
||||||
|
5. Capire come `gpt-oss` parsifica la risposta e per questioni "estetiche" si può pensare di visualizzare lo stream dei token. Vedere il sorgente `src/ollama_demo.py` per risolvere il problema.
|
||||||
Reference in New Issue
Block a user