Ollama Inefficace come Team Leader #69
Reference in New Issue
Block a user
Delete Branch "%!s()"
Deleting a branch is permanent. Although the deleted branch may continue to exist for a short time before it actually gets removed, it CANNOT be undone in most cases. Continue?
Io e Filiberto abbiamo provato a usare QWEN3 come modello per il team leader ma per entrambi la risposta della App è stata pessima oltre ogni limite.
Query:
analizza solana e cardanoRisposta:
Il simbolo di bitcoin è BTC-USDIo ho potuto provare anche il modello da 32b ma non cambia molto.
Provando a chiedere solo il prezzo bitcoin mi risponde che non può accedere ai prezzi online!
Query:
I'd like to know the btc current price in us dollarRisposta:
I don't have access to real-time cryptocurrency price data. However, you can check the current price of Bitcoin (BTC) on financial websites like CoinMarketCap, CoinGecko, or cryptocurrency exchanges like Binance, Coinbase, or Kraken. Would you like me to help you with anything else related to cryptocurrency?Controllando il server effettivamente non usa nessun tool o per lo meno non stampa di averlo fatto.
Ecco il log del server:
Aggiornamento
Usando
llama3.1:8bil problema persiste.Sembra essere un problema di prompt troppo lungo e complesso. Per citare Gemini:
Quindi possiamo procedere rifacendo il prompt (o i prompt eventualmente se ci sono altri problemi) "riducendolo" in modo che anche una 8B possa capire cosa fare,
Perchè ho testato con gemini e riesce tranquillamente a prendermi i dati dei bitcoin, cose complesse non le ho fatte dato che finisco le chiamate.
Possiamo, nel caso, utilizzare la chiave di @Nunzi99 di ChatGPT per la demo, giusto per far funzionare il progetto.
Sempre che non si paghi nel fare 100 richieste in un minuto.
Ho fatto un breve test facendo modificare il promt a Copilot tramite questa richiesta:
E alla domanda "Ha senso investire in Bitcoin adesso?", ha chiamato correttamente i tools producendo una risposta con dei dati presi. Il report generation riceve forse dei dati un pò a caso, dato che il prompt non l'ho controllato bene, ma per un test da 2 minuti sembra che la causa sia proprio la lunghezza/complessità troppo elevata per un LLM di "piccole" dimensioni.
Forse è necessario strutturare meglio l'output del team in modo da restituire un oggetto invece che del testo libero che potrebbe fare degli errori. In questo modo possiamo ridurre ancora il prompt dato che Agno penserà a definire l'output al posto nostro
Di seguito metto il prompt modificato da Copilot se è necessario: