I 6 parametri dei Large Language Model che devi imparare a usare per ottenere risposte migliori
La maggior parte delle persone usa l’AI in modo “plug & play”: scrive la richiesta, preme invio e spera nella magia.
Funziona? Sì, a volte.
Ma è un po’ come guidare un’auto sportiva lasciando sempre il cambio in automatico: comodo, certo… ma non stai sfruttando nulla del suo vero potenziale.
Dietro ogni risposta di un LLM ci sono parametri che determinano come il modello ragiona, scrive, esplora idee, si trattiene o si sbilancia.
Conoscerli significa fare un salto di qualità.
Impostarli bene significa ottenere risposte più controllabili, più utili, più tue.
Ecco i 6 parametri fondamentali che devi padroneggiare.
1) Temperature
Regola quanto il modello è creativo o “disciplinato”.
Basso (0.1–0.3) → risposte solide, logiche, coerenti.
Alto (1.0–1.5) → idee più originali, ma meno prevedibili.
Quando usarlo
0.2 → testi tecnici, documentazione, passaggi analitici.
1.0 → brainstorming, naming, scrittura libera.
2) Max Tokens
È la lunghezza massima dell’output.
Più è alto, più spazio ha il modello per sviluppare il discorso.
Più è basso, più risposte rapide e asciutte.
Esempi
100 token → risposta breve.
1500 token → articolo, lezione, analisi completa.
3) Top-K
Limita la scelta della parola successiva alle K parole più probabili.
Valori bassi (es. 10) → testo più preciso e conciso.
Valori alti (es. 50) → maggiore varietà e naturalezza.
Quando vuoi rigore e coerenza, tieni basso il valore.
Quando vuoi una prosa più “umana”, alzalo.
4) Top-P (Nucleus Sampling)
Un altro modo per controllare la creatività.
Il modello sceglie tra le parole più probabili finché la somma delle probabilità non raggiunge P.
0.5 → stile controllato.
0.9 → linguaggio più fluido e naturale.
Temperature e Top-P possono convivere, ma è meglio non “spingerli” entrambi al massimo contemporaneamente.
5) Frequency Penalty
Serve a combattere la ripetitività.
0.6 → ottimo equilibrio per evitare monotonia.
0.0 → quando va bene ripetersi (ad esempio nelle definizioni).
Perfetto quando il modello tende a girare in tondo o ripropone le stesse frasi.
6) Presence Penalty
Spinge il modello a variare introducendo concetti nuovi.
0.7 → ideale per titoli, proposte, idee.
0.2 → per report lineari, spiegazioni coerenti.
È molto utile quando vuoi arricchire un testo di nuovi spunti o alternative.
📌 Esempi pronti all’uso
✉️ Per un’email di contatto
Temperature: 0.7
Max Tokens: 200
Frequency Penalty: 0.4
Top-P: 0.85
Risultato: tono naturale, creativo ma non troppo, testo scorrevole e calibrato.
📄 Per analisi e riassunti di documenti
Temperature: 0.3
Max Tokens: 1000
Frequency Penalty: 0.2
Top-P: 0.6
Risultato: chiarezza, coerenza, massima fedeltà al contenuto originale.


