Utilizza una struttura ad albero per guidare l'AI attraverso una serie logica di passaggi, assicurando che non vengano persi passaggi critici.
Hulbert (2023) Ha proposto il "Tree-of-Thought Prompting," che applica il concetto principale dei framework ToT come una tecnica di prompting semplice, facendo sì che l'LLM valuti pensieri intermedi in un unico prompt. Un esempio di prompt ToT è:
Immagina che tre esperti diversi stiano rispondendo a questa domanda. Tutti gli esperti annoteranno un passo del loro ragionamento, poi lo condivideranno con il gruppo. Successivamente, tutti gli esperti procederanno al passo successivo, e così via. Se un esperto si accorge di aver commesso un errore in qualsiasi momento, allora si ritira. La domanda è...
Sun (2023) ha valutato il "Tree-of-Thought Prompting" con esperimenti su larga scala e ha introdotto PanelGPT, un'idea di prompting che prevede discussioni tra panel di LLM.
Esempio di Prompt: Il medico vuole una valutazione dettagliata di una condizione complessa basata su sintomi insoliti.
Prompt:
<aside> đź’ˇ
Immagina che tre esperti di diverse specialità stiano analizzando i sintomi di un paziente. Ognuno scriverà il proprio pensiero e condividerà le proprie ipotesi, valutando se altri esperti possano riscontrare errori nel ragionamento. Se un esperto individua un errore, si ritirerà . L'obiettivo è arrivare a una diagnosi che tenga conto di ogni passaggio logico verificato. La domanda è: quali potrebbero essere le cause sottostanti a questi sintomi?
</aside>
ToT Setup: L’AI eseguirà il prompting utilizzando una struttura ad albero, partendo da ipotesi di base e scendendo a livelli successivi per esplorare cause più specifiche. Ogni “esperto” simulerà una specialità medica diversa (ad esempio, neurologia, medicina interna e infettivologia) e valuterà ogni passo del ragionamento. In caso di errore o incongruenza, quell’ipotesi verrà eliminata.
Per chiarire i vantaggi di ToT, puoi confrontare i risultati ottenuti: