🎯 Definicja
Tree of Thoughts (ToT) to zaawansowana technika promptowania, która każe modelowi myśleć “drzewiasto”, a nie liniowo. Model generuje kilka możliwych kroków, ocenia je, wybiera najlepszy i idzie dalej (jak algorytm szachowy). To ewolucja Chain-of-Thought Prompting.
🔑 Kluczowe punkty
- Eksploracja: Model rozważa alternatywy (“A co, jeśli zrobię X? A co, jeśli Y?”).
- Ocena: Model sam ocenia swoje pomysły (“Pomysł X jest słaby, pomysł Y rokuje”).
- Backtracking: Jeśli ścieżka prowadzi donikąd, model może się cofnąć (w implementacji programistycznej).
📚 Szczegółowe wyjaśnienie
W zwykłym Chain-of-Thought Prompting model pisze jedno rozwiązanie ciurkiem. Jak popełni błąd na początku, brnie w niego. W ToT model działa jak algorytm przeszukiwania (BFS/DFS):
- Krok 1: Wygeneruj 3 pomysły.
- Oceń je. Odrzuć 1, zostaw 2.
- Krok 2: Dla obu zostawionych, wygeneruj kolejne kroki… Wymaga to zazwyczaj skryptu (Python) sterującego modelem, lub bardzo sprytnego prompta.
💡 Przykład zastosowania
“Gra w 24” (Użyj liczb 4, 9, 10, 13 by uzyskać 24). ToT:
- “Mogę dodać 4+9 (13)… Mogę pomnożyć 4*9 (36)…” (Generuje gałęzie).
- “36 to za dużo, trudno będzie zejść do 24. 13 jest obiecujące.” (Ocena).
- Idzie ścieżką 13… Zwykły GPT-4 często “strzela” i się myli. ToT rozwiązuje to systematycznie.
📌 Źródła
- “Tree of Thoughts: Deliberate Problem Solving with Large Language Models” (Yao et al., 2023).
👽 Brudnopis
- ToT zamienia LLM z “improwizującego poety” w “rozważnego planistę”.