🎯 Definicja
Istnieje wiele sformalizowanych metod pisania promptów, które naukowo udowodniły swoją wyższość nad “zwykłym pytaniem”. Te techniki pomagają modelowi przezwyciężyć jego ograniczenia (brak pamięci, słaba arytmetyka, halucynacje).
🔑 Przegląd Technik
- Zero-Shot Prompting: Brak przykładów. Działa dla prostych zadań.
- Few-Shot Prompting: Podanie 1-5 przykładów (Input → Output) w prompcie. Najlepszy stosunek wysiłku do efektu.
- Chain-of-Thought Prompting (CoT): Wymuszenie “kroku po kroku”. Kluczowe dla logiki i matematyki.
- Self-Consistency: Zapytaj model 3 razy o to samo i wybierz najczęstszą odpowiedź (Głosowanie). Redukuje błędy losowe.
- Tree of Thoughts (ToT): Kazanie modelowi symulować kilku ekspertów dyskutujących nad problemem. Dla bardzo trudnych problemów kreatywnych.
- ReAct (Reason + Act): Model myśli, decyduje jakie narzędzie użyć (np. Google Search), używa go, i wraca do myślenia. Podstawa Autonomicznych Agentów.
📚 Kiedy co stosować?
- Piszesz maila? → Role Prompting (“Jesteś copywriterem”).
- Liczysz budżet? → CoT (“Rozbij to na małe kroki”).
- Klasyfikujesz trudne teksty? → Few-Shot (Daj 3 przykłady trudnych tekstów).
- Budujesz autonomicznego robota? → ReAct.
💡 Przykład
Chain-of-Thought w praktyce: Zamiast: “Ile to 23 * 41?” Napisz: “Oblicz 23 * 41. Pokaż obliczenia pośrednie.” Model: “20 * 40 = 800. 3 * 40 = 120… Suma = 943.” Szansa na poprawny wynik rośnie drastycznie.
📌 Źródła
- Wei et al. (2022) “Chain-of-Thought Prompting Elicits Reasoning in Large Language Models”.
👽 Brudnopis
- Większość “magicznych promptów” w internecie to po prostu ładnie opakowany Few-Shot lub CoT.