🎯 Definicja

Istnieje wiele sformalizowanych metod pisania promptów, które naukowo udowodniły swoją wyższość nad “zwykłym pytaniem”. Te techniki pomagają modelowi przezwyciężyć jego ograniczenia (brak pamięci, słaba arytmetyka, halucynacje).

🔑 Przegląd Technik

  1. Zero-Shot Prompting: Brak przykładów. Działa dla prostych zadań.
  2. Few-Shot Prompting: Podanie 1-5 przykładów (Input Output) w prompcie. Najlepszy stosunek wysiłku do efektu.
  3. Chain-of-Thought Prompting (CoT): Wymuszenie “kroku po kroku”. Kluczowe dla logiki i matematyki.
  4. Self-Consistency: Zapytaj model 3 razy o to samo i wybierz najczęstszą odpowiedź (Głosowanie). Redukuje błędy losowe.
  5. Tree of Thoughts (ToT): Kazanie modelowi symulować kilku ekspertów dyskutujących nad problemem. Dla bardzo trudnych problemów kreatywnych.
  6. ReAct (Reason + Act): Model myśli, decyduje jakie narzędzie użyć (np. Google Search), używa go, i wraca do myślenia. Podstawa Autonomicznych Agentów.

📚 Kiedy co stosować?

  • Piszesz maila? Role Prompting (“Jesteś copywriterem”).
  • Liczysz budżet? CoT (“Rozbij to na małe kroki”).
  • Klasyfikujesz trudne teksty? Few-Shot (Daj 3 przykłady trudnych tekstów).
  • Budujesz autonomicznego robota? ReAct.

💡 Przykład

Chain-of-Thought w praktyce: Zamiast: “Ile to 23 * 41?” Napisz: “Oblicz 23 * 41. Pokaż obliczenia pośrednie.” Model: “20 * 40 = 800. 3 * 40 = 120… Suma = 943.” Szansa na poprawny wynik rośnie drastycznie.

📌 Źródła

  • Wei et al. (2022) “Chain-of-Thought Prompting Elicits Reasoning in Large Language Models”.

👽 Brudnopis

  • Większość “magicznych promptów” w internecie to po prostu ładnie opakowany Few-Shot lub CoT.