🎯 Definicja

Prompt techniques to zestaw strategii tworzenia efektywnych promptów (poleceń) dla dużych modeli językowych (LLM), które umożliwiają uzyskiwanie bardziej trafnych, logicznych i użytecznych odpowiedzi w zależności od typu zadania (klasyfikacja, generacja tekstu, QA itd.).

🔑 Kluczowe punkty

  • 👁‍🗨 Efektywny prompt = lepsze rozumienie celu przez model.
  • 🧠 Istnieją różne strategie: zero-shot, few-shot, chain-of-thought, tree-of-thought itd.
  • 🧩 Wybór techniki zależy od trudności zadania i potrzeby interpretowalności.
  • ⚙️ Prompt engineering minimalizuje konieczność fine-tuningu.

📚 Szczegółowe wyjaśnienie

Zero-shot prompting

Najprostsza forma – model otrzymuje wyłącznie instrukcję, bez przykładów. Sprawdza się dobrze w zadaniach, dla których językowy kontekst jest wystarczający.

Przykład:
„Przetłumacz na niemiecki: ‘Jak się masz?’”

Few-shot prompting

Modelowi przekazuje się kilka przykładów oczekiwanych wejść/wyjść, co stanowi kontekst do wnioskowania.

Przykład:

  • Input: „Ang. = ‘dog’, Fr. = ‘chien’
    Ang. = ‘cat’, Fr. = ‘chat’
    Ang. = ‘house’, Fr. = …”

Chain-of-thought (CoT)

Model prowadzi krok po kroku ścieżkę rozumowania zamiast od razu zwracać odpowiedź.

Użyteczne w:

  • zadaniach logicznych,
  • zadaniach wymagających wieloetapowego myślenia (np. zadania matematyczne, QA).

Przykład:
„Ile jabłek zostanie, jeśli masz 10 jabłek i zjesz 4? Pomyśl krok po kroku.”

Tree-of-thought (ToT)

Zaawansowana forma CoT – zamiast jednej liniowej ścieżki, model rozgałęzia możliwe scenariusze, analizując każdą opcję.

Zastosowanie:

  • generowanie kodu,
  • planowanie strategiczne,
  • podejmowanie decyzji z wieloma zmiennymi.

Directional prompting

Specjalna forma podpowiedzi zawierająca ukryte sterowanie np. przez narzucone style (“pokaż tylko wynik”, “zachowuj się jak ekspert”).

Przykład:
„Jako analityk danych, przeanalizuj i wypisz tylko rekomendację.”

💡 Przykład zastosowania

Model LLM wykorzystywany w aplikacji do onboardingu pracowników, w której użytkownik pyta:
„Jak mogę zarejestrować urlop?”

Zamiast jedynie dać odpowiedź, stosujemy chain-of-thought:

„Aby zarejestrować urlop, najpierw należy zalogować się do systemu HR. Następnie…”

To podejście zwiększa zrozumienie procesu przez użytkownika oraz podnosi wiarygodność systemu.

📌 Źródła

Prompt Engineering Guide: https://github.com/dair-ai/Prompt-Engineering-Guide
Efficient Prompt Engineering Techniques – AssemblyAI: https://www.assemblyai.com/blog
”Prompt Engineering for LLMs” – Microsoft Learn: https://learn.microsoft.com/en-us/training/modules/prompt-engineering/

👽 Brudnopis

  • Prompt != tylko pytanie – to instrukcja sterująca działaniem modelu.
  • Typ promptu wpływa mocno na jakość i kontrolę nad wynikami.
  • CoT i ToT zwiększają interpretowalność działań LLM.
  • Możliwość łączenia technik np. few-shot + CoT.
  • Prompt engineering ≠ fine-tuning, ale daje podobny efekt w niektórych scenariuszach.
  • Na obrazkach pokazano porównanie technik i przebieg działania CoT.