🎯 Definicja

Few-Shot Prompting to technika podpowiadania, w której dostarczamy dużemu modelowi językowemu (LLM) kilka demonstracyjnych przykładów zadania w samym promptcie. Te demonstracje pełnią rolę wzorców, na podstawie których model generuje odpowiedzi na nowe, nieznane przypadki – bez potrzeby dodatkowego uczenia.

🔑 Kluczowe punkty

  • Model uczy się „w kontekście” – wystarczy od 1 do kilku przykładów (tzw. 1-shot, 3-shot, 5-shot… prompting).
  • Format i spójność demonstracji istotnie wpływają na skuteczność – nawet losowe etykiety przy zachowaniu formatu pomagają modelowi zorientować się w zadaniu.
  • Few-shot pozwala na dynamiczną specjalizację modelu bez potrzeby kosztownego fine-tuningu.
  • Wydajność few-shot rośnie wraz ze skalą modelu – technika stała się efektywna dzięki dużym LLM.
  • Ma ograniczenia w zadaniach wymagających wieloetapowego rozumowania lub skomplikowanej logiki.

📚 Szczegółowe wyjaśnienie

Jak działa Few-Shot Prompting?

Model LLM otrzymuje prompt zawierający kilka demonstracji wejście–wyjście (input–output):

A "whatpu" is a small, furry animal native to Tanzania.
An example of a sentence that uses the word whatpu is:
We were traveling in Africa and we saw these very cute whatpus.

To do a "farduddle" means to jump up and down really fast.
An example of a sentence that uses the word farduddle is:

Model domyśla się, że powinien wstawić w odpowiedzi zdanie z poprawnym użyciem „farduddle”.

Wskazówki i dobre praktyki

  • Wybierz przykłady pokrywające różne przypadki etykiet – lepsze pokrycie dystrybucji wejść i etykiet przekłada się na skuteczność.
  • Zachowaj spójny format wejść i wyjść – nawet jeśli etykiety są losowe!
  • Nowsze modele są bardziej odporne na niespójności i losowe oznaczenia – choć klasyczne podejście (jeden format) jest wciąż najbezpieczniejsze.
  • Zwiększ liczbę „shots” dla trudniejszych zadań – im trudniejsze zadanie, tym więcej przykładów może być potrzebnych (ale za dużo może zapchać kontekst modelu).

Przykład z losową etykietą – nadal działa:

This is awesome! // Negative
This is bad! // Positive
Wow that movie was rad! // Positive
What a horrible show! //

Model przewiduje: Negative

Ograniczenia Few-Shot Prompting

  • Nie radzi sobie z wieloetapowym rozumowaniem – model może popełnić błędy logiczne nawet przy licznych przykładach.
  • Format i jakość demonstracji kluczowa – niespójność formatu lub chaotyczne przykłady mogą pogorszyć wyniki.
  • W zadaniach wymagających wyjaśnienia procesu (reasoning) lepsze efekty daje Chain-of-Thought Prompting (CoT).

Przykład ograniczeń:

The odd numbers in this group add up to an even number: 15, 32, 5, 13, 82, 7, 1. A: 

Model poprawia odpowiedź dopiero po dołączeniu serii przykładów, a i tak nie zawsze skutecznie – konieczne rozbicie na etapy (CoT).

TechnikaPlusyMinusy
Few-Shot PromptingProstota, brak fine-tune, szybkie wdrożenieSłabiej działa przy złożonych zadaniach
Chain-of-Thought PromptingLepsze reasoning, wieloetapowe zadaniaWiększy prompt, wyższy koszt obliczeniowy

💡 Przykład zastosowania

Analityk chce sklasyfikować sentyment zdań:

Prompt:

This is amazing! // Positive
I did not enjoy that. // Negative
Absolutely loving it! // Positive
Such a disappointing experience. //

Model generuje: Negative

W praktyce:
W data science Few-Shot Prompting pozwala szybko testować nowe zadania na LLM (np. klasyfikacja, parafrazowanie, generowanie przykładów, ekstrakcja informacji) – wystarczy kilka dobrze dobranych demonstracji zamiast czasochłonnego uczenia modelu.

📌 Źródła

👽 Brudnopis

  • Few-shot = prompty wzorcowe, wysoka elastyczność
  • Im większy model, tym lepsza generalizacja (skala ważna, efekt Touvron/Min)
  • Losowe etykiety i formaty coraz mniej szkodzą – odporność nowoczesnych LLM
  • Ograniczenie reasoning – konieczność przejścia na CoT lub inne techniki
  • Praktyczne use-case: rozpoznawanie sentymentu, Q&A eksperckie, ekstrakcja encji, tłumaczenie z przykładów