🎯 Definicja
Few-Shot Prompting to technika, w której podajemy modelowi językowemu kilka przykładów (shotów) zadania, które ma wykonać, zanim poprosimy go o zrobienie tego samego z nowym danymi. Dzięki temu model “uczy się w kontekście” (In-Context Learning) oczekiwanego formatu i logiki, bez potrzeby trenowania (Fine-Tuning).
🔑 Kluczowe punkty
- Zasada: Pokaż, nie tylko opisz (Show, don’t just tell).
- Skuteczność: Drastycznie poprawia jakość odpowiedzi, szczególnie w klasyfikacji i formatowaniu JSON/XML.
- Warianty:
- Zero-Shot: Brak przykładów (tylko instrukcja).
- One-Shot: Jeden przykład.
- Few-Shot: Kilka przykładów (zazwyczaj 3-5).
📚 Szczegółowe wyjaśnienie
Modele LLM są doskonałymi maszynami do rozpoznawania wzorców.
Jeśli dasz mu wzorzec:
Input: A -> Output: B
Input: C -> Output: D
Input: E -> Output: ?
Model z dużym prawdopodobieństwem zgadnie, że ? to F (zgodnie z logiką transformacji).
💡 Przykład zastosowania
Zadanie: Klasyfikacja sentymentu tweetów. Prompt (Few-Shot):
Tweet: "Kocham ten produkt!" -> Sentyment: Pozytywny
Tweet: "Dostawa spóźniona o 3 dni." -> Sentyment: Negatywny
Tweet: "To jest po prostu okej." -> Sentyment: Neutralny
Tweet: "Najgorszy serwis w historii." -> Sentyment:Model uzupełni tylko: Negatywny.
📌 Źródła
- “Language Models are Few-Shot Learners” (GPT-3 Paper).
👽 Brudnopis
- Ważne: Przykłady powinny być różnorodne i zbalansowane (żeby model nie pomyślał np., że każda odpowiedź ma być “Pozytywna”).
- To najtańszy sposób na “specjalizację” modelu.