🎯 Definicja

Zero-shot prompting to technika konstruowania promptów dla dużych modeli językowych (LLM), w której nie podajemy modelowi żadnych przykładów ani demonstracji zadania. Wystarcza sama, jasna instrukcja – model otrzymuje polecenie i wykonuje zadanie, polegając wyłącznie na swojej ogólnej, wyuczonej wiedzy i umiejętności generalizacji.

🔑 Kluczowe punkty

  • Model LLM nie otrzymuje przykładów ani demonstracji konkretnego zadania – wystarcza sama instrukcja słowna.
  • Wydajność zero-shot zależy od klarowności promptu i szerokości wiedzy modelu po pretrenowaniu.
  • Zero-shot nie wymaga żadnego dodatkowego fine-tuningu ani uczenia na danych specyficznych dla zadania.
  • Modele LLM wykonują zadania od „zera” dzięki wiedzy z ogromnych, zróżnicowanych zbiorów tekstów użytych podczas treningu.
  • Jeśli zero-shot prompting nie wystarcza, poleca się przejść do few-shot prompting, czyli dodać do promptu konkretne przykłady wykonania zadania.

📚 Szczegółowe wyjaśnienie

Jak działa zero-shot prompting?

Model LLM, taki jak GPT-3 lub GPT-4, otrzymuje wyłącznie instrukcję z opisem zadania, np. „Przetłumacz poniższe zdanie na hiszpański”, „Podsumuj podany tekst”, „Zaklasyfikuj sentyment: neutralny, pozytywny lub negatywny”.

Model na podstawie treningowej wiedzy rozpoznaje, czego oczekuje użytkownik i wykonuje zadanie bez konieczności uczenia się na konkretnych przykładach tego typu zapytań.

Przykład:

Prompt: Classify the text into neutral, negative or positive.
Text: I think the vacation is okay.
Sentiment:

Output:

Neutral

W powyższym przypadku model nie dostał żadnego przykładu klasyfikacji sentymentu – zrozumiał zadanie i samodzielnie poprawnie je wykonał.

Inne przykłady:

  • Prompt: “Translate the following English sentence to French: ‘How are you?‘” Output: “Comment ça va ?”
  • Prompt: “Summarize the following story in one sentence.”
  • Prompt: “What is the capital of Japan?” Output: “Tokyo”

Zalety Zero-Shot Prompting

  • Umożliwia szybkie testowanie modeli na wielu różnych zadaniach bez dodatkowego uczenia.
  • Otwiera nowe możliwości automatyzacji dla użytkowników nietechnicznych.
  • Skraca czas przygotowania promptów na potrzeby eksploracji lub prototypowania.
  • Model jest elastyczny – można go wykorzystać do zadań, których nie przewidziano podczas budowy datasetów szkoleniowych.

Wady i ograniczenia

  • Jakość wyniku często zależy od zwięzłości i precyzji promptu.
  • W zadaniach skomplikowanych, nieintuicyjnych lub wymagających specjalnego formatu odpowiedzi zero-shot często daje gorsze rezultaty niż few-shot prompting.
  • Modele mogą popełniać błędy interpretacyjne („halucynacje”), jeśli polecenie nie jest jednoznaczne.

Zero-shot vs. Few-shot vs. One-shot

AspektZero-shotOne-shotFew-shot
Przykłady w promptcieBrakJedenKilka
Wymagania danychNajmniejszeNiewielkieUmiarkowane
Adaptacja do zadaniaOpiera się na wiedzyLekko ukierunkowanaWyraźnie ukierunkowana
Typowe zastosowanieProste, jasne zadaniaGdy chcemy doprecyzowaćSkala, nieregularne dane

Wpływ tuningowania instrukcji

Recent research confirms that instruction tuning (pretrenowanie LLM na dużych zbiorach poleceń) oraz RLHF (uczenie ze wzmocnieniem z ludzkimi informacjami zwrotnymi) znacząco poprawiają efektywność zero-shot prompting. Przykładem takich modeli jest ChatGPT.

💡 Przykład zastosowania

W systemie automatyzacji obsługi klienta prompt zero-shot:
„Anlizuj poniższy e-mail klienta i określ, czy jest to prośba serwisowa, reklamacja czy zapytanie o produkt.”
Model na podstawie treści maila klasyfikuje jego typ – bez wcześniejszych przykładów takich podziałów.

📌 Źródła

👽 Brudnopis

  • Zero-shot = „wykonaj zadanie”, bez przykładów
  • Test efektywności: prosta klasyfikacja, generacje, Q&A
  • Gdy nie działa – przejdź do few-shot (prompt + przykłady)
  • RLHF & instruction-tuned models wyraźnie podnoszą skuteczność zero-shot
  • Praktyczne: szybka eksploracja możliwości modelu, zadania nieprzewidziane podczas treningu
  • W praktyce: ChatGPT, Claude, Gemini, Llama-2, Mistral