🎯 Definicja
Prompt to instrukcja lub zapytanie przekazywane modelowi językowemu (LLM), które określa, co model ma wygenerować. Może zawierać pytanie, polecenie, szablon tekstowy, dane kontekstowe lub przykłady. Jakość promptu w dużym stopniu decyduje o jakości odpowiedzi wygenerowanej przez model.
🔑 Kluczowe punkty
- ✍️ Prompt może być prosty (np. jedno zdanie) albo złożony (wielozdaniowa instrukcja z przykładami).
- 🎯 Zadaniem prompta jest nakierowanie modelu na konkretną czynność, np. tłumaczenie, streszczenie, klasyfikację.
- 🧠 Modele LLM potrafią samodzielnie uczyć się struktury zadania na podstawie promptu i kontekstu.
- 💡 Format promptu wpływa na jakość, trafność i długość wygenerowanej odpowiedzi.
- 📈 Stosuje się różne techniki: Zero-Shot, Few-Shot, Chain-of-Thought, aby poprawić skuteczność promptowania.
📚 Szczegółowe wyjaśnienie
Co można zawrzeć w promptcie?
-
Instrukcję: co ma zostać zrobione
np. „Przetłumacz ten tekst na niemiecki: …” -
Kontekst: dodatkowe informacje
np. kilka zdań z dokumentu jako wprowadzenie -
Dane wejściowe: to, co model ma przetworzyć
np."This product is amazing!"
-
Przykłady: (dla Few-Shot Prompting)
np. zadanie + oczekiwana odpowiedź
🔹 Przykład prostego promptu:
The sky is
→ Output:
blue. The sky is blue on a clear day...
🔸 Ulepszony prompt:
Complete the sentence: The sky is
→ Output:
so beautiful today.
Dodanie instrukcji powoduje, że model generuje spójną i zgodną odpowiedź.
Formatowanie promptów
Najczęściej spotykane formaty:
🟩 Instrukcja:
Translate the following sentence into French:
"I love learning."
🟦 QA (question–answer):
Q: What is the capital of Spain?
A: Madrid
Q: What is the capital of France?
A:
Ten format wykorzystywany jest w Zero-Shot Prompting, czyli bez przykładów — tylko pytanie i oczekiwana odpowiedź.
Few-Shot Prompting – nauka przez przykład
Dodanie kilku przykładów w promptcie umożliwia modelowi uczenie się zadania kontekstowo (tzw. in-context learning):
This is awesome! // Positive
This is bad! // Negative
Wow that movie was rad! // Positive
What a horrible show! //
→ Output:
Negative
Dlaczego to działa?
LLM nie zna reguł klasyfikowania emocji, ale potrafi wyciągać wnioski ze wzorców widocznych w promptcie. To czyni Few-Shot Prompting potężną i uniwersalną techniką – bez potrzeby trenowania modelu!
🧠 O czym pamiętać podczas pracy z promptami?
- Prompt najlepiej konstruować jasno i konkretnie.
- Dobrą praktyką jest testowanie różnych wariantów.
- W przypadku zadań złożonych (np. rozumowanie) warto stosować Chain-of-Thought Prompting.
- Spójny format znacznie zwiększa jakość wyników (np. używanie stałego schematu „Q: … A: …”).
💡 Przykład zastosowania w kodzie
prompt = """
Translate into Spanish:
I am learning how to write prompts.
"""
response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[{"role": "user", "content": prompt}]
)
print(response['choices'][0]['message']['content'])
📌 Źródła
👽 Brudnopis
- Prompt = rozmowa z modelem → im lepiej zapytasz, tym dokładniej odpowie
- Zero vs Few Shot – balans między eksperckością modelu a twoją kontrolą
- Dalsze tematy: temperatura, top-p, formatowanie, Chain-of-Thought, RAG
- Prompt ≠ kod → to język zrozumiały dla człowieka
- Dobry prompt = precyzja + przykład + format + kontekst