🎯 Definicja
Ustawienia LLM to pokrętła, którymi sterujesz zachowaniem modelu. Model to nie tylko “Prompt + Odpowiedź”. To także konfiguracja: “Jak bardzo losowy mam być?”, “Jakie słowa karać?“.
🔑 Kluczowe punkty
- Temperature: Skala losowości (0-1).
- Top P: Nucleus Sampling (Odetnij statystycznie mało prawdopodobne słowa).
- Max Tokens: Kiedy przestać gadać.
- Frequency/Presence Penalty: Zapobiegaj powtarzaniu tych samych słów (Sposób na zacinanie się modelu).
📚 Szczegółowe wyjaśnienie
Domyślne ustawienia (np. w ChatGPT) są zbalansowane (Temp=0.7). Do zadań programistycznych (generowanie kodu) używa się Temp=0.2 (Chcesz poprawny kod, a nie “kreatywną składnię”). Do pisania wierszy Temp=0.9.
💡 Przykład zastosowania
Model w pętli powtarza “To jest test. To jest test. To jest test.”
Rozwiązanie: Zwiększ Frequency Penalty na 0.5. Model dostanie “karę” za użycie słowa “test” drugi raz, więc poszuka innego.
📌 Źródła
- OpenAI API Reference.
👽 Brudnopis
- Te ustawienia są krytyczne w API, ale często ukryte w prostych czatbotach webowych. Jako inżynier AI musisz je kontrolować.