🎯 Definicja
Fine-tuning to douczanie modelu. Bierzesz ogólny model (np. Llama 3) i pokazujesz mu tysiące przykładów “Pytanie → Idealna Odpowiedź”, żeby zmienić jego zachowanie, styl lub wiedzę.
🔑 Kluczowe punkty
- Zmienia ZACHOWANIE (Formę): Świetne do nauki stylu mówienia, formatu JSON, procedur medycznych.
- Słabo uczy WIEDZY (Faktów): Nie używaj fine-tuningu, żeby nauczyć model nowych newsów. Do tego służy RAG.
- Data Curation: Jakość Twojego zbioru treningowego jest ważniejsza niż parametry treningu.
📚 Szczegółowe wyjaśnienie
Plusy
- Specjalizacja: Model staje się ekspertem w wąskiej dziedzinie (np. pisanie pozwów sądowych).
- Mniejszy Prompt: Nie musisz pisać instrukcji na 10 stron w każdym prompcie, bo model ma to “we krwi”.
- Koszt (Inference): Mniejszy model po fine-tuningu może pokonać giganta (GPT-4) w specyficznym zadaniu, będąc 10x tańszym w działaniu.
Minusy
- Koszt (Trening): Musisz mieć GPU i zbiór danych.
- Zapominanie (Catastrophic Forgetting): Douczony model może zgłupieć w innych dziedzinach.
- Sztywność: Jak zmienią się przepisy, musisz trenować od nowa. W RAG po prostu podmieniasz plik PDF.
💡 Przykład zastosowania
Dział Obsługi Klienta Samsunga. Chcesz, żeby bot odpowiadał w specyficznym, uprzejmym stylu marki Samsung i używał konkretnych zwrotów. Robisz Fine-tuning na bazie 10,000 idealnych rozmów z historii. Model uczy się stylu. Ale wiedzę o tym, ile kosztuje Galaxy S24 dzisiaj, pobiera przez RAG z cennika.
📌 Źródła
- OpenAI Fine-tuning Guide.
👽 Brudnopis
- Złota zasada: Najpierw spróbuj Prompt Engineering. Potem RAG. Na końcu Fine-tuning.