🎯 Definicja

Large Language Models (LLM) to duże modele językowe wykorzystujące głębokie sieci neuronowe – zazwyczaj oparte na architekturze transformera – które uczą się przewidywania kolejnych słów w tekście. Trening oparty jest na bardzo prostym założeniu:

„Biorąc pod uwagę ten tekst, co powinno być dalej?”

LLM-y są trenowane na wielkoskalowych zbiorach danych tekstowych i uczą się rozumienia oraz generowania spójnego języka naturalnego.

🔑 Kluczowe punkty

  • 🧠 Zbudowane na architekturze transformer (np. GPT).
  • 🔁 Przewidują kolejne słowo/token na podstawie wcześniejszego kontekstu.
  • 📚 Trening obejmuje miliardy tokenów z korpusów tekstów pisanych.
  • 💬 Mogą być dostrojone do interakcji konwersacyjnych i różnych zadań (prompt-based learning, instruction tuning).
  • 🔍 Wykazują efekt emergencji – nieoczekiwane zdolności pojawiające się w dużej skali.

📚 Zastosowania

  • 🧑‍💼 Asystent AI – przyjmowanie ról: ekspert, prawnik, doradca, nauczyciel.
  • ✍️ Tworzenie i przekształcanie tekstów – tłumaczenia, parafrazy, streszczenia, korekty.
  • 🧾 Parsowanie danych – ekstrakcja informacji z chaotycznych źródeł (np. PDF, maile, umowy).
  • ❓ Odpowiadanie na pytania na podstawie dostarczonych danych kontekstowych.
  • 💻 Zadania programistyczne – tworzenie, refaktoryzacja, debugowanie kodu.
  • 🔌 Integracja z API i funkcjami – wykorzystując techniki Function Calling.
  • 📊 Wnioskowanie semantyczne – klasyfikacja, kategoryzacja, analiza tonacji.
  • 🤖 Integracja z aplikacjami – personalizacja asystentów w CRM, helpdesk, BI, itd.

🧠 Emergentne zachowania

LLM-y wykazują funkcjonalności, których nie mają mniejsze modele, np.:

  • tłumaczenie pomimo braku dedykowanego treningu do tego celu,
  • rozumienie skomplikowanych instrukcji,
  • rozwiązywanie testów IQ lub zadań arytmetycznych.

Zachowania te są wynikiem ilości danych i skali modelu – często zaskakując nawet twórców modeli: GPT-4 Technical Report.

🚧 Ograniczenia

1. Występowanie halucynacji

Modele mogą generować błędne informacje, choć brzmią one przekonująco. → Zobacz: Halucynacje

2. Przenoszenie biasów treningowych

LLM-y mogą wzmacniać stereotypy i powielać uprzedzenia zawarte w danych treningowych.

3. Ograniczenie kontekstu (Token Window)

Transformery mają maksymalną długość sekwencji (np. 8k, 32k tokenów), co wpływa na:

  • 💰 Koszt zapytań i generacji,
  • 🐢 Wydajność operacyjną,
  • 📉 Spadek trafności – „Lost in the Middle” (źródło).

4. Brak źródła prawdy

Bazują wyłącznie na wzorcach z tekstu – nie mają zagwarantowanego dostępu do faktów (chyba że połączone z systemem RAG).

💬 Niedeterministyczność

LLM generuje odpowiedzi probabilistycznie. Każde zapytanie może dać inną, choć logiczną odpowiedź. Można wpływać na to przez parametry jak temperature lub top_p.

💡 Przykład zastosowania

prompt = """
You are a helpful assistant that extracts invoice numbers from messy text.
Text: "Dziękujemy za współpracę! Faktura: FV-2023-0091."
Answer:
"""
 
# Oczekiwany output: "FV-2023-0091"

📌 Źródła

👽 Brudnopis

  • Architektura transformer = podstawa: self-attention, dekodery, maskowanie przyszłych tokenów.
  • Token window = dostępne miejsce w modelu → wpływa na OKNO percepcji.
  • LLM ≠ Chatbot (ale może być jego silnikiem) → foundation model, konfigurowalny przez prompt.
  • Brak gwarancji prawdziwości → argument za integracją z bazami wiedzy, RAG czy search API.
  • Dalszy rozwój LLM = techniki fine-tuning, self-refinement, chain-of-thought, agent + tools.