🎯 Definicja

Explainable AI (XAI) — czyli wyjaśnialna sztuczna inteligencja — to podejście obejmujące metody, techniki i narzędzia, które pozwalają zrozumieć, prześledzić i uzasadnić decyzje podejmowane przez modele sztucznej inteligencji. Celem XAI jest zwiększenie przejrzystości działania algorytmów, ułatwienie zaufania u użytkowników i wsparcie zgodności z regulacjami prawnymi (np. RODO, AI Act).

🔑 Kluczowe punkty

  • Wyjaśnialność dotyczy zarówno modeli typu black-box, jak i modeli interpretable-by-design.
  • Kluczowe pytania XAI: Dlaczego model podjął taką decyzję?, Które cechy miały wpływ?, Co zmieniłoby wynik?
  • XAI zwiększa zaufanie (trust), bezpieczeństwo (safety), oraz ułatwia debugowanie modeli (model diagnostics).
  • Stosowane szczególnie w obszarach krytycznych: finanse, zdrowie, ubezpieczenia, sektor publiczny.
  • Może dotyczyć predykcji pojedynczej instancji (local explanation) lub działania całego modelu (global explanation).

📚 Szczegółowe wyjaśnienie

Główne metody Explainable AI

MetodaOpis
SHAP (SHapley Values)Oblicza wkład każdej cechy w decyzję modelu, inspirowane teorią gier.
LIMETworzy lokalny model interpretable wokół pojedynczego przykładu.
Feature ImportanceInformuje, które cechy najbardziej wpływają na wyniki modelu globalnie.
Partial Dependence PlotsPokazują, jak predykcja zmienia się przy zmianie konkretnej cechy.
Counterfactual ExplanationsCo musiałoby się zmienić, aby decyzja modelu była inna.

Wyjaśnialność lokalna vs globalna

  • Globalna: dotyczy całego modelu – ogólne cechy decyzyjne, ważność atrybutów.
  • Lokalna: dotyczy konkretnego przypadku – dlaczego klient X został oznaczony jako “ryzykowny”?

Explainability vs Interpretability

  • Interpretability – stopień, w jakim człowiek może zrozumieć strukturę/model (np. regresja liniowa).
  • Explainability – umiejętność wyjaśniania działania złożonych, często czarnych skrzynek (np. sieci neuronowe), najczęściej przez warstwę interpretacyjną.

Wyzwania XAI

  • Ograniczona przejrzystość modeli typu black-box (np. DL, LLM)
  • Ryzyko zbytniego uproszczenia (faithfulness vs comprehensibility)
  • Trade-off: dokładność vs wyjaśnialność
  • Wymogi regulacyjne dla AI – wyjaśnialność staje się obowiązkiem

💡 Przykład zastosowania

W instytucji finansowej model predykcyjny ocenia ryzyko kredytowe. Na poziomie każdej decyzji system z XAI (np. SHAP) wskazuje, które czynniki wpłynęły najbardziej: np. „brak historii kredytowej”, „zbyt duże zadłużenie”, „wielokrotny brak terminowości płatności”. Dzięki temu analityk może wyjaśnić klientowi wynik decyzji i bronić go przed regulatorem.

📌 Źródła

👽 Brudnopis

  • XAI ≠ Pełna przejrzystość, ale warstwa tłumacząca – co, dlaczego i jakby było inaczej
  • SHAP = interpretacja → kontekst wpływu featurów
  • LIME = działa przez lokalne linearyzowanie black boxa
  • faithfulness ≠ intelligibility → zrozumiałe != w pełni zgodne z modelowym wnętrzem
  • rosnące znaczenie przy RLHF i LLM: „dlaczego wygenerował taki tekst”
  • narzędzia: SHAP, LIME, Captum (PyTorch), What-If Tool (TF), ELI5