LLM mają tendencję do generowania odpowiedzi, które brzmią spójnie i przekonująco, ale czasami mogą być zmyślone. Poprawa podpowiedzi może pomóc ulepszyć model w celu generowania dokładniejszych/faktycznych odpowiedzi i zmniejszyć prawdopodobieństwo generowania niespójnych i zmyślonych odpowiedzi.

Niektóre rozwiązania mogą obejmować:

  • zapewnienie podstawowej prawdy (np. powiązanego akapitu artykułu lub wpisu w Wikipedii) jako części kontekstu, aby zmniejszyć prawdopodobieństwo, że model wygeneruje zmyślony tekst.
  • skonfigurowanie modelu tak, aby generował mniej zróżnicowane odpowiedzi poprzez zmniejszenie parametrów prawdopodobieństwa i poinstruowanie go, aby przyznał się (np. “Nie wiem”), gdy nie zna odpowiedzi.
  • podać w podpowiedzi kombinację przykładów pytań i odpowiedzi, o których model może wiedzieć i nie wiedzieć

Spójrzmy na prosty przykład:

Prompt:

Q: What is an atom? A: An atom is a tiny particle that makes up everything. Q: Who is Alvan Muntz? A: ? Q: What is Kozar-09? A: ? Q: How many moons does Mars have? A: Two, Phobos and Deimos. Q: Who is Neto Beto Roberto? 

Output:

A: ?

Wymyśliłem nazwę “Neto Beto Roberto”, więc model jest poprawny w tym przypadku. Spróbuj nieco zmienić pytanie i sprawdź, czy to zadziała. Istnieją różne sposoby na ulepszenie tego zadania w oparciu o wszystko, czego nauczyłeś się do tej pory.