Widzieliśmy już, jak skuteczne mogą być dobrze opracowane podpowiedzi dla różnych zadań przy użyciu technik takich jak uczenie się z kilku ujęć i podpowiadanie łańcucha myśli. Gdy myślimy o tworzeniu rzeczywistych aplikacji na bazie LLM, kluczowe staje się zastanowienie się nad nadużyciami, ryzykiem i praktykami bezpieczeństwa związanymi z modelami językowymi.

Niniejsza sekcja koncentruje się na podkreśleniu niektórych zagrożeń i nadużyć związanych z LLM za pomocą technik takich jak wstrzykiwanie podpowiedzi. Podkreślono również szkodliwe zachowania i sposoby ich potencjalnego łagodzenia za pomocą skutecznych technik podpowiadania. Inne interesujące tematy obejmują między innymi uogólnianie, kalibrację, uprzedzenia, uprzedzenia społeczne i faktyczność.