Zhou et al., stworzyl strukturę do automatycznego generowania i selekcji instrukcji. Problem generowania instrukcji jest ujęty w ramy syntezy języka naturalnego jako problem optymalizacji czarnej skrzynki przy użyciu LLM do generowania i przeszukiwania kandydujących rozwiązań.
Pierwszy krok obejmuje duży model językowy (jako model wnioskowania), który otrzymuje demonstracje wyjściowe w celu wygenerowania kandydatów na instrukcje dla zadania. Te kandydujące rozwiązania poprowadzą procedurę wyszukiwania. Instrukcje są wykonywane przy użyciu modelu docelowego, a następnie wybierana jest najbardziej odpowiednia instrukcja na podstawie obliczonych wyników oceny.
APE odkrywa lepszy prompt CoT typu zero-shot niż zaprojektowany przez człowieka prompt “Pomyślmy krok po kroku”.
Prompt “Opracujmy to krok po kroku, aby upewnić się, że mamy właściwą odpowiedź.” wywołuje rozumowanie łańcuchowe i poprawia wydajność w testach porównawczych MultiArith i GSM8K:
AutoPrompt - proponuje podejście do automatycznego tworzenia promptów dla zróżnicowanego zestawu zadań w oparciu o gradient-guided search. Prefix Tuning - lekka alternatywa dla dostrajania, która dodaje ciągły prefiks dla zadań NLG. Prompt Tuning - proponuje mechanizm uczenia się miękkich promptów poprzez wsteczną propagację.