Bei LLM-Prompts handelt es sich um Ein­ga­be­be­feh­le, mithilfe derer große Sprach­mo­del­le zu präzisen Antworten geleitet werden. Gut aus­ge­ar­bei­te­te Prompts ver­bes­sern die Qualität der Er­geb­nis­se und fördern den ef­fi­zi­en­ten Umgang mit ge­ne­ra­ti­ver KI. Mit Ansätzen wie dem ROMANE-Prinzip lassen sich LLM-Prompts klar und ziel­füh­rend gestalten.

Was sind LLM-Prompts?

LLM-Prompts – mitunter auch als LLM-System-Prompts be­zeich­net – sind Eingaben oder An­wei­sun­gen, die an ein Large Language Model (LLM) über­mit­telt werden, um die ge­wünsch­ten Antworten oder Aktionen zu ge­ne­rie­ren. Dabei kann es sich sowohl um Fragen, Aufgaben und Kon­text­in­for­ma­tio­nen in ge­spro­che­ner oder ge­schrie­be­ner Form handeln als auch um Bilder und andere Daten. Die Qualität und Struktur des Prompts be­ein­flus­sen maß­geb­lich, wie präzise und nützlich die Antwort des KI-Modells ist. Das Aus­ar­bei­ten präziser LLM-Prompts wird als Prompt En­gi­nee­ring be­zeich­net und zielt darauf ab, die Mög­lich­kei­ten ge­ne­ra­ti­ver KI best­mög­lich aus­zu­schöp­fen.

KI-Lösungen
Mehr Digital-Power dank Künst­li­cher In­tel­li­genz
  • In Sekunden zur Online-Präsenz
  • Mehr Wachstum mit KI-Marketing
  • Zeit und Res­sour­cen sparen

Best Practices für LLM-Prompts

Für die ef­fi­zi­en­te In­ter­ak­ti­on mit künst­li­cher In­tel­li­genz ist LLM-Prompting von ent­schei­den­der Bedeutung, da bei unklar for­mu­lier­ten An­wei­sun­gen nicht immer die ideale Antwort generiert wird. Worauf beim Erstellen von LLM-Prompts allgemein zu achten ist, ver­an­schau­licht die nach­fol­gen­de Übersicht:

  • Fä­hig­kei­ten des KI-Modells verstehen: Die Stärken und Schwächen – aber auch die Trai­nings­da­ten – des ver­wen­de­ten LLMs zu kennen, hilft dabei, Prompts optimal an die Fä­hig­kei­ten der KI an­zu­pas­sen.
  • LLM-Prompts präzise for­mu­lie­ren: Unklare Prompts ziehen oftmals ungenaue oder mehr­deu­ti­ge Antworten nach sich. Klare und präzise For­mu­lie­run­gen ge­währ­leis­ten, dass das KI-Modell die Aufgabe korrekt in­ter­pre­tiert und ziel­ge­rich­te­te Er­geb­nis­se liefert. Darüber hinaus ist es emp­feh­lens­wert, LLM-Prompts prägnant zu halten und dieselbe Tonalität zu verwenden, die für die Ausgabe gewünscht wird.
  • Kontext be­reit­stel­len: Hin­ter­grund­in­for­ma­tio­nen er­leich­tern es künst­li­cher In­tel­li­genz, den Prompt zu verstehen. Ein klarer Kontext steigert die Relevanz und Ge­nau­ig­keit des Outputs erheblich. Werden zu­sätz­li­che Quellen be­reit­ge­stellt, erweist es sich ge­ge­be­nen­falls als sinnvoll, ein­zu­gren­zen, welche In­for­ma­tio­nen vom KI-Modell zu be­rück­sich­ti­gen sind.
  • Prompts schritt­wei­se op­ti­mie­ren: Beim LLM-Prompting sind oftmals An­pas­sun­gen er­for­der­lich. Wenn der an­fäng­li­che Prompt nicht zum an­ge­streb­ten Resultat führt, empfiehlt es sich, die Anweisung auf Grundlage der Antwort des Modells zu ver­fei­nern oder ver­schie­de­ne Prompts aus­zu­pro­bie­ren.
  • Ver­wen­dung neutraler For­mu­lie­run­gen: Leit­fra­gen be­ein­flus­sen unter Umständen die Antworten des Modells. Stellen Sie daher sicher, LLM-Prompts neutral zu for­mu­lie­ren, um objektive Er­geb­nis­se zu erhalten.
  • Rolle des KI-Modells klar de­fi­nie­ren: Die Rol­len­zu­wei­sung hilft dabei, re­le­van­te­re Er­geb­nis­se zu erzielen. Der KI eine spe­zi­fi­sche Rolle zu­zu­wei­sen, gestattet es Ihnen, den Kontext an­zu­pas­sen und Antworten gezielt zu steuern.
  • Auf LLM-Prompt-Templates zu­rück­grei­fen: Nutzen Sie bewährte Prompt-Vorlagen und passen Sie diese an ihre in­di­vi­du­el­len Be­dürf­nis­se an, um optimale Er­geb­nis­se zu erzielen. Im Internet lassen sich mitt­ler­wei­le zahl­rei­che LLM-Prompts-Examples für un­ter­schied­li­che An­wen­dungs­be­rei­che finden.
IONOS AI Model Hub
Erste deutsche, mul­ti­mo­da­le KI-Plattform
  • 100 % DSGVO-konform und sicher in Deutsch­land gehostet
  • Die leis­tungs­stärks­ten KI-Modelle auf einer Plattform
  • Kein Vendor Lock-in durch Open Source

LLM-Prompts mithilfe des ROMANE-Ansatzes op­ti­mie­ren

Um große Sprach­mo­del­le optimal zu verwenden, gibt es ver­schie­de­ne Konzepte. Ein häufig genutzter Ansatz ist die so­ge­nann­te ROMANE-Formel, die ein simples System bietet, um effektive LLM-Prompts zu erstellen. Der Term „ROMANE” stellt eine Abkürzung dar, die sich wie folgt erklären lässt:

  • Rolle
  • Oberstes Ziel (Objective)
  • Meta-An­wei­sun­gen
  • Anwen­dungs­bei­spie­le
  • Nicht zu lang
  • Expe­ri­men­tie­ren

Rolle

Large Language Models stehen zwar eine Fülle an Daten und In­for­ma­tio­nen zur Verfügung, doch was die Intention der Nutzerin bzw. des Nutzers ist, weiß das KI-Modell nicht. Daher ist es sinnvoll, der künst­li­chen In­tel­li­genz Kontext zu liefern und eine spe­zi­fi­sche Rolle vor­zu­ge­ben – bei­spiels­wei­se SEO-Spe­zia­lis­tin oder Marketing-Experte. Das Festlegen einer Rolle hilft dem Sprach­mo­dell, die Antworten gezielt an­zu­pas­sen und relevante Er­geb­nis­se im ge­wünsch­ten Stil oder für das ge­wünsch­te Fach­ge­biet zu erstellen.

Oberstes Ziel (Objective)

Legen Sie präzise und knapp dar, worin das haupt­säch­li­che Ziel besteht, wenn Sie einen LLM-Prompt erstellen. In Kom­bi­na­ti­on mit der zu­ge­teil­ten Rolle versteht die KI in den meisten Fällen, auf welches Ergebnis man abzielt – selbst bei einer nicht sehr genauen Be­schrei­bung. Ent­spre­chen­de Prompts könnten wie folgt gestaltet werden:

  • Beispiel 1: Fungiere als SEO-Spe­zia­lis­tin und erstelle The­men­vor­schlä­ge für Blog­ar­ti­kel zum Keyword „LLM-Prompts”, die für Le­se­rin­nen und Leser spannend sind.
  • Beispiel 2: Du bist eine Survival-Expertin. Erkläre un­er­fah­re­nen Outdoor-En­thu­si­as­ten, was die fünf wich­tigs­ten Kriterien für die Zu­sam­men­stel­lung von Survival-Equipment sind.

Meta-An­wei­sun­gen

Damit das Sprach­mo­dell komplexe Aufgaben zu­frie­den­stel­lend löst, empfiehlt es sich, diese in Teil­auf­ga­ben zu zerlegen. Soll die KI bei­spiels­wei­se The­men­vor­schlä­ge für Artikel zu „LLM-Prompts” ge­ne­rie­ren, ist es sinnvoll, das Tool erst nach re­le­van­ten Keywords suchen zu lassen und diese in die Vor­schlä­ge zu in­te­grie­ren. Ent­spre­chen­de Lö­sungs­schrit­te können nicht nur vor­ge­ge­ben, sondern auch durch das KI-Modell erstellt werden, etwa mit einem Prompt wie „Löse die Aufgabe schritt­wei­se und begründe die einzelnen Schritte”.

An­wen­dungs­bei­spie­le

Durch Beispiele erhält die KI eine bessere Vor­stel­lung davon, welches Ergebnis gewünscht ist. Je klarer die gewählten Beispiele sind, desto besser gelingt es dem KI-Modell, An­for­de­run­gen nach­zu­voll­zie­hen. Um den prä­fe­rier­ten Stil zu imitieren, benötigt die KI für ge­wöhn­lich nur wenige Ori­en­tie­rungs­punk­te. Soll bei­spiels­wei­se ein Text zu einem be­stimm­ten Thema erstellt werden, reicht es meist aus, zwei bis drei Aus­ar­bei­tun­gen ein­zu­fü­gen, die den Er­war­tun­gen – etwa hin­sicht­lich Glie­de­rung und Wording – ent­spre­chen.

Nicht zu lang

Zu lange Prompts führen wohl­mög­lich dazu, dass die KI wichtige In­for­ma­tio­nen nicht oder nicht aus­rei­chend be­rück­sich­tigt. Dieser Umstand geht darauf zurück, dass große Sprach­mo­del­le vor allem auf Anfang und Ende des Kon­text­fens­ters achten. Daher ist es sinnvoll, auf Füll­wör­ter zu ver­zich­ten, sich auf wenige, prägnante Beispiele zu fo­kus­sie­ren und relevante In­for­ma­tio­nen kompakt zu­sam­men­zu­fas­sen.

Ex­pe­ri­men­tie­ren

Bei ge­ne­ra­ti­ver KI hängen die Er­geb­nis­se oft stark vom Zufall ab. Selbst, wenn zweimal derselbe LLM-Prompt ein­ge­ge­ben wird, weichen die Er­geb­nis­se immer etwas von­ein­an­der ab. Fachleute raten daher dazu, denselben Befehl mehrfach aus­zu­pro­bie­ren, ihn ge­ring­fü­gig ab­zu­än­dern oder einfach ein anderes Sprach­mo­dell zu verwenden, wenn die Anweisung zu keinem zu­frie­den­stel­len­den Ergebnis führt.

Zum Hauptmenü