Ge­ne­ra­ti­ve AI, kurz für Ge­ne­ra­ti­ve Ar­ti­fi­ci­al In­tel­li­gence, ist in der Lage, Inhalte zu ge­ne­rie­ren, die den Daten ähneln, mit denen sie trainiert wurde – von Texten über Bilder bis zu Musik. Das Potenzial ist be­ein­dru­ckend, doch Ge­ne­ra­ti­ve KI bringt auch Her­aus­for­de­run­gen und ethische Bedenken mit sich, ins­be­son­de­re in Bezug auf die Au­then­ti­zi­tät und den möglichen Miss­brauch der ge­ne­rier­ten Inhalte.

IONOS AI Model Hub
Erste deutsche, mul­ti­mo­da­le KI-Plattform
  • 100 % DSGVO-konform und sicher in Deutsch­land gehostet
  • Die leis­tungs­stärks­ten KI-Modelle auf einer Plattform
  • Kein Vendor Lock-in durch Open Source

Ge­ne­ra­ti­ve AI: De­fi­ni­ti­on

Ge­ne­ra­ti­ve AI steht für Ge­ne­ra­ti­ve Ar­ti­fi­ci­al In­tel­li­gence. Der Begriff bezieht sich auf KI-Modelle und Al­go­rith­men wie z. B. ChatGPT, die neue Inhalte oder Daten erzeugen können, die denen ähneln, mit denen sie trainiert wurden. Dabei kann es sich um eine Vielzahl von Da­ten­ty­pen wie Texte, Bilder, Musik usw. handeln. Die Tech­no­lo­gie beruht heute in den meisten Fällen auf so­ge­nann­ten Trans­for­mer-Modellen. Trans­for­mer sind spezielle neuronale Netzwerke, die ent­wi­ckelt wurden, um mit großen Mengen an Textdaten umzugehen. Hierbei handelt es sich um eine Form von Machine Learning.

Wie funk­tio­niert Ge­ne­ra­ti­ve KI?

Ge­ne­ra­ti­ve künst­li­che In­tel­li­genz funk­tio­niert in der Regel durch den Einsatz von Neural Networks. Für die Er­stel­lung von Bildern werden häufig CNNs (Con­vo­lu­tio­nal Neural Networks) genutzt, wo­hin­ge­gen für Texte zunehmend Trans­for­mer-Modelle ein­ge­setzt werden.

  • Zunächst werden große Mengen an Trai­nings­da­ten gesammelt und auf­be­rei­tet, die als Grundlage für das Training des ge­ne­ra­ti­ven Modells dienen. Dabei kann es sich z. B. um Texte, Bilder oder Videos handeln.
  • Das neuronale Netz besteht aus mehreren Schichten. Die genaue Ar­chi­tek­tur hängt von der Art der zu ge­ne­rie­ren­den Daten ab. Für Texte kann ein Modell mit re­kur­ren­ten neu­ro­na­len Netzen (RNNs) oder den bereits erwähnten Trans­for­mern verwendet werden, während für Bilder CNNs genutzt werden.
  • Das KI-Modell wird auf die Trai­nings­da­ten an­ge­wen­det, um zu lernen, wie es Daten erzeugen kann, die den Trai­nings­da­ten ähneln. Dies geschieht, indem es die Ge­wich­tun­gen und Parameter seiner Neuronen anpasst, um die Fehler zwischen den erzeugten Daten und den tat­säch­li­chen Trai­nings­da­ten zu mi­ni­mie­ren.

Nachdem das Modell trainiert wurde, kann es verwendet werden, um neue Daten zu ge­ne­rie­ren. Dazu wird dem Modell eine Start­se­quenz oder ein Startwert vor­ge­ge­ben. Dies erfolgt durch eine Ein­ga­be­auf­for­de­rung, den so­ge­nann­ten Prompt, der in Form von Text, Bildern, Videos oder Zeich­nun­gen erfolgen kann. Die Ge­ne­ra­ti­ve Ar­ti­fi­ci­al In­tel­li­gence liefert dann neue Inhalte als Antwort auf die Ein­ga­be­auf­for­de­rung. Die ge­ne­rier­ten Daten werden bewertet, um si­cher­zu­stel­len, dass sie hoch­wer­tig und aus­sa­ge­kräf­tig sind. Das Modell kann immer weiter angepasst und ver­fei­nert werden, indem es mit neuen Daten trainiert wird.

Was ist der Un­ter­schied zwischen ma­schi­nel­lem Lernen und künst­li­cher In­tel­li­genz?

Als weites For­schungs­feld zielt künst­li­che In­tel­li­genz (KI) darauf ab, Maschinen zu ent­wi­ckeln, die Aufgaben ausführen können, die ty­pi­scher­wei­se mensch­li­che In­tel­li­genz erfordern. Chatbots und Sprach­as­sis­ten­ten wie Google Home oder Amazon Echo basieren bei­spiels­wei­se auf künst­li­cher In­tel­li­genz.

Ma­schi­nel­les Lernen (ML) ist ein Teil­ge­biet der KI, das sich auf die Ent­wick­lung von Al­go­rith­men kon­zen­triert, die in der Lage sind, aus Daten zu lernen. Anstatt spe­zi­fi­sche An­wei­sun­gen für eine Aufgabe zu erhalten, lernt ein ML-Modell aus Bei­spiel­da­ten und trifft dann Vor­her­sa­gen oder Ent­schei­dun­gen, ohne dass es für diese Aufgabe explizit pro­gram­miert werden muss. Die Menge und Kom­ple­xi­tät an Daten haben das Potenzial des ma­schi­nel­len Lernens erhöht.

Welche Ge­ne­ra­ti­ve-AI-Modelle gibt es?

Ge­ne­ra­ti­ve KI-Modelle verwenden ein spe­zi­fi­sches neu­ro­na­les Netz, um neue Inhalte zu erzeugen. Je nach Anwendung sind das unter anderem:

  • Ge­ne­ra­ti­ve Ad­ver­sa­ri­al Networks (GANs): GANs bestehen aus einem Generator und einem Dis­kri­mi­na­tor und werden häufig verwendet, um rea­lis­ti­sche Bilder zu erzeugen.
  • Re­kur­ren­te neuronale Netze (RNNs): RNNs sind speziell für die Ver­ar­bei­tung se­quen­zi­el­ler Daten wie Text kon­zi­piert und werden zur Erzeugung von Text oder Musik verwendet.
  • Trans­for­mer-basierte Modelle: Modelle wie GPT (Ge­ne­ra­ti­ve Pre­trai­ned Trans­for­mer) von OpenAI sind Trans­for­mer-basierte Modelle, die zur Text­ge­ne­rie­rung verwendet werden.
  • Fluss­ba­sier­te Modelle: Werden in fort­ge­schrit­te­nen An­wen­dun­gen verwendet, um Bilder oder andere Daten zu erzeugen.
  • Va­ria­tio­nal Au­toen­co­ders (VAEs): VAEs werden häufig in der Bild- und Text­ge­ne­rie­rung ein­ge­setzt.
  • Dif­fu­si­ons­mo­del­le: Bei Modellen wie DALL-E oder Stable Diffusion handelt es sich um Dif­fu­si­ons­mo­del­le. Sie erzeugen Daten, indem sie schritt­wei­se Rauschen aus einer zu­fäl­li­gen Eingabe entfernen. Sie werden vor allem in der Bild­ge­ne­rie­rung ein­ge­setzt und erzielen dabei sehr rea­lis­ti­sche Er­geb­nis­se.

Ver­schie­de­ne Methoden des ma­schi­nel­len Lernens

Im ma­schi­nel­len Lernen exis­tie­ren ver­schie­de­ne Arten von Modellen, die je nach Art der Aufgabe und der ver­füg­ba­ren Daten aus­ge­wählt werden. Dabei wird grund­sätz­lich zwischen Su­per­vi­sed Learning (über­wach­tes Lernen) und Un­su­per­vi­sed Learning (un­über­wach­tes Lernen) un­ter­schie­den. Systeme, die auf Un­su­per­vi­sed Learning basieren, werden unter anderem in neu­ro­na­len Netzen rea­li­siert.

Neben diesen beiden Haupt­ka­te­go­rien gibt es noch Semi-su­per­vi­sed Learning (teil­über­wach­tes Lernen), Rein­force­ment Learning (be­stär­ken­des Lernen), Active Learning (aktives Lernen). Alle drei Methoden gehören zum über­wach­ten Lernen und un­ter­schei­den sich in Art und Umfang der Nut­zer­be­tei­li­gung.

Darüber hinaus wird heute vielfach das Deep Learning an­ge­wen­det. Es nutzt im Gegensatz zum einfachen Machine Learning mit wenigen Schichten tiefere neuronale Netz­werk­ar­chi­tek­tu­ren, um kom­ple­xe­re Merkmale und Muster in großen Da­ten­men­gen zu erkennen. Grund­sätz­lich gilt: Machine Learning und Deep Learning sind Teil­be­rei­che der künst­li­chen In­tel­li­genz.

Was sind ChatGPT, DALL-E, Gemini und Co.?

Lösungen wie ChatGPT, DALL-E und Gemini sind KI-Schnitt­stel­len, mit denen Nut­ze­rin­nen und Nutzer mit Hilfe von ge­ne­ra­ti­ver künst­li­cher In­tel­li­genz neue Inhalte erstellen können.

ChatGPT

ChatGPT gehört zu den be­kann­tes­ten Text-Ge­ne­ra­to­ren. Der KI-Chatbot basiert auf dem Sprach­vor­her­sa­ge­mo­dell GPT-4o von OpenAI und bietet die Mög­lich­keit, men­schen­ähn­li­che Text­ant­wor­ten in einem Chat-Format zu liefern. Wie andere GPT-Modelle wurde ChatGPT auf großen Mengen von Textdaten trainiert und kann ein breites Spektrum von Themen und Wis­sens­be­rei­chen abdecken, indem es für seine Antworten und Er­klä­run­gen auf dieses Training zu­rück­greift. ChatGPT bezieht dabei den Verlauf der Kon­ver­sa­ti­on mit einer Be­nut­ze­rin bzw. einem Benutzer in seine Er­geb­nis­se ein und simuliert so eine Kon­ver­sa­ti­on.

DALL-E

DALL-E ist eine mul­ti­mo­da­le KI-Anwendung zur Erzeugung von Bildern auf der Grundlage von Text­be­schrei­bun­gen. Die ge­ne­ra­ti­ve künst­li­che In­tel­li­genz wurde unter Ver­wen­dung der GPT-Im­ple­men­tie­rung von OpenAI 2021 ent­wi­ckelt und wie ChatGPT mit einem großen Datensatz von Bildern und zu­ge­hö­ri­gen Text­be­schrei­bun­gen trainiert. Dadurch kann die Bilder-KI-Website die Bedeutung von Wörtern mit visuellen Elementen verbinden. Die ak­tu­ells­te, leis­tungs­fä­higs­te Version ist DALL-E 3. Sie wurde im Oktober 2023 ver­öf­fent­licht. Sie erlaubt es, Bilder in ver­schie­de­nen Stilen zu erstellen, die durch Be­nut­zer­auf­ru­fe gesteuert werden, und außerdem Text in Bildern ab­zu­bil­den.

Gemini

Gemini ist ein von Google ent­wi­ckel­ter ge­ne­ra­ti­ver Chatbot mit künst­li­cher In­tel­li­genz. Die Ge­ne­ra­ti­ve Ar­ti­fi­ci­al In­tel­li­gence wird von dem gleich­na­mi­gen Large Language Model Gemini 1.5 an­ge­trie­ben. Gemini kann wie ChatGPT Fragen be­ant­wor­ten, pro­gram­mie­ren, ma­the­ma­ti­sche Probleme lösen und bei Schreib­ar­bei­ten helfen. Dazu nutzt das Tool ebenfalls Techniken des Natural Language Pro­ces­sing (NLP). Obwohl die KI von der Google-Suche getrennt agiert, bezieht sie ihre In­for­ma­tio­nen aus dem Internet. Nut­ze­rin­nen und Nutzer können durch ihr Feedback aktiv zur Ver­bes­se­rung der Daten beitragen.

Claude

Claude ist ein KI-Chatbot des US-Un­ter­neh­mens Anthropic, das von ehe­ma­li­gen OpenAI-For­schen­den gegründet wurde. Die aktuelle Version Claude 4, ver­öf­fent­licht im Mai 2025, besteht aus mehreren Modellen, die sich in Re­chen­leis­tung und Leis­tungs­fä­hig­keit un­ter­schei­den. Claude ist bekannt für sein besonders sicheres, dia­log­ori­en­tier­tes Design und wird häufig in sensiblen Bereichen wie Bildung oder Un­ter­neh­men ein­ge­setzt. Der Fokus liegt dabei auf Trans­pa­renz, Ver­ständ­lich­keit und ver­ant­wor­tungs­vol­ler KI-Nutzung. Claude-Modelle sind über API-Zugänge sowie in der ChatGPT-ähnlichen App „Claude.ai“ nutzbar.

Mistral

Mistral ist ein fran­zö­si­sches KI-Startup, das sich auf die Ent­wick­lung ef­fi­zi­en­ter, leis­tungs­star­ker Open-Source-Modelle spe­zia­li­siert hat. Im Gegensatz zu pro­prie­tä­ren Modellen wie GPT oder Claude setzt Mistral auf Offenheit und Mo­du­la­ri­tät. Die ver­öf­fent­lich­ten Modelle sind leicht­ge­wich­tig, aber leis­tungs­fä­hig und werden häufig in Open-Source-Projekten und selbst­ge­hos­te­ten KI-An­wen­dun­gen verwendet. Besonders im eu­ro­päi­schen Raum gilt Mistral als Hoff­nungs­trä­ger für da­ten­schutz­kon­for­me KI-An­wen­dun­gen.

LLaMA

LLaMA ist das ak­tu­ells­te Sprach­mo­dell von Meta. Die ak­tu­ells­te, in Europa zu­gäng­li­che Version LLaMA 3.1 wurde 2024 ver­öf­fent­licht und zeichnet sich durch hohe Effizienz und Leistung in Open-Source-Szenarien aus. Es exis­tie­ren ver­schie­de­ne Versionen, die frei verfügbar sind und sich gut für eigene KI-An­wen­dun­gen, Chatbots oder Forschung eignen. Die Modelle sind so kon­zi­piert, dass sie auf han­dels­üb­li­cher Hardware laufen können, was sie besonders für Ent­wick­le­rin­nen und Ent­wick­ler sowie Un­ter­neh­men in­ter­es­sant macht, die auf pro­prie­tä­re Anbieter ver­zich­ten möchten.

Toolname Kosten Vorteile Nachteile
ChatGPT Kostenlos bis 20 Euro/Monat Kann eine Vielzahl von Fragen be­ant­wor­ten Kann manchmal un­er­war­te­te oder ungenaue Antworten liefern
DALL-E 3 15 USD pro 115 Credits oder in ChatGPT-Abos enthalten Kann de­tail­lier­te und hoch­wer­ti­ge Bilder aus Text­an­wei­sun­gen erstellen Ge­ne­rier­te Bilder sind nicht immer perfekt oder rea­lis­tisch
Gemini Kostenlos bis 21,99 Euro/Monat Verfügt über einen großen, zu­ver­läs­si­gen Datensatz, greift auf das Internet zu und wird durch Feedback ständig ver­bes­sert Ab­hän­gig­keit von Google
Claude Kostenlos bis 18 Euro/Monat Sehr hohes Sprach­ver­ständ­nis, un­ter­stützt lange Kon­text­ein­ga­ben Teilweise langsamer Output bei komplexen Aufgaben, ein­ge­schränkt in Mul­ti­me­dia­li­tät
Mistral Kostenlos bis 14,99€/Monat Open Source, ideal für On-Premise-An­wen­dun­gen Bisher keine mul­ti­mo­da­len Fä­hig­kei­ten, weniger Res­sour­cen als Kon­kur­renz
LLaMA Kostenlos Sehr leis­tungs­fä­hig, drei ver­schie­de­ne Größen mit un­ter­schied­li­cher Anzahl an Pa­ra­me­tern Kein eigener Chatbot, Da­ten­schutz bei Meta-Produkten grund­sätz­lich eher kritisch

Wofür kann Ge­ne­ra­ti­ve Ar­ti­fi­ci­al In­tel­li­gence genutzt werden?

Ge­ne­ra­ti­ve KI kann in den ver­schie­dens­ten Bereichen ein­ge­setzt werden, um praktisch jede Art von Inhalt zu erzeugen. Dank bahn­bre­chen­der Ent­wick­lun­gen wie GPT und der Be­nut­zer­freund­lich­keit der Tech­no­lo­gie wird diese gleich­zei­tig immer zu­gäng­li­cher. Zu den An­wen­dungs­be­rei­chen von Ge­ne­ra­ti­ve Ar­ti­fi­ci­al In­tel­li­gence gehören zum Beispiel:

  • Tex­terstel­lung: Nach­rich­ten­ar­ti­kel, kreative Texte, E-Mails, Le­bens­läu­fe etc.
  • Bild- und Gra­fik­erstel­lung: Logos, Designs, Kunst­wer­ke etc.
  • Musik und Sound: Kom­po­nie­ren, Sound­ef­fek­te etc.
  • Vi­deo­spiel­ent­wick­lung: Ge­ne­rie­rung von Spiel­ebe­nen, Cha­rak­te­ren, Sto­ry­li­nes oder Dialogen
  • Film und Animation: Er­stel­lung von CGI-Cha­rak­te­ren oder Szenen, Ge­ne­rie­rung von Ani­ma­tio­nen oder Vi­deo­in­hal­ten etc.
  • Pharmazie und Chemie: Ent­de­ckung neuer Mo­le­kül­struk­tu­ren oder Me­di­ka­men­te, Op­ti­mie­rung von che­mi­schen Ver­bin­dun­gen
  • Chatbots: Kun­den­ser­vice oder tech­ni­scher Support
  • Bil­dungs­in­hal­te: Pro­dukt­de­mons­tra­ti­ons­vi­de­os und Tutorials in ver­schie­de­nen Sprachen
  • Ar­chi­tek­tur und Stadt­pla­nung: Entwerfen von Gebäuden, In­nen­räu­men oder Stadt­plä­nen, Op­ti­mie­rung von Raum- oder In­fra­struk­tur­nut­zung etc.

Was sind die Vorteile ge­ne­ra­ti­ver künst­li­cher In­tel­li­genz?

Aufgrund der viel­fäl­ti­gen Ein­satz­mög­lich­kei­ten bietet Ge­ne­ra­ti­ve AI eine Reihe von Vorteilen für die un­ter­schied­lichs­ten Bereiche. Neben der Er­stel­lung neuer Inhalte kann sie auch die In­ter­pre­ta­ti­on und das Ver­ständ­nis bereits be­stehen­der Inhalte er­leich­tern. Zu den Vorteilen der Im­ple­men­tie­rung ge­ne­ra­ti­ver künst­li­cher In­tel­li­genz gehören unter anderem:

Au­to­ma­ti­sie­rung manueller Prozesse

Zu­sam­men­fas­sung und Auf­be­rei­tung komplexer In­for­ma­tio­nen

Ein­fa­che­re Er­stel­lung von Inhalten

Be­ant­wor­tung spe­zi­fi­scher tech­ni­scher Fragen

Be­ant­wor­tung von E-Mails

Was sind die Grenzen ge­ne­ra­ti­ver KI?

Die Grenzen von Ge­ne­ra­ti­ve Ar­ti­fi­ci­al In­tel­li­gence ergeben sich häufig aus den spe­zi­fi­schen Ansätzen, die zur Umsetzung be­stimm­ter An­wen­dungs­fäl­le verwendet werden. So klingen die ge­ne­rier­ten Inhalte zwar meist sehr über­zeu­gend, jedoch können die zugrunde liegenden In­for­ma­tio­nen falsch sein und ma­ni­pu­liert werden. Zu den weiteren Grenzen bei der Nutzung von Ge­ne­ra­ti­ve AI gehören:

  • In­for­ma­ti­ons­quel­le ist nicht immer iden­ti­fi­zier­bar
  • Vor­ein­ge­nom­men­heit von Ori­gi­nal­quel­len lässt sich schwer be­ur­tei­len
  • Rea­lis­tisch klingende Inhalte er­schwe­ren das Erkennen falscher In­for­ma­tio­nen
  • Ge­ne­rier­te Inhalte können Vor­ein­ge­nom­men­heit und Vor­ur­tei­le be­inhal­ten

Welche Bedenken gibt es gegenüber Ge­ne­ra­ti­ve AI?

Es gibt eine Reihe von Bedenken, die mit der Nutzung von Ge­ne­ra­ti­ve AI verbunden sind. Diese betreffen neben der Qualität der ge­ne­rier­ten Inhalte auch die Mög­lich­keit des Miss­brauchs.

  • Miss­brauch und Des­in­for­ma­ti­on: Die Fähigkeit ge­ne­ra­ti­ver KI, rea­lis­ti­sche Inhalte zu erzeugen, kann miss­braucht werden, z. B. für Deepfakes, ge­fälsch­te Nach­rich­ten, fingierte Dokumente und andere Formen von Fehl­in­for­ma­tio­nen.
  • Ur­he­ber­recht und geistiges Eigentum: Ge­ne­rier­te Inhalte werfen Fragen des Ur­he­ber­rechts und des geistigen Eigentums auf, denn häufig ist unklar, wem die Rechte an den ge­ne­rier­ten Inhalten gehören und wie sie genutzt werden dürfen.
  • Vor­ein­ge­nom­men­heit und Dis­kri­mi­nie­rung: Wenn eine Ge­ne­ra­ti­ve Ar­ti­fi­ci­al In­tel­li­gence auf vor­ein­ge­nom­me­nen Daten trainiert wurde, können sich diese in den ge­ne­rier­ten Inhalten wi­der­spie­geln.
  • Ethik: Die Erzeugung falscher Inhalte und ma­ni­pu­lier­ter In­for­ma­tio­nen kann ethische Fragen aufwerfen.
  • Recht­li­che und re­gu­la­to­ri­sche Fragen: Die rasche Ent­wick­lung von ge­ne­ra­ti­ver KI hat zu einer unklaren Rechts­la­ge geführt; es besteht Un­si­cher­heit darüber, wie die Tech­no­lo­gie reguliert werden sollte.
  • Da­ten­schutz und Pri­vat­sphä­re: Der Einsatz von Ge­ne­ra­ti­ve AI zur Ge­ne­rie­rung per­so­nen­be­zo­ge­ner Daten oder zur Iden­ti­fi­zie­rung von Personen auf Bildern ist im Hinblick auf Da­ten­schutz und Pri­vat­sphä­re frag­wür­dig.
  • Si­cher­heit: Ge­ne­ra­ti­ve AI kann für Social-En­gi­nee­ring-Angriffe ein­ge­setzt werden, die ef­fek­ti­ver sind als mensch­li­che Angriffe.
Cloud GPU VM
Maximale KI-Per­for­mance mit Ihrer Cloud GPU VM
  • Exklusive NVIDIA H200 GPUs für höchste Re­chen­leis­tung
  • Ga­ran­tier­te Per­for­mance durch voll­stän­dig de­di­zier­te CPU-Kerne
  • 100 % Hosting in Deutsch­land für maximale Da­ten­si­cher­heit und DSGVO-Kon­for­mi­tät
  • Einfaches, kal­ku­lier­ba­res Preis­mo­dell mit festem Preis pro Stunde

Beispiele für Ge­ne­ra­ti­ve-AI-Tools

Je nach Art der Inhalte, die generiert werden sollen, gibt es ver­schie­de­ne Ge­ne­ra­ti­ve-AI-Tools. Zu den besten KI-Text-Ge­ne­ra­to­ren gehören:

  • ChatGPT von OpenAI
  • Jasper
  • Wri­te­so­nic
  • Frase
  • CopyAI

Zu den besten KI-Bild-Ge­ne­ra­to­ren gehören:

  • Mid­jour­ney
  • DALL-E 3
  • Neu­ro­flash
  • Jasper Art
  • Craiyon

Zu den besten KI-Video-Ge­ne­ra­to­ren gehören:

  • Pictory
  • Synthesys
  • Synthesia
  • HeyGen
  • Veed

Ge­ne­ra­ti­ve AI vs. AI

Der Un­ter­schied zwischen ge­ne­ra­ti­ver KI und künst­li­cher In­tel­li­genz im All­ge­mei­nen besteht vor allem in der Anwendung und nicht unbedingt in der zu­grun­de­lie­gen­den Tech­no­lo­gie. Während das Hauptziel von künst­li­cher In­tel­li­genz darin besteht, Aufgaben, die nor­ma­ler­wei­se mensch­li­che In­tel­li­genz erfordern, au­to­ma­ti­siert oder ver­bes­sert aus­zu­füh­ren, erzeugt ge­ne­ra­ti­ve künst­li­che In­tel­li­genz neue Inhalte wie z. B. Chat­ant­wor­ten, Designs, syn­the­ti­sche Daten oder Deepfakes. Dazu benötigt die ge­ne­ra­ti­ve KI eine Ein­ga­be­auf­for­de­rung, bei der die Nutzerin bzw. der Nutzer eine An­fangs­ab­fra­ge oder einen Datensatz eingibt. Die her­kömm­li­che KI dagegen kon­zen­triert sich auf Mus­ter­er­ken­nung, Ent­schei­dungs­fin­dung, ver­fei­ner­te Analysen, Da­ten­klas­si­fi­zie­rung und Be­trugs­er­ken­nung.

Best Practices für den Einsatz von Ge­ne­ra­ti­ve Ar­ti­fi­ci­al In­tel­li­gence

Der Einsatz ge­ne­ra­ti­ver KI birgt sowohl Chancen als auch Risiken. Für Nut­ze­rin­nen und Nutzer, die ge­ne­ra­ti­ve KI-Modelle einsetzen oder mit deren Er­geb­nis­sen arbeiten, gibt es einige Best Practices, um bessere Er­geb­nis­se zu erzielen und gleich­zei­tig mögliche Risiken zu vermeiden:

  • Er­geb­nis­se va­li­die­ren: Prüfen Sie die ge­ne­rier­ten Inhalte immer auf Plau­si­bi­li­tät und Qualität.
  • Tool verstehen: Sie sollten wissen, wie das jeweilige Ge­ne­ra­ti­ve-AI-Tool funk­tio­niert und was seine Stärken und Schwächen sind. Das Stichwort lautet hier Ex­plainable AI (XAI)
  • Kritisch mit Quellen umgehen: Wenn Sie mit Inhalten als Quellen arbeiten, die von ge­ne­ra­ti­ver KI erstellt wurden, sollten Sie diese über­prü­fen.
  • Klare Kenn­zeich­nung: Ge­ne­ra­ti­ve KI-Inhalte sollten für andere Menschen als solche ge­kenn­zeich­net werden.
  • Ethik: Setzen Sie ge­ne­ra­ti­ve KI ver­ant­wor­tungs­voll ein, d. h. dass Sie keine ir­re­füh­ren­den, ungenauen oder ma­ni­pu­la­ti­ven Inhalte erstellen oder ver­brei­ten sollten.
  • Kon­ti­nu­ier­li­ches Lernen: Ge­ne­ra­ti­ve künst­li­che In­tel­li­genz ent­wi­ckelt sich schnell, daher sollten Sie auf dem Laufenden über neue Tech­no­lo­gien, Techniken und Best Practices bleiben.
Zum Hauptmenü