Transfer Learning ist ein Ansatz, bei dem ein vor­trai­nier­tes Modell für eine neue, verwandte Aufgabe genutzt wird. Diese Methode spart Zeit und Res­sour­cen und ver­bes­sert die Leistung von Modellen des ma­schi­nel­len Lernens. Es gibt un­ter­schied­li­che Stra­te­gien, mit denen vor­trai­nier­te Modelle für eine neue Aufgabe angepasst werden.

Was ist Transfer Learning?

Transfer Learning ist eine Methode aus dem Bereich des Machine Learnings, bei der ein trai­nier­tes Modell für eine neue, ähnliche Aufgabe optimiert wird. Anstatt also ein neues Modell aufwendig für eine bestimmte Aufgabe von Grund auf zu trai­nie­ren, macht man sich das bereits erlangte Wissen zunutze. Durch leichte An­pas­sun­gen wird das bereits trai­nier­te Modell verwendet und so an die neuen Merkmale angepasst, damit es für eine weitere Aufgabe ein­ge­setzt werden kann. Der Einsatz eines bereits be­stehen­den Modells spart Zeit und Res­sour­cen, da für das Training deutlich geringere Da­ten­men­gen benötigt werden. Die Methode ist dadurch ef­fi­zi­en­ter und leis­tungs­fä­hi­ger.

KI-Lösungen
Mehr Digital-Power dank Künst­li­cher In­tel­li­genz
  • In Sekunden zur Online-Präsenz
  • Mehr Wachstum mit KI-Marketing
  • Zeit und Res­sour­cen sparen

Wie funk­tio­niert Transfer Learning?

Beim Transfer Learning nimmt man ein Modell, das bereits voll­stän­dig für eine bestimmte Auf­ga­ben­stel­lung trainiert wurde, und wendet es auf eine neue, ähnlich gelagerte Aufgabe an. Das funk­tio­niert besonders gut beim Einsatz mit un­struk­tu­rier­ten Daten wie zum Beispiel Bild- oder Vi­deo­ma­te­ri­al. Ein Modell, das bisher darauf trainiert wurde, Bilder von PKW zu erkennen, kann so zum Beispiel ein­ge­setzt werden, um fortan LKW zu iden­ti­fi­zie­ren. Zahl­rei­che Merkmale beider Gruppen wie Räder, Türen oder die grund­sätz­li­che Form können dabei über­nom­men werden.

Trai­nier­tes Modell auswählen

Als Aus­gangs­punkt benötigen Sie ein trai­nier­tes Modell. Dieses wird mithilfe eines sehr um­fang­rei­chen Da­ten­sat­zes und mar­kier­ten Bei­spie­len geschult. Das Modell erkennt nach und nach Muster und Be­zie­hun­gen in den Daten und lernt dadurch, die vor­ge­se­he­ne Aufgabe zu erfüllen. Im Bereich des Machine Learnings spricht man von Schichten, die mit­ein­an­der verknüpft sind und über die Be­rech­nun­gen durch­ge­führt werden können. Je mehr Schichten ein Modell hat, desto kom­ple­xe­re Muster kann es nutzen.

Beim Transfer Learning wählen Sie nun ein Modell aus, das diese Schritte bereits er­folg­reich ab­sol­viert hat. Dabei lohnt sich ein genauer Blick auf die Quell­auf­ga­be eines be­stehen­den Modells. Je näher diese an der neuen Aufgabe ist, desto einfacher wird auch der Umstieg fallen.

Modell neu kon­fi­gu­rie­ren und trai­nie­ren

Im zweiten Schritt kon­fi­gu­rie­ren Sie das bereits vor­trai­nier­te Modell für die neue Aufgabe. Dafür gibt es im Großen und Ganzen zwei prak­ti­sche Methoden, von denen Sie die für Ihre Zwecke pas­sen­de­re auswählen können.

Bei der ersten Methode wird die letzte Schicht des trai­nier­ten Aus­gangs­mo­dells aus­ge­tauscht. Diese Schicht be­zeich­net man auch als Output Layer. Sie dient als finale Klas­si­fi­ka­ti­ons­ein­heit, bewertet also, ob eine Datei die hin­ter­leg­ten Parameter erfüllt oder nicht. Für unser Beispiel würde das bedeuten, dass diese Schicht die Ent­schei­dung trifft, ob ein vor­ge­leg­tes Bild einen PKW abbildet. In vielen An­wen­dungs­fäl­len können Sie diese Schicht entfernen und an ihrer Stelle eine neue Schicht einsetzen, die für Ihren Ein­satz­zweck angepasst wurde. In unserem Beispiel würde sie also LKW iden­ti­fi­zie­ren.

Al­ter­na­tiv ist es beim Transfer Learning möglich, die bis­he­ri­gen Parameter ein­zu­frie­ren und statt­des­sen neue Schichten hin­zu­zu­fü­gen. Diese werden genau auf die ge­wünsch­te Neu­aus­rich­tung zu­ge­schnit­ten und in­te­griert. Im Anschluss trai­nie­ren Sie dann das an­ge­pass­te Modell mit einem deutlich kleineren Datensatz, der die ent­spre­chen­den Beispiele enthält. Das Modell erkennt dann Muster und Be­zie­hun­gen, wobei es auf die bereits lang­wie­rig an­trai­nier­ten Er­kennt­nis­se des ur­sprüng­li­chen Trainings zu­rück­grei­fen kann.

Fort­schrit­te über­prü­fen

Der letzte Schritt muss in jedem Fall durch­ge­führt werden: Nur durch ein ge­wis­sen­haf­tes Mo­ni­to­ring und ge­ge­be­nen­falls An­pas­sun­gen am Trai­nings­ma­te­ri­al und eventuell den neuen Schichten können Sie die KI auf die neue Aufgabe trai­nie­ren. Wenn die Parameter während des Trainings angepasst werden, steigt damit auch die Tref­fer­ge­nau­ig­keit und das Modell lernt die neuen An­for­de­run­gen zu erfüllen.

IONOS AI Model Hub
Erste deutsche, mul­ti­mo­da­le KI-Plattform
  • 100 % DSGVO-konform und sicher in Deutsch­land gehostet
  • Die leis­tungs­stärks­ten KI-Modelle auf einer Plattform
  • Kein Vendor Lock-in durch Open Source

Welche un­ter­schied­li­chen Stra­te­gien gibt es?

Es gibt un­ter­schied­li­che Stra­te­gien für den Einsatz von Transfer Learning. Welche davon für Sie in Frage kommt, hängt vor allem von dem ge­wünsch­ten Ein­satz­zweck ab. Dies sind einige Ansätze:

  • Merk­mal­ex­trak­ti­on: Bei der Merk­mal­ex­trak­ti­on nutzen Sie das vorab trai­nier­te Modell als fest­ste­hen­den Faktor für grund­le­gen­de Merkmale wie zum Beispiel Texturen. Die neuen Schichten werden dann genutzt, um besondere Merkmale zu erkennen. Die Anwendung ist sinnvoll, wenn Quelle und Ziel große Über­schnei­dun­gen haben.
  • In­duk­ti­ves Trans­fer­ler­nen: Hierbei sind Quell- und Ziel­do­main identisch, Quell- und Ziel­auf­ga­ben un­ter­schei­den sich al­ler­dings. So können neue Funk­tio­nen schneller an­trai­niert werden.
  • Trans­duk­ti­ves Trans­fer­ler­nen: Bei dieser Strategie wird das gewonnene Wissen aus der Quell­auf­ga­be direkt auf bestimmte Instanzen der neuen Aufgabe über­tra­gen, um diese zum Beispiel besser klas­si­fi­zie­ren zu können. Dieser Ansatz ist viel­ver­spre­chend, wenn Quell- und Ziel­auf­ga­ben ver­gleichs­wei­se wenige Ge­mein­sam­kei­ten aufweisen.
  • Un­be­wach­tes Trans­fer­ler­nen: Auch hierbei sind Quell- und Ziel­do­main ähnlich und die je­wei­li­gen Aufgaben un­ter­schied­lich. Zu­sätz­lich werden Daten al­ler­dings nicht mit einem Label aus­ge­zeich­net. Das Modell lernt dann die Un­ter­schie­de und Ge­mein­sam­kei­ten der un­be­schrif­te­ten Daten kennen und kann diese ver­all­ge­mei­nern.
  • Mul­ti­tas­king: Bei diesem Ansatz führt ein Modell gleich­zei­tig mehrere Aufgaben aus, die zwar nicht identisch sind, aber in einer Ver­bin­dung zu­ein­an­der­ste­hen. Das er­mög­licht ein gemeinsam genutztes Wissen.
  • Vor­her­sa­ge: Bei dieser Form des Trans­fer­ler­nens soll das Modell bestimmte fehlende Aspekte der Daten selbst ergänzen. So werden zum Beispiel Worte innerhalb eines Satzes vor­her­ge­sagt. Durch eine Fein­ab­stim­mung sollen die Er­geb­nis­se dabei ver­bes­sert werden.
  • Zero-Shot und Few-Shot: Auch hierbei handelt es sich um eine Form des Trans­fer­ler­nens im Bereich der ge­ne­ra­ti­ven KI, bei der Wissen aus einer Quelle auf ein Ziel über­tra­gen werden soll, wenn zwischen beiden nur wenige Über­schnei­dun­gen (Few-Shot) oder gar keine Über­schnei­dun­gen (Zero-Shot) exis­tie­ren. Die Methode wird an­ge­wen­det, wenn nur sehr wenige Trai­nings­da­ten zur Verfügung stehen.
  • Ent­flech­tung: Für diesen Ansatz werden Daten in un­ter­schied­li­che Faktoren auf­ge­teilt. Das Modell kann dann zum Beispiel Stil und Inhalt getrennt von­ein­an­der be­trach­ten und ma­ni­pu­lie­ren.

Welche An­wen­dungs­ge­bie­te hat Transfer Learning?

Es gibt zahl­rei­che denkbare An­wen­dungs­ge­bie­te von Transfer Learning. Die Methode spart im hohen Maße Kosten, Zeit und Res­sour­cen und bringt dadurch zahl­rei­che Vorteile mit sich. Zu den bislang wich­tigs­ten Ein­satz­zwe­cken gehören:

  • Bil­der­ken­nung
  • Sprach­er­ken­nung
  • Ob­jekt­lo­ka­li­sie­rung
  • Dia­gnos­tik im Ge­sund­heits­we­sen

In Zukunft wird Transfer Learning al­ler­dings mit hoher Wahr­schein­lich­keit in vielen weiteren Bereichen zum Einsatz kommen.

Zum Hauptmenü