Was ist Explainable AI (XAI)?

Mit jeder Erweiterung und infolge der stetig wachsenden Komplexität wird das Gebiet der künstlichen Intelligenz immer komplizierter und weniger greifbar. Durch bahnbrechende Erfolge auf diesem Gebiet, insbesondere dem Machine Learning, weckt die Forschung hinter der künstlichen Intelligenz dennoch ein immenses Interesse. KI so weit zu entwickeln, dass Programme in der Lage sind, selbstständig zu lernen und Lösungen für komplexe Probleme zu finden, bleibt trotz der steigenden Komplexität eines der wichtigsten Forschungsfelder. Umso wichtiger ist es, das Verständnis für die Entscheidungen und Resultate künstlicher Intelligenzen so hoch wie möglich zu halten.

An ebendiesem Punkt setzt Explainable Artificial Intelligence (XAI) an: Anwender wollen und sollen verstehen, wie die KI eines Programms funktioniert und wie erzielte Resultate zu werten sind. Andernfalls ist eine Vertrauensbasis zu den jeweiligen digitalen Berechnungen nicht wirklich gegeben. Die von Explainable AI geschaffene Transparenz ist somit von enormer Bedeutung für die Akzeptanz künstlicher Intelligenz. Was genau steckt hinter diesem Ansatz?

Was ist Explainable Artificial Intelligence (XAI)?

Explainable Artificial Intelligence bedeutet wörtlich übersetzt „erklärbare künstliche Intelligenz“. Der Begriff ist ein Neologismus, der seit dem Jahr 2004 in der Forschung und bei Diskussionen über Machine Learning verwendet wird. Eine allgemein gültige Definition, was Explainable AI genau ist, existiert bis zum heutigen Tag zwar nicht. Das XAI-Programm der DARPA (Defense Advanced Research Projects Agency) definiert die Ziele der erklärbaren künstlichen Intelligenz aber mit folgenden Forderungen:

Es soll erklärbare Modelle geben, ohne dabei auf die hohe Lernleistung verzichten zu müssen. Ebenso soll ermöglicht werden, dass der spätere Nutzer die entstehende Generation von künstlich intelligenten Partnern versteht, ihr in angemessenem Maß vertrauen und effizient mit ihr umgehen und arbeiten kann.

Definition: Explainable AI (XAI)

Unter Explainable AI (XAI) versteht man das Prinzip, die Funktions- und Arbeitsweise einer künstlichen Intelligenz sowie ihre erzielten Resultate für den Anwender so verständlich wie möglich zu gestalten.

Was ist das Ziel von XAI?

Künstliche Intelligenz betrifft schon lange nicht mehr nur Forscher und Wissenschaftler. Vielmehr ist sie bereits fester Bestandteil des alltäglichen Lebens. Daher ist es umso wichtiger, dass die Modularität der künstlichen Intelligenz nicht nur Konstrukteuren und den direkten Nutzern nähergebracht wird: Insbesondere Entscheidungsträgern muss die Funktionsweise von KI so verständlich wie möglich gemacht werden, um die Basis für das Vertrauen in die Technik zu schaffen.

Einige namhafte Unternehmen gehen diesbezüglich bereits mit gutem Beispiel voran: Im Jahre 2017 veröffentlichte der Konzern Nvidia auf seiner Website im Developer-Blog einen Artikel mit dem Thema „Explaining How End-to-End Deep Learning Steers a Self-Driving Car“. In diesem Beitrag erklären vier Entwickler, wie ihre künstliche Intelligenz für autonomes Fahren lernt. Hierbei beschreibt das Unternehmen transparent seine Forschungsergebnisse und zeigt anhand von mehreren, leicht verständlichen Beispielen, wie die künstliche Intelligenz Dinge lernt.

Im selben Jahr veröffentlichte Accenture den Ratgeber „Responsible AI: Why we need Explainable AI“, in dem der Technologie-Dienstleister Aspekte wie Ethik und Vertrauen in Bezug auf Maschinen behandelt (insbesondere im Bereich autonomes Fahren).

Welche Methoden umfasst Explainable AI?

Es existieren verschiedene Methoden bzw. Ansätze, um Transparenz und Verständnis für künstliche Intelligenz zu schaffen. In den folgenden Absätzen haben wir die wichtigsten für Sie zusammengefasst:

Die Layer-wise Relevance Propagation (LRP; etwa: „Schicht für Schicht erfolgende Übertragung von Bedeutung“) wurde erstmals 2015 beschrieben. Hierbei handelt es sich um eine Technik zur Bestimmung der Merkmale von Eingangsvektoren, die am stärksten zum Ausgabeergebnis eines neuronalen Netzwerks beitragen.

Die Counterfactual Method („kontrafaktische Methode“) beschreibt, wie Daten-Input (Texte, Bilder, Diagramme etc.) nach Erhalt eines Resultats ganz gezielt verändert werden. Im Anschluss wird beobachtet, inwiefern sich das Ausgaberesultat dadurch verändert hat.

Local Interpretable Model-Agnostic Explanations (LIME) ist ein Erklärmodell mit ganzheitlichem Anspruch. Es will jeden maschinellen Klassifikator und die daraus folgende Prognose erklären können. Dadurch sollen die Daten und Vorgehensweisen auch für fachfremde Nutzer verständlich gemacht werden.

Die Rationalization ist ein Verfahren, das speziell bei AI-basierten Robotern eingesetzt wird. Dabei wird die Maschine so konzipiert, dass sie in der Lage ist, ihre Handlungen selbstständig zu erklären.

Wo und wann kommt Explainable Artificial Intelligence zum Einsatz?

Da künstliche Intelligenz bereits in vielen Bereichen zur Anwendung kommt, ist es hier besonders wichtig, für Transparenz zu sorgen. Speziell in einigen Industriezweigen und Dienstleistungsbereichen kommt KI immer häufiger zur Anwendung. Hier besteht deshalb besonders die Rechenschaftspflicht (engl. accountability).

Es gibt einige Anwendungsgebiete bzw. Branchen, auf denen ein besonderer Fokus liegt:

  • Antennendesign
  • Hochfrequenzhandel (algorithmischer Handel)
  • Medizinische Diagnostik
  • Autonomes Fahren (selbstfahrende Kraftfahrzeuge)
  • Neuronale Netzwerk-Bildgebung
  • Training militärischer Strategien

Jeder, der schon einmal den Einparkassistenten benutzt hat, weiß, wie skeptisch und angespannt man hinter dem Lenkrad sitzt und anschließend völlig erstaunt ist, dass so etwas funktionieren kann. Als Nutzer will man folglich gerne wissen, wie es möglich ist, dass ein Auto eigenständig einparkt. Daher ist es absolut nachvollziehbar, dass gerade in den oben genannten Bereichen ein besonderes Interesse an Transparenz und Erklärung der Funktionsweise von KI besteht.

Google Explainable AI

Auch Google hat die wachsende Rechenschaftspflicht erkannt: Da der Großkonzern sehr stark im Bereich der künstlichen Intelligenz forscht und diese auch für die Suchmaschine und diverse andere Bereiche nutzt, ist dem Unternehmen stark daran gelegen, die Programme transparent zu gestalten. Mit den Bausteinen von Google Explainable AI lassen sich seit dem Jahr 2019 integrative und interpretierbare Machine-Learning-Modelle erstellen. Die Suite ist bis zu zwölf Monate lang kostenlos nutzbar.

In dem Paket bietet Google u. a. das sogenannte What-If-Tool an, das es erlaubt, das Verhalten eines Modells zu visualisieren. Die Vorhersagen dieses Tools können ganz nach den eigenen Bedürfnissen angepasst werden. Durch die verschiedenen Demos und die grafische Oberfläche ist es möglich, die verschiedenen Machine-Learning-Modelle unter die Lupe zu nehmen, ohne selber viel Code schreiben zu müssen. Zu diesem Zweck bietet Google diverse einsatzfertige Werkzeuge an: Neben einer Altersschätzung oder der Klassifizierung von Blumen gibt es auch eine Funktion, die diverse Porträts auswertet. Hierbei werden die Bilder danach unterteilt, ob die Person auf dem Bild lächelt oder nicht. Darüber hinaus gibt das Modul auch verschiedene Parameter zu den Charakteristika der Gesichter an. Beispielsweise lassen sich die Bilder auch danach auswählen, ob die Person einen Bart hat oder einen Pony.

Zur Anzeige dieses Videos sind Cookies von Drittanbietern erforderlich. Ihre Cookie-Einstellungen können Sie hier aufrufen und ändern.

Auch andere Unternehmen nutzen die Möglichkeiten, die Google Explainable AI bietet. Der Fernsehsender Sky nutzt das What-If-Tool für die hauseigene AI-Plattform, um verständliche Erklärungen abgeben und Daten besser analysieren zu können.