Explainable Artificial Intelligence

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Methoden der XAI sollen die Ergebnisfindung nicht linear programmierter Systeme als Glass Box transparent machen, um Black-Box-Vorgänge (s. o.) zu vermeiden.

Explainable Artificial Intelligence (XAI; deutsch: erklärbare künstliche Intelligenz[1][2] oder erklärbares Maschinenlernen) ist ein Neologismus, der seit etwa 2004 in der Forschung und Diskussion über Maschinenlernen verwendet wird.

XAI soll eindeutig nachvollziehbar machen, auf welche Weise dynamische und nicht linear programmierte Systeme[3], z. B. künstliche neuronale Netze, Deep-Learning-Systeme (reinforcement learning) und genetische Algorithmen, zu Ergebnissen kommen. XAI ist eine technische Disziplin, die operative Methoden erarbeitet und bereitstellt, die zur Erklärung von AI-Systemen dienen, beispielsweise im Rahmen der Umsetzung der Datenschutz-Grundverordnung (DSGVO), einer Verordnung der Europäischen Union.

Ohne XAI ist Maschinenlernen ein Black-Box-Vorgang,[1][4] bei dem die Introspektion eines dynamischen Systems unbekannt oder unmöglich ist und der Anwender keine Kontrollmöglichkeiten hat zu verstehen, wie eine Software zur Lösung eines Problems gelangt.

Definition[Bearbeiten | Quelltext bearbeiten]

Es gibt derzeit noch keine Übereinkunft für eine allgemein akzeptierte Definition von XAI.

Das XAI-Programm der Defense Advanced Research Projects Agency (DARPA),[5] deren Ansatz sich schematisch darstellen lässt,[6] definiert seine Ziele mit den folgenden Forderungen:

  • Produzieren Sie erklärbarere Modelle, während Sie gleichzeitig eine hohe Lernleistung beibehalten (Vorhersagegenauigkeit).
  • Ermöglichen Sie menschlichen Nutzern, die entstehende Generation künstlich intelligenter Partner zu verstehen, ihnen angemessen zu vertrauen und mit ihnen effektiv umzugehen.[7]

Geschichte[Bearbeiten | Quelltext bearbeiten]

Während der Begriff „XAI“ noch relativ neu ist - eine frühe Erwähnung des Konzepts erfolgte 2004[8] - hat der bewusste Ansatz, das Vorgehen von maschinellen Lernsystemen komplett verstehen zu wollen, eine längere Geschichte. Forscher sind seit den 1990er Jahren daran interessiert, Regeln aus trainierten neuronalen Netzen abzuleiten,[9] und Wissenschaftler im Gebiet der klinischen Expertensysteme, die neuronale Entscheidungshilfen für Mediziner liefern, haben versucht, dynamische Erklärungssysteme zu entwickeln, die diese Technologien in der Praxis vertrauenswürdiger machen.[10]

In letzter Zeit wird aber der Schwerpunkt darauf gelegt, Maschinenlernen und KI den Entscheidungsträgern – und nicht etwa den Konstrukteuren oder direkten Nutzern von Entscheidungssystemen zu erklären und verständlich zu machen. Seit der Einführung des Programms durch DARPA im Jahr 2016 versuchen neue Initiativen das Problem der algorithmic accountability (etwa ‚algorithmische Rechenschaftspflicht‘) anzugehen und Transparenz zu schaffen (Glass-Box-Vorgang), wie Technologien in diesem Bereich funktionieren:

  • 25. April 2017: Nvidia veröffentlicht Explaining How a Deep Neural Network Trained with End-to-End Learning Steers a Car.[11]
  • 13. Juli 2017: Accenture empfahl Responsible AI: Why we need Explainable AI.[12]

Methoden[Bearbeiten | Quelltext bearbeiten]

Verschiedene Methode werden für XAI angewendet:

  • Layer-wise relevance propagation (LRP; etwa ‚Schicht für Schicht erfolgende Übertragung von Bedeutung‘)[4] wurde erstmals 2015 beschrieben und ist eine Technik zu Bestimmung der Merkmale von bestimmten Eingangsvektoren, die am stärksten zum Ausgabeergebnis eines neuronalen Netzwerks beitragen.[13][14]
  • Counterfactual method (etwa ‚kontrafaktische Methode‘): Nach dem Erhalten eines Resultats werden gezielt Input-Daten (Text, Bilder, Diagramme etc.) verändert und man beobachtet, wie sich dadurch das Ausgaberesultat verändert.[15]
  • Local interpretable model-agnostic explanations (LIME)[16][15]
  • Generalized additive model (GAM)[17][15]
  • Rationalization: Speziell bei AI-basierten Robotern wird die Maschine in die Lage versetzt, dass sie ihre eigenen Handlungen „verbal erklären“ kann.[18][19][15]

Anwendungsbeispiele[Bearbeiten | Quelltext bearbeiten]

Bestimmte Industriezweige und Dienstleistungsbereiche sind von XAI-Anforderungen besonders betroffen, da durch die dort immer intensivere Anwendung von KI-Systemen die „Rechenschaftspflicht“ (englisch accountability) mehr und mehr auf die Software und deren – teilweise überraschende – Ergebnisse verlagert („delegiert“) wird.

Folgende Bereiche stehen dabei besonders im Fokus (alphabetische Auflistung):

Internationaler Austausch über die Thematik und Forderungen[Bearbeiten | Quelltext bearbeiten]

Da Regulierungsbehörden, Behörden und allgemeine Nutzer von dynamischen Systemen auf KI-Basis abhängig sind, wird eine klarere Rechenschaftspflicht für die Entscheidungsfindung erforderlich sein, um Vertrauen und Transparenz zu gewährleisten.

Ein Beleg dafür, dass diese berechtigte Forderung an Dynamik gewinnt, ist war die International Joint Conference on Artificial Intelligence: Workshop on Explainable Artificial Intelligence (XAI) im Jahr 2017.[29]

In Bezug auf KI-Systeme fordern die australische Publizistin und Wissenschaftlerin Kate Crawford und ihre Kollegin Meredith Whittaker (AI Now Institute), dass „die wichtigsten öffentlichen Einrichtungen, wie z. B. die für Strafjustiz, Gesundheit, Wohlfahrt und Bildung zuständigen Stellen [...], keine Black-Box-KI und algorithmische Systeme mehr verwenden sollten“.[30][31] Zusätzlich fordern sie – noch über die rein technischen Maßnahmen und Methoden der Erklärbarkeit solcher Systeme hinaus – verbindliche ethischen Maßstäbe, wie sie beispielsweise in der pharmazeutischen Industrie und klinischen Forschung angewendet werden.[32]

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. a b Patrick Beuth: Die Automaten brauchen Aufsicht, Die Zeit, 25. Oktober 2017, S. 3; abgerufen am 25. Januar 2018.
  2. Ein allgemein verwendeter deutscher Begriff hat sich noch nicht durchgesetzt, weshalb hier im Artikel der englische Begriff und seine Abkürzung verwendet werden.
  3. Optimization Technology Center of Northwestern University and Argonne National Laboratory: Nonlinear Programming - Frequently Asked Questions; abgerufen am 2. Dezember 2017.
  4. a b Patrick Beuth: Die rätselhafte Gedankenwelt eines Computers, DIE ZEIT Online, 24. März 2017; abgerufen am 29. Januar 2018.
  5. Will Knight: DARPA is funding projects that will try to open up AI’s black boxes, MIT Technology Review, 14. März 2017; abgerufen am 2. November 2017.
  6. W. F. Lawless, Ranjeev Mittu, Donald Sofge und Stephen Russell: Autonomy and Artificial Intelligence: A Threat or Savior?, 24. August 2017, Springer International Publishing, ISBN 978-3-319-59719-5, S. 95.
  7. David Gunning: Explainable Artificial Intelligence (XAI) (DARPA/I2O); abgerufen am 3. Dezember 2017.
  8. Michael van Lent und William Fisher: An Explainable Artificial Intelligence System for Small-unit Tactical Behavior, Proceedings of the 16th Conference on Innovative Applications of Artifical Intelligence (2004), S. 900–907.
  9. A. B. Tickle, R. Andrews, M. Golea und J. Diederich: The truth will come to light: directions and challenges in extracting the knowledge embedded within trained artificial neural networks, Transactions on Neural Networks, Band 9(6) (1998), S. 1057–1068, doi=10.1109/72.728352, ISSN 1045-9227
  10. Lilian Edwards and Michael Veale: Slave to the Algorithm? Why a 'Right to an Explanation' Is Probably Not the Remedy You Are Looking For, Duke Law and Technology Review (2017), https://doi.org/10.2139/ssrn.2972855.
  11. M. Bojarski, P. Yeres, A. Choromanska, K. Choromanski, B. Firner, L. Jackel und U. Muller: Explaining How a Deep Neural Network Trained with End-to-End Learning Steers a Car, Arxiv; abgerufen am 17. Juli 2017.
  12. Responsible AI: Why we need Explainable AI. Accenture. Abgerufen im 17. Juli 2017.
  13. Dan Shiebler: Understanding Neural Networks with Layerwise Relevance Propagation and Deep Taylor Series. 16. April 2017.
  14. Sebastian Bach, Alexander Binder, Grégoire Montavon, Frederick Klauschen, Klaus-Robert Müller und Wojciech Samek: On Pixel-Wise Explanations for Non-Linear Classifier Decisions by Layer-Wise Relevance Propagation. In: Public Library of Science (PLoS) (Hrsg.): PLOS ONE. 10, Nr. 7, 10. Juli 2015, ISSN 1932-6203. doi:10.1371/journal.pone.0130140.
  15. a b c d Paul Voosen: How AI detectives are cracking open the black box of deep learning, Science, 6. Juli 2017; abgerufen am 27. März 2018.
  16. Christoph Molnar: Interpretable Machine Learning - A Guide for Making Black Box Models Explainable: 5.4 Local Surrogate Models (LIME), 29. März 2018; abgerufen am 31. März 2018.
  17. Simon N. Wood: Generalized Additive Models: An Introduction with R, Second Edition.. CRC Press, 18 May 2017, ISBN 978-1-4987-2837-9.
  18. Upol Ehsan, Brent Harrison, Larry Chan und Mark O. Riedl: Rationalization: A Neural Machine Translation Approach to Generating Natural Language Explanations, Cornell University Library, 15. Februar 2017; abgerufen am 31. März 2018.
  19. Dong Huk Park, Lisa Anne Hendricks, Zeynep Akata, Bernt Schiele, Trevor Darrell und Marcus Rohrbach: Attentive Explanations: Justifying Decisions and Pointing to the Evidence, Cornell University Library, 16. Dezember 2016; abgerufen am 31. März 2018.
  20. NASA 'Evolutionary' software automatically designs antenna. NASA. Abgerufen am 17. Juli 2017.
  21. Matt Levine: Dark Pools and Money Camps, Bloomberg View, 10. Juli 2017; abgerufen am 20. Januar 2018.
  22. The Flash Crash: The Impact of High Frequency Trading on an Electronic Market. CFTC. Abgerufen am 17. Juli 2017.
  23. Can machine-learning improve cardiovascular risk prediction using routine clinical data?. PLOS One. Abgerufen am 17. Juli 2017.
  24. Will Knight: The Dark Secret at the Heart of AI, MIT Technology Review, 11. April 2017; abgerufen am 20. Januar 2018.
  25. Tesla says it has 'no way of knowing' if autopilot was used in fatal Chinese crash. Guardian. Abgerufen am 17. Juli 2017.
  26. Joshua Brown, Who Died in Self-Driving Accident, Tested Limits of His Tesla. New York Times. Abgerufen am 17. Juli 2017.
  27. Neual Network Tank image. Neil Fraser. Abgerufen am 17. Juli 2017.
  28. Chee-Kit Looi: Artificial Intelligence in Education: Supporting Learning Through Intelligent and Socially Informed Technology.. IOS Press, 2005, ISBN 978-1-58603-530-3, S. 762 ff.
  29. IJCAI 2017 Workshop on Explainable Artificial Intelligence (XAI). IJCAI. Abgerufen im 17. Juli 2017.
  30. Im Original: „Core public agencies, such as those responsible for criminal justice, healthcare, welfare, and education (e.g “high stakes” domains) should no longer use ‘black box’ AI and algorithmic systems.“
  31. AI Now Institute: The 10 Top Recommendations for the AI Field in 2017, 18. Oktober 2017; abgerufen am 29. Januar 2018.
  32. Scott Rosenberg: Why AI Is Still Waiting For Its Ethics Transplant, Wired, 11. Januar 2017; abgerufen am 25. Januar 2018. Siehe auch die Pdf AI Now 2017 Report.

Weblinks[Bearbeiten | Quelltext bearbeiten]