Q:
Warum forscht DARPA an "erklärbarer KI"?
EIN:Im Allgemeinen wird erklärbare künstliche Intelligenz zu einem vielbeachteten Teil der Spitzenarbeit in den Datenwissenschaften. Es hilft dabei, die menschliche Kontrolle über eine inhärent flüchtige und dynamische Art von Technologie zu lenken. Erklärbare KI hilft bei der Beantwortung vieler unserer kollektiven Fragen zur Funktionsweise künstlicher Intelligenz.
Um erklärbare KI zu verstehen, ist es hilfreich zu verstehen, wie "normale KI" aussieht. Traditionell besteht das typische Projekt, wenn AI Gestalt annimmt, aus einer ausgefallenen neuen Softwarefunktion, die in Algorithmen und Trainingssätzen und linearem Code verborgen ist, was für Benutzer eine Art "Blockbox" darstellt. Sie wissen, dass es funktioniert - sie wissen nur nicht genau, wie.
Dies kann zu "Vertrauensproblemen" führen, bei denen Benutzer die Grundlage in Frage stellen können, auf der eine Technologie Entscheidungen trifft. Das ist, was erklärbare KI ansprechen soll: Erklärbare KI-Projekte werden mit zusätzlicher Infrastruktur geliefert, um den Endbenutzern die Absicht und die Struktur der KI zu zeigen - warum sie das tut, was sie tut.
In einer Zeit, in der Top-Innovatoren wie Bill Gates und Elon Musk ihre Besorgnis darüber zum Ausdruck bringen, wie künstliche Intelligenz funktionieren wird, erscheint erklärbare KI äußerst attraktiv. Experten behaupten, dass eine gut erklärbare KI Endbenutzern helfen könnte, zu verstehen, warum Technologien das tun, was sie tun, das Vertrauen zu stärken und auch die Benutzerfreundlichkeit und Nutzung dieser Technologien zu verbessern.
Konkret erklärt DARPA jedoch eigenständig, warum es an den neuen Projekten interessiert ist. Eine Seite über DARPA zeigt, dass das Verteidigungsministerium einen „Strom“ künstlicher Intelligenzanwendungen und ein gewisses Chaos in seiner Entwicklung erwartet.
"Kontinuierliche Fortschritte versprechen, autonome Systeme zu entwickeln, die eigenständig erkennen, lernen, entscheiden und handeln", schreibt David Gunning. „Die Wirksamkeit dieser Systeme wird jedoch dadurch eingeschränkt, dass die Maschine derzeit nicht in der Lage ist, menschlichen Benutzern ihre Entscheidungen und Handlungen zu erläutern. … Erklärbare KI - insbesondere erklärbares maschinelles Lernen - wird von entscheidender Bedeutung sein, wenn zukünftige Warfighter eine aufstrebende Generation von künstlich intelligenten Maschinenpartnern verstehen, angemessen vertrauen und effektiv managen sollen. “
Der Online-Aufsatz von Gunning schlägt vor, dass erklärbare KI-Systeme dazu beitragen, die „Begründung“ für Technologien zu liefern, ihre Stärken und Schwächen aufzuzeigen und Anwendungsfälle transparenter zu machen. Eine Grafik auf der Seite zeigt, wie eine direkte Pipeline von Funktionen künstlicher Intelligenz aus Trainingsdaten durch ein so genanntes erklärbares Modell und eine erklärbare Oberfläche ergänzt wird, die dem Benutzer bei der Beantwortung von Fragen hilft. Gunning schlägt ferner vor, dass ein erklärbares KI-Programm zwei Hauptschwerpunkte haben wird: Zum einen werden Multimediadaten durchsucht, um herauszufinden, was für Benutzer nützlich ist, und zum anderen werden Entscheidungsprozesse zur Entscheidungsunterstützung simuliert.
DARPA hofft, ein „Toolkit“ zur Verfügung stellen zu können, mit dessen Hilfe zukünftig erklärbare KI-Systeme entwickelt werden können.
