Q:
Warum wird hinter den Kulissen so viel maschinelles Lernen betrieben - für den normalen Benutzer nicht sichtbar?
EIN:Diese grundlegende Frage zum maschinellen Lernen berücksichtigt viele verschiedene Aspekte, wie diese komplizierten Programme funktionieren und welche Rolle sie in der heutigen Wirtschaft spielen.
Eine der einfachsten Möglichkeiten, um die mangelnde Bedeutung maschineller Lernsysteme zu erklären, besteht darin, dass sie leicht zu verbergen sind. Diese Back-End-Systeme lauern hinter Empfehlungs-Engines und mehr, sodass Verbraucher vergessen können, dass überhaupt maschinelles Lernen stattfindet. Nach Kenntnis der Endbenutzer könnten einige Menschen Entscheidungen sorgfältig auswählen, anstatt ein neuronales Netzwerk mit ausgeklügelten Algorithmen zu verwenden.
Darüber hinaus fehlt es auch an einer systemischen Ausbildung in maschinellem Lernen, teils weil es so neu ist, und teils, weil es an Investitionen in die MINT-Ausbildung insgesamt mangelt. Es sieht so aus, als ob es uns als Gesellschaft im Allgemeinen in Ordnung ist, Schlüsselpersonen auszuwählen, um sich detailliert mit Technologie vertraut zu machen und die „technologischen Priester“ unserer Bevölkerung zu werden. Eine Strategie für ein breiteres Spektrum würde darin bestehen, detailliertes maschinelles Lernen und Technologieunterricht auf Sekundarstufe an Gymnasien als selbstverständlich einzuschließen.
Ein weiteres Problem ist der Mangel an barrierefreier Sprache beim maschinellen Lernen. Jargon gibt es zuhauf - von den Bezeichnungen der Algorithmen selbst bis zu den Aktivierungsfunktionen, die künstliche Neuronen antreiben und zu neuronalen Netzen führen. Ein weiteres großartiges Beispiel ist die Kennzeichnung von Schichten in einem faltungsbedingten neuronalen Netzwerk - Auffüllen und Schreiten und Max-Pooling und mehr. Kaum jemand versteht wirklich, was diese Begriffe bedeuten, und das macht maschinelles Lernen umso unergründlicher.
Die Algorithmen selbst haben sich in die Sprache der Mathematiker eingearbeitet. Wie in der modernen und klassischen Physik sollen Studierende dieser Disziplinen die Kunst des Lesens komplexer Gleichungen beherrschen, anstatt die Algorithmusfunktionen in Klartext zu übersetzen. Dies führt auch dazu, dass maschinelles Lernen weniger zugänglich ist.
Schließlich gibt es das „Black-Box“ -Problem, bei dem selbst die Ingenieure nicht genau verstehen, wie viele maschinelle Lernprogramme funktionieren. Da wir die Komplexität und Leistungsfähigkeit dieser Algorithmen skaliert haben, haben wir Transparenz und einfachen Zugang zu Auswertungs- und Analyseergebnissen geopfert. Vor diesem Hintergrund gibt es eine große Tendenz hin zu einer erklärbaren KI - dazu, das operative maschinelle Lernen und die künstliche Intelligenz zugänglich zu halten und die Funktionsweise dieser Programme im Griff zu behalten, um unangenehme Überraschungen in einer Produktionsumgebung zu vermeiden.
All dies hilft zu erklären, warum maschinelles Lernen in der heutigen Tech-Welt zwar aufkeimt, aber oftmals „außer Sichtweite, außer Verstand“ ist.