Zuhause Entwicklung Warum ist Machine Bias ein Problem beim maschinellen Lernen?

Warum ist Machine Bias ein Problem beim maschinellen Lernen?

Anonim

Q:

Warum ist Machine Bias ein Problem beim maschinellen Lernen?

EIN:

Diese Frage kann auf zwei verschiedene Arten beantwortet werden. Erstens, warum gibt es ein Problem mit dem Maschinen-Bias, wie es auch bei maschinellen Lernprozessen auftritt?

Das maschinelle Lernen ist zwar hochentwickelt und komplex, jedoch auf der Grundlage der verwendeten Datensätze in gewissem Maße eingeschränkt. Die Konstruktion der Datensätze beinhaltet eine inhärente Verzerrung. Genau wie in den Medien, in denen Auslassungen und gezielte Auswahl der Einbeziehung eine bestimmte Verzerrung aufweisen können, müssen beim maschinellen Lernen die verwendeten Datensätze untersucht werden, um festzustellen, welche Verzerrung vorliegt.

Kostenloser Download: Maschinelles Lernen und warum es wichtig ist

Zum Beispiel ist es ein häufiges Problem bei Technologietests und Designprozessen, dass ein Benutzertyp einem anderen vorgezogen wird. Ein großes Beispiel ist die geschlechtsspezifische Disparität in der Technologiewelt.

Warum macht das einen Unterschied und warum gilt das für maschinelles Lernen?

Denn ein Mangel an vorhandenen Frauen in einer Testumgebung kann zu einer Technologie führen, die für ein weibliches Publikum weniger benutzerfreundlich ist. Einige Experten beschreiben dies so, dass das Endprodukt ohne vorhandene weibliche Tests die Eingabe weiblicher Benutzer möglicherweise nicht erkennt - es verfügt möglicherweise nicht über die Tools, um weibliche Identitäten zu erkennen oder die Eingabe von Frauen angemessen zu behandeln.

Das Gleiche gilt für verschiedene Ethnien, Menschen unterschiedlicher Religionen oder jede andere Art von Demografie. Ohne die richtigen Daten funktionieren die Algorithmen für maschinelles Lernen für einen bestimmten Benutzersatz nicht richtig, sodass Daten zur Einbeziehung absichtlich in die Technologie eingefügt werden müssen. Anstatt nur Primärdatensätze zu verwenden und die inhärente Tendenz zu verstärken, müssen sich die Mitarbeiter mit dem Problem befassen.

Ein weiteres Beispiel ist eine Maschine zum maschinellen Lernen, die Job- und Gehaltsinformationen aufnimmt und Ergebnisse ausgibt. Wenn dieser inhärente Datensatz nicht analysiert wird, verstärkt die Maschine die Vorspannung. Wenn festgestellt wird, dass Männer die überwiegende Mehrheit der Führungspositionen innehaben und der maschinelle Lernprozess das Filtern des Rohdatensatzes und das Zurückgeben entsprechender Ergebnisse umfasst, werden Ergebnisse zurückgegeben, die eine männliche Tendenz aufweisen.

Im zweiten Teil der Frage geht es darum, warum diese Voreingenommenheit so schädlich ist. Ohne angemessene Überwachung und Prüfung können neue Technologien unserem Sinn für Inklusion und Gleichheit schaden, aber nicht helfen. Wenn ein neues Technologieprodukt eingeführt wird, das Gesichter mit hellerer Haut, aber nicht mit dunklerer Haut erkennt, kann dies zu eskalierenden ethnischen Spannungen und dem Gefühl führen, dass das betreffende Unternehmen nicht für Vielfalt empfänglich ist. Wenn ein Algorithmus des maschinellen Lernens die Verzerrung in den Datensätzen reproduziert und verstärkt, wird diese künstliche Intelligenz ihre Stimme zu den menschlichen Stimmen und menschlichen Tendenzen hinzufügen, die bereits im sozialen System existieren und eine Gruppe von Menschen gegenüber einer anderen begünstigen.

Der beste Weg, um damit umzugehen, besteht darin, sich die zugrunde liegenden Datensätze genau anzuschauen, die Feature-Auswahl zu verwenden, variable Eingaben hinzuzufügen und die Rohdatensätze selbst zu bearbeiten und die wahre Leistungsfähigkeit des maschinellen Lernens durch gezielte Bearbeitung von Daten durch den Menschen zu erweitern, um ein Ergebnis zu erzielen Das Ergebnis liefert eine große analytische Leistung, aber auch einige der menschlichen Erkenntnisse, die Computer noch nicht replizieren können.

Warum ist Machine Bias ein Problem beim maschinellen Lernen?