Inhaltsverzeichnis:
Es wird erwartet, dass gefälschte Nachrichten die bevorstehenden Präsidentschaftswahlen erheblich beeinträchtigen werden, ganz zu schweigen von der allgemeinen Korrosion unserer öffentlichen Diskussion. In der heutigen vernetzten Gesellschaft wird es immer schwieriger, Tatsachen von Fiktionen zu unterscheiden, weshalb einige Forscher beginnen, sich auf die Kraft der künstlichen Intelligenz zu konzentrieren, um dieses Problem anzugehen.
Die Hoffnung ist natürlich, dass Maschinen oder genauer gesagt Algorithmen besser als Menschen darin sind, Lügen zu erkennen. Aber ist dies eine realistische Erwartung oder nur ein weiterer Fall, in dem Technologie auf ein scheinbar unlösbares Problem geworfen wird?
Einen Dieb fangen. . .
Eine Möglichkeit, wie Datenwissenschaftler den KI-Scharfsinn in diesem Bereich schärfen wollen, besteht darin, gefälschte Nachrichten zu generieren. Das Allen Institute for AI an der University of Washington hat Grover entwickelt und veröffentlicht, eine Engine für die Verarbeitung natürlicher Sprachen, die dazu dient, falsche Geschichten zu einer Vielzahl von Themen zu erstellen. Dies mag auf den ersten Blick kontraproduktiv erscheinen, doch handelt es sich in der Tat um eine ziemlich verbreitete KI-Trainingstaktik, bei der eine Maschine die Ausgabe einer anderen analysiert. Auf diese Weise kann die Analyseseite viel schneller auf den neuesten Stand gebracht werden, als wenn man sich auf tatsächliche Fälschungen verlässt. Das Institut behauptet, dass Grover bereits mit einer Genauigkeitsbewertung von 92% arbeiten kann, es ist jedoch wichtig zu beachten, dass es nur in der Lage ist, zwischen AI-generierten Inhalten und von Menschen generierten Inhalten zu unterscheiden es ist Vergangenheit. (Weitere Informationen finden Sie unter Die Technologien zur Bekämpfung gefälschter Nachrichten.)