Q:
Kann KI im Kampf gegen falsche Nachrichten helfen oder macht es die Dinge nur noch schlimmer?
EIN:Künstliche Intelligenz (KI) und falsche Nachrichten scheinen unausweichlich miteinander verbunden zu sein. Einerseits behaupten Kritiker der neuesten Technologien, dass KI- und Automatisierungsprozesse dazu beigetragen haben, der hilflosen Öffentlichkeit eine Apokalypse offenkundig falscher Geschichten zu entlocken. Auf der anderen Seite entwickeln einige der besten wissenschaftlichen Köpfe der Welt auf ihrer unerbittlichen Suche nach der Wahrheit bereits neue KI-gestützte Lösungen, mit denen sich betrügerische Geschichten aufdecken lassen. Werden sie der Herausforderung gewachsen sein?
Um ehrlich zu sein, ist es noch zu früh, eine eindeutige Antwort zu geben, da diese Technologien derzeit entwickelt werden. Es ist jedoch leicht zu verstehen, wie hoch die Investitionen sind, die sie von einigen der größten Social-Media-Unternehmen und Content-Publishern anziehen. Google selbst hat kürzlich angekündigt, dass die Google News-Plattform leistungsstarke Software für maschinelles Lernen implementieren wird, um irreführendes Material zu verwerfen.
Einer der Hauptgründe, warum gefälschte Nachrichten schnell zu einer Epidemie wurden, ist, dass sie für Leser / Zuschauer ansprechender oder ansprechender sind. Einige KI bauen auf dieser Annahme auf, und ihre Algorithmen für maschinelles Lernen werden bereits seit Jahren im Kampf gegen Spam und Phishing-E-Mails trainiert.
Diese Methode wird derzeit von einem als Fake News Challenge bekannten Expertenkollektiv getestet, das sich freiwillig für den Kreuzzug gegen falsche Nachrichten gemeldet hat. Ihre KI basiert auf einer Positionserkennung, einer Schätzung der relativen Perspektive (oder Position) des Körpertexts eines Artikels im Vergleich zur Überschrift. Dank seiner Funktionen zur Textanalyse kann AI die Wahrscheinlichkeit, dass die Nachricht von einem echten Menschen und nicht von einem Spambot geschrieben wurde, durch Vergleichen des tatsächlichen Inhalts mit der Überschrift bewerten. Es ist buchstäblich gute KI gegen böse KI, und wenn es sich wie Autobots gegen Decepticons anhört, dann ist es genau das, was es ist.
Eine andere Methode beinhaltet einen automatisierten und schnellen Vergleich aller ähnlichen Nachrichten, die auf mehreren Medien veröffentlicht wurden, um festzustellen, inwieweit sich die dargestellten Fakten unterscheiden. Wenn eine bestimmte Website gefälschte Nachrichten verbreitet, kann dies im Idealfall als unzuverlässige Quelle gekennzeichnet und aus den Newsfeeds ausgeschlossen werden. Google News wird diese Methode wahrscheinlich verwenden, da angekündigt wurde, Inhalte aus einigen noch zu definierenden "vertrauenswürdigen Nachrichtenquellen" zu verwenden. Auf diese Weise werden die Leute von extremen Inhalten - wie bei YouTube mit Flat Earthers - verdrängt und auf genau definierte "maßgebliche Quellen" verwiesen.
Schließlich könnten andere einfachere Algorithmen verwendet werden, um einen Text zu analysieren und nach offensichtlichen Grammatik-, Interpunktions- und Rechtschreibfehlern zu suchen, falsche oder erfundene Bilder zu finden und die dekonstruierten semantischen Komponenten eines Artikels mit seriösen Quellen abzugleichen.