Q:
Wie wirft Saudi-Arabiens "Sophia" -Roboter erschreckende neue Fragen zur Cybersicherheit auf?
EIN:Eine der heißesten neuen Technologien für künstliche Intelligenz ist ein lebensgroßer Roboter, der wie eine Frau aussieht und sich so verhält.
Sie heißt Sophia und wird von Hanson Robotics, einem in Hongkong ansässigen Unternehmen, produziert. Warum ist sie Saudi-Arabiens Roboter? Denn dieser Golfstaat hat Sophia ein zentrales Menschenrecht verliehen: das Recht auf Staatsbürgerschaft.
Dies macht viele Schlagzeilen und löst jede Menge Debatten darüber aus, wie schnell künstliche Intelligenz voranschreitet und warum es uns wichtig ist. Eines der großen Probleme ist die Cybersicherheit. Wie wird sich der Bereich Cybersicherheit an diese Art neuer Technologien anpassen?
Sophia und ähnliche Technologien werfen wichtige Cybersicherheitsprobleme auf, die wir bisher nicht angesprochen haben. Hier sind einige Dinge, über die Profis und Experten nachdenken sollten, wenn sie Roboter einführen, die wie wir aussehen, sprechen und handeln.
Im Allgemeinen ist die neue lebensechte Roboterschnittstelle ausgefeilter als bisher, was eine Reihe neuer Cybersicherheitsprobleme mit sich bringt. In der Technologiewelt spricht man von einer "dünnen Angriffsfläche", beispielsweise in einem Hypervisor-Setup oder in der serverseitigen Sicherheit. Ein laufender, sprechender Roboter hingegen ist eine sehr dicke Angriffsfläche. Da die Benutzeroberflächen raffiniert sind, gibt es für Hacker und schlechte Akteure viele Möglichkeiten, Sicherheitslücken auszunutzen.
Eine sehr spezielle Art von Cybersicherheitsproblemen ist mit einer Vielzahl von sozialen Problemen verbunden - man könnte es auch als "Betrugssyndrom" bezeichnen, obwohl dieser Begriff im Volksmund zur Beschreibung des unsteten Verhaltens von illegitimen Datenwissenschaftlern verwendet wurde.
Wie auch immer Sie es nennen, das Problem ist, dass künstliche Intelligenz bestimmte Menschen mit größerem Erfolg imitiert und es daher schwieriger wird, sicherzustellen, dass wir keinen extrem aufwändigen Täuschungen ausgesetzt sind, die uns die Wahrheit in Frage stellen. In diesem Video von Barack Obama mit dem Komiker Jordan Peele sehen Sie bereits Beispiele von Menschen, die mit brandneuen Technologien berühmte Politiker imitieren. Das Betrügerproblem wird nur noch größer und größer werden, da künstliche Intelligenz uns neue Einblicke in die Rückentwicklung menschlicher Gedanken und Verhaltensweisen gibt.
Im Allgemeinen werden diese neuen Schnittstellen und Funktionen das bereits andauernde Wettrüsten zwischen Sicherheitsexperten und Hackern verschärfen. James Maude schreibt darüber in einem Artikel über Xconomy, in dem AI als „zweischneidiges Schwert“ für Cybersec bezeichnet wird, und weist darauf hin, dass Angriffe im Allgemeinen kostengünstiger sind, als Angriffe zu verteidigen und Bedenken hinsichtlich Datenschutz und Sicherheit zu äußern. Extrapolieren Sie einige dieser Argumente auf den KI-Roboter, und Sie können sehen, wie mit Stärke und Können Gefahr und Disziplin verbunden sind.
Ein weiteres großes neues Problem bei Sophia und mobilen Robotern ist, dass sie unterwegs sind.
Wir haben uns an Technologien wie Watson von IBM gewöhnt, die kognitive Arbeit auf höchstem Niveau leisten und dabei in einem Rechenzentrum oder einer stationären Hardwarestruktur sitzen. Das ist es, was wir gewohnt sind - von den frühesten Mainframes bis zu den heutigen Laptops haben wir alle stationäre Hardware verwendet. Wir haben jetzt Handys, aber es sind im Grunde genommen Taschencomputer. Empfindungsfähige Robotercomputer sind erstaunlich unterschiedlich. Sie sind autonome bewegliche Teile, die von böswilligen Parteien bewaffnet werden können. Ein Artikel von Reuters, der sich mit der Geschwindigkeit befasst, mit der Cybersicherheitsprobleme von Robotern angegangen werden, zeigt, wie beispielsweise Roboter dazu gebracht werden können, schnell und unangemessen zu „torkeln“ oder sich zu bewegen, um möglicherweise Schaden zu verursachen.
Am Ende werfen Sophia und Roboter wie sie eine Menge Cybersicherheitsprobleme und andere Probleme auf. Wie werden wir legitime Aktivitäten von irreführenden und illegitimen Aktivitäten unterscheiden, wenn die Schnittstelle kein digital verbundenes Netzwerk ist, sondern eine mobile Hardware, die uns dazu verleiten kann, zu denken, dass sie sich menschlich verhält? Das Überqueren dieser Brücke erfordert eine enorme Menge an technologischer und ethischer Arbeit, um sicherzustellen, dass die Menschen die Zügel behalten und dass wir diese sehr mächtigen Technologien zum Wohle der Bürger einsetzen.