Maximilian Doré: Überwachen die Maschinen bald jeden deiner Schritte?

Um dich zu schützen, reichen ein Aufkleber und eine Spraydose.

Regen prasselt dir ins Gesicht. Du schlägst deinen Mantelkragen hoch und stapfst weiter den Bürgersteig entlang. Durch den Nebel erkennst du das rote Blinken von Überwachungsdrohnen, die ununterbrochen über den Dächern deiner Stadt kreisen. Die Roboter haben die Kontrolle übernommen. Die Menschen waren einfach nicht in der Lage, sich politisch zu organisieren. So machten die Roboter kurzen Prozess, übernahmen die Kontrolle und verbannten Menschen aus allen Entscheidungspositionen.

Doch du bist mit der neuen Politik nicht einverstanden und hast dich mit Gleichgesinnten vernetzt. Ihr plant den Umsturz. Das rote Blinken macht dich so nervös, weil du etwas zu verbergen hast. Durch den Regenschleier kommt das Surren einer Drohne immer näher. Du spürst, wie ihre Kamera dein Gesicht abtastet. Hinter dich treten 2 Robocops und ihre metallischen Stimmen lassen dich völlig synchron wissen: »Sie sind wegen revolutionärer Umtriebe verhaftet.«

Wie hättest du die Erkennung (ganz einfach) verhindern können?

 

Einfache Aufkleber überlisten die Bilderkennung

Mit einem einfachen Aufkleber hättest du die Drohnen sehr wahrscheinlich austricksen können. Wissenschaftler bei Google haben ein Bild-Muster errechnet, das von Bilderkennungssoftware für einen Toaster gehalten wird. Wenn du dir also ein solches Muster als Aufkleber auf die Jacke klebst, hätte die Kamera dich als ungefährlichen Toaster eingestuft und wäre einfach weitergeflogen.

Auch wenn die von Google entdeckte Lücke in der Bilderkennung mittlerweile behoben wurde, weist die Geschichte auf ein größeres Problem hin: Computer arbeiten mit statistischen Methoden und erkennen Objekte grundsätzlich anders als wir. Mit einem Blick auf ein bisher unbekanntes Objekt erkennen wir bereits definierende Eigenschaften. Mit ein paar Vergleichsobjekten können wir auch in Zukunft treffsicher ein Axolotl von einem Frosch oder einem Salamander unterscheiden – obwohl alle ähnliche Merkmale haben.

Computer hingegen scheitern immer noch daran, Objekte zuverlässig zu klassifizieren – schließlich sieht jedes Tier etwas anders aus. Auch wenn mithilfe von sogenannten neuronalen Netzen in den letzten Jahren im Bereich der Objekterkennung große Fortschritte erzielt wurden, sind sie weit von der menschlichen Treffsicherheit entfernt. Mittlerweile können neuronale Netze Muster selbst lernen, ohne dass ein Programmierer dem Computer Regeln beibringen muss. Um ein Axolotl als solches zu erkennen, brauchen sie aber nicht ein paar Beispiele, sondern Tausende. Der Unterschied zum neuronalen Netzwerk im Kopf eines Menschen: Die künstlichen neuronalen Netze abstrahieren nicht die wesentlichen Merkmale, sondern suchen nach wiederkehrenden Mustern.

 Diese Muster sehen allerdings ganz anders aus als die Gegenstände und Lebewesen aus unserem Alltag – sie erinnern eher an psychedelische Kunst. Wer diese Muster kennt und analysieren kann, hat das perfekte »Gegenmittel« für Bilderkennungssoftware und kann deren Wahrnehmung täuschen. Trägst du ein solches Muster an dir, fokussiert sich die Software einzig auf das Muster und identifiziert dich zum Beispiel als Toaster.

Doch der Trick kommt zu spät für dich. Du reißt dich los und fängst an zu rennen. Um die Ecke steht dein altes Motorrad bereit. Du springst auf und bretterst davon. Doch die Drohnen haben dich schnell wieder im Visier und schicken 2 selbstfahrende Polizeifahrzeuge auf die Verfolgung. Deine Tankanzeige ist bedrohlich niedrig, schon fängt der Motor an zu stottern. Während deine Maschine langsamer wird, bleiben dir nur wenige Sekunden, um einen Plan auszuhecken. Wie kannst du die selbstfahrenden Streifenwagen überlisten?

Da fällt dir die weiße Spraydose in deinem Rucksack ein …

 

Mit einer Spraydose selbstfahrende Autos austricksen

Über die Breite der Straße malst du einen großen Kreis und um ihn herum einen zweiten Kreis, dessen Linie durch Lücken unterbrochen ist. Du stellst dich außerhalb des Kreises und wartest auf die Ankunft der Robocops. Ihre Polizeifahrzeuge fahren in den Kreis, dann quietschen die Reifen und die selbstfahrenden Autos bleiben im Kreis stehen.

Was ist passiert?

Nichts weiter als Gehorsam mit Blick auf die geltenden Verkehrsregeln: Eine durchgezogene Linie neben einer unterbrochenen Linie darf nur in eine Richtung überfahren werden. Daran halten sich auch die automatisierten Autos in vorbildlicher Manier – selbst wenn sie dadurch in deine Falle geraten.

Den Robotern fehlt, was wir gern als gesunden Menschenverstand bezeichnen. Verkehrsregeln können Programmierer einem Computer leicht beibringen, viele andere Regeln und Normen unseres Zusammenlebens sind aber nirgends explizit aufgeschrieben. Mit Blick auf den doppelten Kreis wissen wir, dass die Regel mit der durchgezogenen Linie in dem Fall nicht befolgt werden muss. Ganz einfach weil uns das unsinnig erscheint: Wieso sollten wir in einem Kreis »parken«?

Diese impliziten Regeln menschlichen Verhaltens stellen Programmierer aktuell vor große Probleme. Unser komplexes Verhalten lässt sich nicht vollständig in Regeln kodifizieren und einem Computer beibringen.

Die Robocops abgehängt, fliehst du zum geheimen Treffpunkt des Widerstands und planst mit deinen Verbündeten weiter den Umsturz. Die Maschinen auszutricksen, war nicht schwer. Und das wirft die Frage auf: Wie realistisch ist es wirklich, dass wir eine Machtübernahme der Computer fürchten müssen?

 

Von wegen Roboter-Apokalypse – darum geht’s wirklich

Die geplatzte Verfolgungsjagd zeigt, dass hochentwickelte Computer mit vielen Dingen Probleme haben, die für uns selbstverständlich sind. Insgesamt ist es daher unwahrscheinlich, dass Roboter und künstliche Intelligenzen in naher Zukunft die Macht übernehmen werden. Egal wie clever Algorithmen erscheinen mögen, dürfen wir nicht vergessen, dass sie die Welt nicht wie wir »verstehen«.

Dafür können sie andere Dinge wesentlich besser als wir: Mit statistischen Methoden werten sie riesige Datenmengen aus, für deren Analyse wir (wenn sich überhaupt Menschen einer solchen Aufgabe annehmen würden) mehrere Leben lang benötigen würden. Entscheidend ist, wer solche statistischen Methoden nutzt – und vor allem zu welchem Zweck.

So wurde jüngst bekannt, dass das US-amerikanische Unternehmen Palantir die Stadt New Orleans als Versuchsfeld für sogenanntes »Predictive Policing« nutzte. Dabei werden mithilfe der Auswertung von Meta-Daten Vorhersagen über potenzielle Straftäter getroffen, ihre Kontakte analysiert und Verbindungen zu kriminellen Gangs untersucht. Wohlgemerkt ohne dass die potenziellen Täter jemals eine Straftat begangen hätten. Natürlich könnten so in manchen Fällen Straftaten verhindert werden. Unser Rechtssystem basiert allerdings auf dem Prinzip, dass ohne Vergehen oder Verbrechen kein Anlass für eine Strafe besteht. Es gilt die Unschuldsvermutung, egal welche statistischen Vorhersagen vorliegen.

Eine Gesellschaft muss sich also fragen, wie sie Sicherheit und Privatsphäre der Bürger gegeneinander abwägen will. Im konkreten Fall gilt, dass die Zusammenarbeit zwischen Palantir und New Orleans öffentlich lange Zeit nicht bekannt war. Das Unternehmen arbeitete kostenlos und nachdem die Zusammenarbeit nun in den Medien auftauchte, stehen die Verantwortlichen jetzt unter Druck. Die Bürger fordern Transparenz und möglichweise das Ende der Kooperation.

Auch in China wird deutlich, wohin fehlende demokratische Kontrolle führen kann. Dort testet die Zentralregierung in der Provinz Xinjiang neueste Technologien zur Überwachung. Die dort lebenden, muslimisch geprägten Uiguren sind mit der Politik Pekings nicht einverstanden und wollen einen eigenen Staat gründen. In den letzten Jahrzehnten kam es durch chinesische Repressalien zu zahlreichen Unruhen. Um die Situation in den Griff zu bekommen, nutzt China jetzt modernste Überwachungstechnologien. So werden die Einwohner Xinjiangs permanent durch Gesichtserkennungs-Software überwacht, wenn sie sich in der Öffentlichkeit bewegen. Sobald ein Uigure die als »sicher« gekennzeichneten Bereiche verlässt, benachrichtigt das System automatisch die Polizei. Eine solche allgegenwärtige Informationstechnologie ist der Traum für autokratische Regime. Kritiker können lückenlos und zu jeder Zeit überwacht werden.

Aus übersteigerter Angst vor Terrorismus sind auch westliche Demokratien in den letzten Jahren häufiger den Versuchungen moderner Überwachungstechnologie erlegen. Die Einwohner Londons beispielsweise werden beinahe ununterbrochen von Überwachungskameras gefilmt. Im ganzen Land gibt es schätzungsweise 6 Millionen Kameras, eine für jeden elften Einwohner Großbritanniens. Was, wenn nun ein Staatsoberhaupt an die Macht gelangt, dem demokratische Grundprinzipen nicht gefallen? Sollten wir nicht sozusagen »präventiv« verhindern, dass der Regierung ein umfassendes System aus Überwachungsmaßnahmen zur Verfügung steht?

So entpuppt sich die Angst vor einer Roboter-Apokalypse als eine Art Ablenkung von den eigentlichen Fragen und Herausforderungen unserer Zeit. Wir müssen uns überlegen, wie in unseren Demokratien Entscheidungsträger kontrolliert werden sollen.

Auch wenn wir heute Zugriff auf moderne Technologien haben, die der Großteil der Bevölkerung kaum versteht, stehen wir vor denselben politischen Herausforderungen wie in der Vergangenheit. Zentral bleibt die Frage: Wer hat wie viel Macht – und wer kontrolliert die Mächtigen?

 

Maximilian Doré

Maximilian Doré hat sich nach seinem Informatik-Studium in die Abgründe der Philosophie gewagt und beschäftigt sich jetzt vor allem mit Logik und Erkenntnistheorie. Er interessiert sich für neue Technologien und wie diese unser Zusammenleben verändern.

 

Der Artikel wurde zur Verfügung gestellt von Perspective Daily.