Der ferngesteuerte Sklave

Wie viel Macht erhält künstliche Intelligenz über den Menschen?

Die Technik soll dem Menschen dienen: Das Teleskop, das Elektronenmikroskop, das Echolot oder Röntgengerät erweitern die Wahrnehmung seiner Sinne. Der Baggerarm, das ferngelenkte Mondfahrzeug, das elektronisch gesteuerte Skalpell des Mikrochirurgen ergänzen seine motorischen Fähigkeiten. All dies sind Technologien, die die Aktionsmöglichkeiten des Körpers über ihren natürlichen Bereich hinaus erweitern bis weit ins Universum oder tief in den Mikrokosmos. Doch wer sie steuert, ist immer noch der Mensch. Für Notfälle gibt es einen Aus-Knopf. Diese Selbstverständlichkeit hat die künstliche Intelligenz (KI) längst auf den Kopf gestellt... 

Seit Maschinen selbständig lernen und komplexe Zusammenhänge erfassen, wobei ihre Fähigkeiten die des Menschen bei weitem übertreffen, laufen wir nicht nur Gefahr, dass uns Roboter irgendwann die Jobs wegnehmen. Nein, sie werden selbst zum Boss! Der Mensch als ferngesteuerter Sklave einer seelenlosen Maschine – ein Science Fiction Szenario? Mitnichten. Es ist längst Realität.

Doch es kommt noch schlimmer: Haben Sie sich schon einmal gefragt, warum Social Media gratis sind? Was für ein Geschenk, mit Freunden aus aller Welt in Echtzeit kommunizieren, Bilder teilen und sich wie ein Medienstar in der Öffentlichkeit äußern zu können! Der Preis, den wir dafür zahlen, sind unsere Daten. Big Data, von KI in Sekundenschnelle analysiert, kategorisiert, in soziale und psychologische Profile oder in eine einzige Zahl umgerechnet, die unsere Vertrauenswürdigkeit bescheinigt. Abgestempelt. Zu Recht? Zu Unrecht? Einblick unmöglich. Reklamieren zwecklos. Die Gesetze hinken hinterher. Und dies betrifft nicht nur Bürger von diktatorischen Regierungen, sondern rund ein Viertel der Weltbevölkerung.

Der Mensch als billiges Verschleißteil

Dass Menschen aus Fleisch und Blut zum Sklaven von Maschinen werden können, die sie anweisen, antreiben, ihre Leistungen bewerten, kritisieren und sogar entlassen, davon berichtete am 27. Februar 2020 „The Verge“ in dem lesenswerten Artikel „ How hard will the robots make us work?“ am Fall der Lagerarbeiter von Amazon. Die Idee: KI soll helfen, den Angestellten optimal einzusetzen und dessen Leistung zu steigern. So berechnen Roboter den kürzesten Weg, kommandieren Arbeitskräfte in Lagerhallen mit größerem Bedarf ab, beleuchten ein Teil im Regal, das möglichst schnell identifiziert und aufs Fließband gelegt werden soll. Jede Sekunde wird genutzt. Niemand steht herum. Durchsagen motivieren zu mehr Schnelligkeit, sobald die Arbeitsgeschwindigkeit unter den vorgegebenen Wert fällt. Wie in einem Wettbewerb werden die Leistungen auf einem Anzeigeboard visualisiert oder nach Sportreportermanier durchgesagt, welcher der Kollegen mit soundsovielen Einheiten pro Minute am schnellsten ist. 

Und natürlich werden alle Daten gesammelt, analysiert, ein leistungsbezogener Lohn  errechnet und Ratschläge erteilt, etwa, wie sich der Arbeiter mit den Rückenbeschwerden bücken soll, nämlich mehr aus den Knien, nur dass dann die Arbeitsgeschwindigkeit nicht mehr stimmt... Im schlimmsten Fall veranlasst der Computer die automatische Entlassung. Amazon-Angestellte berichten, dass sie oft erst im Auto schlafen, bevor sie die Kraft für die Heimfahrt aufbringen. Burnout total! Doch der unqualifizierte Arbeiter ist austauschbar. Und bis es soweit kommt, bieten Verkaufsautomaten in den Hallen des Versandriesen Schmerztabletten wie Schokoriegel.

Nicht die Arbeit an sich verursacht den größten Stress, berichten die Betroffenen. Sondern vielmehr die Tatsache, dass jede Minute von einer Maschine diktiert wird und man leicht ersetzbar ist. Die Maschine denkt - der Mensch rennt. Acht bis zehn Stunden lang, ohne Verschaufpause.

Heimarbeit mit Rundum-Überwachung

Als ein Ingenieur in Bangladesch sich für einen Job bei einer internationalen Autofirma bewarb, freute er sich, dass man ihm freie Zeiteinteilung und Heimarbeit versprach. Dafür musste er ein Programm installieren, das seine Leistung messen sollte. Die Software registrierte die Tippgeschwindigkeit, die Häufigkeit von Mausklicks, die Aktivität verschiedener Apps, die er für seinen Job benötigte und nahm alle zehn Minuten per Webcam drei Schnappschüsse. Wenn er dann nicht im Bild war, wurden zehn Minuten unbezahlte Zeit abgezogen. Auch wenn die Parameter eine Leistungsabnahme signalisierten, wirkte sich dies auf die Entlohnung aus. 

Laut Programm musste er 40 Wochenstunden produktiv arbeiten, um seinen Job nicht zu verlieren. Im Schnitt arbeitete er jedoch zehn Stunden pro Woche mehr, um die vom Computer als ineffizient annullierte Arbeitszeit wettzumachen. Nachdem er nach und nach sein soziales Leben verloren hatte, entschied er sich, zugunsten eines schlechter bezahlten Jobs vor Ort zu kündigen. 

Mehr Gefühl, bitte!

Firmen, die solche Programme nutzen, rechtfertigen sich damit, dass Homeoffice irgendwie überwacht werden muss. Aber auch am Arbeitsplatz erweisen sich Management-Roboter als effizienter als jeder Chef. Sie können Defizite entdecken, die kein menschlicher Vorgesetzter je bemerken würde. Und ihr Einsatz ist breit. Vom Zimmermädchen im Hotel bis zum Büro, Lager, Lieferservice oder Call-Center kann alles überwacht, bewertet und in Anweisungen umgesetzt werden. Was wann und wie schnell geputzt werden soll, wie lange jemand auf der Toilette verweilen darf, wie viele Telefonate pro Zeit entgegengenommen werden, in welcher Länge, oder ob bestimmte Schlüsselwörter oft genug verwendet wurden. In Call-Centern wird Software eingesetzt, die anhand bestimmter Kriterien mittels KI sogar die Empathie des Telefonisten bewertet. Stellt der Computer einen Mangel fest, droht Lohnabzug. Die Angestellten gewöhnen sich infolgedessen an, auch bei problematischen Gesprächen möglichst aufgeweckt zu klingen. Eine Telefonistin fand heraus, dass sie ihre Empathiewerte optimieren konnte, in dem sie so oft wie möglich „Entschuldigung“ sagte. Von KI eingeforderte Empathie wird so zum Fake-Produkt.

Hinzu kommt, dass es mittlerweile Programme gibt, die einfache Anrufe automatisch abwickeln. Damit bleiben nur noch die schwierigsten Fälle für den menschlichen Berater übrig. Ein permanenter Dauerstress. 

Im Augenblick überwachen Roboter Menschen nur von außen und bestrafen durch verbale Verweise oder Lohnabzug. Was aber, wenn die Technologie noch näher rückt? Amazon hat bereits ein Armband patentieren lassen, das per Vibration Steuerhinweise erteilt. Walmart testet ein Brustgeschirr, um die Bewegungen der Angestellten zu überwachen. Von auf der Haut bis unter die Haut ist es dann nur noch ein ganz kleiner Schritt...

Soziales Rating

Wie gut, dass wir nicht in China leben! Denn dort reicht die Rundum-Überwachung auch ins Privatleben hinein. Und hat schwerwiegende Folgen, nicht nur für „Staatsfeinde“! Das sogenannte soziale Ranking – eine Nummer als Bonität – bestimmt darüber, ob und wie schnell man einen Kredit bekommt, oder ein Flugticket, einen Platz im Kindergarten, ein Bett im Krankenhaus. Anfangs verschlechterte nur Unehrlichkeit im finanziellen Bereich die Bonität eines Bürgers. Mittler-weile zählen auch Fehlverhalten wie lautes Musikhören, Missachten von Verkehrsregeln, Benutzung der Fahrkarte eines anderen, Nichterscheinen trotz Reservierung im Restaurant, Essen im öffentlichen Schnellbahnbereich oder falsche Mülltrennung dazu. Die Bonität verbessern kann man durch Geld- oder Blutspenden, Volontariat für die Gemeinschaft oder das Lobpreisen des Staats auf Social Media. Besonders schwarzen Schafen kann der Kauf einer Fahrkarte oder ein Schulplatz für das Kind verweigert werden. Oder sie werden öffentlich stigmatisiert. 

Der globale gläserne Mensch

Wie gut, dass wir in einem Rechtsstaat leben. Doch dessen Schutz verlassen wir täglich freiwillig. Auf Social Media liefern Menschen unaufgefordert, was Geheimdienste sonst mühevoll sammeln: jede Menge Daten. Aufenthaltsort, Kontaktkreis, Konsumverhalten, Lebensstil, politische Gesinnung. Alles, was wir dort posten, liefert über Jahre hinweg  Aufschlüsse über unser finanzielles und soziales Verhalten oder die psychische Stabilität. Jedes „Like“ ist ein wertvolles Steinchen in dem sich selbst ergänzenden Puzzle. KI wertet dies alles in Nullkommanichts aus. 
„Facebooks neue Bemühungen sind bemerkenswert ähnlich in Ziel und Fokus wie Chinas System zum sozialen Rating“, schreibt Forbes am 10. September 2018 in „Why facebook‘s new user trustworthiness scores are so frightening“. Darin heißt es, Facebook wolle die Fotos seiner weltweit zwei Milliarden User für die Gesichtserkennung durch Überwachungskameras nutzen, um Läden mit wertvollen Waren zu jedem Kunden, der hereinkommt, in Echtzeit einen Vertrauensindex  zu übermitteln. Auf dieser Basis könne vor Ort entschieden werden,  wem man besser die Sicherheitsleute an die Fersen heftet. Facebook soll auch nicht negiert haben, Regierungen auf der Basis von Gerichtsurteilen Listen von ihren Bürgern übermittelt zu haben, die in bestimmte Kategorien fallen, etwa Homosexuelle oder solche, die sich für regierungsfeindliche Themen interessieren, da-runter auch an Unterdrückungsregimes, wo solche Attribute mit der Todesstrafe einhergehen können. „Das Unternehmen motivierte, die Interessen der Werbefirmen, Individuen mit gezielter Reklame anzusprechen, überwiege vor dem Recht des Individuums, vor einer Kategorisierung, die Arrest, Folter oder Tod nach sich ziehen kann, geschützt zu sein“, heißt es in dem Artikel.  So wandelt sich Facebook von einem passiven Datenarchiv für ein Viertel der Weltbevölkerung zu einem aktiven Profiler , der seine Vertrauensprofile für weit mehr als nur Werbung nutzen kann. 

Auch Euronews warnte im Juni 2020 vor dem Rating-System von Facebook, da die Einschätzung der Vertrauenswürdigkeit von Kun-den und Bürgern an Unternehmen und Regierungen verkauft werde. Cybersicherheitsexperten von Kaspersky erklären, Versicherungsfirmen in New York dürften jetzt offiziell Daten von Social Media nutzen. Auch Kredite und Hypotheken würden bereits auf dieser Basis vergeben. Wahrscheinlich werde in Zukunft für jede Person eine einzige Note die Kreditwürdigkeit bestimmen, wird Prof. Chengyi Lin von der INSEAD Business School zitiert. Kaspersky-Experten meinen, für Bürger sei es unmöglich, das eigene Rating herauszufinden, geschweige denn, wie es zustande kam oder im Fall eines Irrtums korrigiert werden könne. Und raten: Lieber zweimal überlegen, bevor man persönliche Informationen weitergibt! Sie könnten fehlinterpretiert und gegen einen verwendet werden. So ist es wohl besser, nichts Privates auf Facebook zu posten und weniger zu „liken“. Aber wer weiß, vielleicht rutscht der Vertrauensindex dann erst recht in den Keller.