image

Jürgen Bruhn

KI  Schlägt die Maschine den Menschen?

Jürgen Bruhn

KI  Schlägt die Maschine den Menschen?

Tectum Verlag

Jürgen Bruhn

KI

Schlägt die Maschine den Menschen?

© Tectum – ein Verlag in der Nomos Verlagsgesellschaft, Baden-Baden 2019

E-Pub 978-3-8288-7183-0

(Dieser Titel ist zugleich als gedrucktes Werk unter der ISBN

978-3-8288-4220-5 im Tectum Verlag erschienen.)

Umschlaggestaltung: Tectum Verlag, unter Verwendung eines Bildes

der Daimler und Benz Stiftung/Oestergaard

Abbildung im Innenteil: © Daimler und Benz Stiftung/Oestergaard

Alle Rechte vorbehalten

Besuchen Sie uns im Internet:

www.tectum-verlag.de

Bibliografische Informationen der Deutschen Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen
Nationalbibliografie; detaillierte bibliografische Angaben
sind im Internet über http://dnb.ddb.de abrufbar.

Noam Chomsky gewidmet

Inhalt

Kapitel 1

Silicon Valley und die digitale Revolution

Kapitel 2

Künstliche Intelligenz – oder: Der Versuch, Unsterblichkeit zu erlangen und das Universum zu besiedeln

Kapitel 3

Wissenschaft oder Science-Fiction?

Kapitel 4

Die Geister, die wir riefen – oder: Was bleibt vom Menschen?

Anmerkungen

image

image

Im September 1995 trafen sich 500 führende Konzernmanager, Banker und Wirtschaftswissenschaftler aus allen Kontinenten zu einer Konferenz im Fairmont-Hotel in San Francisco, um die Zukunft von Arbeit, Wachstum und Automation im 21. Jahrhundert vorherzubestimmen. Viele Teilnehmer nannten sich selbst bereits „Masters of the Universe“. Einer von ihnen, John Gage, Topmanager (CEO) bei der Silicon-Valley-Computerfirma Sun Microsystems begann die Konferenzdebatte zu dem Thema „Technologie und Arbeit in der zukünftigen automatisierten Wirtschaft“.

So wie Google, Apple, Facebook und Microsoft heute galt Sun Microsystems zu Ende des 20. Jahrhunderts als Star der Branche für Computerprogrammierung und Künstliche Intelligenz. Das Unternehmen konnte sich unter anderem die Entwicklung der Programmiersprache „Java“ auf die Fahnen schreiben, und sein Aktienkurs hatte an der Wall Street alle Rekorde gebrochen. Großspurig behauptete John Gage, bei Sun Microsystems könne jeder arbeiten, egal, wo er herkomme. Seine Programmierer bräuchten keine Visa. Die US-Regierung mache ihnen keine Vorschriften und stelle keine einschränkenden Regeln auf. Derzeit, fuhr Gage fort, bevorzugten sie gut ausgebildete Informatiker aus Indien. Wir holen uns die besten Informatiker der Welt per Computerklick ins Haus, erstellen bei uns die intelligentesten Programme. Und später wird das Unternehmen sie ebenfalls mit einem einfachen Computerklick wieder entlassen, nämlich dann, wenn die eigenen Computer die Arbeit dieser Programmierer selbstständig ausführen könnten. 2010 wurde Sun Microsystems mit dem Internetkonzern Oracle verschmolzen.

David Packard, Mitbegründer des Hightech-Riesen Hewlett-Packard, unterbrach Gage und fragte ihn, wie viele Mitarbeiter er denn in der automatisierten Zukunft für Sun Microsystems benötigen werde. „Sechs, vielleicht acht“, antwortete Gage prompt. Dabei sei es völlig gleichgültig, aus welchem Lande sie kämen. Einer der Moderatoren der Konferenz, der Ökonomieprofessor Rustum Roy von der Pennsylvania State University, fragte nach: Wie viele Leute denn momentan für Sun Microsystems arbeiten würden. Gage antwortete: 16.000. Aber sie würden schon bald bis auf eine kleine Minderheit zur „Rationalisierungsreserve“ gehören.1

Niemand in der Festhalle des Fairmont-Hotels schien von dieser Antwort überrascht zu sein. Wie selbstverständlich nahmen die Masters of the Universe die deutliche Aussicht auf bis dahin ungeahnte Arbeitslosenheere hin. Lester Brown, damaliger Leiter des Washingtoner Worldwatch Institute und Teilnehmer der San-Francisco-Konferenz, berichtete, die Manager der Hightech- und Internetbranche wie auch die anwesenden Banker und Wirtschaftswissenschaftler seien davon überzeugt gewesen, dass noch vor Beginn der zweiten Hälfte des 21. Jahrhunderts lediglich „20 Prozent der arbeitsfähigen Bevölkerung“ ausreichen würden, um die Weltwirtschaft in Gang zu halten. Mehr Arbeitsplätze, so hatten es Gage und andere Konferenzteilnehmer prognostiziert, seien dann nicht mehr erforderlich. Die anderen Arbeitsplätze würden von Computern und Robotern übernommen werden. Keiner schien an diesem unaufhaltsamen Weg in die Automation zu zweifeln.

Die überflüssigen, wirtschaftlich nicht mehr relevanten 80 Prozent, also vier Fünftel der Weltbevölkerung, sollten aber nicht auf dumme Gedanken kommen, denn durch „Tittytainment“, das heißt mit einer Mischung aus betäubender Unterhaltung („intoxicating entertainment“) und ausreichender Ernährung am Busen („tits“) der wenigen Produktiven, sollte die frustrierte Bevölkerung der Welt bei Laune gehalten werden. Zbigniew Brzezinski, Unternehmensberater und ehemaliger nationaler Sicherheitsberater von US-Präsident Jimmy Carter, hatte die hübsche Wortschöpfung Tittytainment auf der Konferenz in Umlauf gebracht.

Sun-Microsystems-Manager John Gage setzte jedoch noch eins drauf, indem er hervorhob, die zukünftige Frage laute, entweder zu essen zu haben oder gefressen zu werden („either to have lunch or be lunch“). Der an der Konferenz teilnehmende US-Wirtschafts- und Sozialwissenschaftler Jeremy Rifkin, der im gleichen Jahr sein Buch The End of Work herausbrachte, warnte jedoch: „Die unteren 80 Prozent werden wegen der fehlenden Kaufkraft und ihrer Deklassierung größte Probleme aufwerfen, die wir heute noch nicht absehen können.“2

Tittytainment kennen wir, wenn auch unter anderem Namen, aus Aldous Huxleys Zukunftsroman Brave New World. Dort werden die Massen, die Gamma-Menschen, mit „Soma-Pillen“ ruhiggestellt. Tittytainment kennen wir auch aus der Geschichte des antiken Rom, wo die Massen mit „Brot und Spielen“ (panem et circenses) besänftigt wurden, vor allem, um Aufstände zu verhindern. Wie Tittytainment allerdings das Problem der Kaufkraft von vier Fünfteln der Weltbevölkerung lösen soll, bleibt ein Rätsel. Soll das eine Fünftel der Beschäftigten, die sogenannten „Symbolanalytiker“ der kommenden „Wissensökonomie“ – beide Termini stammen aus Robert Reichs Die Neue Weltwirtschaft –, alles kaufen, was die transnationalen Konzerne produzieren? Oder sollen nur noch Luxusgüter für diese 20 Prozent hergestellt werden?3

Der Ökonomieprofessor Rustum Roy, der ebenfalls an der Konferenz teilnahm, regte an, man könnte doch ehrenamtliche Tätigkeiten der Arbeitslosen – der „von der Arbeit Freigesetzten“ – für freiwillige Gemeinschaftsdienste, für Krankenpflege, für Nachbarschaftshilfe, für Straßenreinigung, für Arbeit in Kirchen und Sportvereinen durch eine bescheidene Bezahlung aufwerten und so die „Selbstachtung von vielen Millionen Menschen“ zu fördern. Sind wir also unterwegs zu einer neuen Zivilisation, die in Zukunft mit Algorithmen gesteuerten Hochfrequenzcomputern und ihrem Informationsmonopol vier Fünftel der Weltgesellschaft mit Almosen abspeist und mit Brot und Spielen im Zaum hält?

Konferenzteilnehmer John Sculley, damals Topmanager bei Apple, prognostizierte, dass am Re-Engineering und der Re-Organisation der Arbeit durch den Einsatz von Computern, Robotern und Sensoren in den nächsten dreißig Jahren kein Weg vorbeiführe. Forschung und Entwicklung seien nun einmal nicht aufzuhalten. Dennoch, so Sculley, könnte die auf uns zukommende Automation in der Wirtschaft so massiv und destabilisierend sein wie der Beginn der industriellen Revolution. Mittel und Wege, wie dieser Herausforderung entgegenzutreten sei, konnte der erfahrene Manager nicht aufzeigen. Dazu, so Sculley, sei er nicht in der Lage.

Der Wirtschafts- und Sozialwissenschaftler Jeremy Rifkin meinte dazu, diese Entwicklung werde nicht nur die Entmündigung der Gesellschaft, sondern auch das „Ende der Erwerbsarbeit“ schlechthin bedeuten. Ob uns bis 2030 eine „utopische oder dystopische Zukunft“ bevorstehe, hänge größtenteils davon ab, wie wir die Produktivitätszuwächse, erwirtschaftet durch Automation, in der neuen Wissensökonomie verteilten. Rifkin plädierte für die Errichtung eines „3. Sektors“ in der Wirtschaft, einer Art Parallelwirtschaft, die durch die Besteuerung des 1. Sektors, also der in der Zukunft automatisierten, beinahe arbeiterlosen Marktwirtschaft, finanziert werde und damit alternative Jobs und neue Entlohnungsformen für die aus dem 1. Sektor ausgegrenzten Menschen schaffe (als 2. Sektor bezeichnet Rifkin die öffentlich-staatliche Wirtschaft). Die Ausgegrenzten würden damit, so Rifkin, keine Almosen von den Eliten (Symbolanalytikern) des 1. Sektors erhalten, sondern für „echte soziale Arbeit“ bezahlt werden. Mit echter sozialer Arbeit meinte er: Krankenpflege, Recycling, Heimarbeit, Umweltschutz, Stadtteilpflege, Jugendbetreuung, Aufziehen der Kinder etc.4

In einem Interview mit Jeremy Rifkin kurz nach der San-Francisco-Konferenz äußerte sich der US-Ökonom Don Kennedy zu den Folgen einer immer größer werdenden Arbeitslosigkeit durch Automation und einer möglichen zukünftigen Entlohnungsform für den 3. Sektor. Er stellte die Frage, was in naher Zukunft passieren würde, wenn wir die besten Produkte zu den niedrigsten Kosten und mit der höchsten technischen Qualität herstellten, aber niemand es sich leisten könnte, sie zu kaufen. Wir sollten wieder begreifen, dass die Nachfrage nach Gütern und Dienstleistungen eine Funktion des Einkommens sei. So, wie es John Maynard Keynes postuliert habe. Deshalb müssten wir über neue Formen der Einkommensverteilung nachdenken und nicht nur über Entlassungen, um Kosten zu senken. „Unser Problem wird sein: Wie bringen wir Einkommen und damit Kaufkraft zu den Massen, die in der Marktwirtschaft keine Beschäftigung mehr finden? […] Wenn in naher Zukunft die arbeiterlose Technologie den materiellen Wohlstand der Gesellschaft produziert, dann müssen wir einen gänzlich neuen Weg finden, um diesen Wohlstand zu verteilen. Und zwar müssen wir ihn außerhalb der Marktwirtschaft finden, nämlich im sozialen Bereich.“5

Der US-Wirtschaftswissenschaftler Richard D’Aveni, der fast gleichzeitig mit Rifkins Buch The End of Work seinen Bestseller HyperCompetition herausgebracht hatte, war da ganz anderer Meinung. Er behauptete darin, dass sich das unaufhaltsame Verschwinden des Produktionsfaktors Arbeit als die letzte große, völlig systemimmanente Aufgabe des Kapitalismus erweisen werde. Nach D’Aveni ist es geradezu die Pflicht der Manager, durch einen immer beschleunigteren Einsatz von Computern und Robotern, also durch immer schnellere Technologieerneuerung im Produktions- und Dienstleistungsprozess, den Produktionsfaktor Arbeit zu verabschieden. Die zukünftige Wissensökonomie müsse vom viel zu kostspieligen Faktor Arbeit befreit werden. Nur so könnten sich in Zukunft die transnationalen Hightech-Konzerne und Großbanken im globalisierten Wettbewerb behaupten.6

Fassen wir zusammen: In den Plänen dieser elitären Visionäre sind also 80 Prozent der Weltbevölkerung im zweiten Teil des 21. Jahrhunderts dazu ausersehen, sich nach ihrer Ausscheidung aus dem 1. Sektor der Wirtschaft ruhig zu verhalten, sich mit Tittytainment zufriedenzugeben und den „totalitären digitalen Kapitalismus“ (Frank Schirrmacher) zu erdulden.7 Doch die Frage bleibt bestehen: ob in der digitalen Zukunft nicht doch noch eine Gesellschaft entstehen könnte, an der sich zumindest ein großer Teil der Menschen sinnvoll zu beteiligen vermag, wie es Jeremy Rifkin und Don Kennedy skizziert haben. Andererseits folgt das Verhältnis 20:80, sprich die Einfünftelgesellschaft, wie sie die Masters of the Universe in San Francisco skizziert haben, durchaus der technischen, wissenschaftlichen und wirtschaftlichen Logik, mit der die oben Genannten die globale, von immer mehr künstlicher Intelligenz geleitete Wirtschaft und Gesellschaft zur finalen Effizienz- und Wettbewerbsfähigkeitsbesessenheit vorantreiben. In diesem mit ungeheurer Geschwindigkeit sich fortsetzenden technologischen Welt-Wettlauf haben sich Wissenschaft, Forschung, Management und Kapital zu einem – wie es scheint – gleichgeschalteten Bollwerk zusammengefunden. Das kalifornische Silicon Valley ist der Vorreiter dieser digitalen Revolution.

In der Zwischenzeit – wir schreiben das Jahr 2018 – hat sich in Forschung, Entwicklung, Techno-Wissenschaft und Wirtschaft vieles mit einem geradezu exponentiellen Wachstum und einer exponentiellen Leistungsfähigkeit fortentwickelt. Der Einsatz Künstlicher Intelligenz hat bereits viele Jobs eliminiert. Bei den großen Autokonzernen Ford, General Motors, Toyota, VW wird die Produktion in den Werkshallen schon zu über 40 Prozent von Robotern, Computern und Sensoren durchgeführt. Man nähert sich also mit großen Schritten Zahlen an, wie sie auf der San-Francisco-Konferenz mit unverhohlener Begeisterung gehandelt wurden. Und auch vom großen Rest der Auto- und Industriearbeiter im Allgemeinen wird bald nur noch ein Teil benötigt werden. Eine neue Generation von Supercomputern und sich selbst steuernden Robotern wird in den nächsten 10 bis 15 Jahren die Restarbeit übernehmen. So steht es jedenfalls in einem News Release des „Second International Global Future 2014 Congress“ in New York vom Juni 2013 und in einem Bericht des „Deutschen Forschungszentrums für Künstliche Intelligenz“ in Potsdam (DFKI) vom März 2013.8

In dem Potsdamer Bericht ist unter anderem zu lesen, die computergesteuerte Fabrik der Zukunft („Computer Integrated Manufacturing“, kurz CIM genannt) werde „intelligente Roboter sehen, die sich selbst steuern und sich gegenseitig optimieren, um intelligente Produkte herzustellen“. Dabei komme es in den zukünftigen „smart factories“ zu einem „Paradigmenwechsel“, so Professor Wolfgang Wahlster, Leiter des DFKI in Potsdam: „Wir gehen weg von der zentralen Fabriksteuerung hin zu einer dezentralen Steuerung.“ Dabei werde die smarte Fabrik über das Internet mit der globalen Warenwelt verknüpft. Der Trend, so Wahlster, gehe dahin, Bauteile in kleinen Stückzahlen und auf direkte Kundenanforderung zu produzieren. Das werde die Verschwendungsrate senken, Kosten minimieren und die Auslieferung beschleunigen. Durch die informationstechnische Vernetzung könne der Rohling einer Produktionsmaschine mitteilen, wie und wo er bearbeitet werden wolle. „Er beantragt beim Roboter: Bitte schleife mich an dieser Stelle, oder färbe mich an dieser Stelle rot.“ Das, so Professor Wahlster, sei eine „völlige Umkehrung der bisherigen Produktionslogik. Erst durch diese von Algorithmen gesteuerten und von Supercomputern geleiteten Roboter wird es zu den beinahe arbeiterlosen smarten Fabriken kommen.“9

Professor Wahlsters Prognose aus dem Jahr 2013 nimmt nun auch in den USA Gestalt an. Eine neue Generation kleiner und intelligenter Roboter – die Generation 4.0 – treibt die Automatisierung der Wirtschaft voran – und damit auch die Arbeitslosigkeit. Nicht nur Deutschland, das Land, das schon länger eine Vorreiterrolle bei der Automatisierungstechnologie einnimmt, sondern nun vermehrt und beschleunigt Internetkonzerne aus dem Silicon Valley wie Google, Facebook, Apple, Amazon und andere drängen als neue finanzmächtige Akteure in den Markt der digitalisierten Maschinenwelt. So kauft der Suchmaschinen- und Übersetzungsmaschinen-Krake Google – seit 2015 Alphabet Inc. genannt – heute reihenweise Robotikunternehmen auf und hat inzwischen ein selbstfahrendes, automatisiertes Auto entwickelt, das nichts anderes ist als ein Roboter, eine autonom operierende Maschine, die ständig lernt und ihre Intelligenz aus der Datenwolke erhält.

Wie die New York Times am 6. November 2017 schrieb, experimentiert Google schon seit einigen Jahren auf Testgeländen, aber auch im realen Straßenverkehr mit fahrerlosen Autos, die völlig autonom sind. Das Ziel: die Welt des Verkehrs und Transports mit vollautonomen Autos zu versorgen. Google ist der Pionier der selbstfahrenden Autos. Natürlich arbeiten auch andere Tech-Konzerne des Silicon Valley an solchen Projekten. Doch im Gegensatz zur Konkurrenz geht Google nicht den Umweg über teilautonome Autos und Fahrerassistenzsysteme, sondern überlässt algorithmengesteuerten Robotern die alleinige Kontrolle über das Fahrzeug. Die Google-Ingenieure sind davon überzeugt, dass nur so an das Problem herangegangen werden kann, seien doch teilautonome Autos zu gefährlich. Bei solchen Systemen trage der Fahrer noch immer die Verantwortung und müsse stets in der Lage sein, einzugreifen. Er dürfe zum Beispiel während einer stundenlangen Fahrt auf dem Highway nicht einschlafen oder telefonieren, könnte doch sonst ein Unfall passieren. Dieses im Faktor Mensch verortete Problem lasse sich nur beheben, wenn die Maschine stets die ausschließliche Kontrolle habe. Deshalb soll bei möglichen kritischen Situationen nicht der Mensch als Fahrer, sondern ein zweiter Roboter intervenieren. Es ist der deutsche Informatiker und Computerwissenschaftler Sebastian Thrun, 1967 in Solingen geboren, der das total autonome, fahrerlose Google-Auto miterschuf. Schon als junger Professor an der Stanford University entwickelte er Anfang dieses Jahrhunderts mit einem Team ein selbstfahrendes Auto. Google kaufte ihn daraufhin ein und machte ihn später zum „Leiter der Geheimlabore“. Die Milliardeninvestition der IT-Konzerne und der Autoindustrie in selbstfahrende Autos gehen zu einem großen Teil auf die Pionierarbeit des Deutschen zurück.

Das Auto wird sich also grundlegend ändern. Es wird bei selbstfahrenden Autos keine Fahrer mehr geben, sondern nur Passagiere. Nicht nur auf den Testgeländen, sondern auch auf realen Straßen und Highways haben Googles vollautonome Autos bereits Tausende Meilen abgefahren. Das Unternehmen scheint für den Start auf diesem Markt also bestens vorbereitet. Diese Entwicklung bedeutet damit das Ende der gegenwärtigen Autoindustrie, und auch die vielen Taxi-, Bus-, U-Bahn- und Eisenbahnfahrer werden ihren Job verlieren. Individuelle Fahrerautos werden nicht mehr hergestellt werden, sondern kommunale, fahrerlose, autonome Autos, bei denen die Passagiere ihre Privatheit und Autonomie für eine neue Mobilität aufgeben müssen. Nach Google-Berechnungen fuhren bis 2015 weit über 1 Milliarde Fahrerautos auf den Straßen unseres Planeten. Mit der neuen Mobilität würden ungefähr 50 Millionen kommunale, autonome, fahrerlose Autos 1 Milliarde Privatautos ersetzen und so Umweltverschmutzung, Ressourcenverbrauch und Treibhausgase enorm verringern. Zudem werden die Unfälle mit Toten und Verletzten auf den Straßen dabei um 90 Prozent reduziert.

Uber, der Transportdienst, hat Anfang 2015 eine Robotik-Forschungsabteilung eingerichtet und dabei 50 führende Wissenschaftler aus etablierten Forschungsinstituten – vor allem der NASA – abgeworben, um autonome Autos zu entwickeln. Facebook investiert in die Entwicklung von selbstfahrenden Autos und intelligenten, von Datenclouds gestützten Robotern. Apple arbeitet ebenfalls an einem eigenen selbstfahrenden, automatisierten Auto. Amazons Robotik-Tochterfirma „Kiwa“ ist derzeit der Schrittmacher in der Automatisierungstechnologie des Silicon Valley. Als einer der ersten hat der Online-Händler Amazon-USA in seinen Lagerhallen bereits die neue Generation von sich selbst steuernden Robotern eingesetzt. Sie verrichten die Arbeitsabläufe in den Lagerhallen automatisch, fast ohne menschliche Arbeitskraft.

Die wenigen verbleibenden Lagerarbeiterinnen und -arbeiter werden dabei zu menschlichen Robotern degradiert. Computerbrillen zeigen Lagerangestellten, in welche Warenbox sie greifen müssen, und Detektoren am Handgelenk prüfen, ob es die richtige Box war. Eigenes Denken, ja selbst das eigene Wahrnehmen wird dabei ausgeschaltet. Dazu passt, dass sich Amazon-Europa weigert (Amazon-USA tut dies ohnehin), einen Tarifvertrag für seine Mitarbeiter nach dem Vorbild des Versandhandels abzuschließen. Viele Millionen Menschen versorgen sich täglich auf Amazons Monopol-Plattform mit Waren. Viele Händler agieren ausschließlich auf Amazon und lassen den Versand komplett von Amazon abwickeln. Sie haben sich dadurch vollständig vom Amazon-Vertrieb abhängig gemacht und sind der Datenmacht des Unternehmens ausgeliefert. Dabei kopiert Amazon häufig erfolgreiche Produkte der von ihm abhängigen Händler und Hersteller, die der Konzern dann weiter vorn in der Liste anzeigt und günstiger anbietet. Kleine und mittlere Hersteller und Händler können hier kaum konkurrieren und scheiden aus dem Markt aus. Auf diesem Weg monopolisiert Amazon den Versandmarkt.10

In der Robotik, beschreibt Ken Goldberg, Professor für Robotik an der University of California in Berkeley, zeichnet sich derzeit ein „neues Paradigma“ ab. „Es gibt nicht einfach mehr brutale Rechenkraft, sondern ganz neue, große Ideen“ für schnelle, leichte, intelligente Roboter. Goldberg leitet eine neue Roboter-Forschungsallianz aus kalifornischen Universitäten. Über das Internet und die allgegenwärtigen Netzwerke sowie Datenverbindungen, so Professor Goldberg, könnten Roboter nun mit Informationen aus der Datenwolke gefüttert werden und voneinander lernen. Die neue Forschungsrichtung heißt entsprechend „Cloud-Robotik“. „Über die Cloud können Maschinen auf riesige Mengen von Rechenkraft zugreifen, Daten teilen und ganz neue mathematische Berechnungen anstellen.“ Die neuen Roboter sind damit in der Lage, bedeutend schneller zu lernen. Man könne sagen, so Goldberg, dass „ein Roboter 10.000 Stunden etwas lernen kann, oder 10.000 Roboter können das Gleiche in einer Stunde lernen.“ Es sei inzwischen bewiesen, dass eine Gruppe lernender Maschinen bessere Entscheidungen trifft als eine einzelne. Aus dieser Zusammenarbeit ließen sich algorithmische Modelle entwickeln, die Roboter zu viel komplexeren Aufgaben ermächtigten. Von diesen neuen Robotern, der sogenannten Generation 4.0, sollen übrigens in den nächsten Jahren in den USA 1,2 Millionen installiert werden.11

Diese Roboter-Evolution bedeutet natürlich eine enorme Herausforderung für den Arbeitsmarkt. Im kommenden Jahrzehnt wird der Anteil der Automatisierung in der Fertigung um 25 Prozent steigen, prognostiziert die Beratungsgesellschaft „Boston Consulting Group“. Die absehbare Entwicklung wird die Manager veranlassen, Arbeitnehmer immer schneller und umfassender durch Roboter zu ersetzen. Schon heute kostet ein Roboter etwa in der US-Elektronikindustrie durchschnittlich vier Dollar die Stunde, der Arbeiterlohn beträgt hingegen 24 Dollar pro Stunde. Durch den neuen Roboter-Boom, so die Boston Consulting Group, werde die Belegschaft in US-Fabriken in den kommenden Jahren noch einmal um fast 25 Prozent schrumpfen.12

Die Frage, die auf der Konferenz von 1995 in San Francisco bereits bestimmend war, bleibt also bestehen: Wo geht die Entwicklung der Automatisierung hin, wenn sich der technologische Fortschritt exponentiell beschleunigt? Hatten die Masters of the Universe 1995 vielleicht doch recht, wenn sie nach 2050 von einer 20-zu-80-Gesellschaft sprachen?

Mit diesem Thema beschäftigte sich im Jahr 2014 auch das „Oxford Martin Programme on Technology and Employment“. Die Wissenschaftler dieses Instituts der Oxford University kamen zu dem Ergebnis, dass infolge der exponentiell zunehmenden Automation 47 Prozent der gegenwärtigen Arbeitsplätze in den USA in den nächsten zehn bis zwanzig Jahren „höchstwahrscheinlich verschwinden“ werden. In Großbritannien dürften in diesem Zeitraum 35 Prozent der heutigen Jobs durch Roboter und Computer substituiert werden. Natürlich, so die Oxford-Prognose, sei das eine „Zukunftsprojektion“. Doch der wissenschaftlich überprüften Hypothese, dass ein „gewaltiger Teil der heute geläufigen Arbeit“ von Robotern und Computern übernommen wird, kann man wohl nicht widersprechen.13

Wahrscheinlich sind diese Oxford-Prognosen sogar zu konservativ. Eine Grafik der britischen Forschungsgruppe zeigt nämlich, wie lange es gedauert hat, bis eine neue Erfindung 50 Millionen Nutzer gefunden hat: Beim Telefon waren dies 75 Jahre, beim Radio 38 Jahre, beim Fernsehen 13 Jahre, beim Internet 4 Jahre, bei Facebook 3,5 Jahre. Mit anderen Worten: Die rasante Beschleunigung der Technologieerneuerung dürfte die Erwartungen und Prognosen eher übertreffen. Außerdem gehen die Oxforder davon aus, dass die Zahl der industriellen Roboter weltweit von gegenwärtig 15 Millionen bis 2025 auf über 25 Millionen ansteigen wird.14

Ein weiterer Aspekt der Oxford-Studie ist der Hinweis darauf, dass Arbeiter und Angestellte die großen Verlierer der digitalen Revolution sein werden, Hedgefond-Manager, Aktionäre, Informatiker und Programmierer hingegen die großen Gewinner. Die Frage, die sich an diese Diagnose anschloss, lautete: Wenn ganze Wirtschaftsbereiche mehr oder weniger vollautomatisiert sein werden, warum macht man nicht die Mitarbeiter der Großunternehmen und Banken zu Aktionären, anstatt immer weniger und immer schlechter bezahlte Arbeit auf immer mehr Köpfe zu verteilen? Antwort: Dem „neoliberalen Kapitalismus ist das Wohl der gesamten Gesellschaft egal.“15 Die Wissenschaftler der Oxford-Studie glauben jedoch nicht, dass eine Entwicklung lange andauern kann, bei der auf der einen Seite größte Teile der Erwerbsarbeit verloren gehen, auf der anderen Seite aber der Reichtum der wenigen Manager, Aktionäre, Programmierer und Informatiker der Hightech- und Internetindustrie immer größere Ausmaße erreicht. Vielmehr werde dies zu sozialen Konflikten und revolutionären Zuständen führen, wenn nicht rechtzeitig Veränderungen vorgenommen werden.

Vor dieser Entwicklung haben nicht nur die US-amerikanischen Wirtschaftswissenschaftler Jeremy Rifkin und Don Kennedy gewarnt, sondern auch der 2014 verstorbene deutsche Soziologe Ulrich Beck. Insbesondere in seinem Essay Kapitalismus ohne Arbeit hat Beck darauf hingewiesen, dass sich die Welt in einer sich exponentiell beschleunigenden Technologieerneuerung befinde, die in Zukunft so große soziale Veränderungen mit sich bringe wie noch nie zuvor in der Geschichte der Menschheit. Diese dritte industrielle Revolution bedeutet auch für ihn, dass große Teile der Menschheit in technologische Arbeitslosigkeit stürzen werden. Manager und Technowissenschaftler werden, so Beck, diese Revolution unbarmherzig und mit rasanter Geschwindigkeit vorantreiben. Dass die klassische Erwerbstätigkeit schließlich nicht mehr unsere wichtigste Quelle sozialer Identität sein kann, sieht er als gewiss an. Aber die sich daraus für die Gesellschaft und den Einzelnen ergebenden Konsequenzen müssen die Politik zwingen, per Gesetzgebung neue Formen der Arbeitszeitverkürzung und Arbeitszeitverteilung, also der Beschäftigung schlechthin und ihrer Entlohnung zu finden.

Vor allem plädiert Beck für eine vernunftbegabte Entschleunigung der Technologieerneuerung. Er fordert eine „Kultur der Verlangsamung“. Eine solche Verlangsamung will er auch durch die „Haftbarmachung der Verursacher“ der Technologieerneuerung besonders in den Informations- und Zukunftsindustrien erwirken. Er weist dabei auf den fehlenden Versicherungsschutz bei den Zukunftsindustrien hin. Der fehlende Versicherungsschutz ist für Ulrich Beck geradezu eine „Warnblinkanlage für Unkontrollierbarkeit“, insbesondere bei der Gentechnologie und der Künstlichen Intelligenz. Seine Schlussfolgerung: Wenn wir die Zukunftsindustrien beispielsweise mit dem „Kraftfahrtversicherungsschutz gleichsetzten“, würde die unkontrollierte Technologieerneuerung zwangsläufig gebremst werden. Dieser vom Gesetzgeber eingebrachte Versicherungsschutz für die Bürger und die Haftung der Verursacher für die Folgen der revolutionären Technologieerneuerungen ergäben dann eine überprüfbare, gläserne Produktion, bei der Selbstkontrolle, Entschleunigung und Selbstbegrenzung verwirklicht werden könnten.16

Zwischen 1995 und 2018 kam es auch bei maßgebenden internationalen Zeitungen und Zeitschriften wie der New York Times, der Washington Post, dem Time Magazine, der London Times, dem Manchester Guardian, dem Spiegel, der Frankfurter Allgemeinen Zeitung, bei Le Monde etc. wie auch in den großen Wissenszentren der Welt, also in den Universitäten, Archiven, Museen und Bibliotheken zu einer rasanten digitalen Umwälzung durch den Einsatz modernster Computer. Das Wissen der Welt, das bislang vor allem durch Milliarden Dokumente, Zeitungsartikel, Akten, Essays, Rezitationen, Dissertationen, Übersetzungen, Biografien, Forschungsergebnisse, Patente, Wörterbücher, Lexika, Enzyklopädien usw. in Universitätsbibliotheken, Staatsarchiven, Patentämtern, bei der „New York Times Information Bank“ oder beim ehemals größten Zeitungsarchiv der Welt, dem Spiegel-Archiv, festgehalten und für kommende Generationen zur individuellen Inanspruchnahme aufbewahrt worden war, wurde nun digitalisiert, in Computer hochgeladen und schließlich mehr oder weniger von privatwirtschaftlichen, profitorientierten Internetkonzernen des kalifornischen Silicon Valley übernommen und vermarktet. Tausende Journalisten, Bibliothekare, Archivare, Übersetzer verloren ihre Jobs.

Die ehemals in den oben genannten Institutionen gespeicherten Daten, Dokumente, Informationen, Nachrichten, kurz das Wissen der Welt können nun manipulativ – einschließlich unseren eigenen persönlichen Daten – von den Internetkonzernen online verwertet werden. Dabei gaukeln uns die Internetkonzerne des Silicon Valley vor, dass wir die Daten und Informationen – einschließlich unsere eigenen – „umsonst“ herunterladen könnten, dass wir schließlich anhand ihrer Supercomputer auf eine „Umsonst-Ökonomie“ zusteuerten. Und wir merken dabei nicht, so warnt der US-amerikanische Computerwissenschaftler und Internetdenker Jaron Lanier, der im Oktober 2014, insbesondere für sein Werk Wem gehört die Zukunft?, den Friedenspreis des Deutschen Buchhandels erhielt, dass wir, die Nutzer selbst, zur Ware werden, mit der die Internetkonzerne handeln und ihre Macht und ihren Einfluss über uns ausdehnen.

Denn diejenigen Internetfirmen, die mit durch Algorithmen gesteuerten Hochleistungscomputern die meisten Informationen, die meisten Daten, das meiste Wissen sammeln, drängen andere Internetfirmen vom Markt und monopolisieren so ihre Machtausübung und damit die Meinungen und das Leben der Massen. Diese Informations- oder Wissensökonomie, die sich im Silicon Valley bündelt (Google, Apple, Facebook, Microsoft, Twitter, Amazon, Yahoo, IBM, Hewlett Packard), in den 1970er- und 80er-Jahren zumeist aus Start-ups und Garagenfirmen entstanden, kreiert heute eine virtuelle Welt nach ihrem Gusto, manipuliert Daten, Informationen und Wissen, wie es ihr gefällt, und hat bereits begonnen, die Printmedien auszulöschen.

Lanier warnt in seinem Buch Wem gehört die Zukunft? (2013) und in einem Spiegel17