Amazon-Link

Amazon-Link

Neben der Differenz-Revolution und der Intelligenz-Revolution gibt es in Christoph Kucklicks Buch zur granularen Gesellschaft noch die Kontroll-Revolution als Ergebnis von Big Data. Kontrolle funktioniert aber nicht ohne die Mitarbeit der Kontrollierten. Wenn wir uns Menschen nicht vorhersagbar machen, dann werden wir nicht vorhersagbar sein.

Kucklick beginnt für die Beschreibung und Erklärung seiner dritten Revolution hin zur granularen Gesellschaft mit einer Erkenntnis, die auch schon das Volkszählungsurteil des Bundesverfassungsgerichts von 1983 prägte: Personenbezogene Daten können nicht wirksam anonymisiert werden, wenn man viele unterschiedliche Datenpunkte über die Personen gespeichert hat.

Aus dieser wenig neuen – wenn auch nicht überall bekannten – Erkenntnis wird dann eine sehr steile Schlussfolgerung gezogen:

Wir sind so einfach erkennbar, weil wir so erwartbare, vorhersagbare Leben führen. (Zitatende)

(Sofern in diesem Blogbeitrag nicht anders angegeben, stammen die Zitate aus dem oben mit Amazon-Link angesprochenen Buch: Christoph Kucklick, Die granulare Gesellschaft. Wie das Digitale unsere Wirklichkeit auflöst, Ullstein Berlin 2014)

Der Mensch ist grobkörnig, also entschlüsseln ihn die Computer schneller, denn diese arbeiten granular. Belegt wird dies mit Beispielen zu Facebook, wo man aus den Likes und Äußerungen viel ableiten kann: So zum Beispiel die sexuelle Orientierung oder ob der Nutzer Drogenkonsument ist. Christoph Kucklick sollte aber bedenken, dass die entsprechenden Ergebnisse immer nur Wahrscheinlichkeitsaussagen mit einer gewissen Erfolgsquote sind. Bei einen auf Aufmerksamkeitsökonomie ausgerichteten Netzwerk wie Facebook muss man auch vorsichtig sein, wenn man vom gelieferten Selbstbild direkt auf das noch vorhandene echte Leben zurückschließen möchte: Facebook-Profile geben oft nur ein positives Bild von Leuten ab, die keine Probleme mit ihrer Umwelt zu haben scheinen.

Der bei Kucklick zugrundeliegende Freiheitsbegriff ist einigermaßen paradox. Freiheit wird als Unvorhersehbarkeit verstanden. Verlieren wir unsere Freiheit, wenn unser Verhalten vorhersagbar wird? Und ist es tatsächlich immer häufiger vorhersagbar? Früher waren Menschen teilweise stärker als heute in Abläufe integriert, die sie in ihrem Verhalten sehr gut vorhersagbar machten. Da gab es feste Schichtpläne und per Betriebsvereinbarung festgelegte Ferienzeiten. Auch die Freizeit war durch Verpflichtungen wie beispielsweise Vereinsaktivitäten vorausbestimmt.

Menschliches Verhalten hängt auch heute noch von vielen äußeren Faktoren ab, die sich einer Vorhersagbarkeit entziehen, beispielsweise dem Wetter. Aber auch das Verhalten der Mitmenschen ist vom Individuum oft nicht vorhersagbar. Insofern sich Verhalten auf das Verhalten von anderen bezieht, wird es damit quasi automatisch nicht mehr besonders gut vorhersagbar.

Kucklick führt zwei Beispiele an, die für die Vorhersagbarkeit Beleg sein sollen: das Spielcasino und den Supermarkt. Aber beide Beispiele sind problematisch. Dass man in einem Spielcasino letztlich nur sein Geld verlieren kann, hängt mit den vorgegeben Verlustwahrscheinlichkeiten der Spiele zusammen. Dass dieser Prozess möglichst lange dauert, liegt an der psychologischen Interessenlage der Spieler und wird von den Casinos durch eine entsprechende Spielgestaltung geschickt ausgenutzt. Diese Strategien sind so alt, wie es Casinos gibt, also schon ein paar hundert Jahre.

Für den Supermarkt passt die These der Vorhersagbarkeit auch nicht so recht, denn dort kommt es nicht auf das einzelne Verhalten an. Klar braucht die Geschäftsleitung Prognosen darüber, wie viele der schönen Sonderangebote denn innerhalb welcher Frist verkaufbar sind; doch an wen sie letztlich verkauft werden, ist der Geschäftsleitung egal. Bezüglich des Supermarkes hat sich Kucklick mit einem anerkannten Experten unterhalten. Doch dessen Algorithmen und Vorgehensweisen sind nicht ausreichend transparent, um zu prüfen, ob die Aussage, dass der Computer besser als die frühere Intuition der Kaufleute wäre, zutreffend ist.

Nachdem Christoph Kucklick (mehr oder weniger ausführlich) auch an bekannten Beispielen (Google Spracherkennung, Netflix Prognosen zum Erfolg von Serienproduktionen) erläutert hat, wie erfolgreich und lernfähig komplexe Computersysteme eingeschätzt werden, kommt die Wende zur Kritik.

Bei großer Datenfülle finden sich haufenweise Korrelationen, die statistisch signifikant, aber dennoch komplett sinnlos sind. Generell gilt: je mehr Daten, desto mehr plausibel aussehender Müll. (Zitatende)

Für einen Optimisten des Trends zur Granularität ist das eine ganz interessante Aussage. Allerdings hat er recht: Je mehr Korrelationen ein System generiert, desto schlechter wird die Erfolgsquote. Ob das allein an „mieser Datenqualität“ liegt, sei mal dahingestellt. Würde Kucklick seine Erkenntnis ernst nehmen, dann müsste er an dieser Stelle sein bisheriges Konzept einer kritischen Überprüfung unterziehen. Doch wie Münchhausen in höchster Not, findet er den rettenden Schopf, um sich aus dieser Falle zu befreien.

Es kommt nämlich gar nicht so sehr darauf an, dass alle Berechnungen stimmen, es reicht, dass die Berechnungen existieren und unsere Wahrnehmung und unsere Entscheidungen prägen. Ihr Einfluss beruht auf der wundersamen Vereinfachung, die sie uns anbieten, auf der »Reduktion der Komplexität«, wie der Soziologe Niklas Luhmann zu sagen pflegte. Zahlen ordnen unsere Welt, auch wenn wir nicht genau wissen, wie sie eigentlich errechnet wurden und ob wir ihnen vertrauen können. (Zitatende)

Eleganter hätte die implizite Selbstkritik seines granularen Weltbildes nicht formuliert werden können. Erst wird gelobt, wie toll granular neue Computer-Modelle sind, um uns unsere Welt zu erschließen (Felix-Beispiel); später ist dann aber völlig unklar, ob die so gefundenen Zusammenhänge für eine angemessene Strategie genutzt werden können. Die Einschätzung von Luhmann ist sehr interessant, allerdings wundert es mich dann, dass daraus keine kritischere Sicht auf Datenfetischismus und Berechenbarkeitsglaube abgeleitet wird.

Amazon-Link Dave Eggers Circle

Amazon-Link Dave Eggers Circle

Weiter in diesem Abschnitt zur Kontroll-Revolution geht es um die Risiken von Big Data. Zunächst wird auf den Dave Eggers Sciencefiction-Roman „The Circle“ Bezug genommen, um anschließend festzustellen, dass schon viel von dieser Horrorwelt in der Praxis vorfindlich ist: Weil beispielsweise bei einigen Kunden von Kreditkartenfirmen die Bonität schlechter wird, wenn sie Paartherapeuten und Reifendienste bezahlen, setzt man die Bonität einfach für alle entsprechenden Kunden herab. Weil Apple-Nutzer einen höheren Wirtschaftsstatus haben, müssen diese auch mehr im Hotel nach einer Online-Buchung zahlen.

Hier könnte man sicherlich noch viele weitere entsprechende Belege finden, doch natürlich kann man auch Beispiele finden, die nicht so eindeutig sind. So könnte die computergestützte Personalauswahl der Diskriminierung von farbigen Bewerbern vorbeugen. Christoph Kucklick stellt allerdings zutreffend fest, dass Vorurteile auch in Algorithmen und Computerprogramme einfließen können.

Zwar reklamieren einige Algo-Propagandisten für ihre Analyse-Software geradezu göttliche Objektivität und behaupten, sie würden die Wirklichkeit abbilden, »wie sie ist«, aber das ist Augenwischerei. Jede Software drückt die Entscheidungen derjenigen aus, die sie programmiert haben. (Zitatende)

Dann kommt die Globalthese, dass die Experten wie Ärzte und Anwälte durch Scoring-Verfahren entmachtet werden. Im Detail wird hier erneut eine Variante von Polarisierungsthese vertreten: Durch das Scoring komme es zu einer Differenzierung, was auch dazu führen könnte, dass Geringverdiener sich eher als früher einen (schlechten) Anwalt leisten könnten.

Den Staat als Nutzer von Scores sieht Kucklick eher kritisch. Staatliche Leistungen würden in Zukunft möglicherweise an Prognosen hinsichtlich des Erfolgs geknüpft, die zu einer singularisierten Diskriminierung führen könnten. Diese werde heute schon in bestimmten Bereichen praktiziert. Zweifelhaft scheint ihm aber der nachhaltige Erfolg bei der vorbeugenden Verbrechensbekämpfung.

Womöglich führen die Vorhersagen ja dazu, dass sich die Verbrecher verstärkt um Unberechenbarkeit bemühen. (Zitatende)

Insgesamt sei die Demokratie gefährdet, wenn der Staat sehr detaillierte Berechnungen über seine Bürger habe, der Bürger aber nicht zurückrechnen kann.

Zusammenfassend kann festgehalten werden, dass Kucklick die Kontrolle als Mittel oder Ziel der granularen Gesellschaft kritisch sieht und deren Wirksamkeit sogar teilweise bezweifelt. Das wird auch in der weiteren Argumentation immer wieder durchscheinen.

Granularität überfordert die Politik: Die Bürger verlieren Rechte und Möglichkeiten

Hier wird die sehr persönliche Erfahrung des Autors Christoph Kucklick mit einem selbstfahrenden Auto im Berliner Verkehrsgewühl zum Gegenstand. Allerdings ist die Argumentation einigermaßen paradox.

Die subjektiven Erfahrungen passen nicht so recht zu der positiven Globalaussage. Das selbstfahrende Auto zeigt überraschendes Verhalten, es hält irgendwo an, obwohl keine Ursache hierfür erkennbar ist. Es umfährt manchmal Hindernisse nicht, obwohl genug Platz zur Verfügung steht. Es kann das Verhalten von anderen Verkehrsteilnehmern nicht antizipieren.

Also ist das selbstfahrende Auto (noch) nicht praxisreif, wäre die naheliegende Vermutung, doch Kucklick kommt zu einem anderen Ergebnis. Die selbstfahrenden Autos müssten nicht nur auf Regeleinhaltung, sondern auch auf flexible Regelanwendung trainiert werden. Eigentlich sollen sie sich wie Menschen verhalten. Menschen halten sich unter Umständen nicht an die Straßenverkehrsordnung, wenn dies in bestimmten Situationen nicht zielführend ist.

Diese durchaus sehr interessante und intelligente Beobachtung könnte man dazu nutzen, zu verlangen, dass selbstfahrende Autos so intelligent wie Menschen werden müssen, bevor man sie einsetzt oder dass man auf den gemeinsamen Einsatz von selbstfahrenden und menschgesteuerten Autos verzichtet. Doch Kucklick entwickelt eine andere Idee: Der Mensch und seine Institutionen müssen auf die Anforderungen der Systeme angepasst werden.

An dieser Stelle wird auch ein typisches Problem der starken Künstlichen Intelligenz (KI) relevant. Die Vertreter einer starken KI gehen davon aus, dass sie irgendwann Computer-Systeme entwickelt haben, die annähernd über menschliches und intelligentes Verhalten verfügen. Doch wer trägt dann die Verantwortung dafür, wenn etwas schiefgeht?

Für dieses Problem konnte bisher niemand eine nachvollziehbare Lösung liefern. Ein weiteres Problem ist eher moralphilosophischer Art. Wenn Computer wie selbstfahrende Autos in einer bestimmten Situation verschiedene Handlungsalternativen haben, die aber im jedem Fall zu schweren Schäden (Todesfälle) führen müssen, wie findet der Computer in dieser Zwickmühle dann die richtige Handlungsalternative?

Ein Unfall ist unvermeidlich – sollte das Auto dann ein Kind schonen und stattdessen einen Rentner überfahren? Und mit welcher Begründung? (Zitatende)

Hier hat Kucklick ein theoretisches Problem der modernen Moralphilosophie (Trolley-Problem) auf die autonomen Computer übertragen. Doch dieses Problem ist auch für Menschen in gleicher Weise relevant oder irrelevant: Weder der Computer noch der Mensch haben im Falle eines Unfalls ausreichend Zeit, moralische Berechnungen durchzuführen.

Amazon-Link Trolley Problem

Amazon-Link Trolley Problem

Oder haben Computer mehr Zeit als Menschen? Dass die Beseitigung der angesprochenen Unklarheiten in den Gesetzen bestenfalls in eine totalitäre Gesellschaft führen könnte (falls es überhaupt funktionieren kann), scheint mir klar zu sein. Denn die Unterscheidung von Regeln und Anwendungsfällen (Gesetze und Urteile) ist konstitutiv für jede Gesellschaft, die noch irgendeinen Hauch von Anspruch auf Vernunft und Gestaltung zu haben beansprucht. Die Vertreter der starken KI gehen im übrigen oft davon aus, dass diese Software nicht mehr auf herkömmliche und eindeutig beschreibbare Algorithmen reduziert werden kann, was aber immer schwerer zu widerlegen sein wird.

Zu diesen Überlegungen passt ganz gut das nächste Beispiel: Gibt man unterschiedlichen Programmieren den Auftrag, Software für automatisierte Strafmandate in Navigationssysteme einzubauen, dann kommen ziemlich unterschiedliche Ergebnisse heraus. Möglich könnten solche Straf-Algorithmen dann werden, wenn die Geschwindigkeit und sonstiges Fahrerverhalten (Sicherheitsabstand, Beachtung von Verkehrsschildern), jederzeit genau messbar ist. Es wird also eine Frage der Politik, wie genau die Bestrafung von Verkehrsdelikten in Software transformiert werden muss.

Allerdings ist es nicht überraschend, wenn man die Vorgaben für ein Programmierprojekt sehr allgemein hält, dass dann die Algorithmen und Ergebnisse sehr unterschiedlich ausfallen. Kucklick geht davon aus, dass die Politik überfordert ist, wenn sie entscheiden muss, welche der gefundenen Lösungen die richtige ist. Doch die Politiker im Berliner Reichstag waren bereits überfordert, als sie über Bankenrettungsprogramme entscheiden mussten, die bei ihrem Scheitern ganze Volkswirtschaften in den Keller gezogen hätten, was aber die Abgeordneten nicht davon abgehalten hat, diese Entscheidungen zu treffen.

Noch ein „Tsunami des Unlösbaren“ tut sich auf, wenn man sich mit den Drohnen beschäftigt, die Tag für Tag im Auftrag von Demokratie und Terrorismusbekämpfung als Tötungswaffen aktiviert werden. Christoph Kucklick skizziert eine Software, die bei der Durchführung entsprechender Aktionen die Einhaltung der Genfer Konvention überprüft. Er glaubt aber nicht daran, dass dieses Konzept bei den vielen Anwendungsfällen funktionieren kann, die zukünftige intelligente Systeme bestimmen werden.

Aus all diesem, zum Teil durchaus kreativen und interessanten Überlegungen und Beobachtungen, könnte man allerdings auch die Konsequenz ziehen, dass Computersysteme stets so zu gestalten sind, dass letzte Entscheidungen immer von Menschen getroffen werden. Zu Zeiten des Kalten Krieges waren beide Seiten so intelligent, dass sie Automatismen beim Einsatz von Atomwaffen nicht zuließen.

Zerbröckelnde Institutionen in der granularen Gesellschaft: Bruttosozialprodukt, herkömmliches Schulsystem

Am Bruttosozialprodukt als Messgröße für den Wohlstand einer Gesellschaft gibt es schon lange Kritik. Es erfasst nur unzureichend die Leistungen der Tauschökonomie, der privaten Haushaltsführung (Kindererziehung, Hausarbeit), des Naturverbrauchs: Entsprechende Leistungen werden nicht in Geld-gegen-Güter-Austauschbeziehungen repräsentiert. Das hat allerdings die Ökonomen nicht davon abgehalten, am Bruttosozialprodukt als zentrale Größe für die Leistungen einer Volkswirtschaft festzuhalten.

Durch Internet und Digitalisierung wird die Relevanz dieser Messgröße weiteren Schaden nehmen. Das ist nachvollziehbar an Tauschbörsen und anderen Leistungen der digitalen Ökonomie, die umsonst oder sehr preiswert angeboten werden. Kucklick geht langfristig von der Unbrauchbarkeit des Indikators aus, gesteht aber zu, dass gegenwärtig keine Alternative erkennbar ist. Damit wird allerdings die Ausgangsthese (Institution Sozialprodukt zerbröckelt) stark relativiert.

Eine ähnliche Relativierung könnte für die These des Zerbröckelns des Schulsystems angenommen werden. Hier verweist Kucklick auf viele Beispiele, die aus dem Arsenal der E-Learning-Propagandisten entstammen könnten, wie sie bereits in den 1960er-Jahren vertreten wurden. Angeblich könnte man Lernprozesse durch Computersysteme so stark individualisieren, dass das herkömmliche Schulsystem mit Jahrgangsstufen und großen Lerngruppen überholt wäre. Diese Ideen konnten bisher keinen Erfolg haben. Möglicherweise liegt das daran, dass erfolgreiche Lernprozesse oft nur über Gruppensituationen angebahnt werden können und funktionierende Gruppen eine gewisse Stabilität benötigen.

Beschränkt man sich bei der Bewertung von Lernerfolgen auf berechenbare Multiple-Choice-Tests am Ende der Lerneinheit, dann schneiden E-Learning-Systeme möglicherweise besser ab, wobei aber zu bedenken ist, dass solche Test auf abfragbares Wissen ausgerichtet sein müssen, also globalere Lernziele wie Verständnis, Kritikfähigkeit und Selbstreflexion nur unzureichend erfassen können.

Fazit zur Kontroll-Revolution

Die dritte Revolution hin zur granularen Gesellschaft wird überwiegend kritisch analysiert. Es wird bezweifelt, ob das alles so funktionieren kann und es wird zugleich deutlich gemacht, dass Kontrolle als umfassendes Konzept problematisch ist. Allerdings kann sich Christoph Kucklick nicht dazu durchringen, insgesamt selbst ein kritisches Fazit zu ziehen. Möglicherweise, weil er damit seinen grundlegenden Ansatz hinterfragen müsste, möglicherweise aber auch, weil er nicht daran glaubt, dass der Prozess hin zur granularen Gesellschaft noch aufgehalten werden kann. Hilfreich ist dieser Abschnitt zur Kontroll-Revolution der granularen Gesellschaft trotzdem. Denn er zeigt die denkbare Kontrolle sehr konkret auf. Er lässt durchblicken, wo die Schwächen des Konzepts liegen und wo das Konzept mit grundlegenden demokratischen Konzepten in Konflikt geraten wird.

Dieser Artikel ist Bestandteil einer Artikelserie zur „granularen Gesellschaft“

  1. Granularität oder das Ende der Gleichheit
  2. Differenz-Revolution: Vom Individuum zum Singularium
  3. Intelligenz-Revolution: Nutzen und Kosten der künstlichen Intelligenz
  4. Kontroll-Revolution: Wir werden vorhersagbar, weil wir uns vorhersagbar machen
  5. Fazit: Der neue Mensch der granularen Gesellschaft

Verwandte Artikel:

Wenn Ihnen dieser Tipp oder der Hinweis von meiner Website train-und-coach.de gefallen hat, dann würde ich mich sehr über eine Empfehlung freuen. Sie können mit folgendem Linktext meine Website als Ganzes unterstützen: <a href="http://www.train-und-coach.de">Online-Journalist Rainer Meyer</a>

Oder Sie verlinken diesen Beitrag mit <a href="http://www.train-und-coach.de/kontroll-revolution-wir-werden-vorhersagbar-weil-wir-uns-vorhersagbar-machen.html">Kontroll-Revolution: Wir werden vorhersagbar, weil wir uns vorhersagbar machen?</a>

Nutzen Sie Kommentarmöglichkeiten und schreiben Sie mir eine E-Mail an info@train-und-coach.de.