BeschreibungDas Brennglas falsch justiert. So geht es vielen, die über digitale Technik schreiben. Photo „not quite clear on the concept“ by Woodleywonderworks under CC BY 2.0 on flickr.

Ich bin leicht zu begeistern. Das ist eine gute Eigenschaft, wenn es darum geht, Energie für etwas zu mobilisieren. Das ist eine schlechte Eigenschaft, wenn es darum geht, Energie nicht für das Falsche zu mobilisieren.

Während Werner Rammert in den 1990er Jahren noch attestieren durfte, dass es eine gewisse Technikvergessenheit in der deutschsprachigen Soziologie gäbe, ist insbesondere digitale Technik mittlerweile Gegenstand unzähliger Journals, Sonderausgaben, Konferenzen, Workshops, Summer Schools, Sammelbände, Aufsätze und natürlich Monographien aus dem sozial-, geistes- und kulturwissenschaftlichen Spektrum. Es wird offenbar aufgeholt, was man lange vernachlässigt hatte: Implikationen und Konsequenzen digitalen Wandels analytisch zu begleiten.

Zu diesem Upswing gehört auch der Reader „Society of the Query Search“, der von René König und Miriam Rasch zusammengestellt wurde. Umfangreich, frei zugänglich und auf ein Thema mit paradigmatischem Potential zugespitzt: Die Google-Suche. Das begeistert mich. Und dann fange ich an Artikel zu lesen, rumzutwittern, Texte in Literaturverzeichnisse einzupflegen und … mich zu ärgern.

Ohne auf konkrete Texte aus diesem Band zu verweisen (Hey, ich habe auch per Google findbare publizistische Leichen im Keller), will ich meine punktuelle, auf Twitter geäußerte Enttäuschung beim Lesen zum Anlass für diesen Post. Die Fallhöhe des Ärgerns entsteht im Übrigen erst dadurch, dass ich Herausgeber, Aufmachung, Publikationsweise und viele der Themen und Zugänge im Heft sehr gewinnbringend und interessant finde. Nevertheless lauern auch in diesem Band vier große Probleme kulturwissenschaftlicher Texte zu (digitaler) Technik.

 


Ich erwarte von einer Analyse – von welcher Warte aus auch immer -, dass sie mehr konstatiert als die „Neuheit“ eines Phänomens. Es ist die Aufgabe solcher Texte, Kontexte aufzuzeigen. Und das geschieht im Hinblick auf digitale Technik und ihre Folgen viel zu häufig einseitig in der Figur der Diskontinuität: Das gab es noch nie! Das ist eine neue Qualität der Technisierung! Ich bin überzeugt, dass das für die Maßstäbe vieler Phänomene (z.B. Prozentsatz kostenlos digital zugänglicher Werke) gilt, nicht zwangsläufig jedoch für die zu Grunde liegenden Mechanismen. Allein die Berechnung von etwas durch einen Computer scheint für einige Autoren per se zu bedeuten, dass damit eine neue Qualität der Quantifizierung und Standardisierung von Alltagswelt einhergeht. Das ignoriert ganz einfach wesentliche Begleiterscheinungen der Industrialisierung (z.B. das Zeitregime der Arbeit) und auch bereits vierzig Jahre zurück liegende „Revolutionen“ (z.B. die Einführung computerisierter Einwohnermeldedatenbanken in den 1970er Jahren in der BRD und damit einhergehende Begründung der „Datenschutzbewegung“).
 


Das Wort „Algorithmus“ beinhaltet offenbar magische Kräfte. Es vermag viele Autoren nämlich davon freizustellen, zu erklären was damit genau gemeint ist. Stattdessen wird der Begriff als black box benutzt, der dann für eine unterbestimmt bleibende Art von „das Ding tut etwas“ verwendet wird. Dieses Muster lässt sich sogar in der soziologischen Diskussion um Handlungsträgerschaft von Technik finden. Nicht selten werden unter großem rhetorischen Aufwand die Zugwechsel in diversen Mensch-Maschine-Interaktionen verunklart und mystifiziert und am Ende stehen die Zuschreibungen der menschlichen Akteure (ob Programmierer oder Nutzer) auf einmal auch unter dem Strich, nämlich in der Analyse. Es ist nichts falsch daran, die Zuschreibungen der Akteure zu rekonstruieren! Aber das ist dann keine Beschreibung dessen, was die Technik ein Programm oder ein Roboter eigentlich macht.
 


Leider sind viele Analysen technischer und erst recht digitaler Funktionsweisen schlecht informiert. In vielen Texten finden sich eher die Metaphern und Beispiele, die von Programmieren und Firmen verwendet werden, um die Funktionsweise zu beschreiben, als eigene, analytische Begriffe davon. Oder die verwandten Erklärungen sind schlicht out of date. Wenn ein Text aus dem Jahr 2014 zum Beispiel die Google-Suche anhand der Zuweisung von Gewicht an Webseiten durch den PageRank-Algorithmus beschreibt, ist das zu wenig. Das ist gewissermaßen der common sense in der Kommunikation darüber, wie PageRank funktioniert. Das ist eine sehr allgemeine Beschreibung eines übergreifenden mathematischen Prinzips, das zum Suchen angewendet wird. Das ist keine Beschreibung des Algorithmus. So etwas sieht aus einer historischen Perspektive zum Beispiel so aus. Weitere Reizworte in diesem Zusammenhang: „Cloud“ und „EdgeRank“ bzw. „social graph“.
 


Es gibt plausible Erklärungen für die bisher beschriebenen Probleme – z.B. zu wenig reflektierte Übernahmen von Akteuren in den entsprechenden Feldern oder schlicht der hohe Publikationsdruck und die damit einhergehende Vernachlässigung von Genauigkeit. Für das Problem „Sackgasse“ fällt es mir schwer, eine gute Entschuldigung zu finden. Ich meine das Verharren auf der Ebene der Beschreibung, ohne Bezug zu jeglicher Theorie geschweige denn Bildung solcher. Wir haben Googles Algorithmus rekonstruiert, und nun? Viel zu häufig folgen darauf richtige und gut gemeinte Hinweise: Es gibt also gar keine Objektivität in der Websuche! Ah ja. Danke für ihren Beitrag. Dieses Problem verweist auch auf eine größere, wissenschaftstheoretische Dimension, die @karafillidis u.a. hier beschrieben hat [hat-tip @r33ntry]. Ich meine aber viel mehr Analysen, die einfach am Punkt „das ist dialektisch“ stehen bleiben. In welchem Sinne? Mit welchen Konsequenzen?