Zwei Generationen der Technikfolgenabschätzung: Von der Voraussage zum sozialen Konstruktivismus
In den vergangenen drei Jahrzehnten hat sich die Technikfolgenabschätzung (TA) sowohl im Hinblick auf ihre Sichtweise der Wechselwirkung zwischen Technik und Gesellschaft als auch auf ihre politische und gesellschaftliche Verantwortung weiter entwickelt. Meist wird zwischen zwei Phasen der Technikfolgenabschätzung unterschieden.
Die erste Generation der TA erarbeitete verschiedene technische Optionen aufgrund einer umfassenden Bewertung von gesellschaftlichen Auswirkungen und Szenarios. Die Voraussage von Veränderungen und die Demokratisierung von politischen Entscheidungsprozessen bildeten den Mittelpunkt der TA-Arbeit. Diese erste Generation war durch eine Art Technik-Determinismus geprägt, der von einer Sicht der Technik als autonom ausging. Nach dieser Sicht besitzt die Technik eine eigene innere Logik, die sich auf die Zukunft unserer Gesellschaft auswirkt, ohne dass es dabei Verhandlungsspielraum gibt. Demnach bestand die Rolle der TA in der Ausarbeitung von Voraussagen, welche der Politik und der Öffentlichkeit als Grundlage für nachhaltige und gesellschaftlich akzeptable Technik-Entscheidungen dienen sollten. Diese institutionelle Organisation der TA, in der die verschiedenen Akteure klar getrennte Rollen hatten (die Politik entscheidet, die Techniker entwerfen, die Öffentlichkeit akzeptiert bzw. lehnt ab), ließ sich aufgrund von empirischen Befunden allerdings schwer aufrecht erhalten.
Wie W. Bijker gezeigt hat, ist eine solche Trennung zwischen Entscheidungsträgern, Gestaltern und Nutzern eine Illusion, wenn man sich die Soziodynamik der Technikentwicklung vor Augen hält.
Seit den 1980er-Jahren haben soziologische und historische Studien eine konstruktivistische Analyse der Technik entwickelt, welche sich von der herkömmlichen Sicht der Technik als weitgehend „Technik-deterministisch“ unterschied. Die Vorstellung, wonach die Technik gesellschaftlich geformt wird, anstatt eine autonome Entwicklungskraft oder ein in erster Linie kognitives Element zu sein, ist nicht ganz neu, doch seine gegenwärtige Wirkungskraft und genauere Formulierung stellen eine jüngere Entwicklung dar. Die Modelle der gesellschaftlichen Formung betonen, dass die Technik nicht einer eigenen Dynamik oder einem zielgerichteten Problemlösungs-Pfad folgt, sondern stattdessen von sozialen Faktoren geformt wird. Zu zeigen, dass Artefakte flexibel interpretiert werden können, macht deutlich, dass die Stabilisierung eines Artefakts ein gesellschaftlicher Prozess ist, und als solcher Entscheidungen, Interessen, Werturteilen – mit einem Wort, der Politik – unterliegt.1
Nach Rip besteht der Grundgedanke der konstruktiven Technikfolgenabschätzung (KTA) darin,
den Schwerpunkt der TA von der Beurteilung ausformulierter Technologien hin zu einer Voraussage der Technikfolgen in einem frühen Entwicklungsstadium zu bewegen. Akteure aus dem Technikumfeld wurden damit zu einer bedeutenden Zielgruppe, jüngere Technikstudien gelangen jedoch zu dem Schluss, dass Technikfolgen in der Umsetzungs- und Verbreitungsphase mitproduziert werden, sodass die technischen Akteure nicht die einzigen Beteiligten sind. In der Welt der Technologie ist die bevorzugte Strategie der konstruktiven Technikfolgenabschätzung (KTA), die berücksichtigten Aspekte und Akteure zu erweitern. Ganz allgemein geht es um einen gesellschaftlichen Lernprozess über den Umgang und manchmal das Management der Technik in der Gesellschaft.2
Die KTA beruht auf der Mikro-Analyse von Technikfällen und einer Sicht der Technik, welche einerseits gesellschaftlich geformt wird, andererseits selbst die Gesellschaft formt. Wenn der Determinismus der Hauptkritikpunkt an der ersten Phase der TA war, dann ist der Relativismus der Mikro-Fälle eine Gefahr für die zweite Generation, da die Beurteilung von den Werten und Interessen der verschiedenen beteiligten Akteure abhängt. Dieser Fokus auf die Akteure, ihre Werte und Interessen ist in Verbindung mit einer deskriptiven Methodologie für die enttäuschenden Ergebnisse der konstruktiven Technikfolgenabschätzung in Hinblick auf ihren politischen und ethischen Beitrag in der Gesellschaft verantwortlich. Es gibt, in anderen Worten, eine Art Liberalismus, in den diese Methode eingebettet ist, und der davon ausgeht, dass etwas „Gutes“ oder „Faires“ aus den gesellschaftlichen Netzwerken entspringt, die am technischen Konstrukt beteiligt sind. Bei diesem Zugang sehen die Vertreter der Wissenschafts- und Technikstudien ihre Verantwortung nur in der sozialen Reflexivität, die durch die Beschreibung der Technik-Dynamik und ihrer sozialen Konstruktion entsteht.
Die dritte Generation: eine neue, militante TA
Wir fordern als Sozialwissenschaftler eine neue Generation der Technikfolgenabschätzung, die in ihrem Zugang zur Technik weniger neutral und mehr politisch und ethisch ausgerichtet ist. Nach L. Introna betrachten wir jedes technische Artefakt als Mikro-Politik, als Skript, das soziale und politische Ordnungen, Normen und Werte enthält.3 Die Rolle dieser neuen TA besteht darin, dieses Skript transparent zu machen, indem die verschiedenen Abschlüsse erklärt werden, die ihm Gestalt geben. Diese Übung in Transparenz benötigt bei der Ergründung und Beurteilung des Skripts Unterstützung. In einem bestimmten Ausmaß müssen wir dem normativen Projekt, welches durch die betreffende Technik unterstützt wird, andere Normen und Werte entgegensetzen. Wenn wir diese Skripte nicht mit solchen Erklärungsprinzipien in der Hand lesen, leisten wir lediglich eine Beschreibung der Technologien und der entsprechenden Entscheidungs- und Aneignungsprozesse seitens der Akteure.
Aber reicht das aus, um sicherzustellen, dass unsere Gesellschaft human bleibt? Dieser konstruktive Zugang geht davon aus, dass wir alle Akteure innerhalb des technischen Konstrukts sind, dass also technische Artefakte nicht bloß von etablierten und gut organisierten Interessen beherrscht werden. Damit setzt ein ungleiches Machtspiel ein. Wie kann man aus der Mikro-Welt, in der die konstruktive TA anscheinend verbleibt, heraustreten und gesellschaftliche Themen ansprechen und die Auseinandersetzung einer breiteren Öffentlichkeit zugänglich machen? Aus all diesen Gründen fordern wir eine militantere Position von Wissenschaftlern der Science and Technology Studies (STS) in der Beurteilung von Technologien. Eine solche militante Position beginnt mit der Erkenntnis, dass wir auch Werte zu verteidigen haben, was im Kontext einer nach wie vor neutralisierenden und angeblich objektiven Sicht der Wissenschaft gar nicht gern gesehen wird.
Die erste Generation der TA befand sich auf der Makro-Ebene und war von Technik-Determinismus und institutionellen Gegebenheiten geprägt. Die zweite Generation bewegte sich auf der Mikro-Ebene und war durch einen auf das konstruktivistische Rahmenmodell zurückzuführenden Relativismus geprägt. Was beiden Generationen fehlt, ist ein „moralischer oder ethischer Rahmen“, der auf Prinzipien beruht, welche die Auseinandersetzung mit dem betreffenden Artefakt leiten.
Werfen wir einen kurzen Blick auf den Status und die Bedeutung dieser ethischen Prinzipien.
Nach J. Ladrière beruht Ethik auf einer Fähigkeit oder einem Vermögen.4 Sie ist kein abstraktes normatives Wissen, das man definieren und an andere weitergeben könnte. Sie ist eine Praxis, die Fähigkeit, eine Situation ethisch sehen zu können.
Diese Position ist der J. Deweys sehr ähnlich.5 Dieser betont, dass die ständige Erforschung von universalen oder festen Normen in der Ethik mit der Suche nach Gewissheit in der Epistemologie vergleichbar ist, die den Ursprung zahlreicher schlecht definierter und gelöster Probleme darstellt. In diesem Sinne, so Ladrière, ist die Rolle der so genannten STS-Experten nicht, an Stelle der betroffenen Akteure zu entscheiden, sondern die Auseinandersetzung überhaupt möglich zu machen und die ethischen Fragen zu klären, die mit den jeweils auftretenden Mikropolitiken zusammenhängen.
J. Ladrière und J. Dewey gehen davon aus, dass wir ein ethisches Problem niemals aus der Sicht einer Tabula rasa erfassen können, also ohne auf ethische Inhalte oder Grundsätze zurück zu greifen, die aus der Tradition übermittelt wurden. Doch für beide sind diese Prinzipien keine festen Regeln, die uns eine Art Kochrezept liefern – eine Anleitung für den richtigen, ethischen Weg für unsere Entscheidungen und Handlungen. Für J. Dewey sind diese Grundsätze vielmehr untersuchungsleitende und analytische Werkzeuge, welche eine Situation erhellen und es ermöglichen, die verschiedenen Standpunkte der betroffenen Akteure zu beurteilen. J. Dewey räumt ein, dass allgemeine Ideen wie Gerechtigkeit, Würde und Fairness wertvolle Werkzeuge für die Infragestellung und Vorhersage unbekannter ethischer Probleme sind. Sie haben keine intrinsische normative Kraft, sondern bilden eine Art moralischen Hintergrund, der bei der Auseinandersetzung mit einer unbekannten moralischen Situation hilfreich sein kann.
Um welche Untersuchungsprinzipien geht es hier? In unserer TA-Praxis gibt es zwei Untersuchungsprinzipien, die unsere Analyse von technischen Artefakten leiten: Das erste Prinzip bezieht sich auf die Autonomie des Subjekts, das zweite auf die Demokratie, wobei diese zwei Begriffe durch ihren gemeinsamen Ursprung eng miteinander verwandt sind, und jeder eine notwendige (aber nicht hinreichende) Voraussetzung des anderen darstellt.
Zunächst kurz zum Begriff der Autonomie. Dieser Begriff mag sehr vage bleiben, wenn wir ihn nicht in Form eines handfesten, pragmatischen Zugangs definieren. Letzteres wird von A. Sen und M. Nussbaum6 und ihrem Begriff des „Vermögens“ (capability) geleistet. Die Autoren definieren den Begriff des Vermögens, indem sie auf eine Frage von Aristoteles zurückgreifen: „Welche Tätigkeiten, deren Ausführung für Menschen charakteristisch ist, sind so bedeutend, dass sie ein Leben, das wahrhaft menschlich ist, definieren können?“ Die Antwort besteht in der Bestimmung von zehn grundlegenden Vermögen, die das Leben menschlich machen. Diese Vermögen erleichtern das Verständnis der beiden Seiten von „Autonomie“ – einerseits als Freiheit vor übermäßigen Einschränkungen (durch den Staat oder durch andere) bei der Konstruktion der eigenen Identität, und andererseits als Kontrolle über die Aspekte (oder manche der Aspekte) der eigenen Identität, die man in die Welt hinausträgt.
Eng mit der Autonomie ist das zweite Untersuchungsprinzip verwandt: Demokratie. Auch dieser Begriff ist sehr breit und damit von geringem praktischen Wert für die Durchführung der Untersuchung. Wir definieren daher nach A. Sen Demokratie auf der Grundlage dreier wesentlicher Formen, in der diese das Leben der Bürger bereichert.
Erstens ist die politische Freiheit ein Teil der menschlichen Freiheit im Allgemeinen, und die Ausübung von Bürgerrechten und politischen Rechten ist für jede Person ein wesentlicher Bestandteil eines guten Lebens als soziales Wesen. Politische und gesellschaftliche Teilhabe sind von intrinsischem Wert für das Leben und die Wohlfahrt des Menschen. Das Vorenthalten der Teilhabe am politischen Leben einer Gemeinschaft ist ein bedeutender Mangel. Zweitens [...] hat die Demokratie einen bedeutenden instrumentellen Wert, indem sie Menschen, die ihre Bedürfnisse (auch wirtschaftliche Bedürfnisse) ausdrücken und bekräftigen, mehr Gehör und politische Aufmerksamkeit verschaffen. Drittens [...] verschafft die Praxis der Demokratie den Bürgern eine Möglichkeit, voneinander zu lernen, und hilft der Gesellschaft, ihre Werte und Prioritäten zu definieren [...]. In diesem Sinn ist die Demokratie von einer konstruktiven Bedeutung, die über den intrinsischen Wert für das Leben der Bürger und über ihre instrumentelle Bedeutung für politische Entscheidungen hinausgeht.7
Nach dieser Auffassung ist die Demokratie gleichermaßen eine Voraussetzung für die Autonomie von Menschen als auch eine Folge dieser Autonomie.
Deep Search-Suchmaschinen zwischen Demokratie und Autonomie
Diese zwei Untersuchungsprinzipien ermöglichen die wichtigsten Fragestellungen in Zusammenhang mit Deep Search-Suchmaschinen zu beleuchten.
Deep Search-Suchmaschinen und Demokratie
Suchmaschinen aus mikropolitischer Sicht zu analysieren bedeutet, dass dieses Artefakt nicht allein als Suchwerkzeug betrachtet wird, sondern als etwas, was in soziale und politische Ordnungen eingebettet ist. Dies wird schnell klar, wenn man im Web Suchen mit verschiedenen Suchmaschinen durchführt. Das Ergebnis ist in jedem einzelnen Fall ein anderes, auch wenn es einige Webseiten gibt, die immer wieder auf den ersten Seiten erscheinen, während andere verborgen bleiben, weil sie nicht im Index stehen oder so niedrig gerankt sind, dass sie kein Nutzer ansieht. Dies ist nicht neutral, und auch nicht Technik, sondern vor allem Politik. Diese politische Sicht der Suchmaschine wird von L. Introna und H. Nissenbaum wie folgt auf den Punkt gebracht:
Machen wir uns nichts vor: Es geht um politische Fragen. Was die Informations- Suchenden im Web finden können, entscheidet, woraus das Web für sie besteht. Wir befürchten, dass technische Beschränkungen und kommerzielle Interessen in einer Art zusammenwirken, die jene, die sich außerhalb des Mainstreams befinden, ebenso entrechtet, wie jene, die nicht über ausreichende Ressourcen oder Kenntnisse zur Verbesserung ihrer Web-Präsenz verfügen.8
Die soziale Formung dieser Suchmaschinen und damit ihre nicht-neutralen Erfordernisse und Eigenschaften wurden von J. Cho und S. Roy sehr gut dargestellt. Ihnen zufolge benutzen die meisten Suchmaschinen
für die Messung der „Qualität“ einer Seite einen Maßstab der „Link- Popularität“, die als PageRank bezeichnet wird. Im Großen und Ganzen betrachtet die PageRank-Messung eine Seite dann als „wichtig“ oder „qualitätsvoll“, wenn sie mit zahlreichen anderen Seiten im Web verlinkt ist. Google setzt zum Beispiel eine Seite dann an die Spitze der Suchergebnisse (vor allen anderen Seiten, welche den Suchbegriff des Nutzers oder der Nutzerin enthalten), wenn sie zu den meisten anderen Seiten im Web verlinkt ist. Die „derzeit populären“ Seiten kommen also immer wieder an die Spitze der Ergebnisseiten der wichtigsten Suchmaschinen. Das Problem dieses Ranking nach Popularität ist, dass es eine inhärente Benachteiligung weniger bekannter Seiten darstellt. Wenn die Suchmaschinen ständig populäre Seiten an der Spitze der Suchergebnisse ausweisen, werden mehr Web-Nutzer diese Seiten „entdecken“, wodurch ihre Popularität noch weiter zunimmt. Im Gegensatz dazu wird eine zum betreffenden Zeitpunkt nicht populäre Seite von den Suchmaschinen nicht ausgewiesen (oder weit hinten gereiht), womit das Ranking dieser Seite noch weiter sinkt. Dieses Phänomen der „Reichen, die reicher werden“, kann insbesondere für neue Qualitäts-Seiten problematisch werden. Selbst dann, wenn eine Seite von hoher Qualität ist, kann sie von Web- Nutzern völlig übersehen werden, einfach weil ihre laufende Popularität sehr gering ist. Diese Situation ist offensichtlich sowohl für die Autoren der Webseite unbefriedigend, als auch für die Web-Nutzer im Allgemeinen. Neue, wertvolle Seiten werden übergangen, nur weil sie keine Chance hatten, von den Menschen überhaupt wahrgenommen zu werden.9
Wenn wir diese Suchmaschinen als Filter oder Skripte begreifen, die unseren Zugang zur Information und zum Wissen vermitteln – und damit unsere Sicht auf die Welt –, dann können wir sie nach A. Giddens als Strukturen lesen, die unsere wechselseitigen Beziehungen konditionieren.10 Als Struktur sind die Suchmaschinen in drei Dimensionen relevant: für die Bedeutung, da sie eine bestimmte Ordnung der Welt implizieren, für die Macht, da sie eine bestimmte Machtverteilung unter den Informations-Akteuren nach sich ziehen, und für die Normen, da sie Wohlverhalten bei der Nutzung und eine entsprechende Einstellung mit einem guten Index und einem guten Ranking belohnen.
Wie wirken sich diese neuen Artefakte auf die Demokratie aus? In der Auseinandersetzung mit Suchmaschinen werden drei demokratische Themenbereiche angesprochen: Gleichberechtigung und Respekt vor Minderheiten, die Vielfalt in dieser neuen Öffentlichkeit, und schließlich die Frage der Transparenz und der Regulierung ihrer Organisation.
Gleichberechtigung bezüglich der Möglichkeit, im Web zu existieren und gefunden zu werden, ist das erste und sichtbarste Thema, das durch den Maßstab der „Link-Popularität“, der in vielen Suchmaschinen angewendet wird, angesprochen wird. Er untergräbt die Vielfalt im Web als öffentlichen Raum ebenso, wie die Chancen von Minderheitenstimmen, gehört zu werden.
Die meisten Suchmaschinenanbieter behaupten, dass die von ihnen gelieferten Ergebnisse fair und repräsentativ sind. Google bezieht sich auf eine Art direkte, partizipative Demokratie, welche sicherstelle, dass den Suchenden immer die besten Informationsquellen angeboten würden.
Google funktioniert, weil es sich bei der Frage, welche Webseiten wertvollen Content anbieten, auf Millionen von Menschen verlässt, die Webseiten veröffentlichen. Anstatt sich auf eine Redaktion zu verlassen, oder nur auf die Frequenz, mit der bestimmte Begriffe auftauchen, reiht Google jede Seite mit einer Bahn brechenden Technologie namens Page- Rank™. PageRank bewertet alle Seiten, die mit einer Webseite verlinkt sind, und ordnet ihnen einen Wert zu, der zum Teil auf den verlinkten Seiten beruht. Durch die Analyse der gesamten Web-Struktur ist Google in der Lage, festzustellen, welche Seiten von jenen, die am meisten an der von ihnen angebotenen Information interessiert sind, als beste Informationsquellen „gewählt“ wurden. Diese Technik verbessert sich durch das Wachstum des Web, da ja jede neue Seite einen neuen Informationsort darstellt und eine neue Stimme, die gezählt wird.11
L. Introna and H. Nissenbaum kommen zu dem Schluss, dass „die Suchenden wahrscheinlich große, populäre Seiten finden werden, deren Designer ausreichende technische Kenntnisse mitbringen, um im Ranking-Spiel erfolgreich zu sein.“12
Doch die „guten Absichten“ der Suchmaschinenbetreiber im Hinblick auf die Fairness der Messung können sowohl durch ihre kommerziellen Strategien gestört werden, wenn die Top-Positionen verkauft werden, als auch durch die technischen Strategien jener, die ihre Kompetenzen dafür einsetzen, künstlich ein Top-Ranking herbei zu führen.
Damit stellt sich eine weitere wichtige Frage, nämlich jene der „Tyrannei der Mehrheit“ und der Normalisierung oder Einzigartigkeit der gesellschaftlichen Vision, die diese zur Folge haben könnte. Die soziale Netzwerktheorie von M. Granovetter13 unterstreicht die Bedeutung der schwachen Verbindungen für individuellen und gesellschaftlichen Wohlstand. Diese Frage wird durch die starke Konzentration des Sektors und die Dominanz weniger großer Akteure noch akuter.
Transparenz ist die letzte, aber sicherlich die bedeutendste Frage, um die es hier geht. Die meisten Nutzer wissen nichts davon, wie das Ranking gemacht wird, und betrachten dieses oft als eine wahre Antwort auf ihre Suche und als objektive Darstellung der Welt. Diese Situation ist auf die starken geistigen Eigentumsrechte zurückzuführen, die die Such-Algorithmen schützen, aber auch auf die unzureichende öffentliche Information über die Metrik und Methoden, die von den Betreibern auf ihren Webseiten veröffentlicht wird. Diese Information ist dabei von großer Bedeutung im Hinblick auf das Vertrauen der Menschen in die erhaltene Information, aber auch im Hinblick auf die Rolle, die das Web in einer vernünftigen demokratischen Auseinandersetzung spielen könnte.
Diese kurze Beurteilung von Suchmaschinen führt zur Forderung nach einer besseren Regulierung, die eine faire, demokratische Partizipation gewährleisten kann. Nach den Regulierungstheorien von O.E. Williamson14 kann eine solche Regulierung in drei verschiedenen Arten vorgenommen werden: als reine Marktregulierung, als hierarchische staatliche Regulierung, und als Netzwerkregulierung, also als Heterarchie.
Untersuchen wir zuerst die Regulierung durch die Dynamik des freien Markts. Dies ist diejenige, die zurzeit gebräuchlich ist, und auch jene, die den größten Betreibern zufolge am besten dazu geeignet ist, Vielfalt der Inhalte und Zufriedenheit der Nutzer zu gewährleisten. Wie L. Introna und H. Nissenbaum aber klar zeigen, sind Web-Suchmaschinen alles andere als ein wirklicher freier Markt, wo Kunden ihre Wahl unter mehreren klaren und lesbaren Alternativen aufgrund von transparenter Information treffen. Die meisten von uns sind Laien und verfügen über keinerlei transparente Informationen über die Funktionsweise der Suchmaschinen und schon gar nicht über die technischen Kenntnisse, die erforderlich sind, um Ranking-Methoden miteinander zu vergleichen. Wie ich bereits bemerkt habe, werden außerdem die Regeln des freien Marktes durch opportunistische Haltungen seitens der Suchmaschinen-Betreiber und tonangebender Webseitenbetreiber unterlaufen. Um diese Auswirkungen zu regulieren, plädieren die Betreiber meist für eine solide Selbstregulierung der Branche in Form eines Verhaltenskodex. Doch diese Form der Regulierung kann stark von mächtigen unternehmerischen und kommerziellen Interessen abhängen und rührt an grundsätzlichen Fragen im Zusammenhang mit der so genannten Privatisierung eines vorgeblich öffentlichen Raums.
Mehr Vertrauen haben einige Nutzer in die sozialen Netzwerke, denen sie angehören und an die sie glauben. Diese Netzwerke spielen die Rolle von Vermittlern und Wächtern zwischen den Nutzern und dem globalen Web. Aber auch hier muss die Frage gestellt werden, wie die Streuungseffekte dieser Strategie das Web als öffentlichen Raum betreffen und eine demokratische Auseinandersetzung zwischen diesen Vermittlungsinstanzen und ihren Klienten schwierig machen. Auch die Frage nach der Gefahr, die vom Rückzug in die eigene Identität für den sozialen Zusammenhalt und die Entwicklung der Gesellschaft ausgeht, stellt sich in diesem Zusammenhang.
Der letzte Regulierungsweg ist der hierarchische durch den demokratischen Staat. Was könnte ein Nationalstaat vor dem Hintergrund einer globalen und internationalen Umgebung tun, die von transnationalen Akteuren dominiert wird? Und sollten öffentliche Akteure in einen privaten Wirtschaftsbereich vordringen? Um diese Fragen zu beantworten, ist es wichtig, die Genfer Erklärung des World Summit on the Information Society15 in Betracht zu ziehen, in der das Web als globales öffentliches Gut bestimmt wird. Wie Y. Poullet erklärt, bedeutet „öffentlich“, „dass etwas allen zugänglich ist [...]. Das gilt auch für den Nutzen aus dem Reichtum des Internet. Und schließlich bedeutet es auch die Herstellung der Möglichkeit, aktiv an der Informationsgesellschaft teilzunehmen.“16
Zusammenfassend wäre es also notwendig, ein Internet, das ein globales öffentliches Gut sein soll, „zu lenken und zu regulieren“. Selbst wenn eine solche öffentliche Regulierung schwierig ist, sollte der Staat doch zumindest eine aktive Rolle dabei spielen, die Muster und Methoden, nach denen Suchmaschinenbetreiber ihre Skripte anlegen, transparent zu machen und damit die Skripte so lesbar wie möglich zu machen. Dies ließe sich in Form verschiedener, machbarer Politiken erreichen: durch eine Zertifizierung, die Suchmaschinen, welche transparente Informationen über ihre Metrik und Ranking-Verfahren bereitstellen, ein öffentliches Prädikat verleiht. Es ließe sich auch in Form einer öffentlichen Suchmaschine verwirklichen, die den Nutzern beim Vergleichen der Ergebnisse bestimmter Suchmaschinen hilft, und sie darüber aufklärt, wie sie ihre Chancen für ein gutes Ranking verbessern können. Diese Politik der Transparenz gibt es bereits in anderen Bereichen, die als öffentliches Gut gelten, aber bereits hochgradig liberalisiert sind, etwa der Elektrizitätsversorgung.
Deep Search und Autonomie
Die andere Seite der Medaille ist die Autonomie der Nutzer als Bürger. Die meisten Suchmaschinen bieten nun neue Tools, mit denen die gewonnenen Informationen kontextualisiert und personalisiert werden können. Einer der Mehrwerte, die von einer Suchmaschine geschaffen werden, sind die Daten, die über die Gewohnheiten der Verbraucher generiert werden, und die jene Profile und Präferenzen definieren, aufgrund derer personalisierte und Kontext-gebundene Information an die Nutzer geliefert wird.
Dies kann als Autonomie-fördernd verstanden werden, aber wie überall gibt es auch hier einen Umkehreffekt. Der Fall von AOL, das 2006 irrtümlich seine ganze Datenbank, die mehr als 36 Millionen Suchanfragen der 650.000 AOLNutzer speicherte, online zugänglich machte, erinnert daran. Mit diesem Irrtum entdeckte die Welt die Hinterzimmer der Suchmaschinen. All diese gesammelten Daten dienen dazu, aus dem laufenden Such- und Konsumverhalten eines Verbrauchers Profile und Präferenzen zu generieren, die für Nutzer mit ähnlichen Interessen fruchtbar gemacht werden können. Die Anlage solcher Profile und Präferenzen wird immer damit gerechtfertigt, dass sie die Effizienz individueller Suchanfragen steigerten, und damit einen Vorteil für Verbraucher darstellte. Gleichzeitig stellen sie aber einen undurchdringlichen numerischen Käfig dar, der die Freiheit und Selbstbestimmungsmöglichkeiten der Nutzer einschränkt.
Zwei Punkte müssen hier angesprochen werden: zuerst der Mangel an Transparenz bei der Generierung und Verwaltung dieser Profile und Präferenzen, und – damit zusammenhängend – die mangelnden Möglichkeiten der Nutzer, ihre numerischen Spuren zu bestimmen, womit sie zunehmend zu den „Gefangenen“ einer Geschichte werden und immer weniger Möglichkeiten haben, die eigene soziale Identität zu kontrollieren.
Diese Frage wird meist im Zusammenhang mit rechtlichen Fragen der Privatsphäre behandelt. In einem jüngst erschienenen Artikel zeigt E. Kessous, dass die herkömmlichen Regulierungen der Privatsphäre bei diesem Thema versagen. 17
Es lohnt sich, seine Argumentation genauer anzusehen. Für E. Kessous hat diese Regulierung zuerst ein hierarchisches Muster begünstigt, in dem nationale und internationale Rechtsvorschriften und Institutionen die Privatsphäre und die individuellen Freiheiten schützen. Diese öffentliche Regulierung gestaltet sich schwierig und ist angesichts eines globalen Kontexts der Liberalisierung und dem Ausbleiben einer effektiven Regulierung auf globaler Ebene oft wirkungslos oder schwach.
Der zweite Weg ist der des Marktes und beruht auf dem freien Willen und der informierten Zustimmung seitens der Akteure einerseits, sowie Opt-in- und Opt-out-Mechanismen andererseits. Diese Regulierung durch den Markt wirft politische Fragen im Zusammenhang mit dem Gerechtigkeitsbegriff auf, da sie de facto eine soziale Asymmetrie zwischen den haves und have-nots und ihren jeweiligen Möglichkeiten herstellt, freien Willen auszuüben und die Privatsphäre und Autonomie zu schützen. Der Marktmechanismus kann aber auch kontraproduktiv für die Suchmaschinenbetreiber sein, da in deren Profil- und Präferenzsystemen meist eine Bevorzugung des handelnden oder „klickenden“ Körpers als Quelle der Wahrheit gegenüber dem Subjekt und seiner rhetorischen Fähigkeit zum Ausdruck kommt. Im Zusammenhang mit Suchen gelten die „klickenden Körper“ als objektiver, verlässlicher und informativer als „denkende oder sprechende Personen“, und als aufschlussreicher als jene „wirklichen“ persönlichen Identitäten, Persönlichkeiten und Lebensformen, über die ein Individuum sprechen könnte. Dieses „Körperparadigma“ führt zu einem Paradox innerhalb eines liberalen, auf dem „freien Willen“ beruhenden Regulierungssystems.
Der von mir angeregte dritte Weg basiert auf der technisch-politischen Befähigung von Bürgern, indem ihnen die technischen Möglichkeiten zur Verfügung gestellt werden, die es ihnen erlauben, ihre eigene Geschichte und Identität zu schreiben, indem sie ihre numerischen Spuren selbst managen. E. Kessous bezeichnet solche Technologien als „maoistische Reiniger“18, welche den Menschen die Möglichkeit geben, ihre Profile „zurückzusetzen“ und veraltete oder Vorurteils-behaftete Links zu entfernen, um ihre geistigen Rechte und die Umkehrbarkeits-Prinzipien in ihrer sozialen Identität und ihrer Lebensgeschichte wiederherzustellen. Für die Autorin sind hierarchische und Marktbasierte Wege notwendig, um das Recht auf Privatsphäre zu schützen, sie reichen aber nicht aus, um ihre Autonomie und ihr Selbstbestimmungsvermögen wieder herzustellen. Dies erfordert neue technische Innovationen, um eine wirksame Befähigung von Bürgern sicherzustellen.
Schluss
Die globale Wirtschaft bedeutet häufig, dass Nationalstaaten sich in einer ungleichen Konfrontation mit großen, gut organisierten transnationalen Unternehmen befinden. Bedeutet dies, dass es keinen Raum für wirksame Verantwortlichkeit der Nationalstaaten für den Schutz ihrer Bürger gibt? Wie J.E. Stiglitz betont, „hat die Regierung zweifellos einen Platz, sie muss aber auch wissen, wo sie hingehört“. 19
Das Beispiel der Suchmaschinen zeigt, dass es immer noch großen Spielraum für eine aktive Rolle der Nationalstaaten in der Nutzbarmachung der so genannten Informationsgesellschaft im Sinne der Bürger gibt. Diese Rollen betreffen Bildung und Innovation: Bildung etwa in Form einer Förderung von Lernprogrammen, die den Menschen dabei helfen, diese neuen Suchfenster, die ihnen Zugang zu Information und Wissen bieten, besser zu verstehen und zu entschlüsseln. Innovation zum Beispiel durch die Finanzierung von Forschungsprogrammen, die Projekte auf der Grundlage von Suchmaschinen mit „ethischem Mehrwert“ unterstützen, aber auch Projekte, welche die Bürger in die Lage versetzen, ihre Spuren zu managen und zu kontrollieren und ihnen damit das Eigentumsrecht und das Menschenrecht auf ihre Identitäten in die Hand gibt.