Kontrolle und Macht im Zeitalter von Big Data

Governance by Numbers: Die Datafizierung stellt Infrastrukturen, Prozesse und Organisationsformen auf den Prüfstand.

 

Die TREND-REPORT-Redaktion sprach mit Prof. Dr. Jeanette Hofmann, Principal Investigator am Weizenbaum-Institut, über die Regulierungsleistungen datenbasierter Technologien.

Frau Prof. Hofmann, womit beschäftigt sich Ihre Forschungsgruppe Quantifizierung und gesellschaftliche Regulierung im Kontext der Digitalisierung?
Die Forschungsgruppe dreht die übliche Fragestellung um. Während derzeit die Sorge im Vordergrund steht, wie wir eine effektive Regulierung von Big Data, Algorithmen und künstlicher Intelligenz sicherstellen können, fragen wir danach, welche Regulierungsleistungen neue datenbasierte Technologien erbringen. „Governance by Numbers“ lautet das Stichwort. Alles, was sich in Zahlen ausdrücken lässt, kann gemessen, verglichen und sortiert werden. Auf diese Weise sind wir heute in der Lage, die Performanz von Schulen, Krankenhäusern oder Kommunalverwaltungen zu bewerten, aber auch unser individuelles tägliches Verhalten, sei es im Schlaf oder auf dem Sportplatz. Wir interessieren uns für die Veränderungen, die Quantifizierung bewirkt – im Großen wie im Kleinen.

Welche Forschungslücke schließen Sie dabei?
Es gibt viele historische Untersuchungen zur Entstehung der Statistik und der Normung von Maßeinheiten und zu den Folgen, die das für die vermessenen Bevölkerungsgruppen und Objekte hatte. In „Seeing like the State“ erzählt der Autor James C. Scott die Geschichte, wie der Staat durch die Vermessung seiner Untertanen und ihrer Besitztümer die Grundlagen legte, um das Steuerwesen zu systematisieren und seine Macht zu festigen. Heute, im Zeitalter von Big Data, geht es auch um Kontrolle, Geld und Macht, aber die Zusammenhänge sind natürlich andere. Die wollen wir erforschen.

Welche Rolle spielen dabei das IoT und IIoT?
Die Ausbreitung von IoT vervielfacht die Datenströme und schafft neue Wertschöpfungsquellen, zugleich eröffnet sie neue Formen der Kontrolle über Dinge und Menschen. Offensichtlich wird das anhand der Szenarien über „Smart Cities“, mit denen sich die Hoffnung auf große Effizienzgewinne verbindet. Zu erwarten ist jedoch, dass die Datafizierung Infrastrukturen und Prozesse des urbanen Lebens nicht einfach optimiert, sondern ihre Organisationsform auf den Prüfstand stellt. Denkbar wäre, dass das Plattformprinzip auch die Städte erfasst.

Inwieweit wird die KI auf unsere politischen Entscheidungen wirken?
Der Einsatz von künstlicher Intelligenz in der Politik kann etwa an das Prinzip der evidenzbasierten Politik anknüpfen. Dahinter verbirgt sich der Grundsatz, dass weniger normative Erwägungen gesellschaftlicher Wünschbarkeit als vorliegende Informationen ausschlaggebend für politische Entscheidungen sein sollen. In diesem Sinne könnten KI-gestützte Expertensysteme eingesetzt werden, um auf der verfügbaren Datenbasis Wirkungsszenarien für Maßnahmen zu errechnen und so politische Optionen zu bewerten. Das ist allerdings eine technokratische Vision, die man nur als postdemokratisch bezeichnen kann.

 

„Alles beginnt mit einer guten Ausbildung, dafür sind unsere Schulen aber zurzeit nicht gut gerüstet. Obwohl das Internet den Zugang zu Bildungsressourcen im Prinzip erleichtert hat, scheint die Verteilung von Reflexionskompetenzen in unserer Gesellschaft doch weitgehend derjenigen von anderen wertvollen Gütern zu entsprechen.“

 

Wie viel KI braucht unsere Gesellschaft in Zukunft?
KI-gestützte Systeme werden zum Sortieren großer Datenmengen eingesetzt. Besonders sinnvoll ist das, wenn es um Fragen geht, die mit herkömmlichen Methoden gar nicht oder nur unter größtem Aufwand bearbeitet werden können. Man denke etwa an die Ermittlung statistisch relevanter Korrelationen in der medizinischen Forschung. Schwieriger, weil zu Recht umstritten, ist der Einsatz von KI im Bereich der Automatisierung fachlicher Expertise, etwa in der Rechtsprechung, der Personalauswahl oder der Risikoabwägung im Bereich der Kinder- und Jugendhilfe.

Wo liegt die Verantwortung hinsichtlich der Festlegung und Definition moralischer Werte, auf deren Basis automatisierte Entscheidungssysteme arbeiten?
Ethische Normen lassen sich bekanntlich nicht von oben verordnen, gesetzliche Regelungen dagegen schon. Auffällig an der gegenwärtigen Diskussion um den Einsatz von KI ist der Fokus auf weiche moralische Standards. Meines Erachtens muss es darum gehen, verbriefte Grundrechte wie jenes auf Diskriminierungsfreiheit bereits in die Modellierung der Aufgabenstellung einzubeziehen, deren Bearbeitung dann algorithmisch optimiert werden soll. Die Ausbildung in der Informatik und die Sensibilisierung der KI-Anwender können hier sicher viel Gutes bewirken; ich würde aber gesetzliche Vorgaben nicht ausschließen.

Müssen wir den Einsatz von Algorithmen gegenüber Nutzern in Zukunft noch transparenter gestalten und wenn ja, wie?
Die Forderung nach Offenlegung von Algorithmen klingt einleuchtend, ist in der Praxis aber nicht einfach zu realisieren. Die neuere sozialwissenschaftliche Forschung gibt zu bedenken, dass Algorithmen ihre erwünschten wie auch unerwünschten Wirkungen erst im Zusammenhang mit den Datensätzen erzielen, auf deren Grundlage sie operieren. Transparenzgebote müssten also auch die sich beständig wandelnden Datensätze einbeziehen und auf mögliche Verzerrungen überprüfen. Widerstände dagegen sind nicht nur vom Datenschutz zu erwarten. Hier sind kreative Lösungen gefragt.

Welche strategischen Grundlagen muss die Politik schaffen, um zukünftig digitale Teilhabe allen Mitgliedern der Gesellschaft zu ermöglichen?
Alles beginnt mit einer guten Ausbildung, dafür sind unsere Schulen aber zurzeit nicht gut gerüstet. Obwohl das Internet den Zugang zu Bildungsressourcen im Prinzip erleichtert hat, scheint die Verteilung von Reflexionskompetenzen in unserer Gesellschaft doch weitgehend derjenigen von anderen wertvollen Gütern zu entsprechen. //

 

 

Zur Person Prof. Dr. Jeanette Hofmann

 

 

Bildquelle / Lizenz: David Ausserhofer