Künstliche Intelligenz und Technikfolgenabschätzung

7. Februar 2023

»ChatGPT is at capacity right now.« Aus gegebenem Anlass ein kleiner Ausschnitt aus meinem Beitrag in dem insgesamt sehr instruktiven Band »Technikfolgenabschätzung: Handbuch für Wissenschaft und Praxis« (2021: 83–96):

Das Potenzial für eine öffentlich wirksame TA in der digitalisierten Gesellschaft bestimmt sich […] weniger in der dezidierten Vorhersage der künftigen Verläufe der Technikentwicklung und ihrer Folgen, sondern in der sozialwissenschaftlich fundierten Entzauberung von eingeschliffenen Beobachtungsmythen, in einer Dekonstruktion von übersteigerten Hoffnungen und Befürchtungen sowie in einer Erweiterung des gegenwärtigen Diskursraums um mögliche künftige Entwicklungslinien und bereits erkennbare soziotechnische Dynamiken, die in entsprechende Richtungen weisen.

[…] Einer dieser Trends ist – gemessen an den derzeit kursierenden Erwartungen – die zukünftige gesellschaftliche Zentralstellung selbstlernender informationstechnischer Systeme in der Datenauswertung sowie Steuerung von Robotern und Infrastruktursystemen als konsequente Weiterentwicklung der Informatisierung und Datafizierung (schwache KI) bzw. ferner die Entstehung einer algorithmischen ›Superintelligenz‹ (Bostrom 2018), die neben logischem Denkvermögen über eigenständige Lern- und Entscheidungsfähigkeiten verfügt und diese auch unter Unsicherheit zielgerichtet kombinieren kann (starke KI). Ähnlich wie schon im Falle der Diskurse um die frühe Informationsgesellschaft, das Internet, das Web 2.0 und Big Data reichen die heute formulierten positiven und negativen Visionen hierbei weit über technisch unmittelbar umsetzbare Szenarien hinaus und prägen nichtsdestotrotz gegenwärtige normative Diskurse um Informationstechnologien erheblich mit (Kehl/Coenen 2016).

Die TA kann in der Beobachtung dieser Entwicklungen einerseits auf einen beträchtlichen Erfahrungsschatz zurückgreifen, da sie sich bereits seit den 1980er-Jahren mit der Forschung um KI und den anwendungsorientierten Erwartungsdiskursen um ihre Einsatzpotenziale sowie Rückwirkungen auseinandersetzt (z.B. Pelka 2003; Bonsiepen 1994; Lutz/Moldaschl 1989: 6ff.) und sich auch vor dem Hintergrund der hier skizzierten Verläufe (Abschnitt 2) der unauflösbaren Verwobenheit von technischen Entwicklungslinien und sozialen Aneignungsdynamiken bewusst ist (Abschnitt 3). Andererseits allerdings verstärkt sich das mit der Digitalisierung prominent gewordene Problem der analytischen Durchdringung komplexer soziotechnischer Systeme in der Beobachtung von KI weiter: Welche Akteure in welchen Phasen auf die hochvernetzte Entwicklung solcher Architekturen einwirken, lässt sich von Forscher_innen in der TA oft ebenso schwer nachvollziehen wie sich das Zustandekommen von »Outputs in komplexen Systemen mit Big Data und KI aus den Daten« rekonstruieren lässt (Grunwald 2019: 211). Um die letztgenannte ›Black Box‹ durchleuchten zu können, müsste die interdisziplinäre Zusammenarbeit mit den informationstechnischen Disziplinen und Praxispartnern noch einmal deutliche Intensivierung erfahren.

Auch davon abgesehen kann die TA aber durchaus ihrem selbstgesteckten Nutzenversprechen gerecht werden und ausgehend von ihren vielfältigen Untersuchungen zu vorangegangenen soziotechnischen Transformationsdynamiken mögliche Szenarien zu den gesellschaftlichen Folgen und Implikationen denkbarer künftiger KI-Systeme erarbeiten sowie auf die Möglichkeit und Notwendigkeit zur deliberativen Aushandlung hinweisen. Das betrifft etwa die Fragen nach der Handlungsstrukturierung durch die Outputs von KI-Systemen in verschiedenen sozioökonomischen Kontexten, nach den notwendigen individuellen Bewertungs- und Anwendungskompetenzen sowie deren Vermittlung, nach den daraus resultierenden Machtungleichgewichten zwischen Infrastrukturanbietern und Bürger_innen bzw. Anwender_innen, nach neuen Manipulations- und Überwachungsmöglichkeiten sowie nach den daraus resultierenden Regulierungs- und Förderungsbedarfen.

Der wichtigste übergreifende Impuls, der von der TA-Forschung in dieser Hinsicht ausgehen kann, besteht in der Einsicht, dass auch die Etablierung künftiger KI-Systeme keine disruptive Veränderungsdynamik in kurzer Frist sein wird, sondern ein inkrementeller Transformationsprozess, der gesellschaftspolitisch gestaltet werden kann und muss.


Ähnliche Artikel