Künstliche Intelligenz: Vier sozialwissenschaftliche Perspektiven
Jan-Felix Schrape | 15. November 2025Lucy Suchman, die sich seit mehreren Jahrzehnten mit dem Verhältnis von Technik und Gesellschaft sowie der Entwicklung künstlicher Intelligenz auseinandersetzt, sieht eine der Kernaufgaben der Sozialwissenschaften im gegenwärtigen Diskurs um KI darin, »to challenge discourses that position AI as ahistorical, mystify ›its‹ agency and/or deploy the term as a floating signifier« (Suchman 2023).
Vier aktuelle sozialwissenschaftliche Publikationen beschreiben KI in diesem Sinne als genuin soziotechnisches Phänomen (siehe dazu auch Schrape 2025, 2025b) und bieten instruktive Annäherungen aus ihren jeweiligen Perspektiven:
- Sascha Dickel analysiert in dem Artikel »Im Imitationsspiel. Über die Kommunikation mit Maschinen und das Streben nach Artificial General Intelligence« (Zeitschrift für Soziologie, Open Access) aus einer kommunikations- und differenzierungstheoretischen Perspektive, wie Maschinen als »künstliche Intelligenzen« kategorisiert werden und unter welchen Bedingungen diese Kategorisierung gesellschaftliche Akzeptanz findet. Der Text kommt zu dem Schluss, dass es »müssig« sei, eine Artificial General Intelligence »anhand technischer Parameter zu definieren. Zwar werden Informatiker:innen diesbezüglich gewiss weiter an Definitionen, Konkretisierungen und heuristischen Stufenmodellen arbeiten. Ob aber eine Entität als ›echte‹ Künstliche Intelligenz gesellschaftlich anerkannt wird, ist keine technische, sondern eine soziale Frage. Die von mir vorgeschlagene Antwort lautet, dass die Gesellschaft eine Entität erst dann als menschenähnliche KI (an)erkennen wird, wenn sie in mediatisierten Umwelten als Kommunikator:in funktioniert, die von Menschen nicht mehr zu unterscheiden ist.«
- Ingo Schulz-Schaeffer argumentiert in dem Artikel »Why generative AI is different from designed technology: A sociological perspective« (Big Data & Society, Open Access), dass generative KI die klassischen Vorstellungen von Technik herausfordere und nach neuen Formen der soziologischen Analyse verlange. Generative KI unterscheide sich von klassischer Technik, da sie selbstständig neue Inhalte erzeugen könne und dadurch die gesellschaftliche Konstruktion von Technik wie als auch deren Nutzung transformiere. »This requires on the one hand to analyze how developers and users apply elements from the social stock of knowledge to make use of the learned patterns of generative AI, for instance as part of prompting. On the other hand, it requires to better understand in which ways the learned patterns represent machine-learned versions of elements of the social stock of knowledge.«
- Anna Beckers und Gunther Teubner identifizieren in den Büchern »Three Liability Regimes for Artificial Intelligence« (Bloomsbury) und »Digitale Aktanten, Hybride, Schwärme« (Suhrkamp) aus rechtssoziologischer Sicht drei Haftungsszenarien mit Blick auf KI und intelligente Technik: (1) Konstellationen, in denen intelligente Systeme menschliche Akteure als stellvertretende Handlungsagenten unterstützen; (2) Mensch-Maschine-Verbindungen, in denen die Interaktionen zwischen Individuen, Organisationen und intelligenten Maschinen so eng ineinander verflochten sind, dass sie als kohäsive soziotechnische Netzwerke betrachtet werden müssen, für die das Unternehmen im Kern haftbar gemacht werden kann; und (3) vernetzte KI-Architekturen, die über eigenständig interagierende algorithmische Strukturen funktionieren. Ihre automatisierten Entscheidungen, beispielsweise im Infrastrukturmanagement, beeinflussten zunehmend die Rahmenbedingungen für soziales Handeln. Im Schadensfall müsste eine Entschädigung aus vorab eingerichteten Fonds oder Versicherungen erfolgen, da es in diesen Fällen nicht mehr möglich sei, die Verantwortung einer einzelnen Einheit zuzuweisen.
- Paolo Bory, Simone Natale und Christian Katzenbach beschäftigen sich in dem Artikel »Strong and weak AI narratives: an analytical framework« (AI & Society, Open Access) aus kommunikationswissenschaftlicher Perspektive mit dem weiten Spektrum an Narrativen und Zukunftserwartungen um KI. Sie unterscheiden »›strong AI narratives‹, i.e., narratives that envision futurable AI technologies that are virtually indistinguishable from humans« sowie »›weak‹ AI narratives, i.e., narratives that discuss and make sense of the functioning and implications of existing AI technologies« und entwickeln vor diesem Hintergrund einen analytischen Rahmen, der darauf abzielt, die Heterogenität von KI-Narrativen deutlicher herauszuarbeiten und ›weak‹ AI narratives stärker in den Fokus der öffentlichen Debatten zu rücken: »[…] there is a worrying disproportion between the role that strong AI narratives continue to play in the public arena and the actual relevance of strong AI in the most up-to-date AI technologies, including generative AI. As in past work on digitization, critical analyses of narratives about strong AI are necessary to understand how relevant groups and key commercial actors frame and guide the public debate toward specific visions of disruptive technologies, which are often convenient to the actors that create or circulate them.«












