The ambition driving much artificial intelligence is to build a god: a singular, all-knowing super-intelligence. This seminar begins from the proposition that this goal is not only misguided but also ignores a fundamental proposition of classical sociology: intelligence is social. We will advance the proposition that true superintelligence (often referred to as ASI), should it ever exist, will not be a monolithic entity, but a fundamentally social and distributed system.
We will seek to dislodge the prevailing image of Artificial General Intelligence (AGI) – a gigantic individual mind – for a richer and more generative concept: Artificial Social Intelligence (ASI). We will explore the idea that the future of AI lies in networks of intelligent agents that must learn to creatively and situationally understand, coordinate, and sometimes compete with each other and with us.
While computer science often approaches this topic through Multi-Agent Systems (MAS), our focus is distinct and complementary; we will use classical sociology as a launching point to reimagine AI, focusing on the underlying capabilities and orientations that make multi-agent interaction possible and more or less effective.
Lucy Suchman, die sich seit mehreren Jahrzehnten mit dem Verhältnis von Technik und Gesellschaft sowie der Entwicklung künstlicher Intelligenz auseinandersetzt, sieht eine der Kernaufgaben der Sozialwissenschaften im gegenwärtigen Diskurs um KI darin, »to challenge discourses that position AI as ahistorical, mystify ›its‹ agency and/or deploy the term as a floating signifier« (Suchman 2023).
Vier aktuelle sozialwissenschaftliche Publikationen beschreiben KI in diesem Sinne als genuin soziotechnisches Phänomen (siehe dazu auch Schrape 2025, 2025b) und bieten instruktive Annäherungen aus ihren jeweiligen Perspektiven:
Der erste Lack ist ab; die allgemeine Begeisterung um ChatGPT und Co. ist spürbar abgekühlt. Damit reiht sich generative KI in das Wechselspiel von Hype und Ernüchterung um neue Technologien ein, das in der Techniksoziologie als ein wiederkehrendes Phänomen soziotechnischer Entwicklung identifiziert worden ist.
Spätestens seit dem Sommer 2025 hat sich die Stimmung um generative artificial intelligence gedreht – und inzwischen werden im öffentlichen Diskurs beinahe täglich Kommentare aufgegriffen, die vor einer »KI-Blase« an den globalen Finanzmärkten oder vor der Überbewertung der sozioökonomischen Relevanz von KI insgesamt warnen. Ein zuletzt ob ihrer Eindeutigkeit vielreflektiertes Beispiel sind die Einschätzungen des Analysten Julien Garran, hier in einem Gespräch mit CNN:
»[…] if you use large language model AI to create an application or a service, it can never be commercial. One of the reasons is the way they were built. The original large language model AI was built using vectors to try and understand the statistical likelihood that words follow each other in the sentence. And while they’re very clever, and it’s a very good bit of engineering required to do it, they’re also very limited. The second thing is the way LLMs were applied to coding. What they’ve learned from — the coding that’s out there, both in and outside the public domain — means that they’re effectively showing you rote learned pieces of code. That’s, again, going to be limited if you want to start developing new applications. And the third set of problems, in terms of how it’s built, is around the idea of scaling. There’s a real problem at a certain point in terms of how much you have to spend to improve them. I’d say it’s definite that (developers) have hit a scaling wall […].
[…] There are certain bullsh*t jobs out there — some parts of management, consultancy, jobs where people don’t check if you’re getting it right or don’t know if you’ve got it right. So you can argue that you can replace bullsht with bullsh*t, and, yes, OK, I’m prepared to accept that you probably can, but that doesn’t really make it more broadly useful. […] The AI ecosystem can’t really sustain itself. […] Consequently, to maintain the process, you need to have a continued funding, which is why it looks like a permanent funding tour. But despite all of this, there’s no obvious way that they actually turn this around to a profit. It’s hope over realistic expectation […].«
Der 42. Kongress der Deutschen Gesellschaft für Soziologie (DGS) steht vor der Tür (22.–26. September, Duisburg). Grund genug, um das Programm nach technik-, innovations- und mediensoziologisch ausgerichteten Panels und Beiträgen zu durchforsten (ohne Anspruch auf Vollständigkeit). Dabei zeigt sich, dass sich die gegenwärtige deutschsprachige Soziologie mit einem überaus weiten Spektrum an soziotechnischen Transitionsdynamiken beschäftigt – und das wechselvolle Spannungsverhältnis von Technik und sozialem Wandel, das auf übergreifender Ebene erstmals auf dem Soziologentag 1986 thematisiert worden ist (Lutz 1987), inzwischen zu einem Kerngegenstand gesellschaftswissenschaftlicher Forschung avanciert ist:
Das handliche Taschenbuch bietet in neun Kapiteln einen kompakten und leicht verständlichen Einstieg in zentrale Einsichten und Grundfragen der Techniksoziologie: In welcher Weise wird das moderne gesellschaftliche Zusammenleben durch Technik geprägt? Wie greifen technische und soziale Veränderungen ineinander? Auf welchen Prämissen baut die digitale Transformation auf? Welche neuen gesellschaftlichen Möglichkeitsräume und Machtverhältnisse entstehen mit ihr? Welche Potenziale und Risiken gehen mit der Entwicklung und Anwendung künstlicher Intelligenz einher? Und: Lässt sich Technikentwicklung regulieren oder sogar steuern?
Der seit 2012 erhobene Reuters Institute Digital News Report 2025 ist erschienen. Er bietet einen umfassenden Überblick zur weltweiten Rezeption von Nachrichten und Nutzung aktueller Informationsquellen. In Deutschland fand die Erhebung zwischen dem 16. und 30. Januar 2025 statt; die Stichprobe ist für Onliner ab 18 Jahren repräsentativ. Hier die wichtigsten Links dazu: