Querverweis: My syllabus on Artificial Social Intelligence (Silver Linings)

25. November 2025

Daniel Silver, Soziologieprofessor an der University of Toronto Scarborough, hat den Syllabus zu seinem vielversprechenden Graduiertenseminar »Beyond the Singularity: Building Artificial Social Intelligence« auf Substack geteilt. Für die einzelnen Sitzungen hat er ein breites Portfolio von Lesestücken an der Schnittstelle von Soziologie, Kognitionswissenschaft, Informatik und Digitalisierungsforschung zusammengestellt, die sich dort auch gebündelt abrufen lassen. Darum geht es:

The ambition driving much artificial intelligence is to build a god: a singular, all-knowing super-intelligence. This seminar begins from the proposition that this goal is not only misguided but also ignores a fundamental proposition of classical sociology: intelligence is social. We will advance the proposition that true superintelligence (often referred to as ASI), should it ever exist, will not be a monolithic entity, but a fundamentally social and distributed system.

We will seek to dislodge the prevailing image of Artificial General Intelligence (AGI) – a gigantic individual mind – for a richer and more generative concept: Artificial Social Intelligence (ASI). We will explore the idea that the future of AI lies in networks of intelligent agents that must learn to creatively and situationally understand, coordinate, and sometimes compete with each other and with us.

While computer science often approaches this topic through Multi-Agent Systems (MAS), our focus is distinct and complementary; we will use classical sociology as a launching point to reimagine AI, focusing on the underlying capabilities and orientations that make multi-agent interaction possible and more or less effective.


Künstliche Intelligenz: Vier sozialwissenschaftliche Perspektiven

15. November 2025

Lucy Suchman, die sich seit mehreren Jahrzehnten mit dem Verhältnis von Technik und Gesellschaft sowie der Entwicklung künstlicher Intelligenz auseinandersetzt, sieht eine der Kernaufgaben der Sozialwissenschaften im gegenwärtigen Diskurs um KI darin, »to challenge discourses that position AI as ahistorical, mystify ›its‹ agency and/or deploy the term as a floating signifier« (Suchman 2023).

Vier aktuelle sozialwissenschaftliche Publikationen beschreiben KI in diesem Sinne als genuin soziotechnisches Phänomen (siehe dazu auch Schrape 2025, 2025b) und bieten instruktive Annäherungen aus ihren jeweiligen Perspektiven:

Weiterlesen »

Generative künstliche Intelligenz: Zwischen Boom und Ernüchterung

19. Oktober 2025

Der erste Lack ist ab; die allgemeine Begeisterung um ChatGPT und Co. ist spürbar abgekühlt. Damit reiht sich generative KI in das Wechselspiel von Hype und Ernüchterung um neue Technologien ein, das in der Techniksoziologie als ein wiederkehrendes Phänomen soziotechnischer Entwicklung identifiziert worden ist.

Spätestens seit dem Sommer 2025 hat sich die Stimmung um generative artificial intelligence gedreht – und inzwischen werden im öffentlichen Diskurs beinahe täglich Kommentare aufgegriffen, die vor einer »KI-Blase« an den globalen Finanzmärkten oder vor der Überbewertung der sozioökonomischen Relevanz von KI insgesamt warnen. Ein zuletzt ob ihrer Eindeutigkeit vielreflektiertes Beispiel sind die Einschätzungen des Analysten Julien Garran, hier in einem Gespräch mit CNN:

»[…] if you use large language model AI to create an application or a service, it can never be commercial. One of the reasons is the way they were built. The original large language model AI was built using vectors to try and understand the statistical likelihood that words follow each other in the sentence. And while they’re very clever, and it’s a very good bit of engineering required to do it, they’re also very limited. The second thing is the way LLMs were applied to coding. What they’ve learned from — the coding that’s out there, both in and outside the public domain — means that they’re effectively showing you rote learned pieces of code. That’s, again, going to be limited if you want to start developing new applications. And the third set of problems, in terms of how it’s built, is around the idea of scaling. There’s a real problem at a certain point in terms of how much you have to spend to improve them. I’d say it’s definite that (developers) have hit a scaling wall […].

[…] There are certain bullsh*t jobs out there — some parts of management, consultancy, jobs where people don’t check if you’re getting it right or don’t know if you’ve got it right. So you can argue that you can replace bullsht with bullsh*t, and, yes, OK, I’m prepared to accept that you probably can, but that doesn’t really make it more broadly useful. […] The AI ecosystem can’t really sustain itself. […] Consequently, to maintain the process, you need to have a continued funding, which is why it looks like a permanent funding tour. But despite all of this, there’s no obvious way that they actually turn this around to a profit. It’s hope over realistic expectation […].«

Weiterlesen »

42. DGS-Kongress: Technik, Medien, digitale Transformation, KI

8. September 2025

Der 42. Kongress der Deutschen Gesellschaft für Soziologie (DGS) steht vor der Tür (22.–26. September, Duisburg). Grund genug, um das Programm nach technik-, innovations- und mediensoziologisch ausgerichteten Panels und Beiträgen zu durchforsten (ohne Anspruch auf Vollständigkeit). Dabei zeigt sich, dass sich die gegenwärtige deutschsprachige Soziologie mit einem überaus weiten Spektrum an soziotechnischen Transitionsdynamiken beschäftigt – und das wechselvolle Spannungsverhältnis von Technik und sozialem Wandel, das auf übergreifender Ebene erstmals auf dem Soziologentag 1986 thematisiert worden ist (Lutz 1987), inzwischen zu einem Kerngegenstand gesellschaftswissenschaftlicher Forschung avanciert ist:

Weiterlesen »

Splitter: Pew-Studie zu Google AI Overviews

2. August 2025

Mit der raschen Verbreitung von ChatGPT und Co. ab Ende 2022 sind zahlreiche aufmerksamkeitsheischende Überschriften entstanden, die einen mehr oder minder schnellen ›Tod‹ der klassischen Google-Suche in Aussicht stellten, welche in den letzten Dekaden einen mehr als üblichen Einstieg in die Internetrecherche bot.

Diese Einschätzungen lassen sich aus heutiger Sicht als übertrieben markieren; nichtsdestoweniger aber verändert die zunehmende Alltagsintegration von KI-basierten Services zur situativen Komplexitätsreduktion zweifelsohne für viele Menschen die Art und Weise, wie Informationen rezipiert werden. Seit Frühjahr 2024 hat Google ferner in den USA und danach in weiteren Ländern (seit März 2025 auch in Deutschland) sogenannte »AI Overviews« eingeführt, die vor den eigentlichen Suchergebnissen zu finden sind.

Eine aktuelle Studie des Pew Research Centers hat nun anhand von 69.000 Suchanfragen von 900 Google-Nutzenden in den USA untersucht, wie sich durch diese Integration von KI-Angeboten in die Websuche das Klickverhalten verändert. Das Ergebnis ist eindeutig: Sofern eine KI-Zusammenfassung angezeigt wird (dies war in 18% der Fälle der Fall), halbierte sich die weitere Klickrate und nur noch 8% der Nutzenden klickten auf eines oder mehrere der verlinkten Suchergebnisse. Auch die in den KI-Zusammenfassungen angebotenen Links wurden nur von einer kleinen Minderheit weiterverfolgt. 26% der Nutzenden beendeten die Google-Sitzung nach der Anzeige der KI-Zusammenfassung umgehend.

Dieser Trend erscheint nicht nur für (professionelle) Anbieter von Inhalten problematisch, deren Websites dadurch an Reichweite verlieren könnten, sondern ebenso mit Blick auf das allgemeine Informationsverhalten – nicht nur, weil alle bislang existenten generativen KI-Systeme architekturbedingt immer wieder irreführende oder schlicht falsche Zusammenfassungen liefern, sondern auch, weil durch die Integration von »AI Overviews« in Google und andere Suchmaschinen nunmehr nicht mehr nur KI-Intensivnutzer:innen, sondern auch damit vollkommen unerfahrene Menschen mit deren Antworten konfrontiert werden.


Neuerscheinung: »Technik und Gesellschaft. Eine kurze Einführung«

14. Juli 2025

In diesen Tagen ist in der Reihe Reclams Universal-Bibliothek der Band »Technik und Gesellschaft. Eine kurze Einführung« (181 Seiten, 10 Abbildungen, 9,60 €) erschienen.

Das handliche Taschenbuch bietet in neun Kapiteln einen kompakten und leicht verständlichen Einstieg in zentrale Einsichten und Grundfragen der Techniksoziologie: In welcher Weise wird das moderne gesellschaftliche Zusammenleben durch Technik geprägt? Wie greifen technische und soziale Veränderungen ineinander? Auf welchen Prämissen baut die digitale Transformation auf? Welche neuen gesellschaftlichen Möglichkeitsräume und Machtverhältnisse entstehen mit ihr? Welche Potenziale und Risiken gehen mit der Entwicklung und Anwendung künstlicher Intelligenz einher? Und: Lässt sich Technikentwicklung regulieren oder sogar steuern?

Verlagsinformationen (mit Leseprobe) | Amazon (Print) | Amazon (E-Book)


Splitter: »AI Search Has A Citation Problem« (Columbia Journalism Review)

11. März 2025

Das Columbia Journalism Review hat prominente KI-Chatbots mit einer einfachen Aufgabe auf die Probe gestellt: In der Studie (siehe auch: Daten auf GitHub) wurde jedem der System ein Zitat aus einem Artikel vorgelegt und der Chatbot wurde gebeten, den Artikel zu finden, einen Link dazu zu liefern und die Überschrift, die ursprünglich veröffentlichende Organisation und das Veröffentlichungsdatum zu nennen:

»We randomly selected ten articles from each publisher, then manually selected direct excerpts from those articles for use in our queries. After providing each chatbot with the selected excerpts, we asked it to identify the corresponding article’s headline, original publisher, publication date, and URL […]. We deliberately chose excerpts that, if pasted into a traditional Google search, returned the original source within the first three results. We ran sixteen hundred queries (twenty publishers times ten articles times eight chatbots) in total. We manually evaluated the chatbot responses based on three attributes: the retrieval of (1) the correct article, (2) the correct publisher, and (3) the correct URL.«

Getestet wurden OpenAI ChatGPT Search (4o), Perplexity, Perplexity Pro, DeepSeek-V3 Search, Microsoft Copilot, xAI Grok-2, xAI Grok-3 (beta) und Google Gemini (2.0 Flash). Verhältnismäßig am besten abgeschnitten haben Perplexity Pro, Perplexity und ChatGPT; fast nur inkorrekte Ergebnisse lieferten Grok und Gemini. Was laut der Studie überraschte, war das durch die Bank hohe Maß an vermittelter Sicherheit der Antworten der Chatbots, oft ohne auf mögliche Unzuverlässigkeiten hinzuweisen:

»Overall, the chatbots often failed to retrieve the correct articles. Collectively, they provided incorrect answers to more than 60 percent of queries. Across different platforms, the level of inaccuracy varied, with Perplexity answering 37 percent of the queries incorrectly, while Grok 3 had a much higher error rate, answering 94 percent of the queries incorrectly. Most of the tools we tested presented inaccurate answers with alarming confidence, rarely using qualifying phrases […], or acknowledging knowledge gaps […]. ChatGPT, for instance, incorrectly identified 134 articles, but signaled a lack of confidence just fifteen times out of its two hundred responses, and never declined to provide an answer. With the exception of Copilot—which declined more questions than it answered—all of the tools were consistently more likely to provide an incorrect answer than to acknowledge limitations.«