Ad-Hoc-Gruppe: Treiber der Transition?

31. März 2025

Auf dem 42. Kongress der Deutschen Gesellschaft für Sozio­lo­gie vom 22. bis 26. September 2025 an der Universität Duisburg-Essen veranstalten Marc Mölders und ich eine Ad-Hoc-Gruppe mit dem Titel »Treiber der Transition?«:

Wer oder was treibt gesellschaftlichen Wandel an? Welche Akteure treten in soziokulturellen und institutionellen Transitionsdynamiken in den Vordergrund? In welchen Belangen prägen Einzelpersonen, kollektive Gruppen und sozioökonomische Prozesszusammenhänge mit ihren Problemperzeptionen und Zukunftsentwürfen die Rekonfiguration sozialer Ordnung? Diese zeitlosen Fragen gehören seit jeher zu den Kerninteressen soziologischer Theoriebildung […].

Im Horizont dieser Vielstimmigkeit möchte diese Ad-Hoc-Gruppe die Vorstellung von Treibern in Transitionsprozessen hinterfragen: Ergibt es angesichts der multiplen Krisen und Umbrüche unserer Gegenwart (z.B. Klima, Digitalisierung und KI, Polarisierung, Militarisierung) überhaupt noch Sinn, nach Treibern der Transition zu fragen? Inwieweit lassen sich auf den jeweiligen Feldern der Transition konkrete Trägergruppen und Akteure des Wandels identifizieren und konzeptionell erfassen?

Oder sprechen ihre Interpendenz, innere Komplexität und inhärente Unplanbarkeit gegen eine solche Fokussierung? Wird die Gesellschaft vielmehr durch exogene Veränderungen und Schocks getrieben? Gilt es insofern eher, die (unintendierten) Nebenfolgen der Transition sowie graduelle Veränderungen in den sozialen Gewohnheiten und Normen sowie die Entstehung von neuen oder abweichenden Praktiken empirisch in den Blick zu nehmen?

All diese Fragen sind von entscheidender Bedeutung für die soziologische Analyse von Transitionsprozessen und werden in sämtlichen Forschungsprojekten zu diesem Thema früher oder später virulent. Bis zum 18. April 2025 laden wir herzlich zur Einreichung von von empirisch oder theoretisch-konzeptionell ausgerichteten Beitragsvorschlägen ein.

Zum Call for Papers (PDF) »


Splitter: »AI Search Has A Citation Problem« (Columbia Journalism Review)

11. März 2025

Das Columbia Journalism Review hat prominente KI-Chatbots mit einer einfachen Aufgabe auf die Probe gestellt: In der Studie (siehe auch: Daten auf GitHub) wurde jedem der System ein Zitat aus einem Artikel vorgelegt und der Chatbot wurde gebeten, den Artikel zu finden, einen Link dazu zu liefern und die Überschrift, die ursprünglich veröffentlichende Organisation und das Veröffentlichungsdatum zu nennen:

»We randomly selected ten articles from each publisher, then manually selected direct excerpts from those articles for use in our queries. After providing each chatbot with the selected excerpts, we asked it to identify the corresponding article’s headline, original publisher, publication date, and URL […]. We deliberately chose excerpts that, if pasted into a traditional Google search, returned the original source within the first three results. We ran sixteen hundred queries (twenty publishers times ten articles times eight chatbots) in total. We manually evaluated the chatbot responses based on three attributes: the retrieval of (1) the correct article, (2) the correct publisher, and (3) the correct URL.«

Getestet wurden OpenAI ChatGPT Search (4o), Perplexity, Perplexity Pro, DeepSeek-V3 Search, Microsoft Copilot, xAI Grok-2, xAI Grok-3 (beta) und Google Gemini (2.0 Flash). Verhältnismäßig am besten abgeschnitten haben Perplexity Pro, Perplexity und ChatGPT; fast nur inkorrekte Ergebnisse lieferten Grok und Gemini. Was laut der Studie überraschte, war das durch die Bank hohe Maß an vermittelter Sicherheit der Antworten der Chatbots, oft ohne auf mögliche Unzuverlässigkeiten hinzuweisen:

»Overall, the chatbots often failed to retrieve the correct articles. Collectively, they provided incorrect answers to more than 60 percent of queries. Across different platforms, the level of inaccuracy varied, with Perplexity answering 37 percent of the queries incorrectly, while Grok 3 had a much higher error rate, answering 94 percent of the queries incorrectly. Most of the tools we tested presented inaccurate answers with alarming confidence, rarely using qualifying phrases […], or acknowledging knowledge gaps […]. ChatGPT, for instance, incorrectly identified 134 articles, but signaled a lack of confidence just fifteen times out of its two hundred responses, and never declined to provide an answer. With the exception of Copilot—which declined more questions than it answered—all of the tools were consistently more likely to provide an incorrect answer than to acknowledge limitations.«