Splitter: Pew-Studie zu Google AI Overviews

2. August 2025

Mit der raschen Verbreitung von ChatGPT und Co. ab Ende 2022 sind zahlreiche aufmerksamkeitsheischende Überschriften entstanden, die einen mehr oder minder schnellen ›Tod‹ der klassischen Google-Suche in Aussicht stellten, welche in den letzten Dekaden einen mehr als üblichen Einstieg in die Internetrecherche bot.

Diese Einschätzungen lassen sich aus heutiger Sicht als übertrieben markieren; nichtsdestoweniger aber verändert die zunehmende Alltagsintegration von KI-basierten Services zur situativen Komplexitätsreduktion zweifelsohne für viele Menschen die Art und Weise, wie Informationen rezipiert werden. Seit Frühjahr 2024 hat Google ferner in den USA und danach in weiteren Ländern (seit März 2025 auch in Deutschland) sogenannte »AI Overviews« eingeführt, die vor den eigentlichen Suchergebnissen zu finden sind.

Eine aktuelle Studie des Pew Research Centers hat nun anhand von 69.000 Suchanfragen von 900 Google-Nutzenden in den USA untersucht, wie sich durch diese Integration von KI-Angeboten in die Websuche das Klickverhalten verändert. Das Ergebnis ist eindeutig: Sofern eine KI-Zusammenfassung angezeigt wird (dies war in 18% der Fälle der Fall), halbierte sich die weitere Klickrate und nur noch 8% der Nutzenden klickten auf eines oder mehrere der verlinkten Suchergebnisse. Auch die in den KI-Zusammenfassungen angebotenen Links wurden nur von einer kleinen Minderheit weiterverfolgt. 26% der Nutzenden beendeten die Google-Sitzung nach der Anzeige der KI-Zusammenfassung umgehend.

Dieser Trend erscheint nicht nur für (professionelle) Anbieter von Inhalten problematisch, deren Websites dadurch an Reichweite verlieren könnten, sondern ebenso mit Blick auf das allgemeine Informationsverhalten – nicht nur, weil alle bislang existenten generativen KI-Systeme architekturbedingt immer wieder irreführende oder schlicht falsche Zusammenfassungen liefern, sondern auch, weil durch die Integration von »AI Overviews« in Google und andere Suchmaschinen nunmehr nicht mehr nur KI-Intensivnutzer:innen, sondern auch damit vollkommen unerfahrene Menschen mit deren Antworten konfrontiert werden.


Neuerscheinung: »Technik und Gesellschaft. Eine kurze Einführung«

14. Juli 2025

In diesen Tagen ist in der Reihe Reclams Universal-Bibliothek der Band »Technik und Gesellschaft. Eine kurze Einführung« (181 Seiten, 10 Abbildungen, 9,60 €) erschienen.

Das handliche Taschenbuch bietet in neun Kapiteln einen kompakten und leicht verständlichen Einstieg in zentrale Einsichten und Grundfragen der Techniksoziologie: In welcher Weise wird das moderne gesellschaftliche Zusammenleben durch Technik geprägt? Wie greifen technische und soziale Veränderungen ineinander? Auf welchen Prämissen baut die digitale Transformation auf? Welche neuen gesellschaftlichen Möglichkeitsräume und Machtverhältnisse entstehen mit ihr? Welche Potenziale und Risiken gehen mit der Entwicklung und Anwendung künstlicher Intelligenz einher? Und: Lässt sich Technikentwicklung regulieren oder sogar steuern?

Verlagsinformationen (mit Leseprobe) | Amazon (Print) | Amazon (E-Book)


Splitter: »AI Search Has A Citation Problem« (Columbia Journalism Review)

11. März 2025

Das Columbia Journalism Review hat prominente KI-Chatbots mit einer einfachen Aufgabe auf die Probe gestellt: In der Studie (siehe auch: Daten auf GitHub) wurde jedem der System ein Zitat aus einem Artikel vorgelegt und der Chatbot wurde gebeten, den Artikel zu finden, einen Link dazu zu liefern und die Überschrift, die ursprünglich veröffentlichende Organisation und das Veröffentlichungsdatum zu nennen:

»We randomly selected ten articles from each publisher, then manually selected direct excerpts from those articles for use in our queries. After providing each chatbot with the selected excerpts, we asked it to identify the corresponding article’s headline, original publisher, publication date, and URL […]. We deliberately chose excerpts that, if pasted into a traditional Google search, returned the original source within the first three results. We ran sixteen hundred queries (twenty publishers times ten articles times eight chatbots) in total. We manually evaluated the chatbot responses based on three attributes: the retrieval of (1) the correct article, (2) the correct publisher, and (3) the correct URL.«

Getestet wurden OpenAI ChatGPT Search (4o), Perplexity, Perplexity Pro, DeepSeek-V3 Search, Microsoft Copilot, xAI Grok-2, xAI Grok-3 (beta) und Google Gemini (2.0 Flash). Verhältnismäßig am besten abgeschnitten haben Perplexity Pro, Perplexity und ChatGPT; fast nur inkorrekte Ergebnisse lieferten Grok und Gemini. Was laut der Studie überraschte, war das durch die Bank hohe Maß an vermittelter Sicherheit der Antworten der Chatbots, oft ohne auf mögliche Unzuverlässigkeiten hinzuweisen:

»Overall, the chatbots often failed to retrieve the correct articles. Collectively, they provided incorrect answers to more than 60 percent of queries. Across different platforms, the level of inaccuracy varied, with Perplexity answering 37 percent of the queries incorrectly, while Grok 3 had a much higher error rate, answering 94 percent of the queries incorrectly. Most of the tools we tested presented inaccurate answers with alarming confidence, rarely using qualifying phrases […], or acknowledging knowledge gaps […]. ChatGPT, for instance, incorrectly identified 134 articles, but signaled a lack of confidence just fifteen times out of its two hundred responses, and never declined to provide an answer. With the exception of Copilot—which declined more questions than it answered—all of the tools were consistently more likely to provide an incorrect answer than to acknowledge limitations.«


Querverweis: PEW-Studie zu KI am Arbeitsplatz

26. Februar 2025

Das Pew Research Center hat die Ergebnisse einer im Oktober 2024 erhobenen repräsentativen Umfrage unter 5273 erwerbstätigen Erwachsenen veröffentlicht, die sich mit den Erfahrungen und Einschätzungen von Arbeitnehmenden in den USA mit Blick auf den Einsatz von künstlicher Intelligenz (KI) am Arbeitsplatz auseinandergesetzt hat. Einige Kernergebnisse:

  • 63 Prozent der Befragten gaben an, KI kaum oder nicht am Arbeitsplatz zu nutzen; 17 % haben noch nichts von KI-Nutzung am Arbeitsplatz gehört. Unter den 16% KI-Nutzenden sind die Altersgruppen unter 50 Jahren stärker vertreten.
  • Rund die Hälfte der Arbeitnehmenden gab an, sich Sorgen darüber zu machen, wie KI in Zukunft am Arbeitsplatz eingesetzt werden könnte; 32 Prozent der jüngeren Befragten zwischen 18 und 49 Jahren gaben an, dass sie sich über den künftigen Einsatz von KI am Arbeitsplatz freuen (50+: 24 Prozent).
  • Über alle Altersgruppen und Bildungsniveaus hinweg geht ein Drittel der Befragten davon aus, dass sich ihre Arbeitsaussichten durch KI schmälern; für ein Drittel macht das keinen Unterschied. Nur 6 Prozent (Postgraduierte: 9 Prozent) gehen davon aus, dass sich durch KI mehr Beschäftigungsoptionen ergeben.
  • Die häufigsten Verwendungszwecke für KI-Chatbots unter Arbeitnehmenden, die KI bei der Arbeit bereits nutzen, bestehen in dem Recherchieren von Informationen zu einem bestimmten Thema (57 Prozent), der Überarbeitung von Texten (52 Prozent) und dem Entwerfen von schriftlichen Inhalten (47 Prozent).
  • Unter den KI-Nutzenden gehen 40 Prozent der Befragten davon aus, dass KI-Chatbots eine schnellere Bewältigung von Arbeitsaufgaben ermöglichen; rund 30 Prozent vermuten, dass sich dadurch auch die Qualität ihrer Arbeit erhöht.

SOI Discussion Paper: Artificial Intelligence and Social Action

24. Februar 2025

In der Reihe Research Contributions to Organizational Sociology and Innovation Studies ist ein neues Discussion Paper mit dem Titel »Artificial Intelligence and Social Action. A techno-sociological contextualization« erschienen. Das Abstract:

This discussion paper contextualizes contemporary forms of artificial intelligence (AI) within the broader relationship between technology and society, and it compiles essential insights from the sociology of technology for interdisciplinary discourse. The paper begins with a concise overview of the history of artificial intelligence and situates AI within the co-evolution of technology and society. It then presents key perspectives on the interaction and distributed agency between humans and technology, identifying five fundamental levels of agency and relating these levels to the interplay of AI and social action. Throughout these considerations, it becomes evident that the expectations of human technology interaction, as well as the concepts of intelligent technology, are continually evolving and contingent upon social change. Consequently, the development and diffusion of AI should not be viewed as a primarily technology-driven phenomenon but rather as a genuine socio-technological transformation process.

Zum Discussion Paper (PDF) »


Kurze Geschichte der künstlichen Intelligenz (2)

18. Dezember 2024

Mit der Vorstellung von ChatGPT durch das Unternehmen OpenAI im Herbst 2022 und ähnlichen kurz darauf veröffentlichten Angeboten, die Texte, Bilder, Videos oder Softwarecode generieren können, sind auf Deep Learning basierende KI-Chatbots in der Alltagswelt angekommen und bieten eine Vielzahl von Anwendungsmöglichkeiten – zum Beispiel wenn es darum geht, im Büro Routineaufgaben zu erledigen, Texte zu übersetzen und visuelle Inhalte zu erstellen oder sich im Studium einen Überblick über Bücher zu verschaffen und auf Prüfungsfragen vorzubereiten.

Eine Antwort von Google Gemini auf die Anfrage »Male ein Bild von ChatGPT«

Da die Antworten von Systemen wie ChatGPT oder Google Gemini dem menschlichen Kommunikationsverhalten auf den ersten Blick oft sehr nahekommen – einschließlich der Neigung, Wissenslücken zu überdecken – entwickelte sich in der medialen Berichterstattung rasch eine enthusiastische Stimmung mit einem hohen Grad an Technikfaszination. Einige Studien scheinen diesen KI-Enthusiasmus zunächst zu bestätigen: So wurde etwa aufgezeigt, dass Sprachmodelle wie GPT-4 in der Erkennung von indirekten Aufforderungen nahezu auf menschlichem Niveau operieren, Handlungen vorhersagen können und in Konversationen als menschliche Gesprächspartner eingestuft werden (Strachan et al. 2024; McLean et al. 2023). Die entscheidende Frage bleibt jedoch, was genau in diesen Studien getestet wird bzw. welche Kriterien bei der Evaluation maschineller Intelligenz angelegt werden.

Weiterlesen »

Kurze Geschichte der künstlichen Intelligenz (1)

7. Dezember 2024

Die Geschichte der modernen KI (siehe Tabelle) beginnt mit dem Logiker, Analytiker und Mathematiker Alan Turing (1912–1954), der mit seinem »Turing-Test« die heutige Vorstellung von künstlicher Intelligenz maßgeblich geprägt hat. Er selbst nannte seinen Test »Imitation Game« und bezog ihn auf die Antworten einer Maschine im Dialog mit einem oder mehreren Menschen: Wenn das kommunikative Verhalten einer Maschine nicht mehr von menschlichem Verhalten unterscheidbar erscheint, sollte von maschineller Intelligenz gesprochen werden. Eine Maschine wäre aus dieser Perspektive folglich »intelligent«, sobald sie ihr Gegenüber erfolgreich täuschen kann.

Der Begriff »künstliche Intelligenz« tauchte erstmals in dem Förderantrag für die Dartmouth Conference auf. Dort erörterten zu dieser Zeit führende Mathematiker und Informatiker für mehrere Wochen, »how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves« (McCarthy et al. 1955).

Einen ersten öffentlichen Hype erlebte das Thema ab 1966 mit dem von Joseph Weizenbaum entwickelten Computerprogramm ELIZA, das in einer textbasierten Unterhaltung unterschiedliche Gesprächspartner simulieren kann, indem es auf Schlüsselwörter reagiert, falls diese in seinem Thesaurus zu finden sind. In Presse, Funk und Fernsehen wurde vor allem die Rolle von ELIZA als Psychotherapeutin aufgegriffen. Auf die Eingabe »Ich habe ein Problem mit meiner Mutter« lautete eine Antwort zum Beispiel: »Erzählen Sie mir mehr über Ihre Familie«.

A conversation with Eliza (Wikipedia Commons)
Weiterlesen »