Mit der Vorstellung von ChatGPT durch das Unternehmen OpenAI im Herbst 2022 und ähnlichen kurz darauf veröffentlichten Angeboten, die Texte, Bilder, Videos oder Softwarecode generieren können, sind auf Deep Learning basierende KI-Chatbots in der Alltagswelt angekommen und bieten eine Vielzahl von Anwendungsmöglichkeiten – zum Beispiel wenn es darum geht, im Büro Routineaufgaben zu erledigen, Texte zu übersetzen und visuelle Inhalte zu erstellen oder sich im Studium einen Überblick über Bücher zu verschaffen und auf Prüfungsfragen vorzubereiten.
Da die Antworten von Systemen wie ChatGPT oder Google Gemini dem menschlichen Kommunikationsverhalten auf den ersten Blick oft sehr nahekommen – einschließlich der Neigung, Wissenslücken zu überdecken – entwickelte sich in der medialen Berichterstattung rasch eine enthusiastische Stimmung mit einem hohen Grad an Technikfaszination. Einige Studien scheinen diesen KI-Enthusiasmus zunächst zu bestätigen: So wurde etwa aufgezeigt, dass Sprachmodelle wie GPT-4 in der Erkennung von indirekten Aufforderungen nahezu auf menschlichem Niveau operieren, Handlungen vorhersagen können und in Konversationen als menschliche Gesprächspartner eingestuft werden (Strachan et al. 2024; McLean et al. 2023). Die entscheidende Frage bleibt jedoch, was genau in diesen Studien getestet wird bzw. welche Kriterien bei der Evaluation maschineller Intelligenz angelegt werden.
Die Geschichte der modernen KI (siehe Tabelle) beginnt mit dem Logiker, Analytiker und Mathematiker Alan Turing (1912–1954), der mit seinem »Turing-Test« die heutige Vorstellung von künstlicher Intelligenz maßgeblich geprägt hat. Er selbst nannte seinen Test »Imitation Game« und bezog ihn auf die Antworten einer Maschine im Dialog mit einem oder mehreren Menschen: Wenn das kommunikative Verhalten einer Maschine nicht mehr von menschlichem Verhalten unterscheidbar erscheint, sollte von maschineller Intelligenz gesprochen werden. Eine Maschine wäre aus dieser Perspektive folglich »intelligent«, sobald sie ihr Gegenüber erfolgreich täuschen kann.
Der Begriff »künstliche Intelligenz« tauchte erstmals in dem Förderantrag für die Dartmouth Conference auf. Dort erörterten zu dieser Zeit führende Mathematiker und Informatiker für mehrere Wochen, »how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves« (McCarthy et al. 1955).
Einen ersten öffentlichen Hype erlebte das Thema ab 1966 mit dem von Joseph Weizenbaum entwickelten Computerprogramm ELIZA, das in einer textbasierten Unterhaltung unterschiedliche Gesprächspartner simulieren kann, indem es auf Schlüsselwörter reagiert, falls diese in seinem Thesaurus zu finden sind. In Presse, Funk und Fernsehen wurde vor allem die Rolle von ELIZA als Psychotherapeutin aufgegriffen. Auf die Eingabe »Ich habe ein Problem mit meiner Mutter« lautete eine Antwort zum Beispiel: »Erzählen Sie mir mehr über Ihre Familie«.
Mitte Oktober ist die 19. Shell Jugendstudie erschienen. Sie basiert auf standardisierten Interviews mit 2.509 Jugendlichen zwischen 12 bis 25 Jahren, die Anfang 2024 durchgeführt wurden, sowie einer vertiefenden qualitativen Studie mit 20 Jugendlichen. Im ausführlichen Studienband findet sich auch ein Kapitel zum »Leben in der digitalen Informationsgesellschaft« (S. 167–184), das u.a. mit folgenden Einsichten aufwarten kann:
In der Ära der digitalen Medienkonvergenz hat die ARD/ZDF-Forschungskommission das Richtige getan und die seit Mitte der 1960er-Jahre erhobene Langzeitstudie Massenkommunikation und die seit 1997 erhobene ARD/ZDF-Onlinestudie zusammengelegt. Damit finden sich umfangreiche repräsentative Daten zum Wandel der Mediennutzung in Deutschland künftig gesammelt in der ARD/ZDF-Medienstudie, die vermutlich auch in den kommenden Jahren zum Herbstbeginn publiziert wird. Die Ergebnisse der Studien seit 1997 finden sich im Archiv der angeschlossenen Fachzeitschrift Media Perspektiven.
Die aus Langfristperspektive eher weniger überraschenden Ergebnisse der 2024er-Studie (Erhebungszeitraum: Februar bis Mai 2024) finden sich hier:
»[…] Schrape macht deutlich, dass sich Luhmanns Theorie aus der erkenntnistheoretischen Perspektive des operativen Konstruktivismus ›als eine Theorie gesellschaftlicher Wirklichkeitskonstruktion lesen [lässt]‹ (S. 3) – womit er bei allen, die in die Kommunikationswissenschaft eingeführt wurden mit der ›Wirklichkeit der Medien‹ (Merten/Schmidt/Weischenberg 1994), offene Türen einrennt bzw. diese unter den Vorzeichen der digitalisierten Mediengesellschaft noch einmal neu durchschreitet.
[…] Ein Schlüsselsatz ist in diesem Teil für mich der folgende: ›Diese Kontingenz aller Wirklichkeitssichten tritt in der digitalisierten Gesellschaft angesichts der Vielzahl an Informations- und Kommunikationsmöglichkeiten so offenkundig zutage wie niemals zuvor‹. Wir erleben also eine Art Konstruktivismus zum Anfassen: In der digitalisierten Gesellschaft und insbesondere in den sozialen Medien wird die (ohnehin) polykontexturale Gesellschaft mit ihrem ›Nebeneinander unterschiedlicher Wirklichkeitssichten‹ (S. 19) zur Alltagserfahrung.
[…] Insgesamt ist der Text für mich ein Musterbeispiel dafür, wie man komplexe Themen und Theorien allgemeinverständlich ausdrücken und auf ihre wesentlichen Kernaussagen fokussieren kann, ohne dabei auf eine unangemessene Weise zu simplifizieren. […] Wenn man der digital(isiert)en Gesellschaft etwas verordnen möchte, dann ist es eine breite und allgemeinverständliche Auseinandersetzung mit konstruktivistischer Erkenntnistheorie – anders scheint sie kaum mehr zu begreifen und auch nicht zu zähmen. Es führt kein Weg daran vorbei, dass sie sich reflexiv und breit mit ihren digitalen Medien und Wirklichkeitskonstruktionen auseinandersetzt. Hierfür leistet der Band von Jan-Felix Schrape einen wichtigen Beitrag und man möchte ihm die breite Leserschaft (auch in Schulen!) wünschen, die das Thema braucht.«
Vor genau einem Jahr hat der Informatiker, streitbare Technikphilosoph und Digitalfuturist Jaron Lanier im Magazin The New Yorker ein diskussions- und kritikwürdiges Textstück mit dem Titel »There is no A.I.« veröffentlicht.
Sein Kernargument: Eine ›künstliche Intelligenz‹, so wie sie in den letzten Jahren im öffentlichen (und auch sozialwissenschaftlichen) Diskurs adressiert und imaginiert worden ist, gibt es bislang nicht – und wird es auch in absehbarer Zeit nicht geben. Schon der schiere Begriff ›künstliche Intelligenz‹ (KI) führe zu einer Reihe an Missverständnissen und lasse falsche Technikvorstellungen aufkommen: