Mit der Vorstellung von ChatGPT durch das Unternehmen OpenAI im Herbst 2022 und ähnlichen kurz darauf veröffentlichten Angeboten, die Texte, Bilder, Videos oder Softwarecode generieren können, sind auf Deep Learning basierende KI-Chatbots in der Alltagswelt angekommen und bieten eine Vielzahl von Anwendungsmöglichkeiten – zum Beispiel wenn es darum geht, im Büro Routineaufgaben zu erledigen, Texte zu übersetzen und visuelle Inhalte zu erstellen oder sich im Studium einen Überblick über Bücher zu verschaffen und auf Prüfungsfragen vorzubereiten.
Da die Antworten von Systemen wie ChatGPT oder Google Gemini dem menschlichen Kommunikationsverhalten auf den ersten Blick oft sehr nahekommen – einschließlich der Neigung, Wissenslücken zu überdecken – entwickelte sich in der medialen Berichterstattung rasch eine enthusiastische Stimmung mit einem hohen Grad an Technikfaszination. Einige Studien scheinen diesen KI-Enthusiasmus zunächst zu bestätigen: So wurde etwa aufgezeigt, dass Sprachmodelle wie GPT-4 in der Erkennung von indirekten Aufforderungen nahezu auf menschlichem Niveau operieren, Handlungen vorhersagen können und in Konversationen als menschliche Gesprächspartner eingestuft werden (Strachan et al. 2024; McLean et al. 2023). Die entscheidende Frage bleibt jedoch, was genau in diesen Studien getestet wird bzw. welche Kriterien bei der Evaluation maschineller Intelligenz angelegt werden.
Die Geschichte der modernen KI (siehe Tabelle) beginnt mit dem Logiker, Analytiker und Mathematiker Alan Turing (1912–1954), der mit seinem »Turing-Test« die heutige Vorstellung von künstlicher Intelligenz maßgeblich geprägt hat. Er selbst nannte seinen Test »Imitation Game« und bezog ihn auf die Antworten einer Maschine im Dialog mit einem oder mehreren Menschen: Wenn das kommunikative Verhalten einer Maschine nicht mehr von menschlichem Verhalten unterscheidbar erscheint, sollte von maschineller Intelligenz gesprochen werden. Eine Maschine wäre aus dieser Perspektive folglich »intelligent«, sobald sie ihr Gegenüber erfolgreich täuschen kann.
Der Begriff »künstliche Intelligenz« tauchte erstmals in dem Förderantrag für die Dartmouth Conference auf. Dort erörterten zu dieser Zeit führende Mathematiker und Informatiker für mehrere Wochen, »how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves« (McCarthy et al. 1955).
Einen ersten öffentlichen Hype erlebte das Thema ab 1966 mit dem von Joseph Weizenbaum entwickelten Computerprogramm ELIZA, das in einer textbasierten Unterhaltung unterschiedliche Gesprächspartner simulieren kann, indem es auf Schlüsselwörter reagiert, falls diese in seinem Thesaurus zu finden sind. In Presse, Funk und Fernsehen wurde vor allem die Rolle von ELIZA als Psychotherapeutin aufgegriffen. Auf die Eingabe »Ich habe ein Problem mit meiner Mutter« lautete eine Antwort zum Beispiel: »Erzählen Sie mir mehr über Ihre Familie«.
Gerade ist der Band »Utopien im Unterricht. Theoretische Verortungen – Fächerperspektiven – praktische Beispiele« (herausgegeben von Heinrich Ammerer, Margot Anglmayer-Geelhaar, Robert Hummer und Markus Oppolzer, Open Access) erschienen: »Im ersten Teil des Bandes führen fachübergreifende Grundlagenbeiträge aus verschiedenen Disziplinen in den Themenkomplex ein und bieten sowohl Schlaglichter auf Erscheinungsformen des Utopischen in unterschiedlichen kulturellen Kontexten als auch grundlegende Definitionen zentraler Begriffe. Die anschließenden fachdidaktischen Beiträge loten den Beitrag der jeweiligen Disziplin zur Entwicklung eines reflektierten Umgangs mit Utopien aus und stellen methodische Zugänge für den Unterricht (inklusive eines Praxisbeispiels) vor.«
Mein Beitrag im Band setzt sich mit digitalen Technikutopien auseinander und kommt zu dem Schluss, dass sich im aktuellen Diskurs (z.B. unter dem Stichwort ›künstliche Intelligenz‹) »viele Erwartungen widerspiegeln, die bereits in früheren Phasen der Computerisierung, Datafizierung und Digitalisierung diskutiert worden sind – von der Angst vor einer Invasion der Privatsphäre bzw. einem Autonomieverlust des Menschen bis hin zu vielfältigen positiven Visionen einer technikbeförderten Lösung großer gesellschaftlicher Herausforderungen (z.B. Klimakrise) […]. Und ähnlich wie in früheren Phasen technologischen Umbruchs treten auch heute die Figuren des berauschten Evangelisten, des besorgten Apokalyptikers und des praktisch Integrierten auf […].« Den Sozialwissenschaften spricht der Beitrag gerade im gegenwärtigen Stadium eine zentrale Rolle zu:
»Aus ihrer kritisch-distanzierten Perspektive können sie zum ersten ein Gegengewicht zu der verbreiteten Überzeugung bieten, dass technische Strukturen per se die Lösung grundsätzlicher gesellschaftlicher Probleme einleiten könnten und blanke Zahlen bei einer hinreichend breiten Datenbasis für sich sprechen.
Twenty-first-century Western culture is characterized by profound transformations in its forms of collective organization. While traditional institutions of Western liberal democracies still wield significant political power, new forms of collective agency – most visible in progressive social protest movements, but also in the global rise of populism – have increasingly put pressure on established systems of collective organization. The contributors to this volume explore the social, political, and aesthetic forms that collective agency takes in the twenty-first century across a variety of media, including social platforms such as TikTok, multiplayer video games, and contemporary lyric poetry.
»[…] Schrape macht deutlich, dass sich Luhmanns Theorie aus der erkenntnistheoretischen Perspektive des operativen Konstruktivismus ›als eine Theorie gesellschaftlicher Wirklichkeitskonstruktion lesen [lässt]‹ (S. 3) – womit er bei allen, die in die Kommunikationswissenschaft eingeführt wurden mit der ›Wirklichkeit der Medien‹ (Merten/Schmidt/Weischenberg 1994), offene Türen einrennt bzw. diese unter den Vorzeichen der digitalisierten Mediengesellschaft noch einmal neu durchschreitet.
[…] Ein Schlüsselsatz ist in diesem Teil für mich der folgende: ›Diese Kontingenz aller Wirklichkeitssichten tritt in der digitalisierten Gesellschaft angesichts der Vielzahl an Informations- und Kommunikationsmöglichkeiten so offenkundig zutage wie niemals zuvor‹. Wir erleben also eine Art Konstruktivismus zum Anfassen: In der digitalisierten Gesellschaft und insbesondere in den sozialen Medien wird die (ohnehin) polykontexturale Gesellschaft mit ihrem ›Nebeneinander unterschiedlicher Wirklichkeitssichten‹ (S. 19) zur Alltagserfahrung.
[…] Insgesamt ist der Text für mich ein Musterbeispiel dafür, wie man komplexe Themen und Theorien allgemeinverständlich ausdrücken und auf ihre wesentlichen Kernaussagen fokussieren kann, ohne dabei auf eine unangemessene Weise zu simplifizieren. […] Wenn man der digital(isiert)en Gesellschaft etwas verordnen möchte, dann ist es eine breite und allgemeinverständliche Auseinandersetzung mit konstruktivistischer Erkenntnistheorie – anders scheint sie kaum mehr zu begreifen und auch nicht zu zähmen. Es führt kein Weg daran vorbei, dass sie sich reflexiv und breit mit ihren digitalen Medien und Wirklichkeitskonstruktionen auseinandersetzt. Hierfür leistet der Band von Jan-Felix Schrape einen wichtigen Beitrag und man möchte ihm die breite Leserschaft (auch in Schulen!) wünschen, die das Thema braucht.«
Vor genau einem Jahr hat der Informatiker, streitbare Technikphilosoph und Digitalfuturist Jaron Lanier im Magazin The New Yorker ein diskussions- und kritikwürdiges Textstück mit dem Titel »There is no A.I.« veröffentlicht.
Sein Kernargument: Eine ›künstliche Intelligenz‹, so wie sie in den letzten Jahren im öffentlichen (und auch sozialwissenschaftlichen) Diskurs adressiert und imaginiert worden ist, gibt es bislang nicht – und wird es auch in absehbarer Zeit nicht geben. Schon der schiere Begriff ›künstliche Intelligenz‹ (KI) führe zu einer Reihe an Missverständnissen und lasse falsche Technikvorstellungen aufkommen:
Hermann C. Flessner hat 1978 im Spiegel das Buch »Die Macht der Computer und die Ohnmacht der Vernunft« des kritischen Informatikers Joseph Weizenbaum (1923–2008) besprochen. Nachfolgend einige Auszüge aus diesem Artikel, die auch im Zeitalter »künstlicher Intelligenz« nicht an Aktualität eingebüßt haben: