Kurze Geschichte der künstlichen Intelligenz (2)
18. Dezember 2024Mit der Vorstellung von ChatGPT durch das Unternehmen OpenAI im Herbst 2022 und ähnlichen kurz darauf veröffentlichten Angeboten, die Texte, Bilder, Videos oder Softwarecode generieren können, sind auf Deep Learning basierende KI-Chatbots in der Alltagswelt angekommen und bieten eine Vielzahl von Anwendungsmöglichkeiten – zum Beispiel wenn es darum geht, im Büro Routineaufgaben zu erledigen, Texte zu übersetzen und visuelle Inhalte zu erstellen oder sich im Studium einen Überblick über Bücher zu verschaffen und auf Prüfungsfragen vorzubereiten.
Da die Antworten von Systemen wie ChatGPT oder Google Gemini dem menschlichen Kommunikationsverhalten auf den ersten Blick oft sehr nahekommen – einschließlich der Neigung, Wissenslücken zu überdecken – entwickelte sich in der medialen Berichterstattung rasch eine enthusiastische Stimmung mit einem hohen Grad an Technikfaszination. Einige Studien scheinen diesen KI-Enthusiasmus zunächst zu bestätigen: So wurde etwa aufgezeigt, dass Sprachmodelle wie GPT-4 in der Erkennung von indirekten Aufforderungen nahezu auf menschlichem Niveau operieren, Handlungen vorhersagen können und in Konversationen als menschliche Gesprächspartner eingestuft werden (Strachan et al. 2024; McLean et al. 2023). Die entscheidende Frage bleibt jedoch, was genau in diesen Studien getestet wird bzw. welche Kriterien bei der Evaluation maschineller Intelligenz angelegt werden.
Voraussichtlich werden KI-Systeme in Zukunft in vielen Lebensbereichen zu alltäglichen Kommunikationspartnern werden, die erfolgreich den Eindruck erwecken, keine Maschinen zu sein. Und fraglos wird die Gesellschaft – das hat Elena Esposito (2024) pointiert herausgearbeitet – den Umgang mit diesen neuartigen Kommunikationspartnern erst noch schmerzvoll lernen müssen. Diese erweiterten Kommunikationsfähigkeiten gehen aber nicht ohne weiteres mit allgemeinen intellektuellen Kapazitäten einher, die den Leistungen des menschlichen Gehirns entsprächen. Eine erste Orientierungsgrundlage bietet hierbei die in der Informatik etablierte Unterscheidung zwischen starker und schwacher künstlicher Intelligenz:
- Schwache künstliche Intelligenz bezeichnet selbstlernende Systeme, die auf spezifische Anwendungsprobleme zugeschnitten sind. Im Vordergrund steht die informationstechnische Simulation intelligenten Verhaltens, um menschliches Denken und Handeln in einzelnen Bereichen zu unterstützen.
- Starke künstliche Intelligenz umschreibt autonom operierende Systeme, die in der Lage sind, beliebige intellektuelle Aufgabe auf menschlichem Niveau (oder besser) zu verstehen, zu erlernen und auszuführen. Je nach Definition sollten solche Systeme über einen eigenen Verstand und ein eigenes Bewusstsein verfügen oder sich zumindest so verhalten, als ob sie diese Eigenschaften besäßen.
Die bisherige Geschichte der künstlichen Intelligenz ist eine Geschichte der schwachen KI; die Entwicklung einer starken KI – oder: Artificial General Intelligence – ist allerdings das Endziel vieler (privatwirtschaftlicher) Forschungsinitiativen. Wann es dazu kommen wird bzw. wann Maschinen die Ebene der intentionalen Steuerung und Deutung des eigenen Handelns erreichen werden, ist Gegenstand intensiver Debatten. Die Prognosen dazu reichen von wenigen Jahren über Jahrzehnte bis hin zu Jahrhunderten. Sam Altman, CEO von OpenAI, hat jüngst überdies die Erwartungen an allgemeine künstliche Intelligenz und ihre Bedeutung gedämpft.
Der Informatiker und Kognitionswissenschaftler Rodney A. Brooks wiederum äußerte sich bereits in einem Interview im Sommer 2023 zurückhaltend gegenüber rezenten Formen generativer künstlicher Intelligenz: Da generative KI-Systeme wie ChatGPT auf künstlichen neuronalen Netzen basieren, die sprachliche Daten korrelieren, hätten sie keine direkte Verbindung zu ihrer Umwelt und »kein zugrunde liegendes Modell der Welt«. Large Language Models seien gut darin, »zu sagen, wie eine Antwort klingen sollte, aber das ist etwas anderes als das, was eine Antwort sein sollte« (eigene Übersetzung). Hinzu komme, dass die Wissenschaft bisher weder ein vollständiges Verständnis der Prozesse im menschlichen Gehirn entwickelt habe noch sämtliche Lernprozesse in künstlichen neuronalen Netzen rekonstruieren könne – was ein hohes Maß an Kanalisierung und Kontrolle im Betrieb solcher KI-Systeme notwendig mache.
Thesen zu einer drohenden Massenarbeitslosigkeit durch den Einsatz von KI tut das keinen Abbruch. Zum einen kommen solche Prognosen aus der IT-Industrie selbst, die natürlich ein hohes Interesse an weitreichenden Technikerwartungen hat. So kommt zum Beispiel ein vielzitiertes Papier aus dem Unternehmen OpenAI zu dem Ergebnis, dass KI-Modelle wie GPT und darauf basierende Software in den USA künftig bis zu 56 Prozent aller Arbeitsaufgaben übernehmen könnten, wobei Positionen mit höherem Einkommen potenziell stärker davon betroffen seien (Eloundou et al. 2024).
Zum anderen vertreten aber auch viele Personen und Institutionen des öffentlichen Zeitgeschehens ähnliche Ansichten. Der Pop-Philosoph Richard David Precht (2024: 291–308) etwa beschreibt einen Wandel von der »Erwerbsarbeitsgesellschaft« zu einer »Sinngesellschaft«, die durch zwei Pole gekennzeichnet sei: »Massenarbeitslosigkeit durch digitalen Fortschritt« und »digitale Selbstermächtigung jedes Einzelnen«. Der Internationale Währungsfonds vermutete in einem Diskussionspapier Anfang 2024, dass weltweit bis zu 40 Prozent und in den OECD-Ländern bis zu 60 Prozent der Erwerbsarbeit von dem Einsatz von KI betroffen sein könnten (Cazzaniga et al. 2024).
Technikhistorisch betrachtet stehen solche Aussagen in einer langen Tradition ähnlicher Befürchtungen, die nicht erst mit dem Buch »The End of Work« (Rifkin 1995), sondern bereits mit dem Beginn der Industrialisierung ihren Anfang nahm. Und in der Tat führten Technikumbrüche regelmäßig zu einer Neuverteilung von Arbeit: So gingen mit der Maschinisierung zahlreiche Arbeitsplätze im Handwerk verloren; mit der Automatisierung vieler Produktionsprozesse in der Industrie sank später wiederum deren Anteil an der Gesamtbeschäftigung. Zugleich entstanden aber auch zahlreiche neue Berufsfelder, so etwa im IT-Bereich. Einige der mit der Technisierung verschwundenen Berufe würden heute wohl nur noch wenige gerne ausüben.
Seit den ersten mechanischen Apparaten unterliegen körperliche Arbeiten der Technisierung und seit der Informatisierung sind davon auch kognitive Routineleistungen betroffen – sofern der Technikeinsatz günstiger erscheint als menschliche Arbeitskraft. Welchen Verlauf der weitere soziotechnische Wandel um intelligente Technik nehmen wird und welche Folgen damit für die soziale Ordnung einhergehen werden, ist aus techniksoziologischer Sicht freilich weniger eine Frage der technischen Kapazitäten, sondern vor allem eine Frage des gesellschaftlichen Umgangs damit. Die gegenwärtige Phase der Innovation und Diffusion, in der sich Schritt für Schritt neue Muster der Techniknutzung um autonom operierende Technik verfestigen, geht mit mannigfaltigen sozialen Aushandlungsprozessen einher, in denen sich die Gesellschaft erst allmählich über die Ambivalenzen der neuen Möglichkeitsräume bewusst wird.