Steffen Albrecht: „Die Gesellschaft muss sich klarmachen, auf was sie sich mit ChatGPT einlässt.“
ChatGPT – eine Computersoftware der Firma Open AI, die mithilfe Künstlicher Intelligenz auf die Verarbeitung sprachlicher Daten trainiert wurde – hat seit ihrer Einführung im November 2022 weltweit für Aufmerksamkeit gesorgt. Im Auftrag des Bundestagsausschusses für Bildung, Forschung und Technikfolgenabschätzung hat das vom Karlsruher Institut für Technologie (KIT) betriebene Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) am 26.04.2023 eine umfassende Einschätzung dieses technologischen Durchbruchs in der digitalen Sprachverarbeitung vorgelegt.
„Es ist sinnvoll, jetzt eine breite Debatte darüber zu führen, wie wir mit KI-Systemen umgehen wollen“, betont Dr. Steffen Albrecht vom Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT, das auch das TAB betreibt. Albrecht ist Autor der jetzt veröffentlichten Studie ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen. „Die Gesellschaft“, so Albrecht, „muss sich klarmachen, auf was sie sich da einlässt und welche Regeln wir vereinbaren wollen. Das System birgt ebenso zahlreiche Chancen wie Risiken. Unsere Studie liefert ein Nebeneinander von Pro und Contra, das lässt sich im Moment noch nicht vermeiden. Für eine klare Bewertung ist es derzeit noch zu früh.“
Im Einzelnen beschreibt das rund 100-seitige Hintergrundpapier des TAB die Technik, auf der ChatGPT aufsetzt, ihre Möglichkeiten und Grenzen, die potenziellen Anwendungen des Chatbots sowie mögliche gesellschaftliche Auswirkungen. Das scheinbar grenzenlose Wissen der Dialog-KI und ihre verblüffende, blitzschnelle Eloquenz führt Soziologe Albrecht auf zwei technologische Durchbrüche zurück: „Diese neue Art künstlicher neuronaler Netzwerke, die sogenannten Transformermodelle, ermöglicht erstens eine besonders effiziente Umwandlung von Sprache in mathematische Parameter. Dadurch können zweitens die Komplexität dieser Computermodelle und die Menge der für ihr Training verwendeten Daten enorm vergrößert werden.“ So greift das ChatGPT zugrundeliegende Computermodell auf 175 Milliarden Parameter und auf ein Trainingsmaterial von 300 Milliarden Textbestandteilen zurück.
Für Chatbots derartiger Potenz ergeben sich laut Steffen Albrecht eine Reihe plausibler Einsatzmöglichkeiten: „Viele menschliche Tätigkeiten, die mit der Verarbeitung von Texten verbunden sind, lassen sich nun zumindest teilweise automatisieren. Weitere Perspektiven ergeben sich durch die multimodale Ausdehnung auf Bilder und Töne.“ Solche Entlastungs- beziehungsweise. Rationalisierungseffekte betreffen künftig nicht nur Bereiche wie Journalismus, Unternehmenskommunikation oder Dialoge mit Kundinnen und Kunden, sondern auch Tätigkeiten wie Programmierung und Rechtsberatung, die bisher nicht betroffen waren. „Da die KI-Systeme in natürlicher Sprache angesprochen werden können, könnten sie, wo erforderlich, zugleich als leicht bedienbare Schnittstelle für andere Computersysteme genutzt werden.“ Positive Effekte könnten sich Albrecht zufolge auch für die Inklusion behinderter Menschen ergeben: „Noch immer sind erst wenige Texte in leichte Sprache übersetzt, hier könnte künftig ChatGPT einen Beitrag leisten.“
Allem medialen Wirbel zum Trotz sollte die öffentliche Debatte über Computermodelle wie ChatGPT auch deren Grenzen und Risiken einbeziehen. „Der Output von Computermodellen kann nur so gut sein wie das, was sie an Input erhalten haben. Ein in den Trainingsdaten enthaltener Bias, also eine verzerrte Repräsentation bestimmter Kategorien, kann sich in den Antworten des Systems widerspiegeln und Diskriminierung verstärken“, sagt Albrecht. Zudem sind die vom System erzeugten Informationen häufig schlicht falsch: „Aufgrund der hohen sprachlichen Qualität und in Ermangelung von Belegen lässt sich die Korrektheit jedoch nur schwer überprüfen, wodurch das Vertrauen in die Verlässlichkeit von Informationen im Allgemeinen sinken kann. Eine verantwortliche Anwendung von ChatGPT sollte sich auf solche Gebiete beschränken, in denen die Nutzenden die Qualität der Ergebnisse beurteilen können beziehungsweise die faktische Richtigkeit weniger bedeutsam ist“, resümiert der Karlsruher Forscher. Daneben diskutiert die Studie konkrete Risiken wie eine Zunahme als solcher nicht erkennbarer computergenerierter Texte in privater und öffentlicher Kommunikation, effektivere Angriffe auf die Computersicherheit oder größere Mengen bewusst schädigend eingesetzter Texte, die das Vertrauen in den öffentlichen Diskurs beziehungsweise die demokratische Meinungsbildung untergraben.
Einen Schwerpunkt legt die Technikfolgen-Studie des TAB auf die Bereiche Bildung und Forschung.
Den Hoffnungen von Lehrkräften auf Entlastung von Routineaufgaben und auf eine Erweiterung didaktischer Möglichkeiten stehen dem Papier zufolge Befürchtungen eines Verlusts von Bildungskompetenzen, missbräuchlicher Verwendungen in Prüfungen sowie Datenschutzbedenken gegenüber. „Ich kann mir gut vorstellen“, so Steffen Albrecht, „dass Schulkinder und Studierende künftig nicht mehr nur einen fertigen Text abgeben, sondern dass sie sich schon viel früher mit ihren Lehrkräften darüber auch austauschen. Etwa über die Entwicklung einer Fragestellung, über die Suche nach Quellen oder den Aufbau einer Argumentation. Gerade im Umgang mit Quellen kann ein KI-System wie ChatGPT nur sehr bedingt helfen.“
In der Wissenschaft könnten Programme wie ChatGPT die Zahl der Betrugsfälle steigen lassen: „Schon heute herrscht ein hoher Druck, möglichst viel zu publizieren. Es ist also leicht vorstellbar, dass sich Forschende dazu verleiten lassen, ein KI-System ihre Studien schreiben zu lassen. Gleichzeitig deutet sich aber an, dass das System beim wissenschaftlichen Schreiben auch hilfreich sein könnte, zum Beispiel wenn es darum geht, die relevante Literatur zusammenzufassen oder in einer anderen als der Muttersprache zu publizieren“, stellt Albrecht fest.
->Quellen und weitere Informationen