Chancen, Potenziale und Grenzen von ChatGPT in der Bildung

(Geschätzte Lesezeit: 2 - 4 Minuten)
 Künstliche Intelligenz AI KI

Stellungnahme des DFKI Labor Berlin

Der potenzielle Einsatz von ChatGPT in der Bildung wird aktuell kontrovers diskutiert. Das DFKI Labor Berlin plädiert für eine sachliche Einschätzung und warnt vor Software, die vorgibt, von ChatGPT-generierte Texte automatisch erkennen zu können.

ChatGPT ist in der Lage, viele Übungs- und Prüfungsaufgaben korrekt zu beantworten. Dies hat bei vielen Stakeholdern in der Bildung zu Sorge vor künstlich generierten Lösungen geführt. Das DFKI Labor Berlin plädiert dafür, Potenziale und Grenzen der Technologie sachlich einzuschätzen und warnt vor Software, die vorgibt, von ChatGPT-generierte Texte automatisch erkennen zu können.

Was ist ChatGPT?

Der Kern von ChatGPT ist ein so genanntes Sprachmodell (aus der GPT-3-Familie der Firma OpenAI), das darauf trainiert wurde, Texte zu vervollständigen.

Das heißt: Gegeben ein Textfragment, setzt GPT-3 dieses Textfragment beliebig fort. Als Trainingsdaten wurde eine gewaltige Menge größtenteils englisch-sprachiger Texte aus dem Internet der vergangenen Jahre verwendet. ChatGPT ist eine Erweiterung von GPT-3 und wurde mit menschlichem Feedback darauf trainiert, Texte zu erzeugen, die wie hilfreiche Antworten auf eingegebene, menschliche Gesprächsbeiträge wirken.

Dies leistet das System auch bei vielen Anfragen sehr gut. Trotzdem bleibt ChatGPT im Kern eine Maschine zur wahrscheinlichkeitsbasierten, syntaktischen Vervollständigung von Texten. Diese Maschine modelliert keine Denkprozesse, hat kein Bewusstsein, kein Urteilsvermögen bezüglich wahrer oder falscher Aussagen und keinen (expliziten) Sinn für die Bedeutung dessen, was eingegeben oder generiert wird.

Welches Potenzial hat ChatGPT für die Bildung?

ChatGPT kann vielfältig im Bildungsbereich eingesetzt werden, zum Beispiel zum Paraphrasieren, Erweitern oder Kürzen von selbst verfassten Texten (sowohl Lehrmaterial als auch Texte von Lernenden). Interessant ist das unterliegende Sprachmodell GPT-3 auch als Modul für Tutoring-Programme, die das Lernen unterstützen sollen. Sprachmodelle können etwa dabei helfen, unter mehreren möglichen Hilfestellungen die richtige auszuwählen oder Lerninhalte zu finden, die zu einem Thema passen.

Auch kann mit ChatGPT ein individueller Dialog zwischen Lernenden und Lernsystem entstehen, um zur intensiven Beschäftigung und zum Hinterfragen des Themas zu animieren. Solche Potenziale erforscht das Educational Technology Lab aktiv in Forschungsprojekten wie tech4compKI, KIPerWeb oder KI Campus 2.0. Das DFKI ist ebenfalls am Projekt OpenGPT-X beteiligt, um frei verfügbare und mehrsprachige Sprachmodelle zu entwickeln – als Alternativen zum proprietären Modell GPT-3.

Was sind die Grenzen von ChatGPT?

Das DFKI Labor Berlin warnt davor, ChatGPT direkt und unreflektiert zur Erzeugung von Text im Bildungsbereich zu verwenden. Die generierten Texte wirken oberflächlich plausibel, können aber »Plagiate« aus den Trainingsdaten sein, können Biases aus den Trainingsdaten reproduzieren und enthalten häufig subtile, manchmal auch schwerwiegende Fehler. Ein kürzlich erschienenes Preprint [1] etwa weist darauf hin, dass Menschen beim Programmieren mit Hilfe von Werkzeugen wie ChatGPT Code erzeugen können, der mehr Sicherheitslücken enthält, gleichzeitig aber glauben, weniger Sicherheitslücken verursacht zu haben. Auch eine Quellenarbeit ist mit ChatGPT aktuell nicht möglich. Die generierten Texte bedürfen deshalb einer sorgfältigen, menschlichen Prüfung.

Wie wird sich die Bildung mit ChatGPT verändern?

Wie sich das Bildungswesen mit neuen Technologien verändert, ist keine allein technische Frage, sondern sollte in interdisziplinären Runden mit allen Beteiligten und Betroffenen erarbeitet werden. Das DFKI Labor Berlin warnt aber davor, Maßnahmen zu ergreifen, die das Vertrauensverhältnis zwischen Lernenden und Lehrenden untergraben. Insbesondere bitten wir um Vorsicht im Hinblick auf Software, die vorgibt, durch ChatGPT erzeugte Texte automatisch zu erkennen. Solche Software könnte dazu führen, viele Lernende zu Unrecht zu verdächtigen.

Ein Rechenbeispiel: Selbst der Detektor des Herstellers openAI erkennt nur 26% der künstlich generierten Texte und verdächtigt fälschlicherweise 9% der menschlich generierten Texte [2]. Wenn tatsächlich 10% der Lernenden künstlich generierte Texte einreichen, wären weniger als 25% der durch die »Erkennungssoftware« verdächtigten Texte auch wirklich von ChatGPT geschrieben.

Verfasst von:
Prof. Dr. Niels Pinkwart – Forschungsbereichsleiter Educational Technology Lab
Dr. Benjamin Paaßen – Stellv. Forschungsbereichsleiter Educational Technology Lab
Dr. Aljoscha Burchardt – Principal Researcher Speech & Language Technology

[1] Perry, N.; Srivastava, M.; Kumar, D.; Boneh, D. (2022). Do Users Write More Insecure Code with AI Assistants? https://arxiv.org/abs/2211.03622

[2] OpenAI (2023). New AI classifier for indicating AI-written text https://openai.com/blog/new-ai-classifier-for-indicating-ai-written-text/


Jedes zweite Unternehmen bietet KI-Weiterbildung an - Engagement aber noch begrenzt
Hoher Weiterbildungsbedarf, aber geringe Umsetzung Die Ergebnisse einer repräsentativen Umfrage des Digitalverbands Bitkom zeigen, dass viele Unternehmen in Deutschland den Weiterbildungsbedarf ihrer Mitarbeiter im Bereich Künstliche Intelligenz (...
Rheinland-Pfalz: Weiterbildungspreis 2024 verliehen
Weiterbildungspreis 2024: Auszeichnung für herausragende Projekte in den Kategorien Demokratiebildung, Ehrenamt, Zielgruppenansprache, Zukunftsthemen und Netzwerkarbeit. Die gestrige Verleihung des Weiterbildungspreises 2024 in Mainz betonte die...
KI-Qualifizierungslücke in deutschen Unternehmen - Digitale Kompetenzen ausbaufähig
Deutsche Arbeitnehmende wollen KI nutzen und mehr über die Technologie wissen. Doch im Geschlechter- und Generationenvergleich werden Beschäftigte in Unternehmen ungleich gefördert. Unternehmen müssen KI-Kompetenzen fördern, um Potenziale zu...

Die fünf meistgelesenen Artikel der letzten 30 Tage in dieser Kategorie.

 

  • »Mein Bildungsraum« in der Kritik

    Kurzbesprechung des Artikels »Digitalisierung: Großprojekt des Bundes "Mein Bildungsraum" in der Kritik« von Dorothee Wiegand Der Artikel von Dorothee Wiegand (veröffentlicht auf heise.de) bietet einen umfassenden Überblick zum BMBF-Projekt »Mein...

  • Informatikunterricht in Deutschland: Große Fortschritte, aber noch viel zu tun

    Informatik-Monitor 2024/25: Fortschritte und Herausforderungen  Im Schuljahr 2024/25 werden fast drei Viertel aller Schülerinnen und Schüler Informatik als Pflichtfach belegen. Das geht aus dem aktuellen Informatik-Monitor 2024/25 hervor, den die...

  • Bildungsplattform »Mein NOW«: Potenzial ungenutzt

    Portal »mein NOW«: Kritik an Usability und Zielgruppenansprache Die Bildungsjournalistin Gudrun Porath hat in einer Kolumne auf Haufe.de das Online-Portal »mein NOW« kritisch beleuchtet und kommt zu dem Schluss, dass die Weiterbildungsplattform »hinter den...

  • Anhörung zum AFBG: Experten für die Förderung beruflicher Weiterbildung

    Der von der Bundesregierung vorgelegte Gesetzentwurf zur Änderung des Aufstiegsfortbildungsförderungsgesetzes (AFBG), der insbesondere der Stärkung der beruflichen Weiterbildung und Fachkräftesicherung dienen soll, ist bei einer öffentlichen...

  • Fünf Wege zu mehr Flexibilität: Empfehlungen für die nachschulische Bildung

    Übergänge in Ausbildung und Studium - Wie die Politik in Zeiten des Fachkräftemangels nachschulische Bildung gestalten muss Expert*innen plädieren für mehr Flexibilität in der nachschulischen Bildung Der deutsche Arbeitsmarkt steht vor einer großen...

 

 

.