KI, ChatGPT und die Wissenschaften

(Geschätzte Lesezeit: 2 - 3 Minuten)
DFG 2

DFG formuliert Leitlinien für Umgang mit generativen Modellen zur Text- und Bilderstellung

Die Deutsche Forschungsgemeinschaft (DFG) hat erste Leitlinien für den Umgang mit generativen Modellen für die Text- und Bilderstellung formuliert.

Eine jetzt veröffentlichte Stellungnahme des Präsidiums der größten Forschungsförderorganisation und zentralen Selbstverwaltungseinrichtung für die Wissenschaft in Deutschland beleuchtet den Einfluss von ChatGPT und anderen generativen KI-Modellen auf die Wissenschaften und das Förderhandeln der DFG.

Als Ausgangspunkt einer kontinuierlichen Begleitung soll das Papier sowohl Wissenschaftlerinnen und Wissenschaftlern in ihrer Arbeit als auch Antragstellenden bei der DFG sowie den am Begutachtungs-, Bewertungs- und Entscheidungsprozess beteiligten Personen eine Orientierung bieten.

Nach Ansicht des DFG-Präsidiums verändern KI-Technologien bereits jetzt den gesamten wissenschaftlichen, erkenntnisgewinnenden und kreativen Arbeitsprozess in erheblichem Maße und werden in den verschiedenen Wissenschaftsbereichen in vielfältiger, wenn auch unterschiedlicher Weise eingesetzt. Gerade bei generativen Modellen zur Text- und Bilderstellung stehe diese Entwicklung erst am Anfang.

»Der Einsatz generativer Modelle im Rahmen des wissenschaftlichen Arbeitens sollte angesichts der erheblichen Chancen und Entwicklungspotenziale keinesfalls ausgeschlossen werden«, heißt es in dem Papier: »Ihr Einsatz erfordert jedoch bestimmte verbindliche Rahmenbedingungen, um die gute wissenschaftliche Praxis und die Qualität wissenschaftlicher Ergebnisse zu sichern.« Grundlegend seien auch hier die allgemein in den Wissenschaften etablierten Standards guter wissenschaftlicher Praxis.

An konkreten Leitlinien formuliert das DFG-Präsidium, dass Wissenschaftlerinnen und Wissenschaftler bei der öffentlichen Zugänglichmachung ihrer Ergebnisse offenlegen sollten, ob und welche generativen Modelle sie zu welchem Zweck und in welchem Umfang eingesetzt haben. Dies schließt auch Förderanträge bei der DFG mit ein. Der Einsatz solcher Modelle entbinde die Forschenden dabei nicht von ihrer eigenen inhaltlichen und formalen Verantwortung für die Einhaltung der Grundprinzipien wissenschaftlicher Integrität.

In wissenschaftlichen Publikationen könnten nur die verantwortlich handelnden natürlichen Personen als Autorinnen und Autoren in Erscheinung treten, stellt das Papier fest. »Sie müssen sicherstellen, dass durch die Verwendung generativer Modelle kein fremdes geistiges Eigentum verletzt wird und kein wissenschaftliches Fehlverhalten etwa in Form von Plagiaten entsteht«, heißt es weiter.

Im Rahmen der Antragstellung bei der DFG soll der Einsatz generativer Modelle auf der Grundlage dieser Prinzipien zulässig sein. Bei der Erstellung von Gutachten hingegen sei der Einsatz mit Blick auf die Vertraulichkeit des Begutachtungsverfahrens unzulässig, stellt das Papier fest und führt weiter aus: »Zur Begutachtung bereitgestellte Unterlagen sind vertraulich und dürfen insbesondere nicht als Eingabe für generative Modelle genutzt werden.«

Hinweise an die Antragstellenden und an die am Urteilsbildungsprozess beteiligten Personen werden derzeit in der Geschäftsstelle der DFG in die entsprechenden Dokumente und technischen Systeme überführt.

Anknüpfend an diese ersten Leitlinien will die DFG in einem fortlaufenden Prozess die Chancen und möglichen Risiken des Einsatzes generativer Modelle in den Wissenschaften und in ihrem eigenen Förderhandeln analysieren und bewerten.

Eine Arbeitsgruppe »Digitaler Wandel« des DFG-Senats soll sich dabei mit übergreifenden epistemischen und fachspezifischen Fragen befassen. Mögliche Auswirkungen auf Tatbestände wissenschaftlichen Fehlverhaltens sollen in der Kommission zur Überarbeitung der DFG-Verfahrensordnung zum Umgang mit wissenschaftlichem Fehlverhalten thematisiert werden. Auch mit weiteren Stellungnahmen will die DFG zu einem »diskursiven und wissenschaftsbasierten Prozess« beim Einsatz generativer Modelle beitragen.


Jedes zweite Unternehmen bietet KI-Weiterbildung an - Engagement aber noch begrenzt
Hoher Weiterbildungsbedarf, aber geringe Umsetzung Die Ergebnisse einer repräsentativen Umfrage des Digitalverbands Bitkom zeigen, dass viele Unternehmen in Deutschland den Weiterbildungsbedarf ihrer Mitarbeiter im Bereich Künstliche Intelligenz (...
Rheinland-Pfalz: Weiterbildungspreis 2024 verliehen
Weiterbildungspreis 2024: Auszeichnung für herausragende Projekte in den Kategorien Demokratiebildung, Ehrenamt, Zielgruppenansprache, Zukunftsthemen und Netzwerkarbeit. Die gestrige Verleihung des Weiterbildungspreises 2024 in Mainz betonte die...
KI-Qualifizierungslücke in deutschen Unternehmen - Digitale Kompetenzen ausbaufähig
Deutsche Arbeitnehmende wollen KI nutzen und mehr über die Technologie wissen. Doch im Geschlechter- und Generationenvergleich werden Beschäftigte in Unternehmen ungleich gefördert. Unternehmen müssen KI-Kompetenzen fördern, um Potenziale zu...

 

 

Die fünf meistgelesenen Artikel der letzten 30 Tage in dieser Kategorie.

 

.