„Es ist, als würden wir einen Kredit aufnehmen“
Beim Tag der guten wissenschaftlichen Praxis standen Künstliche Intelligenz und ihre Nutzung in der Wissenschaft im Fokus / Außerdem: Auszeichnung für Karina Kriegesmann
08.12.2025
Am Tag der guten wissenschaftlichen Praxis laden die Koordinationsstelle für wissenschaftliche Integrität und die zentralen Ombudspersonen jedes Jahr zu Vorträgen, Workshops und Diskussionen ein.
Bildquelle: Michael Fahrig
Künstliche Intelligenz (KI) verändert die Wissenschaft. Gehen uns dadurch geistige Fähigkeiten verloren, erodieren wissenschaftliche Standards? Ein Umdenken ist unerlässlich, um Chancen zu nutzen und Risiken zu minimieren, so das Fazit aus einer Podiumsdiskussion über KI in der Wissenschaft, die am 19. November 2025 im Forschungsbau SupraFAB stattfand.
Die Koordinationsstelle für wissenschaftliche Integrität hatte im Rahmen des Tags der guten wissenschaftlichen Praxis dazu eingeladen. Moderiert wurde das Gespräch von Professorin Sabine Kropp, Leiterin der Arbeitsstelle Politisches System der Bundesrepublik Deutschland am Otto-Suhr-Institut für Politikwissenschaft der Freien Universität Berlin und zentrale Ombudsperson für gute wissenschaftliche Praxis.
„Kognitive Schulden“ durch KI
Dennis Mischke, Leiter des Forschungs- und Publikationsservices der Universitätsbibliothek und Open-Access-Beauftragter der Freien Universität, sieht die Versuchung, KI-Tools einzusetzen, um mit Halbwissen schnell Ergebnisse zu erzielen. Die Konsequenzen fasst der Begriff „kognitive Schulden“ zusammen, geprägt von Forschenden des Massachusetts Institute of Technology: Wer Denkprozesse an KI-Assistenten wie ChatGPT abgibt, riskiert laut einer Studie einen schleichenden Verlust geistiger Fähigkeiten. „Es ist, als würden wir einen Kredit aufnehmen. Das funktioniert eine Zeit lang, doch irgendwann bricht das Kartenhaus zusammen.“ Wer sich hingegen intensiv mit einem Thema auseinandersetzt, lernt nachhaltiger und stärkt seine geistige Kompetenz.
Dr. habil. Anne Krüger, Soziologin und Leiterin der Forschungsgruppe Reorganisation von Wissenspraktiken am Weizenbaum-Institut
Bildquelle: Michael Fahrig
„Ghostwriting und Paper Mills gibt es in der Wissenschaft schon lange“, sagte Anne Krüger, Soziologin und Leiterin der Forschungsgruppe Reorganisation von Wissenspraktiken am Weizenbaum-Institut. Doch KI treibe das Problem auf die Spitze und erschüttere die Grundlagen der Wissenschaft und ihrer Bewertungskultur. Immer schneller werde immer mehr veröffentlicht. Kein Wunder, denn Wissenschaftler*innen würden nach der Menge, nicht nach der Qualität ihrer Publikationen beurteilt. Davon hänge ihre Karriere ab.
Um Missbrauch zu verhindern, müsse man das Bewertungssystem der Wissenschaft überarbeiten, wie es einige Initiativen bereits fordern. Je mehr eingereicht wird, desto stärker geraten Peer Reviewer unter Zeitdruck. Lässt die Qualität der Begutachtung nach, müssen immer häufiger Publikationen zurückgezogen werden. Das untergräbt das Vertrauen in die Wissenschaft, warnt Anne Krüger. Gegner der Wissenschaftsfreiheit hätten es dadurch noch leichter. „Wir müssen erklären können, wie Wissen entsteht, sonst verlieren wir unsere Glaubwürdigkeit“, betonte sie.
KI-Urteile müssen transparent, erklärbar und begründbar sein
Prof. Dr. Sabine Kropp leitet die Arbeitsstelle Politisches System der Bundesrepublik Deutschland am Otto-Suhr-Institut für Politikwissenschaft der FU Berlin und ist zentrale Ombudsperson für gute wissenschaftliche Praxis.
Bildquelle: Michael Fahrig
Ob KI denn bei der Bewertung und Begutachtung von Forschung helfen könne, wollte Moderatorin Sabine Kropp von den Podiumsgästen wissen. Gerhard Wunder, der die Arbeitsgruppe für Cybersecurity und KI am Fachbereich Mathematik und Informatik der Freien Universität Berlin leitet, zeigt sich skeptisch: Große Modelle wie ChatGPT, die auf allgemeinen Daten basieren, könnten das nicht leisten. Kleinere Modelle, die mit spezifischen, relevanten und geprüften Daten trainiert werden, könnten es vielleicht eines Tages schaffen. „Aber so weit sind wir noch nicht“, sagte der Informatiker.
Voraussetzung dafür wäre, dass Urteile transparent, erklärbar und begründbar sind, betonte Anne Krüger. Dennis Mischke wies darauf hin, dass die Deutsche Forschungsgemeinschaft derzeit den Einsatz von KI bei der Begutachtung in ihren Regeln verbietet.
Prof. Dr.-Ing. habil. Gerhard Wunder, Leiter der Arbeitsgruppe für Cybersecurity und AI am Fachbereich Mathematik und Informatik der Freien Universität Berlin
Bildquelle: Michael Fahrig
„Explainability“, also die Erklärbarkeit von KI-Ergebnissen, sei im EU AI Act gefordert, sagte Gerhard Wunder. Doch der Informatiker hält sie für schwer umsetzbar: Man müsste jedes Ergebnis bis zu den zugrundeliegenden Eingabedaten zurückverfolgen, diese dann weglassen und prüfen, ob ein anderes Resultat entsteht. Nur so ließe sich eindeutig feststellen, ob eine Eingabe zum Ergebnis beigetragen hat. Wunder erkennt darin auch ein Dilemma: „Von KI erwarten wir Fähigkeiten, die uns selbst fehlen.“
Welche Vorteile Künstliche Intelligenz der Wissenschaft bringt, wollte Moderatorin Sabine Kropp von den Teilnehmenden wissen. Können KI-Chatbots helfen, Mauern zwischen Disziplinen einzureißen, weil sie den Einstieg in neue Forschungsgebiete beschleunigen?
„Ja“, lautete die Antwort. Sich neues Wissen zu erschließen, falle mit KI leichter. Auch beim Aufschreiben experimenteller Forschungsergebnisse oder beim Programmieren erweisen sich KI-Assistenten als hilfreich. In den Geisteswissenschaften ist die Lage jedoch komplizierter.
Sprachmodelle verändern die Geisteswissenschaften
„In den Digital Humanities haben wir schon vor ChatGPT mit Sprachmodellen gearbeitet“, erklärte Dennis Mischke. Dabei habe man stets überlegen müssen, wie man diesen Beitrag angemessen dokumentiert. Eine Assistenzfunktion wie die Rechtschreibprüfung in Schreibprogrammen sei jedoch inzwischen so selbstverständlich geworden, dass niemand sie noch erwähnt.
Dr. Dennis Mischke, Abteilungsleitung Forschungs- und Publikationsservices bei der Universitätsbibliothek und Beauftragter für Open Access der Freien Universität
Bildquelle: Michael Fahrig
Die klassische Hausarbeit, das Paper oder die Monographie als Endprodukt in Lehre und Forschung sieht er allerdings bedroht. Ein Programm eines österreichischen Start-ups etwa könne eine Monographie in wenigen Stunden schreiben. „Was bedeutet das für Promotionen in den Geisteswissenschaften?“, fragte Mischke. Das ganze Publikationswesen werde sich verändern müssen. Große Verlage arbeiteten bereits daran, das gesamte Wissen hinter einem Paper zu erfassen, das dann letztlich nur noch die „Präsentationsschicht“ darstelle.
Matthias Hüning, Professor für Niederländische Philologie und Sprachwissenschaft an der Freien Universität Berlin und Ombudsperson für gute wissenschaftliche Praxis am Fachbereich Philosophie und Geisteswissenschaften, findet es linguistisch „spannend“, was Sprachmodelle hervorbringen: „Sprache verbindet Form und Inhalt.“ KI liefere jedoch nur die Form ohne Inhalt – eine Simulation von Tiefe. Erstaunlich sei, dass das Ergebnis manchmal trotzdem überzeugend wirke.
Wird ein KI-Text erst dann zum Text, wenn ein Mensch ihn liest und ihm Bedeutung verleiht? War es vorher vielleicht nur Struktur – reine Form? Das finde er äußerst interessant, sagte Hüning: „Ich sehe darin keine Bedrohung für die Sprachwissenschaft, sondern viele neue Forschungsfelder.“
KI-generierte Texte, Videos und Musik wirken oft „unheimlich“
Dennis Mischke stellte fest, dass es Sprachmodellen immer noch nicht gelinge, den Stil einer Autorin wie Jane Austen so zu imitieren, dass sich Fachleute täuschen lassen. „Auf den ersten Blick sieht es zwar aus wie Jane Austen“, sagte er, aber die Texte hätten etwas Unheimliches an sich – ähnlich wie KI-generierte Videos oder Musik.
„Zur Rezeption eines Textes gehört auch, sich den Menschen dahinter vorzustellen, der eine Intention in ihn gelegt hat“, sagte Anne Krüger. „Wenn ich weiß, dass ein Text von einer KI stammt, fehlt mir genau das. Dann frage ich mich, warum ich ihn überhaupt lesen sollte.
Prof. Dr. Matthias Hüning, Professor für Niederländische Philologie und Sprachwissenschaft am Fachbereich Philosophie und Geisteswissenschaften der Freien Universität Berlin
Bildquelle: Michael Fahrig
Diese Intention fehle auch bei Prüfungsarbeiten, die Studierende größtenteils mit KI verfassen. In den Geisteswissenschaften bleiben Hausarbeiten das bevorzugte Prüfungsformat, prognostiziert Matthias Hüning. Manche Lehrende verlangten zu Beginn des Kurses eine schriftliche Erklärung, keine KI zu nutzen. „Das halte ich für weltfremd und sogar kontraproduktiv“, sagte der Linguist. Er kombiniere Hausarbeiten mit einem Gespräch über das Thema und erkenne dabei schnell, wer selbst geschrieben hat und wer nicht. Sabine Kropp wandte ein, dass solche mündlichen Prüfungen oft nicht in den Studien- und Prüfungsordnungen vorgesehen seien, die deshalb dringend überarbeitet werden müssten.
Matthias Hüning fasste zusammen: „In Forschung und Lehre sollten wir die Möglichkeiten der KI nutzen, aber den Umgang mit diesen Tools kritisch hinterfragen. Hier sehe ich noch Nachholbedarf.“
In der anschließenden Diskussion fragte Joachim Heberle, Physikprofessor und langjährige zentrale Ombudsperson für gute wissenschaftliche Praxis an der Freien Universität, ob man großen Sprachmodellen Ethik vermitteln könne.
„Das geschieht schon“, erklärte Gerhard Wunder. Die Macher von ChatGPT etwa geben ihrer KI menschliches Feedback. Unter dem Begriff AI-Alignment passe man künstliche Intelligenz an menschliche Ziele, Werte und Absichten an. Zudem baue man Schranken ein, um unerlaubte Äußerungen zu verhindern. Doch sicher sei das nicht. „Manchmal tut eine KI einfach etwas, was nicht geplant war.“
Rosalind-Franklin-Preis für Lateinamerika-Expertin Karina Kriegesmann
FU-Präsident Prof. Dr. Günter M. Ziegler (rechts) übergab den ersten „Rosalind-Franklin-Preis“ an die Historikerin Dr. Karina Kriegesmann (links). Auch 2026 wird die Freie Universität den Preis ausschreiben.
Bildquelle: Michael Fahrig
Im Rahmen des GWP-Tages zeichnete Professor Günter M. Ziegler, Präsident der Freien Universität Berlin, die promovierte Historikerin und Lateinamerika-Expertin Karina Kriegesmann mit dem „Rosalind-Franklin-Preis für wissenschaftliche Integrität“ aus. Karina Kriegesmann forscht zur Geschichte Lateinamerikas in globalhistorischer Perspektive. Im Rahmen des Masterstudienganges „Interdisziplinäre Lateinamerikastudien“ hat sie eine verpflichtende Übung zur guten wissenschaftlichen Praxis konzipiert und führt diese selbst durch.
„Mit diesem Preis würdigen wir das, was im Alltag wissenschaftlicher Arbeit oft still im Hintergrund wirkt – und dennoch das Fundament von Wissenschaft und wissenschaftlicher Betätigung selbst bildet: wissenschaftliche Integrität und Redlichkeit“, sagt Günter M. Ziegler in seiner Laudatio.
Dr. Karina Kriegesmann konzipierte eine mehrsprachige Übung zu guter wissenschaftlicher Praxis für alle Studierenden des Masterstudiengangs Interdisziplinäre Lateinamerikastudien.
Bildquelle: Michael Fahrig
Wer schon im Studium verstehe, was diese Begriffe in der Praxis bedeuten, werde sie auch später selbstverständlich anwenden. „Das heute ausgezeichnete Konzept setzt genau diesen Gedanken um – und das in mustergültiger Weise“, betonte Ziegler. Karina Kriegesmann habe damit ein Vorbild geschaffen, sowohl für ihr eigenes Fach als auch für andere Disziplinen.
Alle Studierenden des Masterstudiengangs Interdisziplinäre Lateinamerikastudien beginnen mit einer Übung zur guten wissenschaftlichen Praxis – meist in drei Gruppen à 20 Personen. Den Auftakt bilden acht kompakte, intensive Sitzungen, in denen vier Sprachen gesprochen werden: Deutsch, Englisch, Portugiesisch und Spanisch. „Damit schaffen wir eine gemeinsame Basis für die Studierenden aus vielen Ländern“, erklärt Karina Kriegesmann. „Wir starten mit dem großen Ganzen und arbeiten uns bis zum kleinsten Datenpunkt vor. Dabei lernen wir nicht nur Regeln und Satzungen kennen, sondern analysieren Fallbeispiele. Das ist spannender und praxisnäher.“ Das Programm umfasst Quizze, spielerische Elemente und ein mehrsprachiges, interaktives Wiki als Nachschlagewerk.
Karina Kriegesmann möchte nicht Fehlverhalten sanktionieren, sondern ein positives Leitbild aufbauen. Um das zu erreichen, lässt sie die Studierenden auch Fälle und Dilemmata diskutieren. „Wir finden nicht immer eine Lösung“, sagt sie. Doch durch den Dialog und den Austausch von Erfahrungen gelangten die Studierenden zu einem gemeinsamen Grundverständnis. „Am meisten freut es mich, wenn die Studierenden die Sitzung mit einem Lächeln über das Gelernte verlassen.“








