KI-Systeme können die Literaturrecherche erleichtern, sollten jedoch nicht als unfehlbare Lösung gesehen werden!
KI‑generierte Inhalte können unvollständig sein, fehlerhafte oder nicht zitierfähige Referenzen enthalten (z. B. falscher Journalnamen) und mitunter auf Literaturtitel verweisen, die in dieser Form gar nicht existieren (auch wenn sie auf den ersten Blick so wirken). Zudem können sie wissenschaftliche Standards nicht in jedem Fall zuverlässig abbilden, was zu unbeabsichtigten und verzerrenden Ergebnissen führen kann.
Nutzen Sie diese Technologie also stets mit großer Sorgfalt und hinterfragen Sie jeden Output kritisch.
Der Einsatz von KI‑Tools in der Literaturrecherche erfordert die Beachtung rechtlicher und ethischer Rahmenbedingungen.
Der EU AI Act reguliert KI‑Systeme risikobasiert und verpflichtet zur Kennzeichnung KI‑generierter Inhalte. Sensible oder vertrauliche Daten sollten nicht in KI‑Assistenten eingegeben werden, da viele Systeme außerhalb der EU betrieben werden und Eingaben zu Trainingszwecken gespeichert werden können. Urheberrechtlich geschützte Materialien dürfen nicht hochgeladen werden; erlaubt sind nur gemeinfreie oder entsprechend lizenzierte Werke.
Ethisch relevant sind zudem der hohe Ressourcenverbrauch großer Modelle sowie problematische Arbeitsbedingungen in globalen Trainingsprozessen. Auch der wissenschaftliche Einsatz von KI erfordert kritische Reflexion, um Verzerrungen zu vermeiden und die Integrität des Forschungsprozesses zu sichern.
KI-gestützte Systeme generieren Ergebnisse auf Grundlage umfangreicher, aber häufig intransparenter Datenbestände. Oft ist nicht nachvollziehbar, welche Quellen genutzt wurden, da die Datengrundlage nur begrenzt offengelegt wird.
Viele Tools analysieren vorwiegend freiverfügbare, englischsprachige Literatur, während aktuelle oder fachspezifische Inhalte mitunter unberücksichtigt bleiben. Zudem können kostenpflichtige Ressourcen wie E-Books, Zeitschriften oder Datenbanken in den Ergebnissen fehlen. Es wird gewöhnlich keine wissenschaftliche Prüfung der Literaturtitel durchgeführt, und die Funktionen sowie Leistung von KI-Tools sind anbieterabhängig.
Die Eignung der Tools variiert demnach je nach Fachgebiet und Sprache. Die Einhaltung der wissenschaftlichen Standards im Sinne der guten wissenschaftlichen Praxis liegt beim Nutzenden.
Ein weiteres, nicht zu unterschätzendes Problem ist die Verzerrung (Bias) der Modelle: KI-Systeme reproduzieren oft Vorurteile oder tendenziöse Muster aus den Trainingsdaten, was zu unsachlichen, voreingenommen oder diskriminierenden Ausgaben führen kann.
Hinzu kommt, dass KI-Tools häufig scheinbar plausible, aber tatsächlich frei erfundene Aussagen generieren (Tagesschau, 27.10.2025). Da die Quellen solcher Fehler oft nicht nachvollziehbar sind, können Nutzende diese kaum erkennen. Diese sog. "Halluzinationen" verschärfen die bereits bestehenden Herausforderungen durch Bias, da die KI nicht nur vorhandene Verzerrungen reproduziert, sondern zusätzliche Ungenauigkeiten hinzufügt.
Weitere Informationen finden Sie auf Seite KI-Kompetenz an der Universität Passau.