Wenn Studierende heute wissenschaftlich arbeiten, schreiben sie nicht mehr allein. Unsichtbar über der Schulter steht eine Maschine – eine Entität, die Vorschläge macht, Texte entwirft, Quellen zitiert, aber keine Verantwortung trägt. Diese stille Ko-Autorenschaft der Künstlichen Intelligenz verändert die Grammatik wissenschaftlicher Praxis. Was bislang als Routine galt – recherchieren, analysieren, schreiben – wird zu einem Akt reflektierter Ko-Kreation.
Im Lichte dieser Transformation reicht es nicht länger aus, wissenschaftliche Methoden zu „lehren“. Ehlers (2020) beschreibt Bildung als „Entwicklung einer reflexiven, kompetenzbasierten Selbstorganisationsfähigkeit“, also als eine Form, „sein eigenes Lernen und Handeln im Kontext gesellschaftlicher Transformation zu gestalten“. Der Prozess wissenschaftlichen Arbeitens ändert sich im Lichte der Transformation auch – als System von Entscheidungen, in dem Mensch und Maschine gemeinsam Wissen erzeugen. Die Herausforderung ist, Studierende nicht zu entlasten, sondern zu erheben: zu Gestalter:innen, die verstehen, wie KI funktioniert, wie sie irren kann – und wie sich daraus Verantwortung ableitet.
Die empirische AIComp-Studie (Ehlers, Lindner & Rauch, 2024a) hat gezeigt, dass die entscheidende Kompetenzlücke der Gegenwart nicht im technischen Verständnis, sondern in der Souveränität des Handelns liegt. Über 1.600 Berufstätige wurden in Baden-Württemberg befragt. Ihre Rückmeldungen zeigen, dass die größten Defizite nicht bei den digitalen Fertigkeiten, sondern bei der „kritischen digitalen Kompetenz“ und der „ethischen Kompetenz“ bestehen – genau dort, wo Urteilskraft, Reflexivität und Integrität gefordert sind
Das AIComp-Modell versteht Kompetenzen als Handlungsdispositionen, als „im Subjekt verankerte Bereitschaften zum verantwortlichen Tun“. Es geht um die Fähigkeit, die Dynamik von KI-Systemen nicht nur zu bedienen, sondern zu durchdringen, zu interpretieren und zu gestalten. Diese Haltung unterscheidet sich grundlegend von rein funktionalem Training: Kompetenz entsteht dort, wo Reflexion und Handlungsvermögen eine Einheit bilden – eine moderne Variation der aristotelischen phronesis, der klugen Urteilskraft.
Die Hochschullehre steht damit an einer Schwelle: Aus der „Werkzeugkompetenz“ wird epistemische Partnerschaft. In Seminarräumen, Laboren und Schreibwerkstätten entstehen hybride Lernräume, in denen generative Modelle die Rolle des Diskurs-Spiegels übernehmen. Studierende, die ihre Prompts dokumentieren, Quellen vergleichen und algorithmische Bias aufdecken, lernen mehr als Informationsverarbeitung – sie üben Meta-Kognition: das Denken über das eigene Denken.
Hierin liegt ein Kern des AIComp-Modells: die Förderung einer „aktiven Steuerungsfähigkeit“, die das bewusste Handeln mit KI einschließt. Wissenschaftliches Arbeiten im KI-Zeitalter bedeutet, den eigenen Forschungsprozess zu kuratieren, nicht nur Ergebnisse zu konsumieren. Wer eine KI zur Literatursuche einsetzt, muss verstehen, dass deren algorithmische Logik keine Wahrheit liefert, sondern Wahrscheinlichkeiten verdichtet.
So verheißungsvoll diese Zukunft klingt, sie ist keineswegs selbstverständlich. In vielen Hochschulen herrscht eine Ambivalenz zwischen Aufbruch und Überforderung. Lehrende experimentieren mit KI-Szenarien, aber curriculare Strukturen, Prüfungsordnungen und Haltungsfragen bremsen den Wandel. Während einige Fakultäten Pilotprojekte starten, herrscht andernorts Unsicherheit oder gar Misstrauen gegenüber generativer KI.
Auch die Studierenden sind keine homogene Gruppe. Viele nutzen KI mit Neugier und Experimentierlust, doch ebenso viele begegnen ihr mit Unsicherheit – oder mit bequemer Abgabe der Verantwortung. Was wir derzeit beobachten, ist ein Phänomen, das kognitionspsychologisch als Cognitive Offloading bezeichnet wird (Risko & Gilbert, 2016): das Auslagern geistiger Prozesse an technische Systeme.
KI erleichtert das Denken – aber sie kann auch das Denken ersetzen. Wenn Schreibprozesse zu Promptprozessen werden, wenn Suchbewegungen zu automatisierten Retrievals schrumpfen, droht die Erosion jener kognitiven und reflexiven Routinen, die wissenschaftliche Urteilskraft überhaupt erst ermöglichen.
Studierende berichten, dass sie sich in einem Spannungsfeld befinden: Einerseits steigert KI ihre Produktivität und Strukturierungsfähigkeit. Andererseits entsteht das Gefühl, die eigene Urteilsfähigkeit zu verlieren. „Ich habe das Thema verstanden – aber nicht mehr durchdrungen“, lautet ein häufiger Satz in qualitativen Interviews (Ehlers et al., 2024a).
Hinzu kommt die strukturelle Herausforderung: Hochschulen sind nicht gleichmäßig digitalisiert, und nicht alle Lehrenden verfügen über die notwendige AI Literacy, um Lernprozesse verantwortungsvoll zu begleiten. Was hier entsteht, ist ein asymmetrischer Kompetenzraum: einige wenige mit hoher technischer Reflexivität, viele mit fragmentiertem Verständnis, einige gar in technischer Abhängigkeit.
AIComp beschreibt dies als „ungleiche Kompetenzentwicklung entlang der Achse Nutzung – Reflexion – Gestaltung“. Studierende, die KI nur anwenden, erwerben kurzfristige Effizienz, aber keine langfristige Urteilsfähigkeit. Bildung, so Ehlers (2020), bedeutet jedoch, „den eigenen Denkprozess zu verstehen, bevor man ihn delegiert“.
Die Gefahr ist real: Eine Generation, die sich an KI als Denkprothese gewöhnt, riskiert, ihre epistemische Autonomie zu verlieren. Wenn wissenschaftliches Arbeiten auf „AI Suggest“ reduziert wird, bleibt die Oberfläche glänzend – aber die Tiefe verschwindet.
Bleibt also die Frage: Müssen Studierende überhaupt noch selbst recherchieren? Die Antwort lautet: Ja, aber anders. KI-Systeme beschleunigen den Suchprozess, doch sie verschieben den Schwerpunkt. Während früher das Finden im Mittelpunkt stand, ist heute das Bewerten und Einordnen zur entscheidenden Kompetenz geworden (Binkley et al., 2012; Stifterverband, 2024; Krause, 2025).
Eine zeitgemäße Lehrpraxis kombiniert deshalb die automatisierte KI-Recherche mit reflektierter Eigenarbeit. Studierende schreiben nicht mehr bloß Exzerpte, sie führen Forschungsjournale: Sie notieren ihre Suchbegriffe, dokumentieren Trefferpfade, vergleichen manuelle und KI-gestützte Ergebnisse, prüfen DOIs, Quellenqualität und Peer-Review-Status. Diese Selbstbeobachtung – das bewusste Hinterfragen der eigenen Denk- und Suchstrategien – bildet die Grundlage jener Meta-Kognition, die das AIComp-Modell als Schlüsselkompetenz beschreibt. Metaphorisch gesprochen: Die Literaturrecherche gleicht heute weniger einer Schatzsuche, sondern eher der Navigation durch ein Meer aus Spiegeln – jedes Ergebnis reflektiert zugleich die Logik des Algorithmus und die Haltung des Suchenden.
Künstliche Intelligenz zwingt die Wissenschaft, über den Begriff der Autorschaft neu nachzudenken. Wer schreibt eigentlich, wenn KI einen Textvorschlag formuliert? Und wie zitieren wir eine Maschine? Diese Fragen sind keine Randnotizen, sondern Grundfragen der wissenschaftlichen Kultur (Bajohr, 2024; Deutschlandfunk Kultur, 2025).
AIComp spricht in diesem Zusammenhang von der ethischen Kompetenz, also der Fähigkeit, die „sozialen, rechtlichen und moralischen Dimensionen von KI-Handeln“ zu reflektieren. Die Verantwortung verschiebt sich von der reinen Textproduktion hin zur transparenten Dokumentation des Prozesses – welche Tools, Prompts und Strategien genutzt wurden. Hochschulen, die diese Offenlegung nicht als Kontrollinstrument, sondern als Lernchance verstehen, schaffen eine Kultur des Vertrauens.
Ehlers (2020) spricht von „Future Skills“ als jenen Fähigkeiten, die es ermöglichen, sich selbst in einer ungewissen Welt zu orientieren. Genau das gilt für die wissenschaftliche Arbeit mit KI: Studierende lernen, mit Unsicherheit produktiv umzugehen, statt sie zu verdrängen.
Klassische Klausuren, in denen Faktenwissen abgefragt wird, verlieren an Aussagekraft. Stattdessen tritt die Bewertung der Reflexionsleistung in den Vordergrund: Wie begründet eine Person ihre Entscheidungen, welche Strategien nutzt sie, um KI-Outputs zu überprüfen?
In der Praxis bedeutet das eine Transformation hin zu prozessbasierten Assessments – Lernportfolios, Forschungstagebüchern, Peer-Reviews, Prompt-Analysen. Die AIComp-Ergebnisse belegen, dass dort, wo Studierende ihre Nutzung von KI transparent machen und reflektieren, ein signifikanter Kompetenzzuwachs messbar wird (Ehlers et al., 2024a). So wird Prüfung zum Lernraum: ein Ort, an dem Studierende sich selbst im Spiegel ihrer eigenen Forschungsprozesse begegnen.
Das wissenschaftliche Arbeiten im Zeitalter der KI ist kein Abgesang auf das Denken, sondern eine Einladung zu seiner Vertiefung. Wer lernt, mit KI zu forschen, lernt zugleich, über sich selbst als Forschenden zu reflektieren. Die Studien von AIComp zeigen eindrücklich, dass Kompetenzen wie kritisches Denken, Selbstbestimmtheit, ethische Urteilskraft und aktive Steuerungsfähigkeit zu den zentralen Future Skills zählen, die den Menschen in einer durch KI geprägten Welt handlungsfähig machen (Ehlers et al., 2024b).
Die Zukunft der Wissenschaft ist also nicht digital oder analog, sondern dialogisch – ein Gespräch zwischen Mensch und Maschine, zwischen Erkenntnis und Verantwortung, zwischen Wissen und Gewissen.
Literatur
Bajohr, H. (2024). Autorschaft und Künstliche Intelligenz. In H. Bajohr & A. Gilbert (Hrsg.), Digitale Literatur II (S. 174–185). München.
Deutschlandfunk Kultur. (2025, Juli 11). Künstliche Intelligenz - Wenn Maschinen Bücher schreiben. https://www.deutschlandfunkkultur.de/literatur-kuenstliche-intelligenz-verlage-romane-uebersetzung-100.html
Binkley, M., Erstad, O., Herman, J., Raizen, S., Ripley, M., Miller-Ricci, M., & Rumble, M. (2012). Defining twenty-first century skills. In P. Griffin, B. McGaw, & E. Care (Eds.), Assessment and teaching of 21st century skills (pp. 17–66). Springer.
Bourdieu, P. (1986). The forms of capital. In J. Richardson (Ed.), Handbook of theory and research for the sociology of education (pp. 241–258). Greenwood.
Deutschlandfunk Kultur. (2025, Juli 11). Künstliche Intelligenz - Wenn Maschinen Bücher schreiben. https://www.deutschlandfunkkultur.de/literatur-kuenstliche-intelligenz-verlage-romane-uebersetzung-100.html
Ehlers, U.-D. (2020). Future Skills: Lernen der Zukunft – Hochschule der Zukunft. Springer.
Ehlers, U.-D., Lindner, M., & Rauch, E. (2024a). AIComp Part 1: Empirische Studie – Theorie, Design und Ergebnisse der KI-Kompetenzstudie 2024. DHBW Karlsruhe / KI-Campus / NextEducation.
Ehlers, U.-D., Lindner, M., & Rauch, E. (2024b). AIComp Part 2: Empirische Konstruktion und Beschreibung des Kompetenzmodells AIComp. DHBW Karlsruhe / KI-Campus / NextEducation.
Erpenbeck, J., & Sauter, W. (2015). Kompetenzentwicklung im Netz. Springer.
Krause, T. (2025, Februar 23). Warum die Hochschulbildung KI neu denken muss. Campus Schulmanagement. https://www.campus-schulmanagement.de/magazin/wissen-pruefen-statt-wissen-abfragen-warum-die-hochschulbildung-ki-neu-denken-muss-till-krause
McClelland, D. C. (1973). Testing for competence rather than for intelligence. American Psychologist, 28(1), 1–14.
Lucia, A. D., & Lepsinger, R. (1999). The art and science of competency models. Pfeiffer.
European Commission. (2022). DigComp 2.2: The Digital Competence Framework for Citizens. Publications Office of the European Union.
Binkley, M., Erstad, O., Herman, J., Raizen, S., Ripley, M., & Rumble, M. (2012). Defining 21st century skills. In P. Griffin, B. McGaw, & E. Care (Eds.), Assessment and teaching of 21st century skills (pp. 17–66). Springer.
Krause, T. (2025, Februar 23). Warum die Hochschulbildung KI neu denken muss. Campus Schulmanagement. https://www.campus-schulmanagement.de/magazin/wissen-pruefen-statt-wissen-abfragen-warum-die-hochschulbildung-ki-neu-denken-muss-till-krause
Stifterverband. (2024). Future Skills lehren und lernen. https://www.stifterverband.org/sites/default/files/2024-10/future_skills_lehren_und_lernen.pdf
Leiter der Forschungsgruppe und Professur für Bildungsmanagement und Lebenslanges Lernen