Von der Nutzung zur Ko-Kognition: Warum KI der neue Lernpartner ist
Mensch und KI im gemeinsamen Denkraum: Hochschullehre im Wandel hin zur Shared Cognition

von Ulf-Daniel Ehlers  |  03. November 2025

In einer Zeit rapiden technischen Wandels steht die Hochschullehre vor einer grundsätzlichen Frage: Wie gehen wir nicht nur mit Künstliche Intelligenz (KI) um – sondern mit ihr gemeinsam denken? Die klassische Sicht auf KI als externer Werkzeugkasten greift zu kurz. Vielmehr eröffnet die Perspektive von Mensch und KI als ein gemeinsames kognitives System – im Sinne von Shared oder Distributed Cognition – eine neue Dimension für Lernen, Lehre und Kompetenzentwicklung.

Theoretischer Rahmen

Das Konzept der verteilten Kognition (Distributed Cognition) hat seinen Ursprung in der Kognitions- und Kulturanalyse: Kognition wird nicht nur als individuelle Leistung verstanden, sondern als ein Prozess, der über Personen, Artefakte und Umwelt hinweg verteilt ist (z. B. Edwin Hutchins; James D. Hollan). In diesem Sinne lässt sich die KI nicht primär als externes Werkzeug, sondern als aktiver kognitiver Partner begreifen: Sie bringt Daten- und Musterkompetenz, während der Mensch Kontextwissen, Urteile und Kreativität einbringt.

Die Forschung zu sogenannter Hybrid Intelligence (Mensch + KI) zeigt, dass solche Systeme – wenn gut gestaltet – qualitativ bessere, schnellere und effektivere Ergebnisse liefern können als rein menschliche oder rein maschinelle Vorgehensweisen. Wichtig dabei ist: Es geht nicht um „menschlich vs. maschinell“, sondern um das Designen und Erleben eines gemeinsamen kognitiven Raums – mit geteilten Rollen, Aufgaben, Reflexionen.

Ein aktueller Ansatz zeigt, dass insbesondere in Lehr-Lern-Kontexten das Konzept der verteilten Kognition im Zusammenspiel von Mensch und KI relevant wird – etwa dann, wenn Studierende mit KI-Agenten kreativ problem- und projektorientiert arbeiten.

Anwendung in der Hochschullehre: Lernen mit KI als Shared Cognition

Für Hochschulen heißt das konkret: Es reicht nicht aus, Studierende lediglich im technischen Umgang mit KI-Tools zu schulen (z. B. „So nutze ich ChatGPT“). Vielmehr gilt es, sie zu befähigen, mit KI als kognitivem Partner zu kooperieren – bewusst, kritisch, selbstgesteuert.

Von besonderer Bedeutung ist dabei der Bezug zu Selbstgesteuertem Lernen (Self-Directed Learning, SDL): Studierende übernehmen Verantwortung dafür, wann, wie und womit sie KI einbinden, reflektieren die Beiträge der KI und steuern den Lernprozess aktiv.

Die folgende Struktur zeigt, wie sich dieses Verständnis in konkrete Lehr- und Lern-Settings übersetzen lässt:

Kompetenzbereiche
  • Technische KI-Bedienkompetenz: Wie bediene ich KI-Tools technisch korrekt?
  • Kommunikative KI-Interaktionskompetenz: Wie frage und antworte ich mit KI, wie führe ich „Dialoge“ mit KI?
  • Kollaborative Shared-Cognition-Kompetenz: Wie organisiere ich gemeinsam mit der KI Denk-, Argumentations- und Schreibprozesse?
  • Metakognitive Steuerung: Wie reflektiere und evaluiere ich den eigenen und den KI-Beitrag im Lernprozess?
  • Hybrid Intelligence Literacy: Wie gestalte ich bewusst die Partnerschaft von Mensch und KI im Lern- und Arbeitsökosystem?

Stufenmodell zur Mensch–KI-Zusammenarbeit

Eine mögliche Progressionsstruktur für die Lehrpraxis könnte so aussehen:

  • Stufe 1 – Instrumentelle Nutzung KI wird als Werkzeug eingesetzt (z. B. zur Zusammenfassung von Texten). Fokus: Technische Handhabung und erste Erfahrungen.
  • Stufe 2 – Interaktive Nutzung KI wird zum Dialogpartner – etwa Ideengenerator, Brainstorming‐Partner. Studierende interagieren mit KI, stellen Fragen, wählen Vorschläge aus.
  • Stufe 3 – Kooperative Zusammenarbeit Studierende und KI arbeiten wechselseitig an einer Aufgabe: Studierende geben Input, KI liefert Vorschläge, Studierende überarbeiten und integrieren. Fokus: Shared Cognition, epistemische Verantwortung.
  • Stufe 4 – Reflexive Integration KI wird gezielt zur Reflexion des eigenen Lernens oder Denkens eingesetzt („Zeige mir meine Argumentation, ergänze …“). Studierende steuern bewusst den Einsatz und bewerten den Output.
  • Stufe 5 – Integrativer Lernprozess KI ist Teil des Lern- und Arbeitsökosystems – in Projektarbeiten, Gruppenarbeiten, Seminaren. Studierende gestalten bewusst den Wechsel zwischen Menschrolle und KI-Rolle. Fokus: Hybrid Intelligence Literacy.

 

Didaktisches Scaffolding: Den Weg bereiten

Damit Studierende diesen Weg gehen können, ist ein planvolles Begleitdesign nötig:

  1. Sensibilisierung & Einführung Sensibilisieren Sie für Potenziale, Grenzen und ethische Dimensionen von KI. Reflexionsfragen: „Was kann KI leisten? Wo liegen Grenzen?“, „Welche Rolle übernehme ich?“
  2. Geleitete Exploration Kleine Lernaufgaben mit klar differenzierter KI-Rolle (z. B. „Lass die KI drei Argumente generieren, du kommentierst und modifizierst sie“). Fokus: Experimentieren, erste Zweifel, erste Steuerung.
  3. Explizite Aufgabenteilung Aufgaben, bei denen bewusst Mensch- und KI-Beiträge vorgesehen sind (z. B. KI generiert Rohentwurf, Studierende übernehmen Kontextualisierung, Kritik, Weiterentwicklung).
  4. Reflexion und Peer-Review Studierende tauschen sich über ihre KI-Interaktion aus: Was war hilfreich? Wo war der KI-Beitrag unklar oder unpassend? Wie habe ich darauf reagiert?
  5. Authentische Projektanwendung In größeren Seminar- oder Projektarbeiten wird KI systematisch eingebunden – mit Leitfragen, Checkpoints, Feedback-Schleifen. Bewertet wird nicht nur das Endprodukt, sondern auch die Qualität des Zusammenspiels Mensch–KI.
  6. Bewertung der Zusammenarbeit Nutzung von Rubriken, die explizit die Kooperation mit KI bewerten: Rollenklärung, Reflexion, Eigenanteil, Integration von KI-Output, kritische Überarbeitung.

 

Vermeidung des Cognitive Offloading-Effekts

Eine zentrale Herausforderung ist das unbewusste oder unkritische Auslagern von Denken an KI („Cognitive Offloading“). Studien zeigen, dass Technik dazu verleiten kann, eigene Steuerung, Reflexion und Verantwortung zu senken. Maßnahmen zur Vermeidung:

  • Transparenz fördern: Studierende kennzeichnen KI-Beiträge, dokumentieren Überarbeitungen und Entscheidungen („Was stammt von der KI, was von mir?“).
  • Reflexionsschleifen einbauen: Nach jeder KI-Interaktion konkrete Fragen: „Welche Vorschläge habe ich übernommen? Welche verändert? Warum?“
  • Bewertung der Kooperation: Nicht nur das Ergebnis zählt, sondern die aktive Beteiligung und kritische Auseinandersetzung mit der KI.
  • Rollenklärung zu Beginn: Studierende legen fest, welche Aufgaben sie selbst übernehmen und welche die KI.
  • Metakognitive Impulse: Fragen wie: „Wie hat mich die KI beeinflusst?“, „Welche Annahmen habe ich selbst mitgebracht?“ helfen, Bewusstheit und Kontrolle zu fördern.

 

Verbindung mit Self-Directed Learning

Der oben skizzierte Ansatz ist eng verwoben mit Konzepten des self-directed learning (SDL): Studierende übernehmen zunehmend Verantwortung für ihren Lernprozess – Planung, Durchführung, Monitoring, Evaluation. In der Arbeit mit KI kommt hinzu: Entscheidung darüber, wann, wie, mit welchem Ziel die KI eingebunden wird. So wird nicht nur eine technische Kompetenz entwickelt, sondern eine tiefere Hybrid Intelligence Literacy – die Fähigkeit, Mensch und KI zu einem reflektierten, ethisch verantworteten und effizienten Denk- und Lernsystem zu verbinden.

Praxisbeispiel und Empfehlung

Stellen Sie sich z. B. eine Seminargruppe vor, die eine Forschungsfrage im Bereich Nachhaltigkeit bearbeitet.

  • In einer frühen Phase (Stufe 2) nutzen die Studierenden ein KI-Tool zur Ideengenerierung: Sie fragen „Welche Herausforderungen ergeben sich bei …?“ und lassen die KI Antworten liefern.
  • In der nächsten Phase (Stufe 3) wird vereinbart: „Ich liefere den Kontext, die KI formuliert einen Rohentwurf, ich überarbeite kritisch und füge meine Perspektive hinzu“
  • Parallel dazu findet eine Reflexion statt: Welche KI-Beiträge waren hilfreich? Welche mussten korrigiert werden? Welche Annahmen hatte ich selbst?
  • Abschließend (Stufe 4/5) erfolgt die Integration: Die Studierenden leiten die Kooperation mit der KI, planen bewusst ihren Einsatz, treffen bewusst Entscheidungen über die Rollen und reflektieren diese im Peer-Feedback.

 

Fazit

Die Perspektive von Mensch und KI als gemeinsames kognitives System verschiebt das Paradigma der Hochschullehre: Weg vom KI-Tool hin zur KI-Partnerschaft im Denken. Wenn wir Studierende nicht nur im Umgang mit KI-Tools schulen, sondern im gemeinsamen Denken mit KI, fördern wir eine neue Lern- und Arbeitskompetenz – jenseits bloßer Bedienung. Die vorgestellten Stufen, das Scaffolding und die Reflexions- sowie Bewertungsmaßnahmen bilden einen konkreten Handlungsrahmen. Hochschulen sind gefordert, diesen Weg aktiv zu gestalten, damit Studierende für eine Zukunft vorbereitet sind, in der hybride Intelligenz nicht Zukunftsvision, sondern gelebte Praxis ist.


Literaturverzeichnis

  1. Cukurova, M. (2024). The interplay of learning, analytics, and artificial intelligence in education: A vision for hybrid intelligence. arXiv. https://doi.org/10.48550/arXiv.2403.16081 arXiv
  2. Guggenberger, T. (2024). Designing human-AI hybrids: Challenges and good practices from a multiple‐case study. Conference Proceedings. University of Bayreuth. fim-rc.de
  3. Hemmer, P., & Kühl, N. (2019). Human–AI complementarity in hybrid intelligence systems: A structured literature review. ResearchGate. ResearchGate
  4. Jacobsen, R. M., Wester, J., Djernæs, H. B., & van Berkel, N. (2025). Distributed cognition for AI-supported remote operations: Challenges and research directions. arXiv. https://doi.org/10.48550/arXiv.2504.14996 arXiv+1
  5. Walther, C. C. (2025, March 11). Why hybrid intelligence is the future of human–AI collaboration. Knowledge@Wharton. https://knowledge.wharton.upenn.edu/article/why-hybrid-intelligence-is-the-future-of-human-ai-collaboration/Knowledge at Wharton
  6. Zheng, X., et al. (2025). Examining human–AI collaboration in hybrid intelligence learning. Humanities and Social Sciences Communications. https://doi.org/10.1057/s41599-025-05097-z

 

Prof. Dr. Ulf-Daniel
Ehlers

Leiter der Forschungsgruppe und Professur für Bildungsmanagement und Lebenslanges Lernen

Datenschutzeinstellungen

Sie können hier die Einstellungen für die Cookies anpassen.

Wählen Sie bitte aus, welche Cookies Sie akzeptieren möchten und bestätigen Sie durch Klicken des Button. Sie werden anschließend auf die Startseite zurückgeleitet.

Bitte beachten Sie, dass beim Setzten des Hakens "Externe Medien" Daten, wie Beispielsweise Ihre IP-Adresse, an Google und somit möglicherweise in ein Drittland ohne Datenschutzabkommen übermittelt werden. Dies geschieht insbesondere, wenn Sie unsere Videos anschauen.