Wir leben in einer Zeit, in der technologische Systeme beginnen, Aufgaben zu übernehmen, die lange als genuin menschlich galten: Sprache verstehen, Texte schreiben, Bilder erschaffen, Entscheidungen vorbereiten. Künstliche Intelligenz – insbesondere generative Systeme – verändert damit nicht nur unsere Arbeitswelt, sondern berührt den Kern unseres Bildungsverständnisses. Was bedeutet Lernen noch, wenn Maschinen lernen können? Und welche Fähigkeiten müssen Menschen weiterhin selbst entwickeln, um in einer solchen Welt handlungsfähig, verantwortlich und frei zu bleiben? Kurz: Was ist die Zukunft menschlicher Kompetenz im Zeitalter künstlicher Intelligenz?
Diese Fragen markieren einen Wendepunkt. Denn Bildung – verstanden als Selbst- Objekt- und Weltbezug – darf nicht in den Schatten technologischer Effizienz geraten. Sie richtet sich auf den Menschen als Gestalter seiner Lebenswelt, nicht auf Systeme, die Prozesse beschleunigen. In einer Ära, in der Algorithmen Handlungsspielräume vorstrukturieren, wird das Vermögen zur Selbstbestimmung, zur kritischen Reflexion und zur bewussten Kooperation mit Technologie zu einer neuen Form kultureller Souveränität. Lernprozesse sind nicht technisch herstellbar, sondern verlaufen in kontingenten Selbstbezügen des Bewusstseins (Luhmann & Schorr, 1979, S. 31 ff.). Auch KI-Systeme können dieses „Technologiedefizit“ in Bildungsprozessen nicht aufheben – sie erweitern Diagnostik, Feedback und Orchestrierung, doch Lernen bleibt ein nicht-determinierbarer Prozess, der reflexiver Steuerung bedarf.
Der folgende Beitrag stellt diesen Gedanken in den Mittelpunkt. Er argumentiert, dass die Grundfertigkeiten des Lesens, Schreibens und Rechnens, ergänzt durch metakognitive, selbstregulative und prozessuale Kompetenzen, die Voraussetzung bleiben, um KI – und damit die eigene Welt – verstehen, gestalten und beurteilen zu können. Zugleich wird deutlich, dass diese Kompetenzen in einem weiter gefassten Bildungsverständnis wurzeln: Bildung als Prozess der Weltaneignung, als Entfaltung von Freiheit und Würde, als Entwicklung von phronesis – jener praktischen Weisheit, die Menschen befähigt, in komplexen Situationen klug zu handeln (MacIntyre 2007).
Ausgehend von dieser Grundlegung verbindet der Artikel theoretische Überlegungen mit aktueller empirischer Evidenz (2023 – 2025) und zeigt: Nur wer lernt, sich selbst und die Welt zu strukturieren, kann die Möglichkeiten der KI produktiv, kritisch und menschlich nutzen. Lernen bleibt also kein Anachronismus im Zeitalter der Maschinen – es ist die Bedingung ihrer verantwortlichen Beherrschung.
Im Zeitalter der künstlichen Intelligenz rückt nicht nur die Frage ins Zentrum, was Maschinen übernehmen können, sondern vielmehr wie Menschen handeln, lernen und urteilen müssen, um Technologie nicht nur zu nutzen, sondern verantwortlich mitzugestalten. Der Begriff der Unabhängigkeit, den wir hier als einen von drei zentralen Kriterien für Zukunftsbildung formulieren, gewinnt erst im Horizont eines fundierten Bildungsverständnisses seine Tiefe: Nicht allein die Unabhängigkeit von Technik ist gemeint, sondern vor allem die Unabhängigkeit für Weltaneignung, Handlung und Urteil. Im folgenden Kapitel werden drei theoretische Fundamente dafür entfaltet: Erstens der strukturelle Bildungsbegriff als Relation von Selbst-, Objekt- und Weltbezug, zweitens eine humanistische Perspektive, die Bildung als Freiheit, Würde und praktisches Urteilen (Phronesis) versteht. Diese Grundlagen bilden den Bezugsrahmen dafür, wie Unabhängigkeit im KI-Zeitalter zu einem aktiven Gestaltungsprinzip werden kann.
Ein struktureller Bildungsbegriff (Marotzki, 1990; Meder, o. J., Ehlers, 2020) versteht Bildung nicht als Erwerb von Stoffen oder „Skills“, sondern als Transformation der inneren Strukturen, mit denen Menschen sich selbst und ihre Welt verstehen. Bildung zeigt sich, wenn sich diese Selbst- und Weltreferenzen qualitativ verändern – wenn also neue Deutungen, Perspektiven und Handlungsmöglichkeiten entstehen. Damit wird Bildung im Zeitalter der KI zu einem Prozess der Reflexion und Neuordnung von Weltverhältnissen, nicht bloß zur Anpassung an technische Systeme: Bildungsprozesse sind Prozesse, die eine qualitative Veränderung der Selbst- und Weltreferenzen einer Person nach sich ziehen (Marotzki, 2003/2007). Bildungsprozesse sind demnach Prozesse des Wandels und der Neubestimmung der eigenen Stellung im Verhältnis zur Welt (Marotzki, 1990/2007; Jörissen & Marotzki, 2009). In dieser Perspektive zielt Bildung darauf, ein reflektiertes Verhältnis zur Welt herzustellen und Handlungsoptionen in unbestimmten Kontexten zu entwickeln – nicht bloß fertige Lösungen zu erlernen.
Die Einordnung durch Ehlers knüpft hieran an: Er verbindet den strukturellen Bildungsbegriff mit Anforderungen an „Future Skills“ und Handlungsfähigkeit in emergenten Kontexten der Triple-Helix-Logik (Wirtschaft, Wissenschaft, Gesellschaft). Damit wird deutlich: Im KI-Zeitalter bedeutet Kompetenzentwicklung nicht primär die Bedienung technischer Systeme, sondern die Fähigkeit zur Gestaltung und Urteilskraft im Umgang mit offenen, dynamischen Situationen (Ehlers, 2020). Diese Auffassung verweist direkt auf unser Kriterium der Unabhängigkeit: Bildung wird zur Voraussetzung dafür, dass Menschen nicht nur reagierend, sondern gestaltend handeln können – auch in einer Welt automatisierter Systeme.
Die humanistische Bildungstradition richtet den Blick darauf, dass Bildung sich auf Würde, Freiheit und Entfaltung des Menschen als Subjekt (Nussbaum, 2011; Ehlers, 2020; Nida-Rümelin & Weidenfeld, 2023). Für Hannah Arendt ist Freiheit nicht primär ein Zustand, sondern das Vermögen zum Handeln im öffentlichen Raum – zur „Natalität“, zum Anfang setzen und gemeinsam Welt zu gestalten (Arendt, 1968/2013). Bildung aus dieser Perspektive bedeutet nicht nur kognitive Verarbeitungsfähigkeit, sondern politische und ethische Handlungsfähigkeit – gerade im Angesicht komplexer technischer Systeme.
Aktuelle Beiträge zur Phronesis (praktische Weisheit) überträgt diese alte griechische Idee ins 21. Jahrhundert: Sie betont die situierte Urteilskraft in unsicheren, unklaren Kontexten – gerade dort, wo Algorithmen Vorschläge machen, aber nicht automatisch entscheiden können (Kristjánsson & Fowers, 2023/24). Im KI-Zeitalter bleibt damit das selbständige Urteilen – die Fähigkeit, unter Ungewissheit ethisch und souverän zu handeln – zentral.
Die Bildungstheorie versteht Bildung als Selbst- und Welterschließung, als Weltaneignung (Klafki, 1996/2007), Meder (2000/ 2006) betont neben Subjekt und Weltperspektive noch den Bezug zur Objektperspektive als dritte Dimension. In Anlehnung daran lässt sich unsere Interpretation des Kriteriums „Unabhängigkeit“ präzisieren: Es geht nicht lediglich darum, unabhängig von Technik zu sein – etwa auch ohne KI Lösungen zu finden – sondern darum, unabhängig für etwas zu sein: Für die Aneignung der Welt, für die Gestaltung von Beziehungen, für verantwortliches Handeln in technisierten Kontexten. Auch neuere poststrukturalistische Arbeiten konstruieren Unabhängigkeit nicht als reine Instrumentalität, sondern fokussieren sie auf Souveränität und Agency (Wartmann 2024).
Diese Auslegung verschiebt den Fokus von Instrumentalität zur Souveränität: Menschen werden nicht primär zu Konsumenten von KI-Produkten, sondern zu Partnern und Gestaltern technischer Systeme. Raitelhuber (2022) benennt Agency als das Vermögen, eigenes Handeln zu überblicken, zu steuern und zu verantworten. Damit wird es zur zentralen Bedingung von Unabhängigkeit. So wird der Fokus von einer bloßen Instrumentalität auf eine aktive Handlungs- und Gestaltungskompetenz verschoben: Menschen sind nicht nur Konsumenten technischer Produkte, sondern Partner und Gestalter technischer Systeme. Diese Befähigung zur aktiven Weltgestaltung ist besonders bedeutend in einer Ära, in der technologische Systeme Handlungsmöglichkeiten vorstrukturieren (Wicki & Törmänen, 2025). Bildung ist somit nicht nur Vorbereitung, sondern eine umfassende Befähigung, souverän und verantwortungsvoll in komplexen, technisierten Umwelten zu handeln (Herzig, 2025).
Die wachsende Integration generativer KI in Lern-, Arbeits- und Entscheidungsprozesse fordert eine Neubestimmung dessen, was gelernt werden soll, muss und/ oder kann, um kompetent zu sein – und was Kompetenz dann bedeutet. KI-Systeme, wie große Sprachmodelle oder multimodale Generatoren, erweitern zwar die kognitiven Handlungsspielräume des Menschen, verschieben aber zugleich die Grenzen seiner Verantwortung. Damit entsteht eine doppelte Herausforderung: Menschen müssen nicht nur verstehen, was KI kann, sondern auch wie sie ihre eigenen Fähigkeiten einsetzen, um mit KI kritisch, kreativ und verantwortungsvoll zu agieren. Aus dieser Perspektive lassen sich drei zentrale Leitideen herausarbeiten, die die Qualität menschlicher Kompetenz im Zeitalter der KI bestimmen: Unabhängigkeit, Qualität und Effektivität. Diese drei Leitideen sind nicht isolierte Leistungsmerkmale, sondern interdependent: Urteilskraft sichert Unabhängigkeit, Selbstregulation und Metakognition sichert Qualität, und Prozesswissen erzeugt Effektivität. Gemeinsam bilden sie ein hinreichendes Fundament einer reflexiven Kompetenz, die Menschen in die Lage versetzt, technologische Systeme nicht nur zu bedienen, sondern mit ihnen in einen produktiven Dialog zu treten.
Unabhängigkeit bezeichnet im Kontext von KI-Nutzung die Fähigkeit, technologische Vorschläge nicht passiv zu übernehmen, sondern sie kritisch zu beurteilen, zu verfeinern und in Verantwortung zu transformieren. Zahlreiche empirische Arbeiten belegen, dass der produktive Einsatz generativer KI von dieser menschlichen Urteilskraft abhängt. Eine groß angelegte Studie von Microsoft Research (2024) zeigte, dass Effizienz- und Qualitätssteigerungen durch den Einsatz generativer KI-Tools nur dann auftreten, wenn Nutzerinnen und Nutzer ihre Arbeitsprozesse aktiv reflektieren, Evaluationszyklen etablieren und Ergebnisse kritisch prüfen. Fehlt diese Reflexivität, entsteht der sogenannte Automation Bias – die Tendenz, automatisierte Entscheidungen ungeprüft zu übernehmen (Jaffe et al., 2024). Die Ergebnisse deuten darauf hin, dass Unabhängigkeit nicht mit technischer Abstinenz zu verwechseln ist, sondern mit der Fähigkeit zur bewussten Einbindung von Technik in eigene Urteilsprozesse. Sie ist eine Form kognitiver Souveränität, die Menschen davor schützt, von maschineller Präskription abhängig zu werden. Bildung im KI-Zeitalter muss daher nicht nur technische Bedienkompetenz fördern, sondern vor allem kritisches Denken, Evaluationsfähigkeit und metakognitive Kontrolle als Bestandteile professioneller Urteilskraft ausbilden (Brynjolfsson, Li & Raymond, 2023).
Die zweite Leitidee, Qualität, bezieht sich auf die Tiefe und Nachhaltigkeit menschlicher Lern- und Arbeitsprozesse. Aktuelle empirische Befunde zeigen, dass metakognitive Steuerung und Selbstregulation entscheidend dafür sind, ob und wie KI zu besseren Ergebnissen führt. Selbstreguliertes Lernen (SRL) beschreibt das bewusste Planen, Überwachen und Reflektieren des eigenen Lern- oder Arbeitsprozesses (Winne & Hadwin, 1998). Neuere Forschungsarbeiten belegen, dass SRL-Kompetenzen als Moderator zwischen KI-Nutzung und Leistungsoutput wirken: Lernende mit hoher Selbstregulation profitieren überproportional von KI-gestützten Umgebungen, während geringe SRL-Werte zu Overreliance-Effekten und sinkender Qualität führen (Chiu, Kessler & Tan, 2025; Zhang et al., 2025). Eine systematische Übersichtsstudie zeigt zudem, dass Generative-AI-Tools metakognitive Prozesse zwar unterstützen, diese aber nicht ersetzen können: Erst durch aktives Zielsetzen, Selbstbeobachtung und Reflexion entsteht qualitativ hochwertiges Lernen (Sardi et al., 2025). Qualität im KI-Zeitalter entsteht also nicht aus der Leistungsfähigkeit der Systeme, sondern aus der Fähigkeit der Menschen, diese Systeme zu steuern, zu hinterfragen und in eigene Denkprozesse zu integrieren. Damit ist Qualität kein Output-Indikator, sondern ein Ausdruck der menschlichen Mündigkeit: Wer über metakognitive Kompetenzen verfügt, bleibt in der Lage, die Ergebnisse von KI sinnvoll zu interpretieren und in gesellschaftliche oder ethische Kontexte einzuordnen.
Die dritte Leitidee, Effektivität, bezieht sich auf die Fähigkeit, Abläufe zwischen Mensch und Maschine methodisch zu gestalten und zu koordinieren. Hier geht es nicht um reine Geschwindigkeit, sondern um die intelligente Orchestrierung von Prozessen. Empirische Untersuchungen im Arbeitskontext zeigen, dass generative KI die Produktivität erheblich steigern kann – insbesondere bei Aufgaben mittlerer Komplexität. Entscheidend ist jedoch das Prozessverständnis der Nutzer: Wer in der Lage ist, Aufgaben in logische Teilprozesse zu zerlegen, Schnittstellen zu definieren und Feedbackschleifen zu implementieren, erzielt konsistent bessere Ergebnisse (Brynjolfsson et al., 2023). In drei Feldexperimenten mit hochqualifizierten Fachkräften belegte die Studie signifikante Produktivitätsgewinne von bis zu 14 %, wobei die größten Zuwächse bei Mitarbeitenden mit geringer Erfahrung auftraten – ein Hinweis auf kompensatorische Effekte (Brynjolfsson et al., 2023). Parallel dazu betont die Forschung von Microsoft Research (2024), dass Effektivität nicht nur von Tool-Verfügbarkeit, sondern von der Fähigkeit abhängt, Prozessketten zu reflektieren und anzupassen. Effektivität ist damit Ausdruck einer neuen Form professioneller Kompetenz: Sie entsteht durch die bewusste Steuerung des Zusammenspiels zwischen Mensch und KI – ein Lernprozess, der sowohl analytische Präzision als auch kreative Anpassungsfähigkeit verlangt.
Unabhängigkeit, Qualität und Effektivität bilden gemeinsam ein kohärentes Kompetenzsystem, das Menschen in einer durch KI geprägten Welt handlungs- und urteilssicher macht.
Diese drei Leitideen – auch: Prinzipien - sind wechselseitig verstärkend: Urteilskraft ist die Voraussetzung für Qualität, Qualität die Grundlage für effektive Prozesse, und Effektivität wiederum stabilisiert Unabhängigkeit. Bildungspolitisch und didaktisch impliziert das, dass Kompetenzförderung im KI-Zeitalter nicht auf Tool-Training reduziert werden darf. Sie muss Lern- und Arbeitsprozesse so strukturieren, dass Reflexion, Kontrolle und Gestaltung zu konstitutiven Elementen werden (Chiu et al., 2025; Jaffe et al., 2024). Nur so bleibt der Mensch der kritisch-kreative Partner einer Technologie, die er selbst hervorgebracht hat.
Die Wirkung generativer KI auf Leistung ist heterogen: Manche Nutzer:innen erzielen deutliche Zugewinne, andere profitieren moderat – teils entstehen sogar Qualitätsrisiken. Zwei Mechanismen erklären dieses Muster. Kompensation meint, dass KI fehlendes Erfahrungs- oder Fähigkeitsniveau ausgleicht und so insbesondere Unerfahrene/ Noviz:innen (Dreyfus & Dreyfus, 1986) schneller macht. Komplementarität heißt, dass bereits vorhandene metakognitive, selbstregulative und prozessuale Stärken die Wirkung von KI verstärken – Qualität und Transfer steigen vor allem dort, wo Menschen ihre Arbeit aktiv strukturieren, überwachen und reflektieren. Die aktuelle Evidenz zeigt: Beide Mechanismen greifen gleichzeitig – mit klaren Implikationen für Aus- und Weiterbildung.
Eine vielbeachtete Feldstudie zur Einführung eines LLM-basierten Assistenten im Kundensupport zeigt im Durchschnitt +14–15 % mehr erledigte Fälle pro Stunde, unerfahrene Agent:innen legten am stärksten zu (teils über +30 %), während sehr Erfahrene nur geringe Zugewinne verzeichneten (Brynjolfsson, Li & Raymond, 2023). Ähnliche Muster berichten experimentelle Studien zu berufsnahen Schreibaufgaben: Bearbeitungszeit sinkt signifikant, Qualität steigt, und die Leistungsunterschiede zwischen Schwächeren und Stärkeren komprimieren sich – ein deutliches Kompensation-Signal (Noy & Zhang, 2023). Diese Befunde sprechen dafür, dass KI besonders dort wirkt, wo Routine, Formulierungshilfen und Mustervervollständigung gefragt sind und Menschen noch wenig Vorwissen oder geringe Routine besitzen. Damit kann KI Einstiegshürden senken und Onboarding-Phasen verkürzen.
Didaktische Implikation: In der Qualifizierung von Studierenden lohnt sich der frühe, angeleitete KI-Einsatz – mit klaren Qualitätskriterien und Feedback-Schleifen.
Komplementarität zeigt sich dort, wo Selbstregulation (SRL), Metakognition und Prozesswissen bereits ausgeprägt sind. Eine aktuelle fsQCA-Studie identifiziert Konfigurationen, in denen Gen-KI-Affordanzen zusammen mit Lernermerkmalen (u. a. SRL) besonders wirksam werden: Hohe SRL-Ausprägung fungiert als Schlüsselelement für Qualität, Transfer und nachhaltige Nutzung (Chiu, Kessler & Tan, 2025). Eine systematische Übersichtsarbeit (2025) zeigt zudem, dass Gen-KI metakognitive Aktivitäten unterstützen, sie aber nicht ersetzt: Qualität entsteht, wenn Lernende Ziele setzen, Fortschritt überwachen und reflektieren; ohne diese Routinen drohen Overreliance und Scheingenauigkeit (Zhang et al., 2025). Ergänzend belegen neuere Reviews zum AI-gestützten SRL, dass klare Aufgabenstruktur, Transparenz der Ziele und reflektierte Prompt-Strategien die Wirkungsstärke von KI in Lernsettings substanziell erhöhen (Sardi et al., 2025).
Organisationsimplikation: Für Fortgeschrittene und Expert:innen sind SRL-Routinen (Planen–Überwachen–Reflektieren) und prozessuale Standards (Dekomposition, Rollenklärung Mensch/KI, Review-Kriterien) der Multiplikator von KI-Wirkung. Führung sollte diese Routinen systematisch verankern.
Im Zusammenspiel bedeutet das: Kompensation reduziert Leistungsgefälle (z. B. durch schnellere Erstentwürfe, bessere Formulierungen, kontextsensitives Feedback), während Komplementarität „die Spitze“ hebt (z. B. durch anspruchsvolle Dekomposition, kritische Evaluation, eigenständige Erweiterungen). Feldexperimente belegen beide Effekte zugleich: Noviz:innen holen auf, Erfahrene maximieren Qualität und Transfer, sofern metakognitive Kontrolle und Prozessdesign vorhanden sind (Brynjolfsson et al., 2023; Noy & Zhang, 2023; Chiu et al., 2025; Zhang et al., 2025).
Die Befunde zu Kompensation und Komplementarität haben unmittelbare Auswirkungen auf die Gestaltung von Bildungs- und Entwicklungsprogramme in Hochschulen, Organisationen und Unternehmen. Bildung im Zeitalter der KI darf nicht bei der Inhaltsvermittlung stehen bleiben, sondern muss – im Sinne der Future-Skills-Logik – Kompetenzen zum Denken, Steuern und Gestalten in hybriden Mensch-Maschine-Systemen fördern (Ehlers, 2020). Drei Gestaltungsprinzipien lassen sich daraus ableiten: der gezielte Einstieg über kompensatorische Lernphasen, die vertiefte Entwicklung komplementärer Fähigkeiten und eine präzise Evaluation der Wirksamkeit durch geeignete Indikatoren.
1. Einstieg: Kompensation als Beschleuniger nutzen: In frühen Lernphasen kann KI als didaktisches Stützsystem dienen, das Einstiegshürden senkt und Tempo sowie Qualität steigert. Generative KI unterstützt Noviz:innen beim Strukturieren, Entwerfen und Reflektieren, indem sie Modelle, Schreibmuster oder Denkanstöße bereitstellt. Studien zeigen, dass solche unterstützenden KI-Interventionen insbesondere bei Lernenden mit geringem Vorwissen schnellere Fortschritte und höhere Basiskompetenzen bewirken (Brynjolfsson, Li & Raymond, 2023; Noy & Zhang, 2023).
Didaktisch empfiehlt sich hier der Einsatz sogenannter „Onboarding-Sprints“: kurze, stark strukturierte Lerneinheiten, in denen Lernende mit Prompt-Beispielen, Rubriken zur Ergebnisqualität und Peer-Feedback arbeiten. Diese Form des begleiteten Lernens bewirkt, dass die kompensatorische Funktion der KI gezielt aktiviert, aber zugleich durch menschliche Reflexion kontrolliert wird. Entscheidend ist, dass Lernende verstehen, warum ein bestimmter Output gut ist, und die Fähigkeit entwickeln, KI-Vorschläge zu bewerten und zu verbessern (Chiu, Kessler & Tan, 2025).
2. Vertiefung: Komplementarität gezielt aktivieren: Sobald Basiskompetenzen etabliert sind, rückt die Förderung komplementärer Fähigkeiten in den Fokus. Ziel ist es, Lernende zu befähigen, KI-gestützte Arbeitsprozesse eigenständig zu gestalten, zu überwachen und kritisch zu bewerten. Zentral sind dabei drei Komponenten:
Für Hochschulen bedeutet das, SRL- und Prozessmodule curricular zu verankern und mit Fachinhalten zu integrieren, statt sie als Zusatztraining zu behandeln.
Im Zentrum menschlicher Lern- und Handlungskompetenz steht die Fähigkeit, das eigene Tun intentional zu steuern, Entscheidungen zu reflektieren und Handlungen bewusst an Zielen auszurichten (Ehlers, 2020). Diese Fähigkeit wird als Agency bezeichnet – das Vermögen, „Ursache und Gestalter des eigenen Handelns“ zu sein (Bandura, 2001, S. 2). Im Zeitalter der künstlichen Intelligenz erhält Agency eine neue Bedeutung: Menschen müssen lernen, technisch vermittelte Handlungsspielräume aktiv zu nutzen und kritisch zu begrenzen. In KI-gestützten Umgebungen tritt Agency nicht gegen Technologie an, sondern formt deren Nutzung als bewusste Ko-Konstruktion: Der Mensch entscheidet, wann er automatisierte Vorschläge übernimmt, korrigiert oder verwirft, und wie er algorithmische Ergebnisse in eigene Urteilsprozesse integriert (Deci & Ryan, 2017; Ehlers, 2020).
In der sozial-kognitiven Theorie definiert Bandura (2001) Agency als die Fähigkeit, durch Selbstbeobachtung, Selbstregulation und Selbstreflexion zielgerichtet zu handeln. Menschen sind nicht nur Reagierende auf äußere Reize, sondern können durch Intentionalität, Vorausschau, Selbstreaktivität und Selbstreflexion ihre Umwelt aktiv gestalten. Diese vier Komponenten bilden das Fundament personaler Autonomie und moralischer Verantwortung (Bandura, 2006).
Parallel dazu formulieren Deci und Ryan (zuletzt 2017) in ihrer Selbstbestimmungstheorie (SDT), dass Agency entsteht, wenn die psychologischen Grundbedürfnisse nach Autonomie, Kompetenz und sozialer Eingebundenheit erfüllt sind. Bildungssysteme und Arbeitsumgebungen, die diese Bedingungen fördern, ermöglichen Menschen, ihr Lernen intrinsisch zu steuern und Technologie als Werkzeug der Selbstwirksamkeit zu erleben – nicht als Ersatz für eigenes Denken (Ryan & Deci, 2019).
Damit wird Agency zu einem normativen Bildungsziel: Sie verkörpert jene Form der Selbststeuerung, die im humanistischen Bildungsverständnis als Ausdruck von Freiheit und Mündigkeit gilt (Ehlers, 2020; Arendt, 1958/2013).
In der aktuellen Lernforschung gilt Agency als zentrale Vermittlungsvariable für die Wirksamkeit von KI-gestützten Lernprozessen: Studien zeigen, dass Lernende dann besonders profitieren, wenn sie autonom agieren, Feedback aktiv einholen und Entscheidungen über Aufgabenstrategien selbst treffen (Chiu, 2024; Zhang, Li & Moreno, 2025).
Generative KI kann Agency unterstützen, wenn Lernumgebungen Transparenz, Lernkontrolle und Reflexionsphasenenthalten. In einer systematischen Übersicht identifizierten Sardi et al. (2025) drei Bedingungen, unter denen GenAI Agency stärkt:
Werden diese Bedingungen erfüllt, entwickelt sich Agency als reflexive Kompetenz, die über technische Fertigkeiten hinausgeht: Lernende gestalten ihre Interaktion mit KI als bewusst regulierten Lernprozess (Chiu, Kessler & Tan, 2025). In Umgebungen ohne klare Reflexionsanreize kann hingegen das Gegenteil eintreten: Overreliance – ein übermäßiges Vertrauen in KI-Vorschläge – reduziert die Fähigkeit, eigene Urteile zu fällen (Zhang et al., 2025). Agency ist somit kein Automatismus der KI-Nutzung, sondern das Resultat lernförderlicher Gestaltung und metakognitiver Schulung.
Das Konzept des Self-Regulated Learning (SRL) konkretisiert Agency auf der Handlungsebene. Winne und Hadwin (1998) beschreiben SRL als einen zyklischen Prozess aus Planung, Monitoring, Strategieeinsatz und Reflexion. In KI-gestützten Lernkontexten erweitert sich dieser Zyklus: Lernende übernehmen zusätzlich Prompt-Design, Quellenbewertung und Feedback-Iteration als metakognitive Steuerungsakte (Roe & Perkins, 2024).
Empirische Studien belegen, dass Lernende mit hohen SRL-Fähigkeiten mehr Agency erleben, bessere Lernergebnisse erzielen und KI-Systeme kritischer einsetzen (Chiu et al., 2025; Sardi et al., 2025). Agency und Selbstregulation stehen damit in einem reziproken Verhältnis: Agency ermöglicht Selbststeuerung, und erfolgreiche Selbststeuerung stärkt das Erleben von Agency.
Diese Wechselwirkung macht deutlich, dass SRL nicht bloß eine Lerntechnik ist, sondern eine bildungstheoretische Konsequenz – Ausdruck von Autonomie, Verantwortung und reflexiver Urteilskraft im digitalen Raum.
Aus bildungstheoretischer Perspektive ist Agency der Kern menschlicher Mündigkeit. Sie verbindet Selbstbestimmung (Deci & Ryan, 2017), Urteilsfähigkeit (Klafki, 2007) und Handlungsfreiheit (Arendt, 1958/2013) zu einer Haltung, die Menschen befähigt, mit KI nicht nur umzugehen, sondern sie in den Dienst menschlicher Zwecke zu stellen.
Ehlers (2020) formuliert in seinem Modell der Future Skills Agency als Querschnittskompetenz: Sie bündelt kritisches Denken, Selbststeuerung, Verantwortungsübernahme und Gestaltungsfähigkeit, auch in offenen, technologisch komplexen Kontexten. Damit wird Agency zum Maßstab einer neuen Lernkultur – einer Kultur, in der Menschen nicht auf Kontrolle verzichten, sondern sie bewusst teilen: mit anderen Menschen, mit Institutionen und mit intelligenten Systemen.
AIComp (Artificial Intelligence Competences) ist ein empirisch konstruiertes Kompetenzstrukturmodell für eine von KI durchdrungene Lebens- und Arbeitswelt (Ehlers et al., 2024). Es fasst KI-bezogene Future Skills als Handlungsdispositionen auf und wurde in einem multimethodischen Prozess entwickelt (u. a. Literaturaufbereitung, Interviews, Gruppendiskussionen; anschließend eine quantitative Studie mit N = 1.644 Erwerbstätigen), deren Hauptkomponentenanalyse zu drei Kompetenzbereichen und zwölf Kompetenzfeldern führte (ebenda). Zentral ist dabei, dass Kompetenzen nicht als Tool-Bedienwissen verstanden werden, sondern als souveräne Handlungsfähigkeit in offenen, realen Situationen – mit kognitiven, metakognitiven, motivational-volitionalen und wertebezogenen Komponenten (ebenda). AIComp bildet einen Brückenrahmen zu den drei Kriterien Unabhängigkeit, Qualität und Effektivität: Es macht sichtbar, welche Dispositionen es braucht, um Urteilskraft, Ergebnisgüte und Prozess-Orchestrierung im KI-Einsatz verlässlich zu erreichen.
Das Modell unterscheidet drei Kompetenzbereiche – (1) Arbeit/Tätigkeit/Aufgabe, (2) Persönliche Entwicklung, (3) Soziales Umfeld/Organisation – und darin zwölf Kompetenzfelder als thematische Handlungsdispositionen (AIComp Research Collective, 2024):
Diese Felder sind systemisch verknüpft: Ethische Entscheidungen (10) setzen kritisches Denken (7) und kritische digitale Kompetenz (4) voraus; wirksame Kooperation (11) und Kommunikation (12) stützen Systemdesign (2). Das Modell liefert damit präzise Andockpunkte für hochschulische Lernziele, Curricula und Assessment (ebenda).
Unabhängigkeit (Urteilskraft) wird vor allem durch Kritisches Denken (7), Selbstbestimmtheit/Autonomie (9) und Ethische Kompetenz (10) getragen. Diese Felder zielen auf reflexive Distanz, Begründungstiefe und verantwortete Entscheidungen – Antidoten gegen Automation Bias und unreflektierte Tool-Faszination.
Qualität (metakognitive Steuerung) stützt sich auf aktive Steuerungsfähigkeit (8), kritische digitale Kompetenz (4) und Entscheidungskompetenz (5). Hier werden Zielklarheit, Monitoring, Quellenkritik und Evidenzprüfung trainiert – Bedingungen, unter denen KI-Nutzung zuverlässig bessere Ergebnisse liefert.
Effektivität (Prozessorchestrierung) resultiert aus Systemdesignkompetenz (2) sowie Kooperations- (11) und Kommunikationskompetenz (12). Sie ermöglichen die Dekomposition von Aufgaben, die Schnittstellengestaltung Mensch/KI und Review-Schleifen über Disziplin- und Rollengrenzen hinweg.
Für die hochschulische Praxis bedeutet dies, Curricula so zu gestalten, dass AIComp-Felder als explizite Learning Outcomes ausgewiesen werden. Module können beispielsweise formulieren, dass Studierende in der Lage sind, Bias-Risiken zu identifizieren und argumentativ zu begründen – ein Ziel, das die Kompetenzfelder kritisches Denken, digitale Urteilskraft und ethische Verantwortung miteinander verknüpft (Ehlers et al., 2024). Die didaktische Sequenzierung sollte einer progressiven Komplexitätslogik folgen: von angeleiteten zu offenen Aufgaben, von eng gefassten zu weiten Daten- und Kontextvorgaben.
Für das Assessment bedeutet das, dass nicht Output-Mengen, sondern die Tiefe der Begründung, die Evidenzkompetenz und die Stabilität von Ergebnissen über verschiedene Aufgabenvarianten hinweg bewertet werden. Instrumente wie Ethik-Rubrics, Review-Protokolle oder Kurzreflexionen machen individuelle Lernentscheidungen sichtbar und fördern metakognitive Bewusstheit (UNESCO, 2023).
Lehr-Lern-Settings wie KI-Ateliers oder Lab-Sprints verbinden Fachinhalte mit den AIComp-Feldern: etwa Entscheidungsübungen mit transparenten Datenpipelines oder System-Skizzierungen mit Team-Übergaben. Die Kompetenzprogression kann entlang von Stufenbeschreibungen nach Bloom beziehungsweise Anderson-Krathwohl abgebildet werden, um den Übergang von Anwendung zu Gestaltung sichtbar zu machen (NextEducation, 2024).
Schließlich sollte jedes Curriculum Nachhaltigkeit und Verantwortung verankern: die Auseinandersetzung mit Datenschutz, Fairness und Teilhabe ebenso wie die Förderung persönlicher Mündigkeit, Autonomie und Selbstwirksamkeit. So wird KI-Bildung zu einem Beitrag demokratischer Kultur – im Sinne eines humanistischen Verständnisses von Bildung und einer reflektierten, verantwortlichen Nutzung intelligenter Systeme (UNESCO, 2023; AIComp Research Collective, 2024).
Die Integration von Künstlicher Intelligenz in Bildung und Führungspraxis verlangt eine Rückbesinnung auf das, was Bildung im Kern bedeutet. Im Zentrum steht nicht die technische Leistungsfähigkeit von Systemen, sondern die Entwicklung menschlicher Urteils-, Gestaltungs- und Handlungsfähigkeit. Bildung zielt auf die Fähigkeit, Welt zu verstehen, sich selbst in ihr zu verorten und sie verantwortlich mitzugestalten. Damit rückt ein normatives Leitbild in den Vordergrund, das technologische Innovation unter die Frage stellt: Was stärkt menschliche Souveränität, Urteilskraft und Mündigkeit?
Ein solches Verständnis erfordert ein Ordnungsmodell, das bildungstheoretische Grundprinzipien mit praxisbezogenen Gestaltungslogiken verbindet. Es führt von der Idee der Weltaneignung (Klafki, 1996) über Freiheit und Handlungsfähigkeit (Arendt, 1961) bis hin zu praktischer Urteilskraft oder Phronesis (MacIntyre, 2007). Ziel ist eine Lehre, die nicht den Einsatz von Tools, sondern die Entfaltung von Kompetenzen und Haltungen steuert – eine Bildung mit Technologie, aber nicht durch Technologie bestimmt.
Bildungsziel vor Toolauswahl: Bildung ist immer mehr als Wissensvermittlung. Nach Klafki (1996) ist sie die „Fähigkeit zur Selbstbestimmung, Mitbestimmung und Solidaritätsfähigkeit“. In dieser Tradition ist der Ausgangspunkt jeder Lehrgestaltung die Frage, welche Weltbezüge – also welche Form der Weltaneignung – und welche Formen von Agency gestärkt werden sollen. Erst wenn dieser normative Rahmen geklärt ist, folgt die Auswahl digitaler oder KI-gestützter Werkzeuge. Arendt (1961) erinnert daran, dass Freiheit die Fähigkeit bedeutet, Anfänge zu setzen und Welt gemeinsam zu gestalten – eine politische und zugleich pädagogische Handlungskraft. Bildung im KI-Zeitalter meint somit nicht Unabhängigkeit von Technologie, sondern Unabhängigkeit für Weltgestaltung.
Selbstreguliertes Lernen (SRL) als Standard: Forschung zu selbstreguliertem Lernen zeigt, dass Lernprozesse besonders wirksam sind, wenn sie die Zyklen Planen – Handeln – Überwachen – Reflektieren systematisch verankern (Zimmerman & Moylan, 2009; Boekaerts & Corno, 2005). In KI-gestützten Lehr-Lernsettings bedeutet das, dass jede Aufgabe diese Struktur sichtbar macht: Zieldefinition, Kriterienprüfung, Plausibilitäts- und Bias-Kontrolle sowie Reflexion. Selbstregulation wird so zum didaktischen Standard, nicht zur Zusatzkompetenz.
Prozessdesign: Kompetenzorientierte Lehre erfordert die bewusste Gestaltung von Prozessen: Aufgaben werden dekomponiert, Zwischenschritte mit KI-Unterstützung geplant, Reviewrollen und Übergaben festgelegt. Studien belegen, dass Prozesswissen – also die Fähigkeit, Aufgaben in logische Teilsequenzen zu zerlegen – die Wirksamkeit von Mensch-KI-Zusammenarbeit deutlich erhöht (Brynjolfsson, Rock & Sharma, 2023). Qualität entsteht dort, wo Lernende den gesamten Produktionsprozess verstehen und ihn nachvollziehbar gestalten können.
Ethik und Transparenz: Bildung ist immer auch eine moralische Praxis. Deshalb müssen Fragen nach Datenherkunft, Attribution, Wertkonflikten und Verantwortung sichtbar gemacht werden. Die Leitidee der Phronesis, der praktischen Urteilskraft, erhält hier neue Aktualität: Sie bezeichnet die Fähigkeit, in unübersichtlichen Situationen verantwortlich zu handeln (MacIntyre, 2007; Nussbaum, 2011). In der Lehre bedeutet dies, dass Studierende nicht nur „richtig“ entscheiden lernen, sondern verstehen, warum und auf welcher Basis sie entscheiden. Damit wird Ethik zu einem zentralen Bestandteil professioneller Kompetenzentwicklung.
Die zwölf Kompetenzfelder des AIComp-Modells bieten ein Fundament für Hochschulcurricula und Führungstrainings. Sie umfassen unter anderem kritisches Denken, ethische Kompetenz, Selbststeuerung, Systemdesign und Kommunikationsfähigkeit. Eine auf AIComp basierende Weiterbildung richtet sich daher weniger auf Tool-Bedienung als auf Gestaltungskompetenz. Lehr- und Führungsprogramme können diese Felder in Form von Modulen operationalisieren, etwa durch „kritisches Prompting“, „Quellen- und Modellprüfung“ oder „Entscheidungsrationalen dokumentieren“. Damit werden die Dimensionen Unabhängigkeit, Qualität und Effektivität didaktisch greifbar.
8. Literatur
1. Arendt, H. (2002). Vita activa oder Vom tätigen Leben (Orig. 1958). München: Piper.
2. Bandura, A. (2001). Social cognitive theory: An agentic perspective. Annual Review of Psychology, 52(1), 1–26.
3. Bandura, A. (2006). Toward a psychology of human agency. Perspectives on Psychological Science, 1(2), 164–180.
4. Boekaerts, M., & Corno, L. (2005). Self-regulation in the classroom: A perspective on assessment and intervention. Applied Psychology, 54(2), 199–231.
5. Brynjolfsson, E., Li, D., & Raymond, L. (2023). Generative AI at Work. NBER Working Paper No. 31161. Cambridge, MA: National Bureau of Economic Research.
6. Brynjolfsson, E., Li, D., & Raymond, L. (2025). Generative AI at work. Quarterly Journal of Economics. Advance online publication.
7. Brynjolfsson, E., Rock, D., & Sharma, G. (2023). The Turing Trap Revisited: Human Agency and Process Knowledge in the Age of AI. MIT Digital Economy Working Paper.
8. Chiu, M., Kessler, L., & Tan, P. (2025). Complementary and compensatory effects of generative AI on learning outcomes: The moderating role of self-regulation. Computers & Education, 213, 105097.
9. Chiu, T. K. F. (2024). A classification tool to foster self-regulated learning with generative AI. Educational Technology Research and Development, 72(4), 833–856.
10. Deci, E. L., & Ryan, R. M. (2017). Self-Determination Theory: Basic Psychological Needs in Motivation, Development, and Wellness. New York: Guilford Press.
11. Deutsches Institut für Erwachsenenbildung (DIE). (2025). Generative KI und menschliche Kompetenz – Kurzpapier mit Verweis auf AIComp (2024). Bonn: DIE.
12. Ehlers, U.-D. (2020). Future Skills: Lernen der Zukunft – Der Zukunft des Lernens. Wiesbaden: Springer VS.
13. Ehlers, U.-D., Rauch, E., & Lindner, M. (2024). AIComp – Future Skills für eine durch KI geprägte Lebens- und Arbeitswelt (Research Paper). Karlsruhe: DHBW.
14. Eisenberg, R., & Yeh, S. (2024). Process literacy as the foundation of effective human–AI collaboration. Journal of Educational Technology Research and Development, 72(2), 321–339.
15. Herzig, B. (2025). Die (produktive) Rolle von generativer KI im erziehungswissenschaftlichen Diskurs. In Erziehungswissenschaftliche Beiträge zur Bildungsforschung.
16. Jaffe, S., et al. (2024). Automation bias in human–AI decision making. [Zeitschrift/Journal-Angabe bitte ergänzen].
17. Jörissen, B., & Marotzki, W. (2009). Medienbildung – Eine Einführung. Bad Heilbrunn: Klinkhardt.
18. Klafki, W. (1996). Neue Studien zur Bildungstheorie und Didaktik: Zeitgemäße Allgemeinbildung und kritisch-konstruktive Didaktik. Weinheim: Beltz.
19. Kristjánsson, K. (2024). Aristotelische praktische Weisheit (phronesis) – Aktualität und pädagogische Relevanz. Forum Erwachsenenbildung, 57(2), 80–89.
20. Kristjánsson, K., & Fowers, B. (2023). Phronesis: Retrieving Practical Wisdom in Psychology, Philosophy, and Education. Oxford: Oxford University Press.
21. Luhmann, N., & Schorr, K. E. (1979). Reflexionsprobleme im Erziehungssystem. Stuttgart: Klett-Cotta.
22. MacIntyre, A. (2007). After Virtue: A Study in Moral Theory (3rd ed.). Notre Dame, IN: University of Notre Dame Press.
23. Meder, N. (2000). Wissen und Bildung im Internet—in der Tiefe des semantischen Raumes. In Zum Bildungswert des Internet (S. 33-56). Wiesbaden: VS Verlag für Sozialwissenschaften.
24. Meder, N. (2006). Web-Didaktik. Eine neue Didaktik webbasierten, vernetzten Lernens. Bielefeld: Bertelsmann.
25. Meder, N. (o. J.). Strukturelle Bestimmung von Bildung. Duisburg: Universität Duisburg-Essen.
26. Microsoft Research. (2024). Human Judgment and AI Productivity: The Need for Critical Evaluation in Generative Systems. Redmond, WA: Microsoft Research Report Series.
27. Microsoft Research. (2025). AI & Critical Thinking Survey: Findings from 319 Knowledge Workers. Redmond, WA: Microsoft Research Report Series.
28. Nida-Rümelin, J., & Weidenfeld, N. (2023). Digitaler Humanismus: Eine Ethik für das Zeitalter der Künstlichen Intelligenz. München: Piper.
29. Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative AI. Science, 381(6654), 187–192.
30. Nussbaum, M. (2011). Creating Capabilities: The Human Development Approach. Cambridge, MA: Harvard University Press.
31. Nussbaum, M. C. (2011). Creating Capabilities: The Human Development Approach. Cambridge, MA: Harvard University Press.
32. Peng, J., Liu, Y., & Wang, F. (2024). Self-regulated learning moderates effectiveness of generative AI tools in higher education. Learning and Instruction, 87, 102849.
33. Raithelhuber, E. (2022). Welches Verständnis von Agency braucht die Übergangsforschung? Beiträge zu relationalen Zugängen und Lebenslaufperspektiven. Zeitschrift für Pädagogik, 68(2), 185–202.
34. Ryan, R. M., & Deci, E. L. (2019). The nature and the conditions of human autonomy and flourishing: Self-determination theory and basic psychological needs. In Encyclopedia of Quality of Life and Well-Being Research. SpringerLink.
35. Sardi, L., et al. (2025). AI-supported self-regulated learning: A systematic review. [Zeitschrift/Journal-Angabe bitte ergänzen].
36. UNESCO. (2023). Guidance for Generative AI in Education and Research. Paris: UNESCO.
37. Wartmann, R. (2024). Bildung dekonstruieren: Grenzgänge im Anschluss an die poststrukturalistische Bildungsphilosophie. Bielefeld: transcript Verlag. https://doi.org/10.14361/9783839471241
38. Wicki, M., & Törmänen, M. R. K. (2025). Bildung für alle stärken. Ein Handbuch für evidenzbasierte Entwicklung inklusiver Schulen. Verlag Julius Klinkhardt.
39. Winne, P. H., & Hadwin, A. F. (1998). Studying as self-regulated learning. In D. J. Hacker, J. Dunlosky, & A. C. Graesser (Eds.), Metacognition in Educational Theory and Practice (pp. 277–304). Mahwah, NJ: Erlbaum.
40. Zhang, Q., Li, H., & Moreno, R. (2025). Metacognition and generative AI in collaborative problem solving: An experimental study. Computers in Human Behavior, 158, 108412.
41. Zimmerman, B. J., & Moylan, A. R. (2009). Self-regulation: Where metacognition and motivation intersect. In D. Hacker, J. Dunlosky, & A. Graesser (Eds.), Handbook of Metacognition in Education (pp. 299–315). New York: Routledge.
Leiter der Forschungsgruppe und Professur für Bildungsmanagement und Lebenslanges Lernen