Nach wie vor gilt Learning Analytics als verheißungsvolle Zukunftstechnologie im Bildungsbereich. Die automatisierte Analyse von Lerndefiziten habe sowohl das Potenzial, Durchfallquoten massiv zu minimieren als auch die Lehre zu verbessern. Doch was ist dran am Hype? Ein Diskussionsbeitrag.
Trotz massiven Fortschritten in der digitalen Lehre bedingt durch mittlerweile zwei vollständige Corona-Semester mit weitestgehender Distanzlehre stehen wir bei vielen Bildungstechnologien in Deutschland noch am Anfang – ein Beispiel dafür ist Learning Analytics. Das allein muss nicht schlecht sein. Nein, es ist sogar geboten, Chancen und Risiken neuer Technologien vor ihrem flächendeckenden Einsatz ausreichend zu prüfen und zu diskutieren. Ganz analog verhält es sich schließlich etwa auch bei der Zulassung von Impfstoffen oder Medikamenten zur Therapie neuer Krankheiten.
Bevor wir auf die Chancen und Risiken von Learning Analytics zu sprechen kommen, eine kurze Einführung: Mit dem Begriff Learning Analytics werden in der Regel Technologien bezeichnet, welche mithilfe von Algorithmen die Lerndaten von Teilnehmern an digitalen Kursen automatisiert auswerten. Diese Auswertung erlaubt im Idealfall Rückschlüsse auf den Lernfortschritt und die Lerndefizite der Kursteilnehmer. Voraussetzung ist, dass zumindest ein Großteil des Lernprozesses digital abgebildet ist, da automatisiert nur digitale Metadaten, die bei der Verwendung digitaler Lernplattformen anfallen, vorliegen können. Deshalb eignen sich reine Onlinekurse mit einer Vielzahl digitaler Inhalte besonders gut für den Einsatz von Learning Analytics.
Lassen wir das Thema Datenschutz zunächst einmal außen vor. Die gesammelten und algorithmisch analysierten Daten lassen sich nun grob gesagt für zwei Szenarien gebrauchen:
- Die Analyse des Lernstands einzelner Kursteilnehmer mit dem Zweck einer konkreten Rückmeldung nach dem Prinzip: „Du hast im Bereich A noch Lücken, Bereich B ist vollständig bearbeitet, der Bereich ist noch komplett offen – Deine statistische Wahrscheinlichkeit, die Prüfung zu bestehen, liegt bei x Prozent.“
- Die Rückmeldung an den Dozenten, welcher Student an welcher Stelle im Kurs Probleme zu haben scheint (bei spezifischer Auswertung der Daten einzelner Kursteilnehmer) bzw. wie schwer sich die Studenten mit einzelnen Teilen des Kurses tun (bei einer anonymisierten Auswertung der Daten aller Kursteilnehmer).
Natürlich sind diese Szenarien Idealbilder, die in der Realität nur mit Einschränkungen zu haben sind. Beispielsweise könnte ein Algorithmus zwar theoretisch aufzeichnen, dass ich einen Text öffne und darin herumscrolle. Wie intensiv ich ihn aber tatsächlich lese und verinnerliche, wird sich, wenn überhaupt, nur durch die Messung von Hirnströmen feststellen lassen. Gehen wir für das Beispiel aber einmal von einem „perfekten“ Onlinekurs mit gut konzipierten Lernstands-Quizzes nach jeder Lerneinheit aus: Wie sind diese Szenarien zu bewerten?
Im ersten Szenario erhält der Student im Idealfall eine spezifische Rückmeldung, was konkret noch zu lernen ist, um die Prüfung zu bestehen. Das ist praktisch, senkt es doch tatsächlich das Risiko einer nichtbestandenen Prüfung. Aber gehört nicht zum Studium auch wesentlich das Erlernen der Fähigkeit, selbstbestimmt beurteilen zu können, was ich in welcher Intensität lernen muss, um eine Prüfung zu bestehen? Ist diese Fähigkeit nicht im Zweifel sogar wichtiger als die Kenntnis der Lerninhalte selbst? Klar – dazu gehört im Zweifel auch, womöglich einmal die ein oder andere Prüfung zu versemmeln. Aber sollten Hochschulen nicht auch gerade ein Ort sein, an dem man aus dem Scheitern lernen kann? Denn, wenn man das weder in der Schule noch im Studium lernt, ist es im Berufsleben fürs Scheitern vielleicht zu spät. Auch eine Durchdringung der Inhalte erfolgt wahrscheinlich besser, wenn ich sie mir selbst erschließe, als wenn ein Algorithmus mir vorkaut, was ich noch nicht erschlossen habe. Insofern stellt sich der vermeintliche Vorteil der geringeren Durchfallquote hier schnell als Nachteil heraus.
Anders sieht es im zweiten Szenario aus: Der Nutzung von Learning Analytics zur Verbesserung der Lehre. Mit einer Einschränkung: Eine auf den einzelnen Kursteilnehmer heruntergebrochene Analyse der Lerndaten ist nicht nur datenschutzrechtlich höchst problematisch. Es ist auch fragwürdig, wie viele Studenten gar kein Problem damit hätten, dass ihr Dozent detailliert auswerten könnte, welche Studenten erst am Tag vor der Prüfung mit der Vorbereitung auf diese begonnen haben.
Im Fall einer anonymisierten Lerndatenauswertung können die Lerndaten dem Dozenten allerdings einen sehr hilfreichen Hinweis darauf geben, an welcher Stelle des Kurses didaktische Anpassungen von Vorteil wären. Sieht der Dozent etwa, dass alle Teilnehmer beim Modul 2b ins Stocken geraten, könnte er das Modul 2b gezielt anpassen. Der Qualität der Lehre wäre das sicherlich zuträglich, ohne das selbstbestimmte Studium zu gefährden.
Fazit: Learning Analytics sind alles andere als voraussetzungsfrei. Ohne die Konzeption von digitalen und didaktisch gut aufbereiteten Kursen sind die anfallenden Lerndaten höchstwahrscheinlich nicht aussagekräftig genug. Learning Analytics als „Vorkauer“ von Bildungsinhalten einzusetzen, ist sicherlich nicht im Sinne eines hochschulischen Bildungsideals. Zur Qualitätsverbesserung digitaler und didaktisch gut aufbereiteter Lehre kann Learning Analytics allerdings sicher einen Beitrag leisten.