Learning Analytics und Beton

Veröffentlicht am von learning4me

 

Von allen bisherigen Themen im opco12 ist interessanterweise das trockenste dasjenige, das die meisten Emotionen zu wecken scheint: Learning Analytics (LA), d.h. massig Daten sammeln und aufarbeiten mit der Intention, die Lehr- und Lernsituation zu verbessern – im kleinen (sprich beim einzelnen Lernenden) wie im großen (sprich in einer Institution, einer Richtung etc.).

Die Definition klingt unschuldig und nach großer Chance, doch taucht in vielen Beiträgen das Wort vom “Bösen” im selben Absatz auf. Falls dieses Wort im Zusammenhang mit Tablets, Game-based Learning oder Mobile bereits genannt wurde, dann ist es mir entgangen.

Was löst diese Aversion aus?

  • Ist es die Erfahrung, dass bisherige Programme dieser Art (es wurde z.B. das “programmierte Lernen” angesprochen) auch unter großen Erwartungen starteten, aber recht schnell für Desillusion sorgten?
  • Ist es die Überzeugung, dass nur eine leibhaftige Lehrperson mit Erfahrung die richtigen Schlüsse aus dem aktuellen Leistungsstand seiner Schützlinge ziehen kann und diese Schlüsse durch die LA-Ergebnisse in Frage gestellt bzw. womöglich ersetzt werden?
  • Ist es das ungute Gefühl, selbst als Lehrperson geprüft zu werden? Von einem undurchsichtigen Apparat als “unter dem Durchschnitt liegend” und damit förderungsbedürftig disqualifiziert zu werden? Ausselektiert zu werden?
  • Ist es die Ahnung, dass die Auswertungskriterien als entscheidender Faktor für das Ergebnis von anderen als pädagogischen Gedanken geprägt werden? Und die Ergebnisse für bare Münze genommen und entsprechend das Ruder schwungvoll in eine katastrophale Richtung geworfen wird?

Die Aufzählung von möglichen Gründen ist bei weitem nicht vollständig. Und wahrscheinlich ist es jeweils auch eine Mischung von Gründen, die das ungute Gefühl nähren.

Jetzt gibt es im Grunde genommen zwei Arten, mit nebulösen unguten Gefühlen umzugehen: Die eine ist, den vermeintlichen Verursacher zu verteufeln und ihm so weit wie möglich aus dem Weg zu gehen. Die zweite ist, in den Nebel einzudringen, sich Klarheit zu verschaffen und die Dinge so weit möglich im positiven Sinne zu beeinflussen. So manches Gespenst hat auf diese Weise seinen Schrecken verloren (man erinnere sich an Snape in Großmutters Kleidern (-: ).

Im Chat fiel die Bemerkung, dass ja nicht nur die von LA profitieren könnten, die als schwächer identifiziert werden, sondern auch die, die besonders schnell die geforderte Kompetenz erlernt haben (die “Hochbegabten”). Als Antwort kam – sinngemäß – “Dann werden die armen Hochbegabten auch noch mit LA gequält.” LA wird also mit Qual gleichgesetzt, die man allerhöchstens denen zumuten kann, die sonst nicht zu Potte kommen. Schade eigentlich!

Schade, nicht nur weil hier eine negative Emotion mit einer Technik verbunden wird, noch ehe man ihr Potenzial wirklich erkundet hat. Schade auch, dass das mögliche Potenzial sogleich auf die Förderung der Schwächeren reduziert wird, anstatt das Potenzial für alle Lernenden zu erkunden.

Ich will hier keine kritiklose Lanze für die LA brechen, aber es ist mit LA wie mit Beton: Es kommt darauf an, was man draus’ macht. Es scheint mir lohnender, sich intensiv über die richtigen Auswertungskriterien zu streiten, als über den Sinn und Unsinn einer Technik, die wohl eh nicht aufzuhalten ist. Denn hinter den LA im Großen steht das drängende Problem der Ressourcenknappheit, sprich Geld. Und wo immer Geld im Spiel ist, senkt sich die Waage über kurz oder lang in die Richtung des Instrumentes, dass Einsparungen oder – euphemistisch gesagt – den Outcome-orientierteren Einsatz von Ressourcen verspricht.

In diesem Sinne lautet mein Appell: Wenn es nicht die Pädagogen sind, die die Auswertung von Lerner-Daten als ihren ureigenstes Terrain für sich erobern, dann schaut’s in der Tat düster aus um die LA.

Deshalb: Nur Mut und auf sie mit Gebrüll!


Veröffentlicht unter Learning Analytics | Tags | Kommentar schreiben

Minority Report die Zweite – Project T – Tether (MIT) for iPad

Veröffentlicht am von Torsten Maier
Nach Leap Motion die nächste Innovation im Umfeld Gesternsteuerung. Minority Report – Dort gestikulietere Tom Cruise mithilfe eines Datenhandschuhs berührungsfrei durch dreidimensionale Datenwelten. Ähnliches exisitiert zwar in den Labors schon länger, nur handelt es sich dabei um unbezahlbare und sperrige Spezialanfertigungen. Mit dem “Projekt T” ist man am Massachusetts Institute of Technology (MIT) dem Alltag ...
Veröffentlicht unter Gesture Based Computing | Tags | Kommentar schreiben

Learning Analytics

Veröffentlicht am von Trillian
"Spuren, die Lerner hinterlassen" so wurde der Begriff earning Analytics von Martin Ebner in der Live Session am Dienstag locker übersetzt.
Im Weiteren wurde die These aufgestellt, dass es nicht mehr wirklich um den Lerner, sondern viel mehr um die Daten gehe:
  • Daten, um die Lerninhalte für den Lerner besser aufarbeiten zu können.
  • Daten, um den Lerner bessere Inhalte für's Lernen zu bieten.
  • Daten, um dem Lerner Hinweise zu geben. Weiterlesen →
Veröffentlicht unter Learning Analytics | Tags | Kommentar schreiben

Learning analytics: Zwischen Chance und Risiko

Veröffentlicht am von improweise

Hängen geblieben bin ich auch an der Frage: Wie wird analysiert oder „bewertet“ ob jemand „nur“ zusieht oder sich auch aktiv an E-Learning-Aktivitäten beteiligt? Ich sehe es zunächst so: Eine Auseinandersetzung mit NutzerInnenverhalten kann sicher auch Aufschlüsse darüber geben, wie dialogorientiert einzelne Maßnahmen tatsächlich sind, oder wie gut die Balance zwischen „Herausforderung“, „Nutzen“ und „Lerneffekt“. Insoferne denke ich, es geht auch um die Perspektive das ganze als Teil der Evaluation zu sehen. Denn genausogut kann ich ja auch bei einem „klassischen“ Seminar sehr genau mitprotokollieren und nachher bis ins kleinste Detail analysieren, wer, was, wie intensiv getan oder gelassen hat.

Ich hielte es für falsch, so zu tun, dass eigentlich „gar keine Daten“ gesammelt werden – denn natürlich bedeutet Einloggen und das Ausführen bestimmter Tätigkeiten auch das Zurücklassen einer digitalen „Spur“. Hier könnten NutzerInnen eingebunden werden und sie gefragt werden, wie intensiv diese Analyse sein soll – oder es wird bewusst die Möglichkeit von „Surfen im sicherenModus“ propagiert.

Dass gesammelte Daten auch zu Missbrauch einladen ist gar keine Diskussion – hier gilt es mit kritischen Augen auf die Praxis jener zu schauen, die E-Learning und Social Media in Lernkontexten vor allem aus kommerziellen Interessen einsetzen…

 

Noch ein paar gefundene Links:

Viel aktuelle Literatur, alles auf Englisch

https://docs.google.com/document/d/1MMQ6Zeca8sqQlCcBg7O4Bx7P0Xt5qc4DKjf7S6R-CJs/edit?pli=1

und noch mehr: http://www.educause.edu/Resources/Browse/Learning%20Analytics/39193

dazu ganz aktuelle, ausführliche Analyse wieder mit vielen Links: http://www.educause.edu/EDUCAUSE+Review/EDUCAUSEReviewMagazineVolume46/ResearchandDataServicesforHigh/238391

sowie ein podcast aus dem Mai 2012: http://blogs.abc.net.au/nsw/2012/05/digital-living-learning-analytics.html

und am Ende der englischen Fundstücke mit schönen Grafiken: http://solaresearch.org/OpenLearningAnalytics.pdf

 

leider nur der Abstract frei verfügbar:

http://www.oldenbourg-link.com/doi/abs/10.1524/icom.2012.0007

 

Konferenz zum Thema im April 2013 in Belgien: http://lakconference2013.wordpress.com/

(Rückblick auf 2012 in Vancouver http://www.learninganalytics.net/)

 

dann habe ich noch dieses Buch gefunden:

Qualität im E-Learning aus Lernersicht, von Ulf-Daniel Ehlers
2011 Vs Verlag Für Sozialwissenschaften

http://www.oebv.net/list?back=7b8f3ffb6b610dbe099c7c5d3cb10691&xid=2973645

 

Interessant finde ich zum Weiterlesen auch dieses Interview: http://www.checkpoint-elearning.de/article/5470.html


Veröffentlicht unter Learning Analytics | Tags | Kommentar schreiben

Learning Analytics in der beruflichen Weiterbildung

Veröffentlicht am von baselix

Folgende Gedanken beziehen sich auf eine von mehreren möglichen Fragen nach der Verortung von Learning Analytics (LA) im Bereich der beruflichen Weiterbildung. Sie erheben keinen Anspruch an Vollständigkeit.

Bei der Betrachtung ziehe ich ein Phasen-Modell aus dem Bereich des Bildungscontrollings heran, das auch – was im Kontext Weiterbildung und LLL immer wieder vorkommt (vgl. aktuell hier) – ökonomische Aspekte berücksichtigt.

In Anlehnung an Seeber [1] werden in klassischer Betrachtungsweise folgende Komponenten des Bildungscontrollings differenziert:

  1. Ziel-Controlling
  2. Bedarfs-Controlling
  3. Input-Controlling
  4. Prozess-Controlling
  5. Output-Controlling
  6. Transfer-Controlling
  7. Outcome-Controlling

Dabei liegen die Komponenten 1. und 2. im sogenannten “Vorfeld”, 3. bis 5. im “Lernfeld” und 7. und 8. im “Funktionsfeld” des Gesamtprozesses [2]. Aus Gründen der Umfangsbeschränkung möchte ich mich auf die Komponenten 4.-6. beschränken. Es ist anzunehmen, dass zunächst LA im Prozess- und Output-Controlling verortet werden kann, womit ich meine: Wenn man LA in den Gesamtprozess integriert, dann wird man wohl zunächst dort beginnen. Kern des Prozess-Controllings sind nämlich die Eigenschaften des Lehr-Lern-Arrangements, die Ausgestaltung des Curriculums, die Trainer-Teilnehmer-Kommunikation und weitere typische Merkmale des Lehr-Lern-Prozesses im engeren Sinne. In einem Blended Learning-Szenario würde hier die Nutzung eines Lernmanagement-Systems (LMS) einbezogen sein und Stephan Göldi hat in seinem Blogbeitrag anschauliche Beispiele von LA-Ansätzen in einem LMS aufgezeigt.

Und auch für das Output-Controlling bieten moderne LMS bereits gute Möglichkeiten, bezieht sich diese Komponente des Bildungscontrollings u. a. doch auf die quantitative (sic!) Ermittlung des Lernerfolgs, die sich eben mitunter via (Online-)Tests ermitteln lässt. Entsprechende Messresultate können mit Zielsetzungen verglichen werden, Teilnehmer können hier untereinander verglichen werden und bei entsprechend komplexen Testverfahren läßt sich durchaus auch der Qualifikationszuwachs eines Lerners ermitteln, obgleich dies wesentlich schwieriger ist.

Im Kontext der beruflichen Weiterbildung ist nun aber – u. a. – die nächst folgende Komponente äußerst wichtig: Das Transfer-Controlling. Dabei geht es um die Übertragung (Transfer) und Umsetzung des Gelernten in die “Sphäre Arbeitsplatz”. Dieser Transfer kann bereits in der Planungsphase eines Weiterbildungsprojektes mit berücksichtigt werden, vor allem kann er aber auch nach der “Seminar-Phase” evaluiert werden. Derartige Transferanalysen sind in Deutschland noch nicht so weit verbreitet, im angelsächsischen Raum stehen sie zuweilen im Sinne eines “Returns der Investition Weiterbildung” im Fokus. LA könnte hier in der Zukunft eine Art Brücke bilden, so dass die gesamte Ausgestaltung von beruflichen Weiterbildungen sozusagen “LA-gestützt” zu einem höheren Transfererfolg führen könnte.-

Grundsätzlich begrüße ich LA für die berufliche Weiterbildung. Ein wesentliches Segment der beruflichen Weiterbildung bilden in der Praxis Unternehmen mit kleinerer und mittlerer Unternehmensgröße (KMU). KMU haben hinsichtlich einer “institutionalisierten” Personalentwicklung Nachteile aufgrund ihrer Größe, so dass LA-Tools hier eine gute Unterstützung bieten könnten. Natürlich müssen solche LA-Tools gehandhabt, also administriert, verstanden und gepflegt werden.

Aspekte des Datenschutzes müssen natürlich mit Bedacht berücksichtigt werden. Im Rahmen der theoretischen Beschäftigung mit dem Thema macht es meiner Meinung nach jedoch durchaus Sinn, diese nicht gleich an erster Stelle zu beleuchten. In der praktischen Arbeit der beruflichen Weiterbildung kommen sie nämlich früh genug: durch Interventionen der Betriebsräte. Damit berufliche Weiterbildung mit digitalen Medien funktioniert, müssen hier immer fundierte Pro-Argumente für deren Einsatz geliefert werden, das war früher schon u. a. hinsichtlich der Log-Files so und Vorbehalte bei modernen LA-Tools werden da ganz sicher auch kommen, mit guten Argumenten für den Einsatz muss man also in jedem Falle gerüstet sein. Selbstverständlich beinhaltet dies auch Maßnahmen und Vereinbarungen zur Einhaltung diverser Datenschutz-Gebote.

Oliver Basel

[1] Seeber, S.: Stand und Perspektiven von Bildungscontrolling, in: Seeber, S.; Krekel, E. M.; Buer v. J. (Hrsg.): Bildungscontrolling – Ansätze und kritische Diskussionen zur Effizienzteigerung von Bildungsarbeit, Frankfurt am Main, 2000, S. 35 ff.
[2] Dieses Modell stellt m. E. nach sicherlich eine Idealvorstellung dar, welche in der Weiterbildungs-Praxis zumeist nur angenähert verwirklicht wird, dennoch ist es ein guter Bezugsrahmen.


Veröffentlicht unter Learning Analytics | Tags | Kommentar schreiben

opco12: Lernerfolg ist kein Algorithmus

Veröffentlicht am von Wilke H. Riesenbeck

Wenn ich Kleidung einkaufe, bin ich es schon gewohnt, dass mir Altbekanntes als neuer Trend untergejubelt wird – Retro heißt das dann. Dass sich auch die Pädagogik derartig ungehemmt in der Mottenkiste bedient, ist mir allerdings neu. Was früher noch als programmierte Unterweisung gehandelt wurde, ziert heute das schicke Etikett der Learning Analytics. Doch damals wie heute gilt: Lernen ist nicht automatisierbar, Lernerfolg kein Algorithmus.

Alter Wein in neuen Schläuchen
“Wir haben ja heute so viele Daten” ist das Argument mit dem man die Fachwelt für die Learning Analytics begeistern will. Die Aktivitäten der Lernenden in LMS und Social Web hinterlassen so viele Spuren, dass man daraus doch etwas machen können muss. Und was liegt da näher, als ein Soll-Ist-Abgleich von geleisteter Lernzeit, gesichtetem Lernmaterial und erreichter Punktzahlen. Säumige Schüler und Studenten könnten so frühzeitig auf drohendes Prüfungsversagen aufmerksam gemacht werden. Sogar die Vorhersage von Prüfungsergebnissen scheint da greifbar. Aber hatten wir das alles nicht schon einmal? Sollten sich nicht zumindest alle Pädagogen und Psychologen an die von den Amerikanern nach dem Sputnik-Schock initiierte programmierte Unterweisung erinnert fühlen. Auch wenn die Mittel andere waren ging es schon damals darum das Lernen durch mehr oder minder intelligente tutorielle Systeme zu automatisieren. Und damals wie heute ist solch ein Ansatz zum Scheitern verurteilt, weil er verkennt, dass Lernen, auch bei umfassender Datenlage, nur bedingt planbar und schon gar nicht automatisierbar ist. Dafür sind Lernprozesse, ist der Mensch zu komplex.

Die Grenzen des Drills
Zugegeben, für einfache Drill & Practice Übungen, wie das im Live Event vorgestellte Lernen des kleinen 1×1, ist eine Automatisierung durchaus angemessen. Ich habe meine Vokabeln auch noch mit einem Karteikartensystem gelernt, das sich “gemerkt” hat, welche Wörter ich schon sicher übersetzen konnte und welche nicht. Doch die Arbeitswelt verlangt heute mehr denn je nach individuellen Problemlösungen. Innovationsfähigkeit und Kreativität sind unlängst zum Wettbewerbsfaktor geworden – Kompetenzen also, die sich so gar nicht durch sturen Drill erwerben lassen wollen. Nicht zu vergessen, dass das Lernen insbesondere im Studium auch ein Orientierungsprozess ist. Es geht eben nicht nur darum sich Wissen anzueignen, sondern sich auch zu dem Gelernten zu positionieren, sich für eine berufliche Laufbahn zu entscheiden. Auch in der deutschen Berufsausbildung herrscht ein ganzheitliches Bildungsverständnis vor, das sich nur bedingt auf das Bestehen von Prüfungen reduzieren lässt. Vielmehr erwerben die Lernenden hier umfassende berufliche Handlungskompetenz. Bevor die Learning Analytics nicht zumindest in die Nähe von Kreativität, Orientierung und Handlungskompetenz kommen, könnte ich das Thema eigentlich wieder getrost zurück in die Mottenkiste verbannen.

Daten über die Lernenden, für die Lernenden
Ganz ohne Wert für das Lernen sind die Learning Analytics aber auch heute nicht. Denn in der Tat kann es für die Lernenden interessant sein sich mit einer statistischen Auswertung ihres Lernverhaltens zu beschäftigen. Nämlich dann, wenn sie die mageren automatisch erfassten Daten um manuelle Einträge ergänzen. In Form eines kurzen wöchentlichen Fragebogens könnten weit aussagekräftigere Informationen festgehalten werden: “Wie sicher fühle ich mich in dem Thema?”, “Kann ich einen Bezug zu meinem angestrebten Berufsfeld herstellen?”. Also nicht nur quantitative, sondern auch qualitative Daten. Der Charme der automatischen Erhebung geht so zwar verloren, doch zumindest lässt sich mit den so gewonnenen Daten auch tatsächlich etwas anfangen. Ganz gleich jedoch welche Daten erfasst werden muss ein Grundsatz gewahrt bleiben: Die Daten über ihren Lernprozess gehören den Lernenden allein! Eine Überwachung jedes einzelnen Lernschrittes mag bei Grundschülern angemessen sein, verstößt bei mündigen Erwachsenen aber gegen jede pädagogische Ethik. Lernen hat auch viel mit dem Erkennen der eigenen Schwächen und mit dem Begehen von Fehlern zu tun. Sensible Erlebnisse also, die vor unbefugtem Zugriff zu schützen sind. Statt dessen sollten den Lernenden bei Bedarf Hilfestellungen angeboten werden ihre Daten auszuwerten und für eine Verbesserung ihres Lernverhaltens zu nutzen. Im Internet schwimmen schon so viele Datenkraken, da sollten die Bildungsinstitutionen und -anbieter nicht auch noch ihre Fangarme ausfahren.

Bild: Henrik5000 (istockphoto); opco12


Veröffentlicht unter Allgemein | Tags | Kommentar schreiben

‘Berfest’ – Interim results

Veröffentlicht am von Sylvia Moessinger


from Edgar cards

We almost reached the middle  of #OPCO12, having covered Mobile apps, Tablets and now Game-based learning with Learning Analytics, Gesture-based computing and Internet of Things coming up next.

The first time I heard about MOOC was during my study. Stephen Downes and Georg Siemens are the two names related to Massive Open Online Courses. Wikipedia has an interesting articel about MOOC, including its history and Educause also offers a short description 7 Things you should know about MOOC.

I found the idea quite innovative, also I wondered how so many participants (1000 and more) can collaborate in one course. During my study I found 20 – 30 actively participating peers in one course quite overwhelming with all the incoming posts, not to talk about about 2000 participants. Hence, when I heard about the OPCO12 I enrolled immediately to find out first hand how it works.

Before I continue reporting about my experience so far, I want to thank the course team for organizing the course and for providing the regular interim results and supplying all the material like presentations, link list, etc.

So how is it to be part of a MOOC?

Well, like one of many, to be exact one out of 1440 (as of 2012/06/01). However, the first video conference was an indicator how much participants ‘actively’ participate in the course. All three video conference that I was able to take part so far hosted approximately about 150 attendees and those who contribute with blog posts or tweets are as well manageable.

At the beginning there was an initial contribution hype, which decreased to a standard measure. Observable are small surges at the beginning of each new topic which subside as the two weeks progress. That pattern is pretty similar to what I experienced during my study. An initial hype which decrease to after the course progress, with smaller interim highs, mainly due to an assignment ;-) and after about two third of a course the contribution normally touched bottom. Sometimes there was a final surge towards the end-of-course-assignment, but that was not always the case.

Jochen Robes wrote in the Weiterbildungsblog about MOOC in general and the behaviour of (lurking) participants in particular.

Comparing  the total number of signed in participants (about 1.400) with the number of those who contribute to the course blog it seems obvious that the number of ‘lurking participants’ is relative high. I was definitely a lurking participant in school, although that time wasn’t invented and my teachers definitely did not appreciate lurking participants, all that counted was active better proactive participation.

Fortunately that changed to an extend my tutor asked me to take a low profile, telling me not to dominate the forum too much. Well, it wasn’t my fault that the others contributed so less ;-) .  As a student of the OU I learned to find online contribution really liberating. Sure, at first it was a little bit awkward to communicate with people you haven’t seen  in person, but I think I was mainly afraid that my English wasn’t good enough, but abandoned my concerns pretty fast. Online communication with tutors and peers was just to precious to make no use of it and felt less isolated.

Yet, the course structur of a MOOC differs from that of an online course. The most differing feature is the decentralized structure contrary to the relative centralized structure of an online course. Participants have to enroll and courses take place in a closed password protected environment, like a LMS (Learning management system).

A flexible structure  is according to Educause

  • ‘valuable because students can choose their level of participation and many will do so in an à la carte manner.’
  • ‘throws open the doors of a course and invites anyone to enter, resulting in a new learning dynamic, one that offers remarkable collaborative and conversational opportunities for students to gather and discuss the course content.’
  • ‘has the potential to alter the relationship between learner and instructor and between academe and the wider community by potentially providing a very large and diverse forum and meeting place for ideas.’

A MOOC offers indeed a remarkable opportunity to gather and discuss the course content. The course blog displays on a daily basis blogs post from different contributors, highlighting different views about the topic in question. It is interesting to contrast the different views with the own perspective. However, I miss somehow the discussion aspect, which is running short in a MOOC. Comments on each other blog posts are possible, but there is often no follow-up. Hence, there is a collection of blog post and tweets, but in my opinion no real discussion like I experienced it in the course forums during my study.  This alters indeed the relationship between learner and instructor, but as well between the learners. There is few ‘direct’ contact and feedback, except when someone comments on a post, or during the chat, resulting only  in a loose community. That’s what I miss most at the moment, the feeling of belonging, which will not really emerge. But probably it is only me and I do not network and collaborate in the intended way to be more effective :-?

Nevertheless, it’s a great experience so far and the plethora of information and links provided via blog post and tweets is amazing.

Thanks to all :-)


Tagged: #opco12, OpenCourse12, reflection
Veröffentlicht unter MOOC, Open Course | Tags | Kommentar schreiben

Gamebased Learning – spielend lehren, aber wie?

Veröffentlicht am von Friederike Hausmann
„Spiele bieten im Unterricht neuartige Erfahrungsräume, kognitive Herausforderungen, motivierende Anwendungsfelder für erworbenes Wissen und neue kommunikative Aufforderungen.“ Dieses Zitat aus einer Publikation zu einem digitalen GBL-Projekt an der Donau-Universität Krems ( http://issuu.com/michaelgwagner/docs/2008_wagner_mitgutsch_endbericht_dsdgbl , 08.06.2012) hätte vor einigen Jahren ebenso für … Weiterlesen
Veröffentlicht unter Allgemein | Kommentar schreiben

Ist Learning Analytics wirklich neu?

Veröffentlicht am von Stephan Göldi

DatenNach Horizon-Report 2011 wird Learning Analytics in den nächsten Jahren in der Bildung einen zunehmenden Stellenwert erhalten. In diesem Beitrag möchte ich meine Einschätzung und einige Aspekte aus meiner Erfahrung einbringen.

  • Muss man Learning Analytics beachten?
  • Was ist an Learning Analytics wirklich neu?
  • Ist dann Learning Analytics gar nicht böse?

Was ist Learning Analytics?

Eine Definition zu Learning Analytics ist nicht einfach zu finden. Das Präsidium der ersten LAK-Konferenz (Learning Analytics and Knowledge) in Banff (Kanada) im Jahr 2011 unter der Leitung von George Siemens hatte sich auf Folgendes geeinigt:

Learning analytics is the measurement, collection, analysis and reporting of data about learners and their contexts, for purposes of understanding and optimising learning and the environments in which it occurs

aus Blogeintrag von George Siemens in learninganalytics.net

Es geht also um das Sammeln, Messen und die Auswertung von Daten, die Lernende generieren, damit der Lernprozess optimiert werden kann. Nun sind Lehrende hoffentlich bestrebt, ihren Unterricht verbessern zu wollen – also nichts wie los!

Was ist an Learning Analytics wirklich neu?

Jede Lehrperson in meinem Umfeld hat für jede Prüfung, Semesternoten usw. bis jetzt schon eine kleine statistische Auswertung gemacht und wenn es nur um Klassendurchschnitte oder Vergleiche mit Vorjahren gegangen ist. Auch Entwicklungen einzelner Lernender wurde betrachtet und nötigenfalls besprochen. Wenn auch im Kleinen, waren dies bereits Learning Analytics, wenn ich annehme, dass es jeweils zur Optimierung des Unterrichts oder zur Förderung einzelner Lernenden geführt hat.

Durch die Einführung und Etablierung von Lernmanagement-Systemen (LMS) und anderen Plattformen, auf denen die Lernenden “Spuren” hinterlassen, ist die Datenmenge verglichen mit der oben genannten Noten-Tabelle sehr stark gewachsen. Durch das Verknüpfen verschiedener Nutzerdaten sind der Analyse viele neue Möglichkeiten erwachsen. Es können z. B. folgende Daten über die Lernenden ausgelesen werden (nicht abschliessend):

  • Login-Daten (Häufigkeit, Verweildauer, Zeitpunkte)
  • Herkunft des Zugriffs (teilweise mit Geodaten über IP-Adressen)
  • welche Informationen wurden angeschaut inkl. Verweildauer
  • welche Aktivitäten wurden gemacht (Forumeinträge, hochladen von Daten)
  • Bewertungen der Aktivitäten (durch Lehrpersonen, Tutoren oder Peer)
  • automatischer Plagiats- und Quellentest mit Prozentwerten
  • Resultate von Prüfungen (detailliert bis zu einzelnen Fragen)

Mit der Analyse dieser Daten kann das Verhalten der Lernenden fast beliebig untersucht werden. Auch wenn alles unter dem Aspekt der Optimierung und individueller Förderung Lernender geschieht, ist aus meiner Sicht nicht alles gut, was möglich ist. Dazu später.

Muss man Learning Analytics beachten?

Ich würde es einmal vorsichtig formulieren:

Wenn ich Daten zur Verfügung habe, die mir helfen meine Lehrveranstaltungen zu optimieren und meine Lernenden dadurch zielgerichteter gefördert werden können, dabei die Persönlichkeitsrechte nicht verletzt werden, muss ich diese Chancen doch wahrnehmen.

Meine eigenen, natürlich ziemlich schmalspurigen, Erfahrungen mit Learning Analytics möchte ich gerne anhand einiger Beispiele skizzieren. Ich setze das LMS Moodle ein und verwende daraus einige Funktionen, die ich im Folgenden nach Zweck gruppiere:

Feedback für mich als Lehrperson

  • Wurden die hochgeladenen Ressourcen überhaupt beachtet. Insbesondere auch, wenn zusätzliche Übungen oder Erklärungen gewünscht wurden (z. B. ein Webcast)
  • Wie sind die Resultate im Vergleich zu anderen gleichen Kursen
  • Wann ist im Kurs die Aktivität am grössten, wann flacht sie ab (wo muss ich mehr auf gewisse Dinge hinweisen)
  • Welche Fragen in den Tests wurden wie gelöst. Ein LMS kann gute statistische Werte ausgeben, so z. B., wie gut eine Frage selektiert oder ob sie von den besseren Lernenden auch besser gelöst wurde. Einige Fragen habe ich dadurch schon überarbeitet oder gelöscht.

Aussage über die Lernenden und deren Resultate

  • Welche Klasse hat im Test wie abgeschnitten, wie sind die Resultate verteilt.
  • Wie gross ist der Zusammenhang zwischen Beteiligung an den verschiedenen Aufgaben/Aktivitäten bzw. der Anwesenheit und dem Prüfungsresultat (in der Regel sehr gross :-) )

Was die Lernenden selbst herauslesen können

  • Überblick über erledigte Aufgaben und Resultate, Rückmeldung des Systems z. B. bei Lektionen mit Ablaufsteuerung
  • soziale Bezugsnorm (eigenes Resultat im Zusammenhang mit der Klasse)
  • individuelle Bezugsnorm (eigenes Resultat im Vergleich zu vorherigen Übungen oder Versuchen)

Diese relativ einfachen Auswertungen, die natürlich nur ein sehr kleiner Teil von Learning Analytics zeigen, sind meines Erachtens sehr hilfreich. Am wichtigsten ist für mich, die Reflexion des eigenen Tuns, also die erste Kategorie.

Test-Resultate
Beispiel Testresultat von 3 Klassen

Log einer AktivitätLog einer Aktivität

Ist dann Learning Analytics gar nicht böse?

Das Thema Datenschutz und die damit verbundenen Persönlichkeitsrechte muss im Zusammenhang mit Learning Analytics unbedingt diskutiert werden, und zwar in jeder Institution. Die fiktiven Rückmeldungen an Lernende wie,

  • Sie sollten früher beginnen die Aufgaben zu lösen und eher die Tageszeit nutzen, anstatt mitten in der Nacht Fragen ins Forum zu posten.
  • Ihr Prüfungsresultat verwundert mich nicht wirklich, greifen Sie doch meist aus dem Stadtpark-Kaffee auf die Unterrichtsmaterialien zu. Da könnte ich mich auch nicht konzentrieren.

wünschen wir uns hoffentlich alle nicht. Ich möchte hier auch nicht Richtlinien festlegen, was generell gültig sein soll, aber noch auf zwei wichtige Punkte hinweisen.

Transparenz

In der Schweiz haben wir ein Datenschutzgesetz, das ein Auskunftsrecht beinhaltet. Die Lernenden können Einblick in alle über sie erfassten Daten verlangen. Ich würde die proaktive Variante vorschlagen und transparent kommunizieren, welche Daten erfasst werden und wie damit umgegangen wird. Daran hat man sich dann aber auch zu halten!

Akzeptanz der Plattformen

Die Akzeptanz der Plattformen, die wir für die Lehre möglichst gewinnbringend einsetzen möchten, hat auch mit dem Aspekt von Learning Analytics zu tun. Haben die Lernenden das Gefühl, das Sammeln der Daten sei ok, weil sie den Rahmen und das Ausmass kennen (und akzeptieren), wird die Plattform nicht unnötig boykottiert oder mit “Scheinaktivitäten” manipuliert. Haben die Lernenden Angst vor der “Krake” der Plattform, verspielen wir mehr als Learning Analytics gewinnbringend sein kann.

Fazit

Es wäre schade, würde man die Daten aus den verschiedenen Plattformen nicht nutzen, um den Unterricht zu verbessern oder die Lernenden gezielt zu fördern. Allerdings sind die Persönlichkeitsrechte unbedingt zu respektieren. Nicht alles, was möglich ist, ist auch gut.

Veröffentlicht unter Allgemein | Tags | Kommentar schreiben

Gedanken zu Learning Analytics

Veröffentlicht am von jrobes

Obwohl wir mit unserer Live-Session auf die Mittagszeit ausweichen mussten, hatten wir wieder über 100 Teilnehmer! Vielleicht war es ja Martin Ebner, unser Referent, der “zog”. Er spannte er jedenfalls einen interessanten Bogen: von Educational Data Mining und verschiedenen Fragestellungen, die sich dahinter verbergen, zu einer kleinen Rechenhilfe für Grundschüler (1×1 Trainer). An diesem Beispiel demonstrierte er dann sehr anschaulich, was Learning Analytics im Schul- und Lernalltag bedeuten kann und gab uns schließlich folgende Definition für die anschließende Diskussion mit:

“Learning Analytics ist die Interpretation von lernerspezifischen Daten um den individuellen Lernprozess gezielt zu verbessern.”
Martin Ebner, OpenCourse 2012, 5. Juni 2012

Veröffentlicht unter Learning Analytics, Open Course | Tags | Kommentar schreiben