Beim ersten Nachdenken zum Thema “gesture based computing” habe ich mich skeptisch gefragt, was denn ‘Gestensteuerung” (zunächst v.a. assoziiert mit der Steuerung von Smartphones durch wischen, ziehen, etc.) im Bildungsbereich bringen soll…
Die erste Einschränkung in meiner Skepsis war: “außer bei Kleinkindern”. Mein noch nicht mal 1,5-jähriger Sohn kann sich Bilder auf dem Smartphone durch ‘ziehen’ anschauen – ebenso wie er mittlerweile auch ganz gut ein Bilderbuch selbst durchblättern kann. Ich kann mir gut vorstellen, dass er in ein oder zwei Jahren viele andere Funktionen bedienen und, sollte dies möglich sein, zum Spielen und Lernen nutzen kann. (Vielleicht sind in dem Bereich auch andere gestenbasierte Anwendungen als das ‘Wischen und Ziehen’ auf Smartphones oder Tablets möglich, die auch dem Bewegungsdrang der Kleinen besser entsprechen…)
Das Thema “Bewegungsdrang” führte mich dann zu einem weiteren möglichen Szenario. Ich erinnerte mich an eine von der ComputerSpielSchule Leipzig mit ausgestaltete Weihnachtsfeier, auf der unter anderem eine Wii zum Einsatz kam. Es wurden verschiedene “Sportspiele” ausprobiert, u.a. Tennis, Yoga und Skispringen. Besonders fasziniert hat mich damals beim “Skispringen” die detaillierte und laufende Rückmeldung zu den eigenen Körperbewegungen (wo liegt mein Schwerpunkt und wo sollte er idealerweise liegen). Natürlich wird man mit einer Wii allein nicht Skispringen und auch keine andere Sportart erlernen – aber ich könnte mir gut vorstellen, dass bei geeigneten Programmen z.B. eine effektivere Technik-Verbesserung bei verschiedenen Sportarten möglich ist, eben weil noch direkt während die Bewegung ausgeführt wird eine Rückmeldung gegeben wird.
Im Bildungskontext machen gestenbasierte Anwendungen also in jedem Fall dann Sinn, wenn
- den Bedürfnissen der Zielgruppe (seien es nun Kleinkinder, Senioren oder Menschen mit Behinderungen) durch die Gestensteuerung entgegengekommen (bzw. deren Nutzung der Bildungsangebote überhaupt erst ermöglicht) wird, oder
- das Ziel der Bildungsangebote die Aneignung von Bewegungen und Bewegungsabläufen selbst ist.
Für andere Zielgruppen und Zielsetzungen können gestenbasierte Anwendungen sicherlich auch hilfreich sein, wenn sie z.B. die Steuerung von Programmen erleichtern. Allerdings bin ich hier relativ skeptisch, ob denn eine wirkliche Erleichterung durch Gestensteuerung bei komplexeren Programmen wirklich möglich ist. Das Beispiel mit der Steuerung von Programmen durch Mimik und das fehlerhafte Auslösen von Funktionen durch (unwillkürliches) Lächeln aus der Online-Session zeigt m.E. deutlich die Grenzen der Nutzbarkeit auf. Auch könnte ich mir vorstellen, dass ich bei der Nutzung eines Computerprogramms, was Gesten auswertet (z.T. sogar Mimik etc.), eher verkrampft auf meine Gestik und Mimik achten würde und mich gedanklich stark damit befassen würde. Ich vermute, bei Lernzielen und -inhalten, die nicht direkt die Aneignung von Bewegungen und Bewegungsabläufen betreffen, wird man stark darauf achten müssen, dass Gestensteuerung nicht die Aufmerksamkeit zu sehr auf sich lenkt (obwohl das möglicherweise auch eine Gewöhnungsfrage ist). Wenn Gestensteuerung als eine Alternative zu anderen Steuerungsmöglichkeiten hinzutritt (die der Nutzer jeweils auswählen kann) könnte dem Abhilfe geschaffen werden.
Ich hänge gedanklich aber immer noch an der Frage fest, ob es neben den oben genannten Szenarien und der reinen ‘Steuerungs-Vereinfachung’ noch andere Szenarien gibt, in denen gestenbasierte Anwendungen didaktisch sinnvoll eingesetzt werden können. Wo nutzen wir “natürlicherweise” Bewegungen zum lernen (also außer ‘umblättern’, ‘tippen’, …) und wo haben diese für den Lernprozess Bedeutung? Und gibt es evtl. Lernbereiche, die sich durch Bewegungen besser erfassen/verstehen ließen (wie z.B. das angesprochene Molekülmodell, was gegenüber den zu meinen Schulzeiten verwendeten Plastikmodellen v.a. den praktischen Vorteil hätte, nicht so schnell kaputt zu gehen und den didaktischen Vorteil, möglicherweise auch komplexere Verbindungen räumlich darstellen und steuern zu können)?
Wichtig finde ich eine Bemerkung, die während des Online-Events im Chat gemacht, aber leider nicht aufgegriffen wurde: “gestenbasiertes Lernen greift in gewisser Weise den Gedanken der Handlungsorientierung auf – ist es reine Methode, hat es was von Spielerei. Frage ist: was kann ich per Geste auch im Kopf in Bewegung setzen?” (Friederike Hausmann) – ich denke, das trifft ganz gut den Kern der Fragen, die man sich stellen sollte, wenn man gestenbasierte Anwendungen über die oben skizzierten Kontexte hinaus einsetzen will.
Tagged: gesture based computing, handlungsorientiertes Lernen, opco12
