Einen Tag später als geplant, was dem themengenauen Fachforum gestern geschuldet war, hier endlich die Zwischenzusammenfassung zum aktuellen Themenblock ‚gesture based computing‚ oder wie ich es gerne in Bezug auf das Anwendungsfeld erweitere: ‚Gestenbasierte Anwendungen in Lernprozessen‚.
– (Hier ist die Zwischenbilanz auch im PDF-Format verfügbar) –
baselix wies uns am 18.6.2012 punktgenau publizierten Artikel der FAZ-Net zu gestenbasierten Anwendungen hin, der nicht zu einem besserem Zeitpunkt hätte erscheinen können, als an dem Tag, als der Themenstrang begann. Mit einem kleinen Überblick „Was sind Gesten?“ arbeiteten wir auf den Vortrag von Frau Prof. Lucke hin, der viele positive Rückmeldungen und Kommentare erhielt. Ich finde auch: Ihr ist es gelungen einen prima Überblick zu geben, es auch Nicht-Techniker gut zu erklären, welche Gestenerkennungen existieren und Beispiele aus dem Bildungs¬bereich zu geben, vor allem ihre eigenen Anwendungen im Kontext von Vorlesungsaufzeichnungen, in denen sie Zeigebewegungen der Referentin in die Vorlesungs¬aufzeichnung wie auch in die Bewegung eines Avatars in einer 3D-Welt überträgt.
Abb.: Abbildung aus den Folien von dem Vortrag von Frau Prof. Lucke am 21.6.12
Während wir uns vielleicht anfangs noch etwas schwer taten, Anwendungsbeispiele im Bildungsbereich zu finden, lief die Gruppe „langsam warm“ und trug einige Ideen zusammen:
Fragen und Vorschläge die im Vorfeld von den Teilnehmenden aufgeworfen wurden, waren beispielsweise Ideen im Blog von learning4me, wo auch der Begriff des „Motion Based Computing“ als Alternative vorgeschlagen wurde:
- „Vielleicht lassen sich für manche Lerner abstrakte Zusammenhänge z.B. aus der Mathematik begreif”barer machen, wenn sie sich diese in Bewegung übersetzen?
- Vielleicht lässt sich der Verlauf eines Hirnnerven einfacher merken, wenn man sich selbst – wie er – durch Knochenfenster und Krümmungen winden muss?
- Vielleicht verstehe ich zum ersten Mal, warum ich beim Kugelstoßen auf keinen grünen Zweig komme, wenn ich sehe, wie meine Körperbewegung von der Idealbewegung abweicht?“
Auch Hanseatin näherte sich dem Thema in dem Beitrag „Gesture Based Computing – Faszination und Schrecken“ mit eigenen Ideen und beschrieb: „Ich kann mir große Vorteile für das Lernen vorstellen, wo “Hantieren” tatsächlich Dinge verdeutlichen und “begreifbar” machen kann. Das Beispiel der Moleküle in der Chemie ist sehr treffend – heute macht man das meist mit Molekülbaukästen, aus deren Elementen die Lernenden dreidimensionale Moleküle zusammensetzen können. Aber ich kann mir das auch im Sport, Tanz oder bei krankengymnastischen Übungen vorstellen, wo Haltungen oder Bewegungsfolgen eingeübt und ggfs. korrigiert werden könnten. Vielleicht übt Krankenpflegepersonal beispielsweise das Lagern von Patienten über gesture based computing bevor es erstmals direkt am Patienten arbeitet – der “virtuelle” Patient könnte durchaus auch mit Lautäußerungen etwa auf zu kräftiges Anpacken reagieren…“
Torsten Maier stellt in seinem Beitrag „Gestensteuerung wo man hinsieht“ verschiedene Methoden und Anwendungen der Gestenerkennung vor wie z.B. den SensFloor, ein Boden der Informationen beim Betreten aufnimmt und erkennnt, wo Personen hingehen, ob sie liegen oder stehen usw. und z.B. im Pflegebereich Sturzalarm, Aktivitätsmonitoring und Informieren des Personal übernehmen kann, wenn sturzgefährdete oder demente Bewohner ihr Zimmer verlassen. Eine Anwendung die sicher dem Bereich des „Assistent Living“ zuzuordnen ist. Mit Magic-Cube-Projection stellt er eine projezierte Tastatur vor, die die kleinen Tasten von Smartphone ersetzen können, sowie die zur Zeit in Entwicklung befindlichen Touchscreens, die aufgrund von Bildschirmen, die sich verformen können, hervorstehende und damit haptisch besser anklickbare Tasten auf Touchscreens bereitstellen. Zudem nennt er das Projekt von Disney namens Touché, das Berührungsgesten auf Alltagsgegenständen erkennen soll. (s. Videos im Beitrag dazu.).
Mehr den Anwendungen im Bereich des Lernens wendet sich improwiese zu, die eine umfangreiche Linksammlung zum Thema gestenbasiertes Lernen am Computer unter http://improweise.wordpress.com/2012/06/24/opco12-gestenbasiertes-lernen/ zusammengestellt hat. Interessant ist hier auch die Beobachtung, nach dem einleitendem Satz „Ja ich habe eine und nutze sie. Eine Wii. … Nein, das ist keine bezahlte Werbeeinschaltung, sondern eine Annäherungs ans Thema des letzten OPCO-Blockes zu „gesture based learning“.“, dass die Wii das „PC-Spielen der Töchter für viele Momente wieder ins Wohnzimmer“ rückte und es damit wieder „zu etwas Gemeinsamen (nach den anfänglichen gemeinsamen Stunden am PC in der Kindheit).“ wurde.
Sabine Hübner betont in ihrem Beitrag „Mit Gestensteuerung positive Gruppen-Lernerlebnisse schaffen“ auch den Vorteil, dass sich Menschen bei gesten-basierter Erkennung zumindest bewegen können, verlangt jedoch „ein breites Spektrum an möglichst natürlichen, anatomisch sinnvollen Bewegungsabfolgen zu erlauben. In ihren beiden Anwendungsbeispielen schließt sie einerseits an Prof. Lucke an und hebt die Vorteile der gestenbasierten Unterstützung von Präsentationen hervor, wobei sie hier auch die Kombination mit mobilen Endgeräten thematisiert sowie eine gruppenbasierte Variante. Die Frage, die sich hier jedoch stellte ist, ob man Bewegung im Raum nicht auch vermehrt durch traditionelle Lehrmethoden integrieren kann und nicht auf gestenbasierte Anwendungen warten muss. Letztere sicherlich aber einen zusätzlichen Mehrwert in Bildungsszenarien entfalten können, wenn Anwendungen wie z.B. das virtuelle Kind der Charite, Moleküle an der Wand oder Settings aus Gefahrenzonen, die real nicht nachstellbar sind, simuliert werden. Sabine Hübner kritisiert sicher mit Recht, dass wir zur Zeit noch mangels Beispiele Anwendungsszenarien aus verschiedenen Bereichen mischen (Schule, Universität, Berufliche Weiterbildung und Lebenslanges Lernen) und noch „ keine konkreten Anwendungsfälle passend zu den Zielgruppen herangezogen werden.“ und appelliert, uns klarer auf die zugrundeliegenden Inhalte, Zielgruppen, Anforderungen usw. zu beziehen.
Ein Argument, das wahrscheinlich auch Sylvia Mössinger unterstützt, die mit einem ersten Beitrag zum Themenblock das Thema quasi mit einigen anregenden Fragen eröffnet hatte, wenn sie in einem späteren Beitrag schreibt: „I think its crucial to integrate the student’s perspective in all our planning, they have their own views how future classrooms should look like …” und wenn sie schließt mit einem Zitat von Bernadette Brooks „It’s not the technology itself, but what the technology enables.”
Und sicherlich ein berechtigter Einwand, dessen mangelnde Erfüllung uns damit verziehen sein soll, dass wir hier noch recht am Anfang stehen und eben genau die Thematisierung im OPCO und im Rahmen des Frankfurter Fachforums* am 25.6.2012 zu dem Thema dem Abhilfe leisten soll, indem wir uns konkreter mit Beispielen aber auch erst mal mit dem grundlegendem Verständnis der Potentiale befassen (*auch die Vorträge des Fachforums werden noch online bereitgestellt).
Ich wünsche uns allen noch eine spannende Woche zu diesem Thema! Und ich glaube, spannende Fragen und Aspekte ergeben sich auch, wenn wir gestenbasierte Anwendungen z.B. mit Augmented Reality zu kombinieren oder eben mit mobilen Lernanwendungen, wie es Sabine Hübner ja auch schon begonnen hatte. Zugleich ist es absolut erwünscht sich über die gestenbasierte Erkennung hinaus zu bewegen und andere Erkennung wie Audio-, und die von Mimik, Hirnwelllen usw. in die weitere Diskussion zu integrieren.
Gruss, Claudia Bremer
2 Antworten auf Zwischenbilanz Gesture Based Computing
Pingback: “The moving classroom” – A short status report « Sylvia's Blog
Pingback: Gesture based computing – Summary « Sylvia's Blog