18. – 29. Juni 2012: Gesture Based Computing
(Moderation des Themenblocks: Claudia Bremer, studiumdigitale, Universität Frankfurt)
I. Überblick
Die Nutzung gestenbasierter Anwendungen ist für viele Smartphone und Tabletnutzer wie iPhone und iPads sowie Kinect, Xbox und Nitendo Wii-Anwender schon zum Alltag geworden: Wisch- und andere Finger-, Arm- und Körperbewegungen steuern die Anwendungen. Ziel dieser Entwicklungen ist, „eine Minimalschnittstelle und ein Erlebnis der direkten Interaktion zu erzeugen, so dass in der Wahrnehmung Hand und Körper selbst zu Eingabegeräten werden“. (Horizon Report, Dt. Ausgabe, S. 31) Neben der Eingabe durch Bewegungen hebt der Horizon Report die Konvergenz „von gestensensibler Technologie mit Stimmerkennung“ hervor, „die es möglich macht, dass, wie bei der menschlichen Kommunikation, sowohl Geste als auch Stimme die Intentionen des Nutzers an das Gerät kommunizieren.“ Viele von uns kennen dies sicher aus den Siri Anwendungen des iPhones4, das hier als Beispiel genannt wird.
Die Potentiale, die hierbei im Spielebereich liegen und bei der Benutzung von Smartphones und anderen Endgeräten liegen auf der Hand und zeigen sich schon in unserem Alltag. Doch die Anwendungen darüberhinaus im Bildungsbereich sind noch rar gerät. Beispiele für Potentiale, die der HorizonReport nennt sind z.B. „Software, die nicht auf spezifischen Sprachen beruht, sondern auf natürlichen menschlichen Bewegungen, die allen Kulturen gemein sind“ für „überzeugende Nutzungsmöglichkeiten in Ländern wie Indien, das 30 Landessprachen mit jeweils über einer Million Muttersprachlern hat.“. Ziel ist, durch eine natürliche Benutzeroberfläche die Interaktion zwischen Anwender und Maschine zu vereinfachen, was natürlich auch vor allem für Personen mit körperlichen Behinderungen ein enormes Einsatzpotential mit sich bringt.
Im Horizon Report werden zudem die besonderen Potentiale für Schulen hevorgehoben, die Geräte in sich tragen, die den Nutzer dazu ermutigen, sie in spielerischer Weise zu berühren, zu bewegen und zu erkunden. Als Beispiele nennt er Smartphones und Tablets von Android und Apple, den Microsoft Surface und das ActivPanel von Promethean sowie die Nintendo Wii und Microsoft Kinect und sieht hier vor allem Potentiale in der Zusammenarbeit, im Austausch von Materialien und in Interaktionen in Gruppen. Gleichzeitig konnten trotz gründlicher Rechereche kaum Beispiele im Hochschulbereich gefunden werden und wahrscheinlich finden wir auch wenige in der Erwachsenenbildung. Aufgabe des OPCO könnte daher an dieser Stelle sein, Potentiale zu benennen und ggf. auch Beispiele z.B. aus arbeitsplatznahen Trainings in Unternehmen in prozedualen Wissensaneignungsprozessen zusammenzutragen. Differenziert werden könnte daher in der Diskussion in unterschiedlichen Anwendungsmöglichkeiten in verschiedenen Bildungsbereiche und deren Chancen und auch Grenzen.
DO 21.6.2012, 17-18 Uhr.
Dokumentation der Live Session
- Folien von Frau Prof. Lucke im PDF Format
- Aufzeichnung der Live-Session vom Do, den 21.6.12, 17 Uhr mit Prof. Lucke
http://connect8.iwm-kmrc.de/p93j3qtj336 - Direktlink auf das Video der Aufzeichnung im mp4-Format:
http://www.e-teaching.org/etresources/media/video/opco12/aufzeichnung_2012_bremer-lucke_gesture-based-computing.mp4 - Chatprotokoll der Live-Session vom Do, den 21.6.12
III. Weitere Aktivitäten:
- Welche Einsatzmöglichkeiten für gestenbasierte, stimmbasierte Steuerung von Geräten können Sie sich in den verschiedenen Bildungsbereichen (Schule, Erwachsenenbildung, Hochschzlstudium) und ggf. noch differenzierter z.B. in Trainings für Handlungsabläufe, Bedienung von Maschinen usw. können Sie sich vorstellen?
- Sehen Sie Grenzen und Gefahren für solche Anwendungen? Worauf müssen wir dabei achten?
IV. Lektüre und Material:
Lektüre
- Horizon Report 2012 (deutsche Fassung), S. 31-34
http://www.mmkh.de/upload/dokumente/2012HorizonReport_German_final.pdf
- Charlie Osborne
Gesture-based tech: A future in education?
http://www.zdnet.com/blog/igeneration/gesture-based-tech-a-future-in-education/15514 (Dank fürs Nennen an Sylvia Mössinger).
- Alex Howard, O’Reilly Radar (3.12.2010):
7 Areas Beyond Gaming where Kinect Could Play a Role.
http://radar.oreilly.com/2010/12/dancing-with-kinects-future-in.html
Die Autoren nennen Bereiche, in denen das gestenbasierte Kinect-System von Microsoft über seinen Einsatz als Spieleplattform hinaus genutzt werden kann.
- Steve Sechrist, Software Quality Connection, (23.5.11):
Gesture Recognition Moves Beyond Gaming
http://www.softwarequalityconnection.com/2011/05/gesture-recognition-moves-beyond-gaming/.
Steve Sechrist diskutiert das Potenzial von natürlichen Benutzeroberflächen
im Stil des Kinect-Systems.
- Claire Cain Miller (NYT, 1.9.10):
To Win Over Users, Gadgets Have to Be Touchable
Der Autor beschreibt, wie gestenbasiertes Computing zur vorherrschenden Bedienungsart für Computer,
insbesondere Mobilgeräte wie Smartphones und Tablets, geworden ist.
http://www.nytimes.com/2010/09/01/technology/01touch.html?_r=1
- James K. Willcox (Consumer Reports, 9.1.11):
LG adds Google TVs, Smart TVs get Voice and Gesture Control
http://news.consumerreports.org/electronics/2012/01/ces-2012-lg-adds-google-tvs-updates-smart-tv-with-face-recognition.html
Ein Beitrag über Fernsehgeräte von LG Electronics, die man gleichzeitig als Computermonitore nutzen kann, und deren Smart-TV-Plattform wird auch über Stimm- und Gestensteuerung verfügen.
Videos
- SoftKinetic Previews Next-Gen Gesture Interfaces
Das Video zeigt, wie die von Soft-Kinetic entwickelt 3D-Gestensteuerungs-Middleware
für eine breite Palette von Geräten und Plattformen eingesetzt werden kann.
http://www.youtube.com/watch?v=Xfz_uRoJGjE#!
- Augmented reality sandbox lets you change the course of rivers, won’t get you wet
Ein Beispiel für Augmented reality in der Kinder einen Fluss umleiten können.
http://www.engadget.com/2012/05/07/augmented-reality-sandbox-lets-you-change-the-course-of-rivers/
- Gestural control using inaudible sounds
Microsoft Research’s SoundWave ist ein experimentelles Interface das Gesten auf der Basis von Handbewegungen, die mit einem unhörbaren Ton, den der Computer generiert, interagieren. -
Beispiele zu Leap Motion
Quelle: http://www.youtube.com/watch?v=Xl6ZwYYwr-I&feature=player_detailpage -
Ein weiteres Beispiel zu Leap Motion
http://www.youtube.com/watch?v=XXvvCtfSU2s&feature=related
Quelle: http://www.youtube.com/watch?v=XXvvCtfSU2s&feature=related
Weitere Links und Quellen, die uns vor allem die Teilnehmenden nannten:
- Steuerung über Gehirnwellen
http://www.neurosky.com/Default.aspx
- Die klassische Maus ersetzt durch Gestensteuerung
http://live.leapmotion.com/about.html
- Der Körper als Steuerung
http://diepresse.com/home/techscience/hightech/755471/Disney_Gegenstaende-und-Haut-alsTouchOberflaechen?from=rss
8 Antworten auf 18. – 29. Juni 2012: Gesture Based Computing
Pingback: Zusammenfassung der Kurseinheit „Learning Analytics” | OpenCourse 2012
Pingback: Start der fünften Kurseinheit des OPCO12 – Thema “Gesture Based Computing” | OpenCourse 2012
Pingback: Start der fünften Kurseinheit des OPCO12 – Thema “Gesture Based Computing” | OpenCourse 2012