18. – 29. Juni 2012: Gesture Based Computing

(Moderation des Themenblocks: Claudia Bremer, studiumdigitale, Universität Frankfurt)

I. Überblick

Die Nutzung gestenbasierter Anwendungen ist für viele Smartphone und Tabletnutzer wie iPhone und iPads sowie Kinect, Xbox und Nitendo Wii-Anwender schon zum Alltag geworden: Wisch- und andere Finger-, Arm- und Körperbewegungen steuern die Anwendungen. Ziel dieser Entwicklungen ist, „eine Minimalschnittstelle und ein Erlebnis der direkten Interaktion zu erzeugen, so dass in der Wahrnehmung Hand und Körper selbst zu Eingabegeräten werden“. (Horizon Report, Dt. Ausgabe, S. 31) Neben der Eingabe durch Bewegungen hebt der Horizon Report die Konvergenz „von gestensensibler Technologie mit Stimmerkennung“ hervor, „die es möglich macht, dass, wie bei der menschlichen Kommunikation, sowohl Geste als auch Stimme die Intentionen des Nutzers an das Gerät kommunizieren.“ Viele von uns kennen dies sicher aus den Siri Anwendungen des iPhones4, das hier als Beispiel genannt wird.

Die Potentiale, die hierbei im Spielebereich liegen und bei der Benutzung von Smartphones und anderen Endgeräten liegen auf der Hand und zeigen sich schon in unserem Alltag. Doch die Anwendungen darüberhinaus im Bildungsbereich sind noch rar gerät. Beispiele für Potentiale, die der HorizonReport nennt sind z.B. „Software, die nicht auf spezifischen Sprachen beruht, sondern auf natürlichen menschlichen Bewegungen, die allen Kulturen gemein sind“ für „überzeugende Nutzungsmöglichkeiten in Ländern wie Indien, das 30 Landessprachen mit jeweils über einer Million Muttersprachlern hat.“. Ziel ist, durch eine natürliche Benutzeroberfläche die Interaktion zwischen Anwender und Maschine zu vereinfachen, was natürlich auch vor allem für Personen mit körperlichen Behinderungen ein enormes Einsatzpotential mit sich bringt.

Im Horizon Report werden zudem die besonderen Potentiale für Schulen hevorgehoben, die Geräte in sich tragen, die den Nutzer dazu ermutigen, sie in spielerischer Weise zu berühren, zu bewegen und zu erkunden. Als Beispiele nennt er Smartphones und Tablets von Android und Apple, den Microsoft Surface und das ActivPanel von Promethean sowie die Nintendo Wii und Microsoft Kinect und sieht hier vor allem Potentiale in der Zusammenarbeit, im Austausch von Materialien und in Interaktionen in Gruppen. Gleichzeitig konnten trotz gründlicher Rechereche kaum Beispiele im Hochschulbereich gefunden werden und wahrscheinlich finden wir auch wenige in der Erwachsenenbildung. Aufgabe des OPCO könnte daher an dieser Stelle sein, Potentiale zu benennen und ggf. auch Beispiele z.B. aus arbeitsplatznahen Trainings in Unternehmen in prozedualen Wissensaneignungsprozessen zusammenzutragen. Differenziert werden könnte daher in der Diskussion in unterschiedlichen Anwendungsmöglichkeiten in verschiedenen Bildungsbereiche und deren Chancen und auch Grenzen.

 


II. Online-Event:

DO 21.6.2012, 17-18 Uhr.

Referentin
Prof. Ulrike Lucke,Universität Potsdam
ist Informatik-Professorin und hat den Lehrstuhl für Komplexe Multimediale Anwendungsarchitekturen an der Universität Potsdam inne. Ihre Forschungsinteressen liegen in der Heterogenität und Interoperabilität netzbasierter Architekturen, einschließlich Mobile und Pervasive Computing, insbesondere im Anwendungsgebiet E-Learning. Zudem ist sie als Chief Information Officer (CIO) der Universität Potsdam für deren strategische IT-Ausrichtung verantwortlich. Zur Zeit leitet sie u.a. eine zentrale E-Learning-Initiative, um die Nutzung digitaler Medien durch technische, Organisations- und Materialentwicklung nachhaltig in der Breite der Hochschule zu verankern. Neben anderen Positionen in Fachgremien ist sie u.a. Sprecherin der Fachgruppe E-Learning in der Gesellschaft für Informatik (GI).

 

Dokumentation der Live Session

III. Weitere Aktivitäten:

  1. Welche Einsatzmöglichkeiten für gestenbasierte, stimmbasierte Steuerung von Geräten können Sie sich in den verschiedenen Bildungsbereichen (Schule, Erwachsenenbildung, Hochschzlstudium) und ggf. noch differenzierter z.B. in Trainings für Handlungsabläufe, Bedienung von Maschinen usw. können Sie sich vorstellen?
  2. Sehen Sie Grenzen und Gefahren für solche Anwendungen? Worauf müssen wir dabei achten?

 

IV. Lektüre und Material:

Lektüre

Videos

   

Weitere Links und Quellen, die uns vor allem die Teilnehmenden nannten:

8 Antworten auf 18. – 29. Juni 2012: Gesture Based Computing

  1. Pingback: Zusammenfassung der Kurseinheit „Learning Analytics” | OpenCourse 2012

  2. Pingback: Start der fünften Kurseinheit des OPCO12 – Thema “Gesture Based Computing” | OpenCourse 2012

  3. Pingback: Start der fünften Kurseinheit des OPCO12 – Thema “Gesture Based Computing” | OpenCourse 2012

Schreibe einen Kommentar