Aufzeichnung der Adobe Connect Session zu Internet of Things:
http://connect8.iwm-kmrc.de/p84frrtv6wt/
Aufzeichnung der Live-Session zu Internet of Things
5. Juli 2012Internet of Things – Beispiele aus dem Jahr 2053
5. Juli 2012Six Ways to Look at Badging Systems Designed for Learning
3. Juli 2012Zum Stichwort “Badges” gibt es gerade in der Edu-Community derzeit so viele Beiträge und Diskussionen, dass es schön ist, wenn jemand kurz innehält, alles etwas sortiert und eine Übersicht versucht. Genau das macht Barry Joseph. Mit Blick auf die verschiedenen Interessen und Ziele, die mit dem Thema verfolgt werden, unterscheidet er folgende Perspektiven:
- Badges as Alternative Assessment
- Gamifying Education with Badges
- Badges as Learning Scaffolding
- Badges to Develop Lifelong Learning Skills
- Badges as DML Driver
- Badges to Democratize Learning
Für jede Perspektive verweist er auf Beispiele und Beiträge. Gibt es eigentlich im deutschsprachigen Raum schon einen Artikel zum Thema?
Barry Joseph, Global Kids, 25. Juni 2012
Eröffnung Thementrack: Internet of Things
3. Juli 2012Herzlich willkommen zum letzten Thementrack des OPCO12, der sich einem weiteren Trend des 4-5 Jahreshorizonts widmet: den „Internet of Things“, mit dem wir uns die nächsten beiden Wochen befassen werden. Doch was genau steckt hinter diesem Begriff?
Laut dem Horizon Report bezeichnet er “internetfähige Smart Objects“, die nicht nur – wie jetzt schon eingesetzte Objekte – Informationen übertragen (beispielsweise für die Überwachung empfindlicher Geräte oder Materialien), sondern auch Information wie z.B. Preis, Alter, Temperatur, Farbe, Druckhöhe oder Feuchtigkeitsgrad eines Geräte vorhalten und weitergeben können (Horizon Report, Dt. Version, S. 35). So können sie laut dem Horizon Report z.B. „eingesetzt werden, um physische Gegenstände digital zu verwalten, ihren Zustand zu überwachen, sie ausfindig zu machen, jemanden zu benachrichtigen, wenn sie beschädigt werden oder verderben könnten — oder sogar, um sie mit Beschreibungen, Betriebsanleitungen, Garantien, Lerneinheiten, Fotos, Verbindungen zu anderen Gegenständen und jeder weiteren vorstellbaren Art kontextueller Information zu versehen.“ (Horizon Report, Dt. Version, S. 35).
Ähnlich wie im Themenblock „gestenbasierte Anwendungen“ ist es hier sicherlich wichtig, sich erst einmal mit einer Abgrenzung dem Thema zu nähern. Stellen wir uns also die Frage: was gehört dazu, was nicht, „da man ansonsten in der Diskussion schnell dazu verleitet werden kann, so gut wie alles in diesen Themenbereich mit aufzunehmen.“ (Horizon Report, Dt. Version, S. 35).
Hilfreich für einen solchen thematischen Einstieg sind zwei Radiobeträge, die anlässlich der diesjährigen Fachkonferenz „Internet of Things (IoT) Week 2012“, die in Venedig stattfand im Rahmen der Sendung „Computer und Kommunikation“ des Deutschlandfunk produziert wurden:
- Sendebeitrag Internet der Dinge und
- Sendebeitrag Die Macht der Maschinen.
Nachdem wir ein besseres Verständnis für die Technologie und dahinter liegenden Nutzungsoptionen entwickelt haben, können wir uns in einem nächsten Schritt deren Potentialen im Bildungsbereich zuwenden – ein zentrales Anliegen diese Open Online Courses. Der Horizon Report nennt hierzu Beispiele aus dem Forschungskontext, in denen z.B. Anthropologie- und Geschichtsinstitute den Zustand von Objekten unmittelbar einsehen und deren Aufenthaltsort, Umgebung und Bewegung verfolgen können (Horizon Report Dt. Version, S. 36). Ein im Report gemachter Vorschlag beschreibt die Idee, alle Knochen eines Allosaurusskeletts mit Informationen über seine Fundstelle, das Herkunftsgebiet usw. zu versehen.
Auch in diesem Themenbereich kommen wieder wie im letzten die Vorlesungsaufzeichnungen vor – in diesem Fall eine Live-Alternative: der Horizon Report schlägt vor, Projektoren eine IP-Adresse zuzuordnen und sie „die Folien oder Videos von Lehrenden streamen zu lassen , so dass Studierende, die nicht physisch am Unterricht teilnehmen können, die Präsentationen und Vorlesungsunterlagen von jedem Ort aus anschauen können.“ (Horizon Report Dt. Version, S. 36). Auch könnten kleine intelligente Sensoren Informationen über die Belegung von Räumen melden – eine Anwendung, die eher ins Gebäude-verwaltung fällt. Die im Report genannten Anwendungsbeispiele reichen dabei von der Anwesenheitskontrolle im Hörsaal bis über die Verwaltung von Geräten und Büchern und die Unterstützung von Forschungsprojekten, die die Beobachtung von Tieren umfasst.
Weitere Beispiele finden Sie auf der Themenseite zu „Internet of Things“ sowie natürlich direkt im Horizon Report selbst. Sicher sind da einige interessante Ideen und Beispiele dabei, wirklich didaktisch motivierte Einsatzbeispiele sind bisher jedoch noch kaum zu finden. Vielleicht wird ja unsere eigene Kreativität uns hier weiterhelfen und wir im Laufe des Kurses weitere Beispiele ergänzen können.
Unsere Rollen haben wir wie folgt aufgeteilt: aufgrund des kurzfristigen Ausfalls unseres externen Referenten wird Prof. Krömker selbst als Experte für die Live-Session bereit stehen. Die Session findet am Donnerstag, den 5. Juli, um 17:00 Uhr statt (Link zum Event: http://connect8.iwm-kmrc.de/opco12). Moderiert wird der Thementrack gemeinsam von Prof. Krömker, Claudia Bremer und David Weiss (studiumdigitale). Und natürlich freuen wir uns vor allem auf zahlreiche Ideen, Beiträge, Anregungen und auch Fragen Ihrerseits und wünschen Ihnen viel Spaß bei der Kurseinheit „Internet of Things“ des OPCO12!
Zusammenfassung zum Abschluss des Themenblocks ‚gesture based computing‘
1. Juli 2012Während die EM zu Ende geht und die Spaniern ihren schon sicheren Sieg feiern, geht auch der Themenblock gestenbasierter Anwendungen zu Ende, der ja fast zeitgleich zur EM lief. Und während es dem einen noch unvorstellbar erscheint, dass wir – wie im Horizon Report prognostiziert – in 4-5 Jahren gestenbasiert Anwendungen steuern, die Lernprozesse unterstützen, so scheint diese Realität anderen schon viel näher. So Sonja Gerber, die in ihrem Beitrag zu diesem Themenblock des OPCO schreibt „Meiner Meinung sind gestenbasierte Anwendungen doch schon in Bildungsprozessen angekommen.“ und sich dabei auf das Verschwinden von Maus und Tastatur sowie die Bedienung von Smartphones mit Toucscreens bezieht, die Form gestenbasierter Anwendungen, die wir heute schon am häufigsten in unserem Alltag vorfinden. Und die Potentiale der Zukunft zeichnen sich auch häufig in Filmen ab: Wer den neuen Spiderman Film gesehen hat, „The amazing spider man“, der kann – ähnlich wie im häufig im Kontext gestenbasierter Anwendungen referenzierten „Minority Report“ – eine Vision der Zukunft dieser Nutzung sehen: Steuerung einer Simulation mit Hilfe eines 3D- Displays ohne Maus und Handschuh …
… eine Anwendung die ich in etwas kleineren Version im letzten Jahr auf der Siggraph schon von Sony entwickelt sehen durfte s. Video).
Gestenbasierte Anwendungen in Vorlesungsaufzeichnungen
Doch gestenbasierte Anwendungen machen noch keine Lernprozesse, wie learning4me berechtigterweise anmerkt. Beispiele dieser Anwendungen in Lern-/Lehrkontexten finden sich jedoch heute schon z.B. in den von Prof. Ulrike Lucke vorgestellten Zeigebewegungen, die mit Hilfe von Kameraaufzeichnungen ihre Bewegungen auf einen Avatar oder auf die angedeutete Stelle einer Folie in ihren Vorlesungsaufzeichnungen überträgt und diese Stelle markiert (s. Vortragsaufzeichnung der LiveSession).
Das virtuelle Kind
Direkte Bewegungen ausgeführt auf einem Touchscreen zur Steuerung von Lernprozessen zeigt uns die Charitee-Anwendung „Das virtuelle Kind“
http://www.youtube.com/watch?v=uxZRi0pFdBc
s. auch Bericht in Spiegel online:
http://www.spiegel.de/video/was-hat-3d-simone-virtuelles-kind-trainiert-aerzte-video-1167019.html
Hinweise, Bedenken und Bedenkenswertes
Wichtig waren sicherlich auch die Hinweise und Sorgen, dass der Einsatz gestenbasierter Anwendungen im Kontext von Lernprozessen eine Rückkopplung auf Sinnhaftigkeit, Lernziele und Zielgruppen braucht (s. z.B. die Gedanken und anschliessende Diskussion zum Beitrag von karlaspendrin) und dass die Nutzung wie z.B. Messung zur Steuerung durch Hirnwellen ethische Grenzen braucht.
Fazit
Was ich in einigen Beiträgen lese, ist, dass das Thema durchaus für einige etwas „griffiger“ wurde (wie passend der Begriff hier 😉 ) und einige etwas konkretere Vorstellungen und auch Ideen davon bekommen haben, was gestenbasierte Anwendungen sind und wie man diese in Bildungskontexten einsetzen kann. Nachdem wir uns zu Beginn der Themenwoche über „Was sind Gesten“, der Gestenerkennung und abschliessend den Einsatzszenarien zugewandt haben, denke ich, haben wir hier einen guten Bogen hinbekommen. Interessant waren für mich auch die Hinweise auf die unterschiedliche Bedeutung von Gesten, die einerseits auf dem Frankfurter Fachforum und im Beitrag von baslix thematisiert wurde. Sicher gilt es hier, einerseits geeignete Settings aufzubauen, die solche Art von Gesten überhaupt erkennen (z.B. eignet sich die aktuelle Kinect noch nicht für Gebärdensprache, aber es existieren Kamerasettings mit mehreren Kameras, die sich dafür eignen), zum sind anderen die semantischn Bedeutungen der Gesten in verschiedenen Sprach- und Kulturräume zu hinterlegen.
Danke daher für die Beiträge, Hinweise und Zusammenfassungen, die zur Entwicklung und Abrundung des Themas beigetragen haben. Ich möchte nicht mehr alle Punkte der Zwischenbilanz nochmals aufgreifen, sondern mich ausdrücklich bei den Teilnehmenden, unserer Referentin Frau Prof. Lucke und Co-Moderatoren dafür bedanken! Ergänzend zu den Beiträgen hier steht nach wie vor das Etherpad zur Dokumentation und Sammlung von Links bereit und es wird die Dokumentation der Vorträge des Frankfurter Fachforums in Form von Vortragsaufzeichnungen noch erfolgen.
Wann sind Gesten Teil eines Lernprozesses?
1. Juli 2012Die Gesten sind der Maus ihrn Tod – einverstanden. Aber sind die Gesten-basierten Computereingaben deshalb schon Element eines Lernprozesses? Ist die Maus je als solches Element verstanden worden? Sind es nicht erst die sinnhaltigen Gesten, die den Unterschied machen?
Simone, die kleine Patientin auf dem iTisch, die Sonja Gerber anspricht, ist faszinierend (auch wenn der anfängliche Zauber wohl mehr von der ziemlich gelungenen interaktiven Animation ausgeht denn von Gesten). Hier macht es tatsächlich einen sinnhaltigen Unterschied, ob ich das virtuelle Stethoskop mit dem Finger an die richtige Stelle des Brustkorbs ziehe oder leider eine Rippe daneben. Hier macht es einen Unterschied, ob Teammitglieder Behandlungsprozesse im richtigen zeitlichen Ablauf auf den Tisch “wischen”.
Diese Definition zugrundelegend ist Lernprozess-orientiertes Gesten-basiertes Lernen zwar noch nicht da, Simone und einige andere Beispiele in diese Richtung aber machen Hoffnung, dass es kommt (irgendwann).

Aus die Maus – die Gesten sind schon da oder kommen bald
1. Juli 2012Der Horizonreport geht davon aus, dass gestenbasiertes Lernen erst in 3 bis 5 Jahren in die Hochschulen kommen wird. Irgendwie kann ich das so nicht nachvollziehen. Meiner Meinung sind gestenbasierte Anwendungen doch schon in Bildungsprozessen angekommen. Wer sein Iphone oder Ipad auch für Lernzwecke verwendet, nutzt bereits bestimmte Bewegungen zur Steuerung. Auch das Umblättern der Seiten eines E-books ist gestenbasiert. Die klassische Tastatur und Maus sind zumindest teilweise schon heute überflüssig und werden durch Gesten ersetzt.
An meiner Schule wurden in jüngster Vergangenheit All-in-one-PCs mit Touchscreen und Beamer für alle Klassenzimmer unseres Neubaus angeschafft. Hintergrund war die Überlegung, dass ein Smartboard zwar „ganz nett“ ist, aber, um es zu bedienen, muss sich derjenige, der es benutzt, umdrehen – genau wie bei einer herkömmlichen Tafel. Dabei geht der für Lernprozessse wichtige Blickkontakt verloren. Im Moment sind wir noch auf der Suche, nach weiterer Software, mit der die Touchscreen-Funktion in Kombination mit dem Beamer noch besser genutzt werden könnte.
Dank des Artikels von Torsten Maier Gestensteuerung wo man hinsieht, bin ich noch auf eine weitere Idee gekommen, wie wir eine weitere gestenbasiert Anwendung in den Unterricht integrieren könnten. Mit Hilfe des Celluon Magic Cube könnte jeder beliebige Schüler Zugriff auf den mit dem Beamer verbundenen PC bekommen und könnte an „seinem“ Platz sitzen bleiben. Es muss dann lediglich die kleine Box weitergereicht werden. Dies ist sicherlich kein Einsatzszenario für eine längere Präsentation, aber für einen kürzere Demonstration / Information innerhalb von Gruppenarbeiten kann ich mir dies gut vorstellen. Jedenfalls werde ich mir privat demnächst ein solches Teilchen anschaffen, um das Potenzial auszuloten.
Infos zu Celluon Magic Cube – auch für PCs!
Wider Erwarten ist das Thema „Gestenbasiertes Lernen“ übrigens mein persönlicher Favorit bei Opco12 geworden. Dazu hat sicherlich auch beigetragen, dass ich am 25.06.12 Fachforum Gestenbasierte Anwendungen in Bildungsprozessen in Frankfurt besuchen konnte.
Hier mein persönliches Highlight aus dem Fachforum: Simone: Das virtuelle Kind
Dr. Kai Sostmann, Kinderarzt, Charite Berlin, stellte die computersimulierte Patientin Simone vor. Die schwerkranke Simone „liegt“ auf einem Tisch, einem überdimensionalen Ipad und wartet darauf, dass Medizinstudenten oder weiterbildungswillige Ärzte im Team die richtigen notfallmedizinischen Maßnahmen ergreifen. Neben Faktenwissen vermittelt dieses Training vor allem auch Teamkompetenz.
Hier findet sich eine kleine Demonstration
Die Vortragsfolien von Dr. Sostmann werden hier demnächst zu finden sein.
Ich könnte mir vorstellen, dass ähnliche Szenarien auch für Trainings von Pflegepersonal in absehbarer Zeit Realität werden könnten. Damit wäre auch ein Einzug solcher Anwendungen in den (beruflichen) Schulen sicherlich im Bereich des möglichen.
Gesamtfazit:
Die Maus könnte schon bald auf die Rote Liste der gefährdeten Tierarten kommen .

Gesture based computing – Summary
30. Juni 2012Gesture based computing evoked almost unconditionally excitement and a lot of possible applications were suggested and described. Sure some of these ideas are still dreams of the future, but according to the horizon report gesture based computing it takes 3 to 5 years anyways to reach the mainstream. However, some applications are already applied in some classrooms as Ulrike Lucke, this time lecturer, lively showed in her presentation. The main obstacle for this issue seems the lack of financial resources to equip schools and universities at large-scale with the necessary technology, it is definitely not the lack possible applications as the many ideas from the #opco12 demonstrated. Claudia Bremer compiled all applications suggested for gesture based computing in her blog post. Quite an impressive list
The most named keywords:
- movement, exercise, activity
- intuitive comprehensible
- haptic, tactile-kinesthetic way of learning
- collaboration, learning in groups
- fascination, excitement
- technology: Kinect, smartphones, tablets …
- gestures: wipe, wave, tap …
Image from Haptic Feedback Technology
Tagged: #opco12, gesture-based computing, Horizon Report, OpenCourse12

Umfrageergebnisse zur Abschlussveranstaltung – noch bis 1.7.12
30. Juni 2012Hier die aktuellen Ergebnisse der Umfrage zur Abschlussveranstaltung. Die Tendenz geht auf eintägig Freitags…. wir lassen die Umfrage mal bis morgen (So) abend laufen und planen dann mal am MO im OPCO Team. Was wir nicht genau interpretieren können, ist, ob die die samstags kämen auch freitags kommen, … Sorry nochmals an die, die nicht kommen können, aber gerne gekommen wären, die wir jedoch nicht in einer seperaten Antwortoption abgeholt haben…. das hätten wir natürlich machen können. Also: umfrage noch bis SO abend, am MO schliessen wir sie dann wie angekündigt ab.
Gesture-Based Computing
29. Juni 2012So lautet der erste der beiden Trends, die der diesjährige Horizon Report auf seiner Skala noch vier bis fünf Jahre vor dem Durchbruch sieht (”time-to-adoption”). Doch was sind eigentlich alles “Gesten”? Wie funktioniert die “gestenbasierte Kommunikation”? Was ist “gesture based computing”? Und schließlich die Frage, wie sich das Thema in der Hochschullehre und Lernkontext etablieren kann. Aber ich will es an dieser Stelle kurz machen, denn das waren genau die Stichworte, die Ulrike Lucke, die am Institut für Informatik der Universität Potsdam unterrichtet, in der Live-Session aufgenommen hat. Ich kann die Präsentation und die anschließende Diskussion nur wärmstens als Überblick empfehlen! Weitere Informationen mit vielen Links auf Anwendungsbeispiele finden sich in den Blogbeiträgen zum Thema und auf unseren Kursseiten.
Ulrike Lucke, Open Course 2012, 21. Juni 2012