Montag, 4. Juni 2012

Kinect, Leap & Co.: Fingerzeige für die Post-Touch-Steuerung


Vom Jump & Run zur Vaskulären Chirurgie: Die Karriere, die in den letzten Jahren Konzepte für Gesten- Bewegungssteuerung hingelegt haben, ist schon faszinierend. Populär gemacht hat sie schließlich der Einsatz in Nintendos Wii, Sony und Microsoft zogen mit Move beziehungsweise Kinect nach. Und inzwischen haben sich für Microsofts Kinect zahlreiche Nebenschauplätze geöffnet, die diese Art der Steuerung weiter denken. 

Den Rechner mit Fingerzeig dirigieren - Quelle: Leap Motion Demo Video.


Am King’s College London etwa testen momentan Gefäßchirurgen ein auf Kinect for Windows basierendes Programm zur Steuerung von Bildsystemen, die die Patientenanatomie darstellen. Momentan ist da das Operationsgebiet aus verschiedenen zweidimensionalen Perspektiven betrachtbar. Über das Programm kann der Chirurg direkt über Gesten oder Stimmbefehle die Bilddarstellungen so wechseln und verändern, wie er es gerade braucht. Ohne wie sonst üblich entweder einen Assistenten zu benötigen, dem er die gewünschte Bildveränderung erklären muss oder gar selbst via Hand die Veränderungen vorzunehmen, was für sterile Operationen eher ungünstig ist. So erfasst der Kinect-Sensor die Handbewegungen vor dem Bildschirm und übersetzt die in Steuerungsbefehle – berührungsfrei.

Nächster geplanter Schritt in diesem Projekt ist im Übrigen die Darstellung von dreidimensionalen Hirnmodellen, um Neurochirurgen bei der Arbeit zu helfen. Von purer Spielerei ist dieser praktische Einsatz zur Steuerung von Bildsystemen also einigermaßen weit entfernt.

Der Sprung voran?

Auf ein ähnliches Grundkonzept wie Kinect setzt auch Leap Motion – nur dass die Empfindlichkeit des Systems deutlich höher ist. Im vom Sensor erfassten Raum kann die Software sogar die einzelnen Finger genau tracken. Das Unternehmen spricht davon, 200 mal so genau arbeiten zu können wie andere auf dem Markt und Bewegungen bis auf ein Hundertstel eines Millimeters zu erkennen. Der Preis dessen ist ein deutlich kleinerer Bereich, den der Sensor erfasst, aber innerhalb dessen funktioniert das Wired zufolge tatsächlich faszinierend gut.

Und so lässt sich der Rechner dann berührungsfrei per Fingerzeig dirigieren:



Das stellt natürlich nicht den Nachfolger von Tastatur und Maus dar – auf Dauer würde die Fuchtelei zu anstrengend. Aber für Interaktionen mit visuellen, grafischen Elementen klappt diese Gestensteuerung gut – jenseits von Spielen auch in Design-Prozessen oder generellen, schnell von der Hand gehenden Nutzungssituationen. Freilich will ich nicht mit dem Bleistift in der Hand vor dem Monitor Buchstaben in die Luft malen, um Artikel zu schreiben. Da gibt es komfortablere Wege. Durch Menüs, Powerpointfolien oder verschiedene Browserfenster könnten Bewegungen aus dem Handgelenk aber durchaus führen.

Wem es im Wesentlichen darum geht, sich wie Tom Cruise in Minority Report zu fühlen, der könnte auch einen Blick auf übi werfen. Deren Lösung besteht darin, einen Beamer mit einem Tiefensensor und jeglicher Art von Projektionsfläche zu kombinieren – die weiße Wand tut’s auch. Auf die Wand wird das Bild projiziert, der Nutzer steuert mit der Hand. Denn deren Position und Bewegungen erfasst der Sensor. Ein Wischen wechselt also die Bildschirmansicht, ein Tippen wirkt wie ein Klick – auch wenn die Wand logischerweise kein Touchinterface ist.

Das wesentlich Spannende daran ist, dass über diese Wege die Steuerung durch Bewegungen möglich ist, ohne dass es Touch-Bildschirme braucht. Das wird weder Touch noch Tastatur und Maus vertreiben. Aber es erweitert den Raum an Interaktionsmöglichkeiten. Und baut noch mal Barrieren ab, verringert Abstraktion.

Keine Kommentare:

Kommentar veröffentlichen