Es sei geradezu eine Schande, meint Wissenschaftler Chris Harrison von der Carnegie Mellon Universität in Pittsburgh, dass moderne Touchscreens nur mit den Fingerkuppen bedient werden können. Dabei hätte die Hand noch viel mehr zu bieten, etwa Knöchel und Fingernägel. Eine von ihm entwickelte Technologie namens FingerSense soll dieses Potenzial nun heben.
Ein kleiner Sensor macht einen großen Unterscheid
Harrison ging her und baute ein Samsung Galaxy S3 so um, dass es neben der Bedienung mit den Fingerkuppen nebst Swiping, Pinching und was nicht alles, weitere Bedienvorgänge erkennen kann. So stattete Harrison das S3 mit einem kleinen, handelsüblichen, akustischen Sensor aus, der in der Lage ist, die Vibrationen, die entstehen, wenn man den Touchscreen mit den Fingerkuppen, den Fingernägeln oder den Knöcheln berührt, zu unterscheiden und entsprechend unterschiedlich zu reagieren.
Wichtiger als der Sensor, der laut Harrison auf einfache Weise in jedes beliebige Smartphone verbaut werden könnte, ist die Software. Die hört auf den sprechenden Namen FingerSense und arbeitet zumindest in Harrisons Prototyp absolut zuverlässig, wie Ihr dem folgenden Video entnehmen könnt:
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Content Creator Social Media (m/w/d) CSU-Bezirksverband Augsburg in Augsburg |
||
Social Media Manager (Fokus: Community Management Supervision) (w/m/d) – befristete Elternzeitvertretung für 18 Monate Yello Strom GmbH in Köln |
Schaut man sich das Video an, wird auch deutlich, welchen Sinn die erweiterte Touchbedienung ergeben könnte. So wäre es etwa möglich, Knöchelkontakte als eine Art Rechtsklick zu interpretieren, womit ein Kontextmenü aufgerufen werden könnte. In Spielen ließe sich unterscheiden in Aufgaben, die mit den Nägeln, den Kuppen oder den Knöcheln erledigt werden müssen. Im Video sieht man eine Art Fruit Ninja, bei der Kokosnüsse mit den Knöcheln, Bananen mit den Nägeln und Beeren mit den Fingerkuppen zerstört werden müssen. Ebenfalls schön zu sehen ist, dass die jeweilige Frucht auch ausschließlich auf die korrekte Geste reagiert.
FingerSense kann systemweit hinterlegt werden, so dass es in Kooperation mit einem entsprechenden Hardware-Hersteller sehr flexibel einzupassen ist. Es mag ein Zufall sein, dass Harrison sich ein Samsung S3 zum Prototypen erkor. Denkbar ist aber auch, dass er ein hohes Integrationspotenzial gerade bei den Koreanern erkennt. Immerhin haben diese mit der Version 2 ihres Galaxy Note erneut Maßstäbe gesetzt, was die Erweiterung der Android-Funktionalität angeht. Mit dem neuen Stylus sind bekanntlich sogar Hover-Effekte möglich. Im Hause Samsung wird man FingerSense jedenfalls nicht als nutzlose Spielerei abqualifizieren.
Um der Technologie Schub zu verleihen, gründete Harrison das Unternehmen Qeexo, das sich um die Vermarktung von FingerSense und die Anpassungen für interessierte Gerätehersteller kümmern wird. Klar ist, dass wir mit der heute üblichen Touchscreen-Bedienung noch lange nicht das Ende der Fahnenstange erreicht haben. So sekundiert der bekannte Forscher Joseph Paradiso vom MIT in Boston: „Je mehr Eingabemethoden wir für unsere Smartphones entwickeln, umso besser.“
(Dieter Petereit)
Ich sehe die Anwendungfälle eher bei simpleren Aktionen.
Beispiel:
Das Handy ist in der Tasche und ein Anruf kommt rein. Zweimal auf die Hosentasche geklopft und der Anruf wird abgelehnt. Ebenso könnte man durch Musiktitel schalten; zwei mal Klopfen springt weiter, drei mal Klopfen einen Titel zurück.
Das müsste eigentlich sogar heute schon mit den eingebauten Bewegungssensoren möglich sein.
Anmerkung zum letzen Kommentar:
mit der Android App „Total Call Lite“ scheint das es sowas zumindest für Anrufe schon zu geben. Kann ich leider mangels Androidgerät nicht ausprobieren
eigentlich mal interessant aber wie das genau funktionieren soll kann ich mir auch nicht so vorstellen bzw ob es so gut erkennt und funktioniert
Ich seh‘ schon, Smartphones werden immer intuitiver. Fingertip: Aktion A. Nageltip: Aktion B. Knöcheltip: Aktion C. Doppelter Fingertipp… 😉
Wobei Robs Idee wirklich clever und sinnvoll klingt.
Für die Feinmotorik unserer Hand und somit auch für die Kombinationen die hierfür im Gehirn geschaltet werden müssen, finde ich einen „Bedienungsmix“ sehr ansprechend. 🙂
Die Frage welche ich mir bei einem Klopf Empfindlichen Display stelle ist ob dies nicht vermehrt zu Unbeabsichtlichen Funktionsauslösungen kommen kann, bei jeder „Erschütterung“?