Der letzte Artikel mit spannenden Neuigkeiten liegt schon etwas zurück – damals ging es um die vielfältigen Nutzungsmöglichkeiten von Microsofts Eingabemedium Kinect,bei dem die Eingabe lediglich über eine Kamera und einen Tiefensensor stattfindet. Chris Harrison von Microsoft Research hat den bisherigen (teilweise beeindruckenden) Anwendungsszenarien ein weiteres hinzugefügt: arbiträre Touch-Oberflächen. Bisherige Systeme mit Touchbedienung bedienen sich häufig einer speziellen Oberfläche mit gleich wie gearteten Sensoren. In der Forschungsarbeit von Microsoft wurde ein System entwickelt, welches eine Touch-Oberfläche lediglich mit Hilfe des Tiefensensors von Kinect umsetzt; die Folge davon ist, dass die anzuzeigenden Inhalte nicht mehr auf einem speziellen Bildschirm angezeigt werden müssen, sondern auf jede beliebige Oberfläche projiziert werden können.

Das Demo-Video dazu gibt einige interessante Einblicke in das System:

Natürlich ist das alles noch eine Art Konzeptstudie und der Sensor ein wenig zu unhandlich und träge für den alltäglichen Gebrauch – es gibt aber eine interessante Richtung vor, in welche sich die Bedienung von mobilen Geräten entwickeln kann. Was meinen die Leser dazu: für welche Anwendungsszenarien könnte man eine derartige Technologie gut verwenden? Ich freue mich über eine rege Diskussion in den Kommentaren.


PS: Ich weiß, dass es ähnliche Ansätze bereits früher gab; die waren aber meist weitaus weniger leistungsfähig und/oder brauchten eine noch viel umfangreichere Hardware-Ausstattung.

Kommentare (19)

  1. #1 Dr. Webbaer
    Oktober 18, 2011

    Was meinen die Leser dazu: für welche Anwendungsszenarien könnte man eine derartige Technologie gut verwenden?

    Der selbst ein Kinnect-Gerät sein eigen Nennende ist hier pessimistisch, dass sich viele Gebrauchsfälle finden lassen werden, denn die Sache scheint nicht ergonomisch; Eingabegeräte wie Maus und Tastatur sind so kaum ersetzbar; Fehleingaben und “Tennisarm” scheinen vorprogrammiert. – Desselbe gilt für Touchscreens.
    Als ad hoc-Eingabe vllt OK, aber nicht für den längeren Gebrauch.

  2. #2 weyoun
    Oktober 18, 2011

    hmmm vielleicht für ein wearable cellphone in form eines kleidungsstückes, ein ec-karten/kreditkartensystem das mit einer projizierten bedienoberfläche auskommt, eine verbindung zu wikipedia das texte und grafiken auf den Schreibtisch projiziert ein transportables homkino für zugfahrten, das bild wird auf eine weisse oberfläche projiziert…..

  3. #3 Tim
    Oktober 18, 2011

    ich habe vor einiger zeit ein video bei TED.com gefunden, in dem pranav mistry, ein forscher aus indien seine “SixthSense”-Technologie vorführt. das gerät funktioniert ähnlich wie die hier gezeigte kamera, scheint aber wesentlich kleiner zu sein. das video ist von 2009, ich weiß also nicht, wie weit die technologie mittlerweile fortgeschritten ist, aber der ansatz ist super. hier der link zum video:

    https://www.ted.com/talks/pranav_mistry_the_thrilling_potential_of_sixthsense_technology.html

    außerdem gibt es ein zweites video zum gleichen gerät, das ich selbst allerdings noch nicht gesehen habe:

    https://www.ted.com/talks/pattie_maes_demos_the_sixth_sense.html

    das gerät ist einer sehr interessanten idee entsprungen und zumindest das erste video ist sehr sehenswert!

  4. #4 Dr. Webbaer
    Oktober 18, 2011

    https://www.ted.com/talks/pranav_mistry_the_thrilling_potential_of_sixthsense_technology

    Es gab mal vor zig Jahren, zu Beginn des WWW, die Nachricht, dass man irgendwann dreidimensional im Web surfen würde, Räume betreten, virtual reality etc.; daran erinnert dieses stoppelige Vid.

  5. #5 Andreas
    Oktober 18, 2011

    Da bekommt Handlesen eine ganz neue Bedeutung… 🙂

    Aber mal ehrlich, wer will sich denn so nen Quatsch auf die Schulter schnallen, um dann in nem Schreibblock rumzurühren… nee, nicht überzeugend.

  6. #6 BreitSide
    Oktober 18, 2011

    Das kann doch nie was werden.

    Der Mensch wird nie fliegen können. Ist er doch viel schwerer als ein Vogel…

  7. #7 Marcus Frenkel
    Oktober 18, 2011

    @Andreas
    Es ist eine Konzeptstudie…dass so etwas so direkt nicht für den Produktiveinsatz gedacht ist, sollte doch klar sein. Außer im Kommentar hat sich eine Ironie versteckt, die ich übersehen habe – dann bitte ich um Entschuldigung.

  8. #8 Mithrandir
    Oktober 19, 2011

    ^Schon lustig. Ich glaube, wenn Apple das Teil vorgeführt hätte, wären heute die ersten apps auf dem Markt und es gäbe eine Seite, die die Tage bis zum Verkaufsstart runterzählt.
    Aber so…
    “Naja,, gabs schon mal..” “Bringt eh nix…”, “Funktioniert nicht…”

  9. #9 Matt
    Oktober 19, 2011

    Das wünsche ich mir zu Weihnachten als Brille mit einem Akku, der durch meine Bewegungsenergie aufgeladen wird …

  10. #10 Quartvorhalt
    Oktober 19, 2011

    Ich bin skeptisch. Kann sich jemand ein Szenario vorstellen, in dem so ein Kinect einfach “das Instrument” ist? So hat es eher was von creeping featurism.

    Und nicht jeder mag Dinge, die einem auf der Schulter sitzen und ständig glotzen. Ich sehe schon, wie der Herr Friedrich sich die Hände reibt..

  11. #11 Marcus Frenkel
    Oktober 19, 2011

    Nochmal als Hinweis: mit meiner Frage habe ich nicht gemeint, wozu man den Aufbau konkret mit Kinect benutzen könnte – das Gerät ist viel zu groß und es ist – wie gesagt – auch nur eine Konzeptstudie. Mir ging es um die Technologie der Projektion mit verbundener Touch-Bedienung…

  12. #12 Dr. Webbaer
    Oktober 19, 2011

    @Frenkel
    Schon klar, aber Sie wissen sicherlich auch, dass die Tastatur u.a. deshalb ihren wohlverdienten Platz als Eingabegerät Numero Uno hat, weil es tatzenfreundlich ist, also beide Tatzen gut unterstützt und die Tasten drückbar sind, was ein wichtiges Feature darstellt. 😉

    Die Maus ist dagegen als Zeigegerät cool, weil die eine(!) Hand nur minimale Bewegungen ausführen muss.

    Und verglichen hiermit leidet die optische Erkennung sozusagen systemimmanent. Sie haben’s ja ein wenig mit dieser Technologie, also schnell noch die gute Nachricht: Für Sportgeräte ist diese sehr interessant!

  13. #13 radicchio
    Oktober 19, 2011

    Mir ging es um die Technologie der Projektion mit verbundener Touch-Bedienung…

    1000e möglichkeiten: auf einweg-oberflächen in der medizin, überall, wo ein- oder anbau von bedienelementen nicht möglich ist, bei mobilen geräten aller art, für präsentationen, in der schule …

  14. #14 Quartvorhalt
    Oktober 19, 2011

    Hm, ist vielleicht doch gut. Angenommen, das Keyboard sei durch das viele Programmieren kaputtgegangen, man könnte dann einfach eins draufprojizieren und weitermachen.

  15. #15 Dr. Webbaer
    Oktober 19, 2011

    @radiccio
    “Wo der Einbau von Bedienelementen” nicht möglich ist, schränkt die Gebrauchsfälle zahlenmäßig massiv ein. Eine positive Einschränkung wäre dagegen: wo nicht viel zu erfassen ist.

    Aber selbst dort sind uncool wirkende raumgreifende Bewegungen der Extremitäten oft bspw. einem Laserzeiger mit Knopf, der nicht oft bewegt werden muss, unterlegen.

  16. #16 Radicchio
    Oktober 19, 2011

    “Wo der Einbau von Bedienelementen” nicht möglich ist, schränkt die Gebrauchsfälle zahlenmäßig massiv ein

    wieso? dafür gibt es zahllose möglichkeiten. stell dir z.b. ein museum vor, wo bei wechselnden ausstellungen unter jedem exponat interaktive informationen projiziert werden die mit erläuternden prokjektionen auf das kustwerk interagieren, auf baustellen oder wo auch immer im “freien feld” können pläne und daten visualisiert und abgerufen werden, ohne große technik aufzubauen, an jeder beliebigen mauer können bedienelemente beliebig angebracht werden, ohne auch nur einen zentimeter kabel zu verlegen, in nassbereichen, bei extemen temperaturen, unter wasser …

  17. #17 Dr. Webbaer
    Oktober 20, 2011

    (…) an jeder beliebigen mauer können bedienelemente beliebig angebracht werden, ohne auch nur einen zentimeter kabel zu verlegen (…)

    Für solche Spezialfälle bieten sich aus Sicht des Webbaeren eher Controller an, wie man sie von den Spielcomputern her kennt, per WLAN angebunden. Dr. W meint sowas auch mal im Einsatz gesehen zu haben…

    Das Problem ist nämlich, dass es körperlich anspruchsvoll ist per optische Erkennung Anforderungen und Daten zu erfassen. Da werden Sie schnell grau im Gesicht, wenn Sie das mal 15 Minuten machen müssen. – Klar, in Filmen wie IronMan (I + II) sieht das halbwegs cool aus, wenn die optische Erkennung arbeitet, auch James Bond geht mittlerweile so vor, aber es ist und bleibt uncool.

    Dr. W weiß jetzt nicht, ob es diese Technologie schon gibt, aber ein kleiner den Sichtkreis nicht stark einschränkender Brillenmonitor [1] (der ansonsten, die Augen sind dazu in der Lage außerhalb des Focus steht), der die Augenbewegungen und Fokussierungen interpretieren kann, ginge vielleicht oder vielleicht auch nicht…

    [1] sowas wird vllt milit. bereits eingesetzt

  18. #18 Dr. Webbaer
    Oktober 20, 2011

    Das Fraunhofer-Institut ist wohl dran, vgl. https://www.focus.de/digital/multimedia/forschung-und-technik-technik-news_aid_409942.html

    MFG
    Dr. Webbaer

  19. Es ist eine Konzeptstudie…dass so etwas so direkt nicht für den Produktiveinsatz gedacht ist, sollte doch klar sein. Außer im Kommentar hat sich eine Ironie versteckt, die ich übersehen habe