Technologieunternehmen wie Microsoft sind von außen betrachtet verantwortlich für den Stand der Technik, die Menschen tagtäglich millionenfach in ihrem Beruf wie auch im Privaten betrifft. Dieser Verantwortung stellen wir als Microsoft uns ständig und sehr selbstverständlich durch umfassende Leistungsangebote in der Kundenbetreuung und -unterstützung. Der Blick der Mitarbeiterinnen und Mitarbeiter in den Forschungs-
und Entwicklungsabteilungen
hingegen richtet sich stets in die Zukunft. Für sie stellt spätestens das Fertigstellen von Produkten und Diensten, die kurze Zeit später den Markt erobern und unser Leben bereichern und vereinfachen sollen, den Zeitpunkt des Aufbrechens zu den neuen Ufern dar, die die künftigen Produkt- und Dienstgenerationen kennzeichnen werden.

Mich persönlich hat in der vergangenen Woche die Frage beschäftigt, wie die Zukunft unseres Umgangs und der Interaktion mit der wachsenden Zahl unterschiedlichster vernetzter Geräte aussehen wird. Vor allem
aber: Wie wird Software als der zentrale „Klebstoff“ zwischen allen beteiligten  technischen Komponenten unsere mobile Zukunft gestalten, und wie ermöglichen wir als Microsoft es Ihnen als Softwarehersteller und
-entwickler bestmöglich, diesen Beitrag zu leisten?

Unter Umgang verstehe ich dabei sehr konkret und rein technisch, welche Handlungsabläufe uns unter welchen Bedingungen zu welchen Ergebnissen führen werden, und sehe darin Experience-Designer als wichtigstes Bindeglied zwischen Projektverantwortlichen und Entwicklern in einer zentralen Rolle. Denn mir scheint unabänderlich, dass wir zunehmend vernetzte Geräteklassen verwenden werden, die klassische Computer-Interaktionswerkzeuge wie Tastatur, Maus oder Touchscreen nicht mehr aufweisen– sei es ganz pragmatisch aus Platzgründen, oder weil neue technische Möglichkeiten uns Konzepte erlauben, die den bisherigen weit überlegen und daher zu bevorzugen sind.

So begeistert ich von den aktuellen Produkten mit Touch-Steuerung im Heute bin, die den Markt in den letzten Jahren im Sturm erobert haben, so sehr beschäftigen mich doch solche überlegenen natürlichen
Benutzerschnittstellen (NUIs – Natural User Interfaces), die unser Morgen betreffen.

In meinem heutigen Blogbeitrag möchte ich mit Ihnen gerne über die Mensch-Maschine-Schnittstellen reden, die einen wichtigen Teilbereich unseres Umgangs mit Geräten darstellt. Ein nicht minder zentraler Teilbereich, den ich mit Ihnen in einem kommenden Blogbeitrag erörtern möchte, ist die zukünftige Rolle der wachsenden Anzahl vernetzter Geräte, und deren Informationsaustausch nicht nur mit uns, sondern auch untereinander.

Realität in Hosentasche und Wohnzimmer

Längst Hosentaschenrealität ist etwa die Sprachsteuerung auch kleinerer Geräte wie Smartphones. Dank gleich mehrerer eingebauter MEMS-Mikrofone (deren Absatzzahlen seit 2009 kontinuierlich dramatisch steigen und auch weiter gegenüber anderen Sensoren überproportional wachsen) können Nebengeräusche in Audiosignalen so gut reduziert werden, dass die Spracherkennungsrate über Netzwerkdienste vielfach schon praxistauglich ist. Wenngleich wir auch hier noch lange nicht am Ende der Entwicklung angekommen sind.

Und noch nicht einmal zweieinhalb Jahre ist es her, dass Microsoft mit der Kinect-Steuerung für die Xbox 360 ein revolutionäres neues Steuerungskonzept in die Wohnzimmer der Welt getragen hat. Dass dabei weniger die Idee, als vielmehr die Ingenieurskunst einer praxistauglichen und bezahlbaren Ausführung des Erfassungsinstruments für einen Massenmarkt die eigentliche Leistung war, erschließt sich für mich unmittelbar: Was könnte näher liegen, als von den künstlich zwischengeschalteten Schnittstellen der Computersteinzeit wieder zu den natürlichen Formen der Interaktion zurückzukehren – nun, da die technischen Möglichkeiten gegeben sind?

Was also kommt nach Touch?

Nachdem ich zur Veröffentlichung von Kinect zunächst am Rande bemerkt hatte (damals war ich noch nicht für Microsoft tätig), wie begeisterte Enthusiasten sich unmittelbar auf die neue Konsolensteuerung
stürzten und sie zur Programmierung ganz neuer, PC-orientierter Szenarien einsetzten, war mir klar, dass wir diesen eigendynamischen Trend durch Kinect for Windows unterstützen würden.

Die Möglichkeiten standen damit nicht mehr nur Tüftlern offen, und wir boten durch unsere offiziellen Angebote den heroischen Pionieren kommerzielle Sicherheit für ihre Geschäftsmodelle. Viel mehr noch, wir
förderten sie aktiv mit, etwa durch das Kinect Accelerator-Programm, das u. a. auch dem deutschen Startup Übi den zentralen Gründungsimpuls gab.

Was sich daraus in der Kürze der Zeit entwickelt hat beweist für mich nicht nur, dass Microsoft Kinect bis heute die beste NUI-Antwort für den Massenmarkt und ein hervorragendes, preisgünstiges Gerät für viele
NUI-Erforschungen und -Projekte ist, an denen schon heute kein etabliertes Softwarehaus mehr vorbeikommt. Tatsächlich hat Kinect sich auch längst dazu angeschickt, die Robotikbranche sensorisch zu bereichern, so auch bei Microsoft Robotics, in einschlägigen Wettbewerben und bei zahlreichen produktiven Robotikanwendungen.

Dabei reicht das Potenzial der Steuerung noch viel weiter, wie auch immer neue Lösungen in der Kinect-Lösungsgalerie zeigen. Besonders beeindruckt hat mich unlängst Kinect Fusion, das dank Kinect in Echtzeit dreidimensionale Modelle von Gegenständen und Räumen erzeugen kann und in Kürze Einzug in das Kinect SDK halten wird. Alleine die Möglichkeiten dieser Technik, von der Nutzung mit 3D-Druckern über  intelligentere Staubsauger-Tourenplanungen bis hin zu Simulationen und Gebäudelösungen sind so vielseitig, dass sie einen eigenen Blogbeitrag füllen könnten.

Angesichts der immer kreativeren Entwicklung im Umfeld der Kinect bin ich sicher, dass diese Eingabetechnologie der NUI-Entwicklung noch länger erhalten bleiben und verfeinert werden wird. Daran wird nicht zuletzt auch die Offenheit der Microsoft Entwicklungsabteilungen mitwirken, wie etwa in den NUI-Beiträgen des „Next at Microsoft“-Blogs, des „Inside Microsoft Research“-Blogs oder der Kinect for Windows-Homepage von Microsoft Research. Unsere US-Kollegen haben für die NUI-Entwicklung mit dem Kinect SDK sogar ein eigenes, belebtes Entwicklerforum im Angebot, das ich Ihnen abschließend ebenso ans Herz lege wie Ihre eigenen NUI-Gehversuche mit Kinect.

Haben Sie selber schon Erfahrungen mit Kinect for Windows gemacht, oder planen ein Kinect-Projekt? Lassen Sie es mich gerne über die Kommentarfunktion des Blogs wissen.