Dienstag, 21. Januar 2014

Smart Home nur über Smartphone?



Smart-Home-Technologien wollen derzeit ihre Steuerungs-Interfaces beinahe ausnahmslos via Apps auf dem Touchscreen des Smartphone oder iPad unterbringen. Und nicht nur sie. Gibt es überhaupt noch etwas, das nicht als App den Weg an die Fingerspitze des Kunden sucht? Langsam wird es eng auf den kleinen Screens der universal funktionierenden Geräte. Der Vorsprung, den das iPhone mit seiner „Wisch“-Dynamik gegenüber dem guten alten Menübäumchen erzielt hatte, droht in der Konkurrenz der Apps untereinander bald wieder verloren zu gehen. Wie rasch sich die Innovationen des Smart Home durchsetzen werden, hängt stark vom Interface ab. Anlass genug, sich darüber Gedanken zu machen, die den historischen Bogen spannen und allgemeinere Zusammenhänge herstellen.





Der US-amerikanische Wissenschaftler Jeff Han erfand 2006 den Multi-Touchscreen, doch dieser war innerhalb der schnell rasenden Computerzeitrechnung im Grunde eine uralte Erfindung, die schon 1976/1978 vom MIT Media Room visionär angedacht worden war. Mit dem iPhone erlebte der Touchscreen ein Revival. Aktuell gilt er als ultimative Lösung und ist das Faszinosum unserer Zeit. Doch wie steht es mit seinem Entwicklungspotential?





In seinem ersten Anlauf hat sich der Touchscreen nicht durchgesetzt, erst in der Kombination mit dem iPhone wurde er praktikabel, also auf einem sehr begrenzten, kleinen, einem Menschen allein zugänglichen Bildschirm. Die Touchscreens der ersten Generation waren vor allem in der Öffentlichkeit aufgestellt. Man empfand es als unhygienisch, auf eine Fläche zu greifen, auf die viele andere schon zugegriffen hatten. Schließlich hat jeder seit Kindesbeinen verinnerlicht, dass man Glas nicht an tappt. Das iPhone als Privatisierung des Touchscreen baute diese „Berührungsängste“ ab: Im Eigenen kann man ungeniert mit den Fingern herum schmieren.





Das Verführerische beim iPhone war die Kombination aus drei Dingen: Berühren, neue Menügestaltung und Apps. Die davor üblichen hierarchisch aufgebauten Menübäume konnte man nur anklicken, aber nicht mit dem Finger herum schieben, dehnen, kleiner machen, individuell ordnen und rütteln. Auf dem iPhone ist die Menüfolge intuitiv, sinnlich und individuell gestaltbar, trotz großer Komplexität.











Das falsche deutsche Wort „Handy“ wird nachträglich wahr

Nur in der deutschen Sprache sagt man "Handy". Auf englisch „mobile phone“, mobiles Telefon. Doch das Telefonieren wird immer mehr zu einer Nutzungsmöglichkeit unter vielen, so dass der englische Name immer weniger treffend ist, während der deutsche an Adäquatheit gewinnt. Das Handgehaltene ist ein Anschlussstück an den Körper. Eine universale Prothese. Es besitzt eine sehr einfache Form, eine Black Box. In dieser verbergen sich zahlreiche verschiedene Maschinen, Funktionen, Technologien. Und doch zeigt das Smartphone durch seine Form an, dass es ganz und gar Bildschirm, und nicht Handapparat sein will.





Designgeschichtlich ist das iPhone eine Feier des Touchscreens und damit des Visuellen. Die Interfaces der Zukunft werden sich aber auf mehrere Organe verteilen, und nicht mehr auf ein Organ beschränken. Die Schnittstellen werden sich multiplizieren und ergänzen: Wo Sprachsteuerung ungenau ist, kann Bewegung klären. Mimik ergänzt Augenbewegung - und so weiter.












Zweite Menschwerdung vom Desktop zum „aufrechten Gang“


Der Mensch ist erst Mensch durch seinen aufrechten Gang und damit seine freien Hände. Die bisherige Computergeschichte war auf die Hand als Bedienungswerkzeug zentriert. Es gibt ein empfehlenswertes Buch von André Leroi-Gourhan, „Hand und Wort: Die Evolution von Technik, Sprache und Kunst“ (Suhrkamp), in dem er die Ergebnisse der prähistorischen Archäologie mit Befunden aus Neuropsychologie, vergleichender Anatomie, Evolutionsforschung, Linguistik, Ästhetik und Technikgeschichte zu einer facettenreichen Entwicklungsgeschichte des Menschen zusammengefasst und zu dem Schluss kommt, dass die Rolle der Hand einen großen Einfluss auf die Gehirnentwicklung hatte. Seine These legt nahe, dass die Hand auch in Zukunft eine Rolle beim Dirigieren der Welt spielen wird. Die Ergonomie der Geräte wird sich vermutlich weiter stark an der Hand orientieren und nicht am Auge, so wie das iPhone. Wenn auch nicht in der heute gewohnten Form.





Es wäre zu viel gesagt, den Touchscreen als Schnee von gestern zu bezeichnen. Aber er bekommt Konkurrenten. Während aktuell die Welt auf das Mono-Interface setzt, reifen andere Technologien wie Electro Field Screening und andere berührungsfreien Schnittstellen.




Das Potential des Touchscreen für die Zukunft ist daher limitiert. Das Steuern von Maschinen verlagert sich auf andere Arten von Interaktion, vor allem Gesten und Sprache. Wir erleben gerade ein Revival des Touchscreen und vielleicht damit auch schon sein nahendes Ende. Das Handy der Zukunft muss nicht zwingend einen Bildschirm anbieten und muss auch nicht zwingend mit der Fingerkuppe gesteuert werden, sondern auch durch allerlei Sensoren, Gesten oder Sprache, unterstützt von statistischer Auswertung und „lernender“ Software.



Wie das Handy seine Universalität verlieren wird


Es gibt schon Smartphones, die wie ein Projektor funktionieren, der auf vorhandene Flächen, wie etwa einen Tisch, projiziert. Bewegungssensoren erlauben auch, dass die Tischoberfläche zum Touchscreen wird. Handys, die eine Tastatur auf eine Oberfläche projizieren, die ich mittels Bewegungssensoren bediene, gibt es ebenfalls, obwohl deren Praktikabilität in den Kinderschuhen steckt. Doch die Frage wird von Jahr zu Jahr relevanter: Warum soll man eine Glasscheibe mit sich tragen, wenn man im Grunde jede Oberfläche als Screen nutzen kann?




Formate wie das iPad wird es trotzdem noch lange geben, weil sie eine Art ergonomische Idealform für gewisse Sitz- und Lesehaltungen, z.B. auf dem Sofa, sind. Solche dem Buch ähnlichen, flachen Interfaces werden bleiben. Denkt man radikal weiter in die Zukunft, erhebt sich jedoch die Frage, ob es überhaupt noch Interfaces geben wird, wenn potentiell alles zum Interface wird.




Die reale Welt und das Internet werden nicht mehr über einen Mittler interagieren, sondern zu einer Einheit zusammenwachsen. Das „Internet der Dinge“ macht alles zum Internet, und deswegen wird das Wort „Internet“ aussterben, der Fisch braucht auch kein Wort für „Wasser“. Alle Dinge, Medien und Menschen kommunizieren miteinander, repräsentieren sich gegenseitig und füreinander und sind eingebettet in das Netz, das zu einem Gesamtzusammenhang wird.



Maschinen verstehen uns bald besser als wir sie


Bisher mussten wir die Sprache der Maschinen lernen, heute lernen die Maschine unsere (Körper)Sprache verstehen. Alles geht in Richtung Digitalisierung, bei den Interfaces aber erleben wir eine Analogisierung. Wir müssen Befehle nicht mehr abstrahieren zur Übermittlung zwischen Gehirn, Körper und Maschine. Das ist ein Stück künstlicher Intelligenz, das den Maschinen menschliche Körpersignale lesen und verstehen lehrt.




Als bedeutendes Hemmnis der weiteren Entwicklung multipler Schnittstellen ist jedoch seit der NSA-Affäre die Unsicherheit des Datenschutzes entstanden. Hier liegt die technische und industrielle Entwicklung nun in den Händen der Politik. Technisch wäre das Problem Privatheit durchaus lösbar. Denkbar wäre zum Beispiel ein Rädchen am Handy, auf dem man einfach zwischen einigen Stufen von Privatheit wählen kann, je nach Situation. Derzeit können sich im Smart Home Kühlschränke, Glühbirnen und Musikanlagen besser miteinander abstimmen, als die Menschen untereinander, wo es um Politik geht. Der Mensch hinkt seiner Haustechnik hinterher.



Unwillkürliche Steuerung übernimmt


Neben die willkürliche Steuerung via Interface tritt nun vermehrt die unwillkürliche Steuerung durch statistisch ausgewertete Sensoren. Diese Technologien werden von der Medizin, vom Sport und von der Marktforschung vorangetrieben. Eye-Tracking und Motion-Tracking werden zunehmend für das Zuspielen von Angeboten genutzt. Jenseits des Marketing können diese Technologien aber auch für das Interesse des Konsumenten angewandt werden, um Adaptierungen seiner Umwelt an seine situativen Bedürfnisse – spontan oder sogar vorauseilend - vorzunehmen: die Lichtstimmung im Raum, die Lautstärke der Musik, die Temperatur der Heizung…




Für das Handy im Verhältnis zur Interface-Funktion könnte die Zukunft daher so aussehen, dass man sich die Inhalte nicht mehr auf dessen winzig kleinen Bildschirm zu Gemüte führen wird. Sondern dass zum mobilen Gerät eine situativ stationäre Aus- und Eingabe hinzu tritt. Der mobile Teil wird automatisch feststellen, wo in seiner Umgebung sich welche Interfacemöglichkeit befindet, sei es im Wohnzimmer der Fernsehapparat, sei es im Büro der nächst stehende Computerbildschirm oder seien es Projektoren, die in Räume integriert werden.





Wird die Schnittstellen-Funktion ausgelagert und verteilt, wird das Handy kein Universalgerät mehr sein und entsprechend seine Funktion und sein Aussehen verändern. Es wird zum Kontextualisierungs- und Wählwerkzeug zwischen dem Benützerkörper und den sonstigen medialen und sensorischen Angeboten seiner Umgebung. Es muss also primär Verbindungen stiften. Aber auch diese Funktionen könnten sich in Zukunft auf verschiedene Hardware- Objekte aufteilen: Die Lokalisierung des Körpers könnte etwa durch einen einoperierten Chip funktionieren, der auch meine Identität feststellt. Projektionen könnten auf Linsen gesendet werden. Die Sprachsteuerung wird immer besser, Sensoren erkennen durch bloße Artikulierung der Muskeln des Gesichts Kontexte, die Sprachbefehle eindeutig dechiffrierbar machen. Auch im Bereich der Steuerung durch Gedanken gibt es gute Fortschritte.



Subjekt und Objekt tauschen ihre Plätze

Unsere gegenwärtige Vision des Smart Home stellt den mit Smartphone ausgerüsteten, die Geräte steuernden Menschen in den Mittelpunkt. Und folgt damit einem alten metaphysischen Programm, in dessen Zentrum das menschliche Subjekt als Ausgangspunkt des Willens und der Kontrolle steht, welches vermittelt über technische Werkzeuge auf die Welt der äußeren Objekte einwirkt. Die künftige Ordnung der Dinge wird den von „smart objects“ umgebenen Menschen in deren Kontext einbinden. Als einen der zu kontextualisierenden Impulsgeber, Knoten und Objekte im vernetzten Ensemble intelligenter Selbststeuerungs-Module.




Der Befund Sigmund Freuds, „das Ich sei nicht Herr im eigenen Haus“, wird nun auch in der materiellen Welt ein Stück weit wahr. Im Smart Home gibt der Mensch Kompetenzen und Herrschaft ab, um sich zu entlasten. Jede Entlastung eröffnet auch neue Möglichkeiten und Freiheiten. Es bleibt spannend, auf welche Herausforderungen das vom Haus entlastete Ich seine freiwerdende Energie und Aufmerksamkeit lenken wird.