Autor: Antje Mayer
Diese Unterhaltung entstand anlässlich eines Seminars der deutschen Medienwissenschaftler, Medienkünstler und Architekten Monika Fleischmann und Wolfgang Strauß (beide u.a. Fraunhofer-Institut) innerhalb des Masterlehrgangs Crossmedia Design & Development an der Donau-Universität Krems im Juli 2010 in Wien.

Wolfgang Pauser wurde 1959 in Wien geboren, studierte Philosophie, Kunstgeschichte, Rechtswissenschaft, Dr. jur., seit 1992 freiberuflicher Essayist mit den Themenschwerpunkten Konsum- und Alltagskultur sowie bildende Kunst, Design, Architektur, zahlreiche Beiträge zu Ausstellungskatalogen, Büchern, Zeitschriften und Feuilletons, u.a. in „Die Zeit“, „Neue Zürcher Zeitung“, „Süddeutsche Zeitung“, „Die Presse“.
Seit 1995 Entwicklung der kulturwissenschaftlichen Produktanalyse, Beratungstätigkeit für Unternehmen und Werbeagenturen: Markenentwicklung, u.a. für WMF, Rolf Benz, Swarovski Optik, Aspern AG, Perlinger, Tyrolit, EZA, KSV, ORF, Brionvega, Seleco, Verbund.

Wolgang Pauser

Das Internet stirbt aus

In Zukunft werden wir die Maschinen nicht mehr verstehen müssen, denn sie werden lernen, uns zu verstehen. Der österreichische Philosoph, „Zeit“-Kolumnist und Buchautor Wolfgang Pauser beschäftigt sich mit Konsum, Alltagskultur und Neuen Medien.

Der US-amerikanische Wissenschaftler Jeff Han erfand 2006 den Multi-Touchscreen, innerhalb der rasenden Computerzeitrechnung im Grunde eine uralte Erfindung, die sogar schon 1976/1978 vom MIT Media Room visionär angedacht worden war. Über 15 Jahre später erlebt das Bildschirmpatschen durch das iPhone ein Revival. Hat der Touchscreen doch mehr Entwicklungspotenzial, als man ursprünglich dachte?
Der Touchscreen hat sich in seinem ersten Anlauf nicht durchgesetzt, erst in der Kombination mit dem iPhone wurde er praktikabel, also auf einem sehr begrenzten, kleinen, einem allein zugänglichen Bildschirm. Die Touchscreens der ersten Generation waren ja vor allem in der Öffentlichkeit aufgestellt. Man empfand es als unhygienisch, auf eine Fläche zu grapschen, auf die viele andere schon zugegriffen hatten. Jeder von uns hat verinnerlicht, dass man Glas nicht antappt.


Das Angreifen anderer, fremder Dinge ist in unseren Kulturbreiten ohnehin ein Tabu …

Genau, das kleine iPhone, sozusagen die Privatisierung des Touchscreens, baut diese, im wahrsten Sinne des Wortes, „Berührungsängste“ ab: Im eigenen kann man ungeniert mit den Fingern herumschmieren.
 
Das Tippen auf einer Tastatur ist aber doch viel praktischer, nicht zuletzt für eine barrierefreie Benutzung. Blinde Menschen können nicht fühlen, wohin ihre Finger tippen, warum hat das iPhone trotzdem so einen großen Erfolg?
Das Verführerische beim iPhone ist die Kombination aus drei Dingen: das Berühren, die neue Menügestaltung und natürlich die Apps. Mein Smartphone arbeitet immer noch konservativ mit hierarchisch aufgebauten Menübäumen. Die kann man bestenfalls anklicken, aber nicht wie beim iPhone mit dem Finger herumschieben, dehnen, kleiner machen, individuell ordnen und rütteln. Auf dem iPhone ist die Menüfolge intuitiv, sinnlich und individuell gestaltbar, trotz großer Komplexität. Die Apps und Menüfolge machen das Berühren und das Verschieben überhaupt erst sinnvoll.

Nur in der deutschen Sprache sagt man „Handy“. Ist das iPhone ein Mobiltelefon, das erstmals diesen Begriff verdient?
Tatsächlich. Das iPhone ist ein Anschlussstück an den Körper. Es besitzt eine sehr einfache Form, eine Black Box, in ihr verbergen sich zig verschiedene Maschinen, Funktionen, Technologien. Wie eine Prothese. Aber: Das iPhone zeigt durch seine Form an, dass es ganz und gar Bildschirm, nicht Hand sein will. Designgeschichtlich ist das iPhone eher eine Feier des Touchscreens und damit des Visuellen. Die Interfaces der Zukunft werden sich aber auf mehrere Organe verteilen und nicht mehr auf ein Organ beschränken. Die Schnittstellen werden sich multiplizieren und ergänzen: Wo Sprachsteuerung ungenau ist, kann Bewegung klären. Mimik ergänzt Augenbewegung und so weiter.

Der Mensch ist erst Mensch durch seinen aufrechten Gang und damit seine freien Hände. Liegt darin eine Parallelität zur „Handfokussierung“ der Computergeschichte?
Es gibt ein sehr gutes Buch von André Leroi-Gourhan, „Hand und Wort: Die Evolution von Technik, Sprache und Kunst“  (Suhrkamp), in dem er die Ergebnisse der prähistorischen Archäologie mit Befunden aus Neuropsychologie, vergleichender Anatomie, Evolutionsforschung, Linguistik, Ästhetik und Technikgeschichte zu einer facettenreichen Entwicklungsgeschichte des Menschen zusammenfasst und zu dem Schluss kommt, dass die Rolle der Hand einen großen Einfluss auf die Gehirnentwicklung hat. Seine These legt nahe, dass die Hand auch in Zukunft eine Rolle beim Dirigieren der Welt spielen wird. Die Ergonomie der Geräte wird sich weiter stark an der Hand orientieren und nicht am Auge, so wie das iPhone.
 
Ist der Bildschirm, den man berührt, nicht Schnee von gestern? Was denken Sie über Technologien wie Electro Field Screening, also berührungsfreie Technologien?
Ich denke, der Touchscreen enthält kein Potenzial mehr für die Zukunft. Das Steuern von Maschinen verlagert sich auf andere Arten von Interaktion durch Gesten oder Sprache etwa. Wir erleben gerade ein Revival des Touchscreens und sein gleichzeitiges Ende. Das Handy der Zukunft wird keinen Bildschirm mehr anbieten und muss auch nicht zwingend mit der Fingerkuppe gesteuert werden, sondern auch durch Gesten oder Sprache. Letzteres funktioniert immer besser. Mein Handy wird wie ein Projektor funktionieren, der auf vorhandene Fläche, wie etwa dieser Holztisch, projiziert. Bewegungssensoren erlauben, dass sie zum Touchscreen wird. Handys, die eine Tastatur auf eine Oberfläche projizieren, die ich mittels Bewegungssensoren bediene, gibt es schon. Warum soll man eine schwere Glasscheibe herumschleppen, wenn man im Grunde jede Oberfläche um sich herum als Screen nutzen kann?

Ist damit das iPad schon obsolet, kaum dass es auf dem Markt ist?
Ich glaube, Formate wie das iPad wird es noch lange geben, weil sie eine Art ergonomische Idealform für gewisse Sitz- und Lesehaltungen, etwa auf dem Sofa, sind, sehr angenehm zu benutzen. Solche dem Buch ähnlichen, flachen Interfaces bleiben.

Sterben Interfaces nicht überhaupt aus?
Interfaces wird es in Zukunft nicht mehr geben bzw. wird alles zum Interface. Die reale Welt und das Internet werden nicht mehr über einen Mittler interagieren, sondern zu einer Einheit zusammenwachsen. Alles ist dann Internet und deswegen wird das Wort „Internet“ aussterben, der Fisch braucht auch kein Wort für „Wasser“. Alles ist dann Internet: der Sessel, dieser Tisch, der Aschenbecher und das Glas. Alle Dinge, Medien und Menschen kommunizieren miteinander, repräsentieren sich gegenseitig und füreinander und sind eingebettet in das Netz, das zu einem Gesamtzusammenhang wird.

Das macht aber auch Angst. Werden wir Menschen damit nicht immer mehr Ding, Medium und Maschine?
Nein, im Gegenteil, früher mussten wir die Sprache der Maschinen lernen, heute lernen die Maschine unsere (Körper-)Sprache verstehen.
Alles geht in Richtung Digitalisierung, bei den Interfaces erleben wir eine Analogisierung. Wir müssen Befehle nicht mehr abstrahieren, zwischen Mensch, Körper und Maschine. Das ist ein Stück künstlicher Intelligenz, das den Maschinen menschliche Körpersignale lesen und verstehen lehrt. Ich glaube auch nicht an die Gefahr des „Gläsernen Menschen“. Das Problem der fehlenden Privatheit ist technologisch leicht lösbar. Ich denke zum Beispiel an ein Rädchen am Handy, auf dem ich einfach und leicht zwischen fünf Stufen von Privatheit wählen kann.

Was dazukommt ist, dass neben den willkürlichen Steuerungen auch die unwillkürliche Steuerung an Bedeutung gewinnt?
Ja, das entwickelt sich im Bereich der Marktforschung. Da gibt es die Technologie des Eye Tracking oder des Motion Tracking, was man für das Zuspielen gewisser Angebote nutzen wird. Jenseits des Marketings kann es aber auch für mein eigenes Interesse angewandt werden, um Adaptierungen meiner Umwelt wahrzunehmen: die Lichtstimmung im Raum, die Lautstärke der Musik, die Temperatur der Heizung.

Wie wird das Handy der Zukunft aussehen?
Die nächste kurzfristige Entwicklungsstufe wird sein, dass ich mir die Inhalte, die ich auf dem Handy aufrufe, nicht mehr auf diesem winzigen Bildschirm zu Gemüte führe, das ist ja unbeholfen. Das Handy wird in Zukunft mobil bleiben, aber die Ausgabe wird stationär sein. Es wird automatisch feststellen, wo sich eine Interfacemöglichkeit in meiner Umgebung befindet, sei es im Wohnzimmer der Fernsehapparat, sei es im Büro der nächststehende Computerbildschirm oder seien es Projektoren, die in Zukunft überall herumstehen werden.

Da das Ausgabegerät ausgelagert wird, sieht das Handy dann wohl auch anders aus?
Ja, das Handy wird zum Kontextualisierungs- und Wählwerkzeug zwischen meinem Benützerkörper und den sonstigen medialen Angeboten meiner Umgebung. Es muss also nur noch Verbindungen stiften. Aber auch diese Funktionen könnten sich in Zukunft auf verschiedene Hardware-Objekte aufteilen: Die Lokalisierung des Körpers könnte etwa durch einen einoperierten Chip funktionieren, der auch meine Identität feststellt. Projektionen könnten auf Linsen gesendet werden. Die Sprachsteuerung wird immer entwickelter, Sensoren können durch bloße Artikulierung der Muskeln des Gesichts Sprachbefehle übersetzen. Im Bereich der Steuerung durch Gedanken gibt es gute Fortschritte.