Heft 4/2014 - Netzteil


Haptisches Feedback

Interview mit dem Medienwissenschaftler David Parisi zur Rolle des Tastsinns in digitalen Umgebungen

Christian Höller


David Parisi zählt zu jenen MedienwissenschaftlerInnen, die dem Funktionieren bestimmter Medien anhand der sinnlichen Dispositive nachgehen, die sie aktivieren und oft auch neu formatieren. Speziell der Tastsinn, unerlässliche Grundlage nahezu jeden Mediengebrauchs, ist in der Geschichte dieser Dispositive bislang merkwürdig untertheoretisiert geblieben. Parisi möchte dem durch einen fächerübergreifenden Diskurs über das Haptische – in Verbindung mit einem vielfältig gedachten „Medialen“ – Abhilfe verschaffen.

Christian Höller: Unsere gängigen Medienkulturen scheinen zum überwiegenden Teil bzw. historisch weit zurückreichend von der visuellen und auditiven Wahrnehmung geprägt. Zwar werden die meisten Interfaces heute, auch im Hinblick auf diese vorherrschenden Wahrnehmungsmodi, über den Tastsinn gesteuert (man denke nur an die allgegenwärtigen Touchscreens). Dennoch scheint die Taktilität innerhalb der historischen Entwicklung dieser Technologien einen schweren Stand zu haben. Was, denken Sie, sind die primären Gründe dafür?

David Parisi: Ich glaube, man sollte von Anfang an – und Ihre Frage zielt genau in diese Richtung – eine wichtige Einschränkung vornehmen: Wenn wir über die Rolle des Tastsinns in der Mediengeschichte sprechen, bewegen wir uns auf einer narrativen Ebene. Wir beziehen uns auf den Status und die Positionierung des Tastsinns innerhalb eines bestimmten Diskurses, und nicht auf seine tatsächliche Relevanz bei der Erfahrung eines gegebenen Mediums.
Das aktive Berühren und Manipulieren von medialen Behältnissen – etwa das Halten eines Buchs, das Umblättern, das Drehen am Sendersuchrad eines Radios, das Falten einer Zeitung, das Herumdrücken auf einer Fernbedienung, das Bewegen einer Computermaus oder die typischen Fingerbewegungen auf einem Touchscreen – all das bildet den empirischen Rahmen, innerhalb dessen die audiovisuellen Daten, die in dem Behältnis gespeichert sind, empfangen werden. Darüber hinaus ist jede dieser Interaktionen von bestimmten gestalterischen Entscheidungen beeinflusst, die sich auf die Erfahrung der NutzerInnen dieser Medien auswirken und sie konfigurieren – man denke an die Bindung eines Buchs, die Dicke des bedruckten Papiers, den Widerstand des Sendersuchrads, Größe und Form der Knöpfe einer Fernbedienung, die Gesten, welche ein Touchscreen „lesen“ kann. Daraus ergibt sich die Frage, welche Bedeutung wir dieser greifbaren, haptischen Materialität zuschreiben, wenn wir die Grundzüge der Medienerfahrung diskursiv erfassen wollen. In der gegenwärtigen Phase der Mediengeschichte, so meine These, erleben wir einen Umbruch, was das materielle Design und die Konfiguration solcher „Behältertechnologien“ betrifft. Dieser Umbruch bildet eine Art Antiumgebung, wie Marshall McLuhan gesagt hätte – durch welche die Existenz einer Umgebung vor Augen geführt wird, die zuvor unter der Bewusstseinsschwelle existiert hat. McLuhans berühmter Satz lautet: „Der Fisch weiß nicht, dass es Wasser gibt; er merkt es erst, wenn er im Trockenen liegt.“1 Demnach wird uns eine bestimmte Umgebung erst bewusst, wenn sie nicht mehr vorhanden ist. Sobald Knöpfe, Drücker, Buchseiten oder die Bindung eines Buchs allesamt vom Touchscreen subsumiert sind, wird uns ihre Bedeutung, die wir zuvor als gegeben angenommen haben, allmählich klar.
In Bezug auf haptische Interfaces ist man lange von dem ausgegangen, was Jacques Derrida den „haptozentrischen Intuitionismus“2 genannt hat. Demzufolge widersetzt sich das Berühren jeder Virtualisierung, insofern als der Tastsinn eine Reihe von inhärenten Qualitäten besitzt, die ihn gegen jene „Einschreibungsmodi“ resistent machen, wie sie die audiovisuellen Medien charakterisieren. Hingegen lässt die technische Entwicklung der haptischen Mensch-Computer-Interfaces darauf schließen, wie Derrida in seiner äußerst knappen Behandlung des Themas aufgezeigt hat, dass dieser „haptozentrische Intuitionismus“ schlichtweg verfehlt ist; dass er eher auf einer bestimmten Ideologie als auf tatsächlicher Beobachtung basiert. Schließlich sind sowohl die „Algorithmen des unmittelbaren Kontakts“ (sprich Haptik-Software) als auch die Maschinen, die für die Umsetzung dieser Algorithmen zuständig sind (Haptik-Hardware), bereits entwickelt und voll in Verwendung. Aus dieser Perspektive ist die Virtualisierung des Tastsinns bereits Wirklichkeit geworden, nur wird sie von den meisten MedienwissenschaftlerInnen mit Zurückhaltung oder Argwohn quittiert.

Höller: Die Entwicklung der Mensch-Computer-Interaktion ist von der Dominanz grafischer Benutzeroberflächen geprägt. Täuscht diese vermeintliche Vorrangstellung von Visualität und Optik über die Tatsache hinweg, dass noch andere, vielleicht ebenso wichtige körperliche oder materielle Prozesse bei dieser Koppelung (Interfacing) eine Rolle spielen?

Parisi: Die grafische Benutzeroberfläche (Graphical User Interface, kurz GUI) ist ein nützliches Mittel, um die Rechenoperationen des Computers darzustellen, sprich die abstrakte Welt dahinter für das menschliche Sensorium zugänglich zu machen. Diese Art der Koppelung zwang der sich entwickelnden Technologie eine Reihe konventioneller Ordnungsparameter (bzw. Vorlieben) auf, die aus früheren Medienformaten übernommen wurden. Aber bereits die frühesten GUIs bezogen den Körper – insbesondere die Hand – in das Bild mit ein. Ivan Sutherlands Sketchpad (1963 entwickelt) oder Douglas Engelbarts Computermaus (ebenfalls 1963) machten körperliche Gesten mittels bestimmter Verfahren der Bewegungserfassung und -codierung für den Computer lesbar. Diese Eingabevorrichtungen sind auch von ergonomischen Überlegungen und damit einhergehenden körperlichen Normierungen geprägt, zumal sich die BenutzerInnen stets an die Materialität der betreffenden Interfaces anpassen müssen.
So sehr also das GUI auf reiner Optikalität zu beruhen scheint, so sehr ist seine Weiterentwicklung auch von veränderlichen Körpertechniken geprägt, die zur Erfassung und Manipulation der Bilder eingesetzt werden – ein „ergonomisches Unbewusstes“, das die menschlichen Körper zu seltsamen Verrenkungen zwingt, die angeblich der bequemen und effizienten Interaktion mit dem GUI dienen. Sieht man Leuten dabei zu, wie sie abgelenkt von ihren Minibildschirmen eine Straße entlanggehen oder wie sie eine möglichst komfortable Körperhaltung einzunehmen versuchen, um auf ihren Laptops zu arbeiten, so lässt sich zweierlei feststellen: dass all diese physischen Gepflogenheiten Versuche darstellen, Bildschirme an den Körper und den Körper an Bildschirme anzupassen; und dass all diese Versuche gleichsam übergangen werden, wenn man den Computer als primär vom Verhältnis zwischen Auge und Bildschirm bestimmt ansieht.

Höller: Sie zeichnen in Ihrer Arbeit die Entwicklung bestimmter „Körper-Interfaces“ (im Bezug auf Medientechnologien) vorwiegend im Bereich der Computerspiele nach. Was waren die wichtigsten historischen Wegmarken dieser Entwicklung, vor allem was die Einbeziehung von immer Sinnesbereichen betrifft? Stellen Computerspiele die Speerspitze dar, wenn es um die mediale Simulation taktiler Qualitäten geht?

Parisi: Seit der Zeit der nicht-digitalen Videospiele, die noch aus dem industriellen Zeitalter stammen, hat man in der Spieleindustrie mit verschiedenen Arten der physischen Interaktion zwischen SpielerInnen und Maschine experimentiert, wobei jedes Interface den Körper auf unterschiedliche Weise einbezieht: Boxsimulatoren, Flipperautomaten oder Spiele, bei denen man elektrische Schläge abbekam, wie dies im frühen 20. Jahrhundert recht beliebt war; später dann die digitalen Fahr- oder Flugsimulatoren; die Interfaces von Rhythmusspielen wie die Tanzmatte von Dance Dance Revolution, die instrumentenförmigen Steuergeräte von Guitar Hero oder Rock Band, die Bewegungserfassung durch Interfaces wie Kinect von Microsoft oder die Wii-Fernbedienung von Nintendo, oder die gerade in Entwicklung befindlichen Headsets wie Oculus Rift oder Morpheus VR – all diese maschinellen Vorrichtungen aktivieren die Körper der SpielerInnen auf unterschiedliche Weise und passen sie gleichsam in die Materialität des Spiel-Interfaces ein, sodass jede Bewegung auf produktive Weise lesbar wird.
Ganz sicher ist die Spieleindustrie darauf ausgerichtet, die neuesten Technologien, die mit taktilem Feedback arbeiten, auf den Markt zu bringen. Aber für jeden „Erfolg“ an dieser Front muss man auch Dutzende solcher Technologien in Rechnung stellen, die es in kommerzieller Hinsicht nicht geschafft haben. ComputerspielerInnen, egal wie sehr sie neue Produkte fetischisieren oder nach diesen gieren, sind, was die bevorzugten Interfaces betrifft, im Prinzip sehr konservativ. Trotz vielfältiger (und oft seltsamster) Alternativen hat sich die Tastatur-plus-Maus-Combo im Lauf der Geschichte als das dominanteste Modell bei PC-Spielen erwiesen. Ungeachtet des Erfolgs der Wii- oder Kinect-Fernbedienungen ist die Situation im Konsolenbereich ähnlich: So sind das physische Layout des Joysticks und der Mechanismus, mit dem das „rumpelnde“ Feedback. auch „Kraftrückkopplung“ genannt, erzeugt wird, in den letzten 15 Jahren weitgehend gleich geblieben.

Höller: Im Zuge der zunehmenden Computerisierung und Virtualisierung sämtlicher Sinnesbereiche hat sich der Tastsinn als besonders widerspenstig erwiesen. Warum ist dem so? Welche „haptischen Interfaces“ würden Sie als die bislang erfolgreichsten ansehen?

Parisi: Ein Teil der Schwierigkeiten bei der technischen Simulation des Tastsinns rührt von seiner Vielfältigkeit her: Früh schon haben die Interface-DesignerInnen, die sich mit „Computerhaptik“ (analog zu Computergrafik) befassten, erkannt, dass der Tastsinn in Wirklichkeit nicht ein einzelner Sinn ist, sondern ein Kürzel für eine ganze Reihe aufeinander bezogener Sinne, die auf ganz eigenen neurophysiologischen Prozessen beruhen. So fasst man die Empfindungen von Kontakt, Druck, Gewicht, Temperatur, Vibration, Oberflächenstruktur (Textur) und Bewegung alle unter dem Oberbegriff „haptisch“ zusammen. Ein haptisches Interface zu entwerfen, heißt demnach auszuwählen, welche Subkomponente des haptischen Systems simuliert werden soll. Einigen dieser Vorrichtungen gelingt es, den Eindruck von Gewicht zu simulieren, aber nicht den der Temperatur; andere schaffen dies in Sachen Textur, aber nicht beim Gewicht. Verschiedene Systeme zielen auf unterschiedliche Kombinationen dieser Subkomponenten ab.
Zu den technischen Schwierigkeiten kommt noch das praktische Problem, wie man die KonsumentInnen davon überzeugt, diese oft recht teuren Geräte zu kaufen, die zur Generierung eines robusteren haptischen Feedbacks nötig sind. Und selbst derlei kostspielige Geräte liefern aufgrund der zuvor erwähnten Selektionsschwierigkeit häufig nicht die von den Herstellern versprochenen „High-Fidelity-Effekte“. Während sie bisweilen taktile Hinweise auf die Materialität der Bildschirmobjekte liefern, schaffen sie es meist nicht, den Eindruck der physischen Präsenz abwesender Gegenstände zu vermitteln.
Was die Erfolgsseite betrifft, so basiert das bis dato dauerhafteste Paradigma auf dem Modell des „punktuellen Kontakts“. So verwendet der PHANToM (Personal HAptic iNTerface Mechanism) von Geomagic, der Mitte der 1990er-Jahre von Thomas Massie am MIT entwickelt wurde, nur eine einzige Kontaktstelle zwischen der Hand der NutzerIn und der virtuellen Umgebung, um die Empfindung von Gewicht, Druck und Kontakt auszulösen. Im Wesentlichen sind diese Ein-Punkt-Vorrichtungen auf professionelle Anwendungsbereiche (etwa medizinische Simulation, computergestütztes Design oder wissenschaftliche Visualisierung) beschränkt, wo sie sich als sehr effektiv erwiesen haben. Hingegen ist der Falcon der Firma Novint, 2007 auf den Markt gekommen und vorwiegend auf VideospielerInnen im Collegealter zugeschnitten, in kommerzieller Hinsicht durchgefallen – was nahelegt, das seine Ästhetik wie auch seine praktischen Vorteile einfach nicht geschätzt werden.3
Insgesamt basiert, wie an der immensen Verbreitung von Touchscreen-Interfaces ersichtlich wird, die bislang wirksamste Umsetzung auf komplexen Vibrationssignalen, die mittels winziger Motoren an die Fingerspitzen ausgesendet werden, um so die Oberflächenstruktur der Bildschirmobjekte zu simulieren und „haptische Effekte“ hervorzurufen. Diese Vibrationssignale wurden bereits erfolgreich bei Videospielen eingesetzt (etwa bei den „Rumpelmotoren“ des DualShock-Joysticks von Sony), aber durch Touchscreens wird der Anwendungsbereich immens erweitert. Systeme wie TouchSense, entwickelt von der Immersion Corporation, basieren auf gezielten Vibrationsstößen von unterschiedlicher Intensität und Dauer, um so Ereignisse auf dem Bildschirm zu simulieren, wie dies länger schon bei Smartphones und Tablets eingesetzt wird. IngenieurInnen gehen davon aus, dass die fortschreitende Präzision von Antriebsmotoren und entsprechender Software auch zu einer zunehmenden Exaktheit des Vibrationsfeedbacks führen wird. Dementsprechend sagen AnalystInnen auch einen starken Anstieg bei der Nachfrage nach Bauteilen voraus, die zur Herstellung von Bildschirmen mit taktilem Feedback nötig sind. So geht etwa das Marktforschungsinstitut Lux davon aus, dass bei haptischen Technologien im Jahr 2025 mit einem Marktvolumen von 13,8 Milliarden US-Dollar zu rechnen ist, im Vergleich zu 842 Millionen im Jahr 2012. Wenn diese Vorhersagen zutreffen, wird man beim Streichen über den Bildschirm alsbald die Oberfläche einer Orange fühlen können, vielleicht sogar ein Stück Stoff oder die Haut eines geliebten Menschen.

Teil zwei dieses Interviews lesen Sie in der Januar-Ausgabe 2015.

David Parisi war im Juni 2014 Gast der Wiener Konferenz Texture Matters: The Optical and Haptical in Media (veranstaltet im Rahmen des gleichnamigen, vom Wissenschaftsfonds FWF geförderten Projekts). Ein Tagungsband, der auch Parisis Beitrag „A Technics of Media Touch“ enthält, ist in Vorbereitung; http://texturematters.univie.ac.at/.

 

 

1 Marshall McLuhan, Culture Is Our Business. Toronto 1970, S. 191.
2 Jacques Derrida, Berühren, Jean-Luc Nancy. Berlin 2007, S. 385.
3 Vgl. dazu David Parisi, Reach In and Feel Something: On the Strategic Reconstruction of Touch in Virtual Space, in: Animation, Juli 2014, Vol. 9, No. 2, S. 228–244.