HAPTIK IN VIRTUAL REALITYM.A. FORSCHUNGSPROJEKT über haptische Empfindungen in VR

Die Masterthesis "Haptik in Virtual Reality" als forschungs-orientiertes Designprojekt geht der Frage nach, ob und wie visuelle Inputs in VR die haptische Wahrnehmung beinflussen

können. Erste Ideen zu dem Projekt entstanden bei frühen Tests mit der Oculus DK2 an Probanden, deren spontane Reaktionen auf das VR-Headset oft wie folgt aussahen:

Ein Ausstrecken und Benutzen-Wollen der eigenen Hände trotz fehlenden Hand-Trackings. Mittels Integration einer "Leap Motion" wurden erste Softwares getestet, mit denen die User ihre Hände tatsächlich im virtuellen Raum benutzen konnten. Die Tech-Demo "Weightless" zeigte sich dabei als besonders spannend,

da in dieser Space-Simulation, in der die User in einer Raumkapsel schwerelose Gegenstände mit den digitalen Händen umherbewegen konnten, ein interessanter Effekt beobachtet werden konnte: manche User erfuhren eine haptische Illusion, die bewegten Objekte nahezu "fühlen" zu können.

Durch diese Beobachtung entwickelte sich die Forschungsfrage, ob dieses Erlebnis auch anderweitige Anwendbarkeit finden könnte: wäre es möglich, ein digitales Objekt mit dem haptischen Stimulus eines tatsächlichen geometrisch deckungsgleichen

Gegenstands zu koppeln? Welche Effekte könnten sich in einem solchen Setup ergeben und würde ein visueller Stimulus des VR-Raumes dazu in der Lage sein, den taktilen menschlichen Sinn zu täuschen oder zu irritieren?

Auf Basis dieser Überlegungen wurde der Haupt-Fokus der Arbeit auf eine stichprobenartige qualitative Studie gelegt, in der diese Fragestellung unter Entwicklung geeigneter Software weiter untersucht wurde. Es zeigte sich schnell, dass das Infrarot-Handtracking während des Berührens eines Objektes

nicht verlässlich genug funktionierte, da aufgrund des monochromen IR-Bildes, welches die Leap Motion an die Schnittstelle ausgibt, zunächst eine geeignete Oberfläche geschaffen werden musste, um die Hand der User verlässlich optisch isolieren und damit in VR projizieren zu können.

Nachdem sich tatsächlich etwas Triviales wie eine Fussmatte als die effektivste und im IR-Licht als dunkelste Oberfläche herausgestellt hatte, schien dies in Verbindung mit einer mattschwarz lackierten Holz-Halbkugel verlässlich zu funktionieren - das Tracking brach beim Berühren des Objektes nicht mehr ab.

Nachfolgend wurden drei verschiedene digitale Materialien erstellt, die während des Test-Setups nacheinander "erfühlt" werden sollten, während sich jedoch die Struktur des Realobjektes nicht verändern würde. Probanden sollten während des Erfühlens ihre Sinneseindrücke in einem narrativen Interview beschreiben.

Trotz der vergleichsweise kleinen und nicht repräsentativen Stichprobengröße zeigten sich starke Anzeichen dafür, dass das Realmaterial bereits nach kurzer Zeit des Erfühlens als solches identifizert werden konnte. Die Dissonanz zwischen visuellem Input

und tatsächlichem haptischen Stimulus wurde von den Probanden auch wahrgenommen, allerdings schien dies zwar als irritierend aber nicht als sinnestäuschend wahrgenommen zu werden. Dennoch konnten andere Indizien herausgearbeitet werden:

Die inkongruenten Stimuli waren für die Probanden teilweise so irritierend, dass oft andere Sinne hinzugezogen wurden, um das Objektmaterial als Holz identifizieren zu können - es wurde geklopft, gekratzt, teilweise sogar gerochen und das Objekt angehoben, um das Gewicht bzw. das Material zu überprüfen.

Manche Probanden mussten sogar aktiv vom digitalen Objekt "wegschauen", um sich besser auf den gefühlten Input konzentrieren zu können. Nach den Tests blieben noch einige Forschungsfragen offen, welche sich in Zukunft mit diesem Test-Setup weiter bearbeiteten lassen.

Impressum

Datenschutz