zurück zur Workshop-Seite

Mixed-Reality-Technologien werden zunehmend mobiler und alltagstauglicher und bieten dadurch neue Möglichkeiten zur digitalen gesellschaftlichen Partizipation, etwa im Bereich der Stadtplanung [1] und kultureller und historischer Bildung [4]. Forschungs- und Entwicklungsprojekte im Bereich VR/AR thematisieren seit Jahren verstärkt die zwischenmenschliche Kommunikation und eröffnen neue Anwendungsbereiche, die sowohl für die soziale, wirtschaftliche und politische Teilhabe als auch für die Vermittlung und Erfahrung von Wissen und Fähigkeiten von grundlegender Bedeutung sind. Bedeutende Herausforderungen bestehen darin, die Immersion durch neue Formen der Interaktion und Multi-User-Szenarien zu verbessern, sowie die inklusive Gestaltung von Mixed-Reality-Plattformen zu fördern, um auch explizit Menschen mit Beeinträchtigungen einbinden zu können.

Mixed-Reality-Technologien ermöglichen es, Vergangenes oder Zukünftiges immersiv zu visualisieren sowie hypothetische Szenarien erlebbar zu machen. Damit eignen sie sich beispielsweise besonders gut für das Vermitteln der Bedeutung historischer Ereignisse und des kulturellen Erbes eines Ortes [4, 8]. Andere Projekte nutzen VR/AR zur kreativen Gestaltung im öffentlichen Raum, etwa durch ein interaktives Wandbild zur Stärkung des örtlichen Bezugs [3] oder in spielerischer Weise durch das kollaborative Platzieren digitaler Werke [12]. Als Planungshilfe motivieren VR-/AR-Technologien bei der Partizipation an der Neugestaltung im öffentlichen Raum [11] und ermöglichen Architekturvisualisierung an Ort und Stelle [1].

Hierbei bietet die virtuelle Welt neue und einzigartige Möglichkeiten zur Gestaltung von Partizipation und Teilhabe. Anstatt realer Umgebungen, Aufgaben oder Interaktionstechniken im virtuellen Raum zu replizieren, ermöglicht VR die Realität zu transzendieren und die physischen, kognitiven und wahrnehmungsbezogenen Fähigkeiten der Benutzer zu erweitern [10]. Beispielsweise können die Möglichkeiten des Sehens verändert werden [9], oder es eröffnen sich neue Fähigkeiten für das Gehör [2].

Mit der zunehmenden Alltagstauglichkeit von VR-/AR-Technologien gewinnen auch Multi-User-Szenarien an Relevanz. Plattformen wie Altspace VR, Rec Room und Facebook Spaces ermöglichen soziale Interaktionen in einer virtuellen 3D-Umgebung. Die User können dabei mit einem selbst erstellten Avatar miteinander interagieren, während sie physisch nicht am selben Ort sein müssen. Aktuelle Herausforderungen hierbei sind zum Beispiel das Tracking von Mimik während ein Head-Mounted Display getragen wird [6].

Soziale Interaktionen in virtuellen 3D-Umgebungen sind allerdings nicht immer zugänglich für Menschen mit Beeinträchtigungen. Da VR und AR primär visuell sind, schließen sie Menschen mit Sehbeeinträchtigung von Beginn an aus. Dabei gibt es Ansätze, wie Menschen mit Sehbeeinträchtigung durch VR-/AR-Technologien am Alltag teilhaben können. Zum Beispiel können AR-Anwendungen verwendet werden um Menschen mit Sehbeeinträchtigung die Navigation zu erleichtern [16], um Objekte wie eine Armbanduhr zu vergrößern [17] und um Elemente auf einem Touch User Interface hervorzuheben [7]. Des Weiteren gibt es unterstützende Werkzeuge für Menschen mit Sehbeeinträchtigung in VR-Anwendungen, die das Navigieren und Explorieren von virtuellen Umgebungen erleichtern [14, 15]. Jedoch sind diese Werkzeuge nicht anwendbar auf soziale Interaktionen. Damit Multi-User-Szenarien und damit soziale Interaktionen in VR-/AR-Umgebungen inklusiv werden, müssen Menschen mit verschiedenen Arten von Beeinträchtigungen von Beginn an in den Gestaltungsprozess miteinbezogen werden. Dahingegen können VR/AR-Technologien auch genutzt werden, um Sehbeeinträchtigungen nachempfinden zu können [5, 13].

Der Workshop wendet sich an Interessierte aus Wissenschaft und Praxis. Das Ziel ist, Forscher:innen, Entwickler:innen und Anwender:innen von VR/AR-basierten Technologien im Bereich digitale Teilhabe und Partizipation ein Forum zu bieten, um sich über innovative Forschungsideen und Einsatzmöglichkeiten auszutauschen, Feedback zu anstehenden Projekten einzuholen und eine Vernetzung thematisch ähnlicher Projekte zu fördern.

QUELLEN

[1] Max Allen, Holger Regenbrecht, and Mick Abbott. 2011. Smart-phone augmented
reality for public participation in urban planning. In Proceedings of the 23rd
Australian computer-human interaction conference. 11–20.
[2] Michele Geronazzo, Luis S Vieira, Niels Christian Nilsson, Jesper Udesen, and
Stefania Serafin. 2020. Superhuman hearing-virtual prototyping of artificial
hearing: a case study on interactions and acoustic beamforming. IEEE transactions
on visualization and computer graphics 26, 5 (2020), 1912–1922.
[3] Laura Kathryn Harrison, Rosemary D’Amour, Howard Kaplan, Christopher Hub-
bard, and Eric Santiago. 2021. Augmented Reality for Digital Placemaking: Public
Art in Clearwater, Florida. In The 26th International Conference on 3D Web Tech-
nology. 1–6.
[4] Efstathia Kostopoulou, Ana Javornik, Petros Koutsolampros, Simon Julier, and
Ava Fatah gen. Schieck. 2018. Mediated Spatial Narratives: Experiencing Archival
Material and Shared Memories in Urban Space. In Proceedings of the 4th Media
Architecture Biennale Conference. 118–127.
[5] Katharina Krösl, Carmine Elvezio, Matthias Hürbe, Sonja Karst, Steven Feiner,
and Michael Wimmer. 2020. XREye: Simulating visual impairments in eye-tracked
XR. In 2020 IEEE conference on virtual reality and 3D user interfaces abstracts and
workshops (VRW). IEEE, 830–831.
[6] Philipp Ladwig, Alexander Pech, Ralf Dörner, and Christian Geiger. 2020. Unmas-
king Communication Partners: A Low-Cost AI Solution for Digitally Removing
Head-Mounted Displays in VR-Based Telepresence. In IEEE International Con-
ference on Artificial Intelligence and Virtual Reality, AIVR 2020, Virtual Event,
The Netherlands, December 14-18, 2020. IEEE, 82–90. https://doi.org/10.1109/
AIVR50618.2020.00025
[7] Florian Lang and Tonja Machulla. 2021. Pressing a Button You Cannot See:
Evaluating Visual Designs to Assist Persons with Low Vision through Augmented
Reality. In Proceedings of the 27th ACM Symposium on Virtual Reality Software
and Technology. 1–10.
[8] Corrado Petrucco and Daniele Agostini. 2016. Teaching cultural heritage using
mobile augmented reality. Journal of e-Learning and Knowledge Society 12, 3
(2016).
[9] Ismo Rakkolainen, Roope Raisamo, Matthew Turk, Tobias Höllerer, and Karri
Palovuori. 2017. Extreme field-of-view for head-mounted displays. In 2017 3DTV
Conference: The True Vision-Capture, Transmission and Display of 3D Video (3DTV-
CON). IEEE, 1–4.
[10] Shadan Sadeghian and Marc Hassenzahl. 2021. From Limitations to “Superpo-
wers”: A Design Approach to Better Focus on the Possibilities of Virtual Reality
to Augment Human Capabilities. In Designing Interactive Systems Conference
2021. 180–189.
[11] Sheree May Saßmannshausen, Jörg Radtke, Nino Bohn, Hassan Hussein, Dave
Randall, and Volkmar Pipek. 2021. Citizen-Centered Design in Urban Planning:
How Augmented Reality can be used in Citizen Participation Processes. In Desi-
gning Interactive Systems Conference 2021. 250–265.
[12] Media Shokrani, Sahel Minaei, Mahtab Moradi, and Sepehr Omidvar. 2021. Desi-
gning an AR urban game (HAMAJA) for increasing engagement in city. In Media
Architecture Biennale 20. 184–188.
[13] Fabian Werfel, Roman Wiche, Jochen Feitsch, and Christian Geiger. 2016. Em-
pathizing Audiovisual Sense Impairments: Interactive Real-Time Illustration
of Diminished Sense Perception. In Proceedings of the 7th Augmented Human
International Conference, AH 2016, Geneva, Switzerland, February 25-27, 2016, Jean-
Marc Seigneur, José M. Hernández-Muñoz, Paul J. McCullagh, Albrecht Schmidt,
Tsutomu Terada, Woontack Woo, and Pranav Mistry (Eds.). ACM, 15:1–15:8.
https://doi.org/10.1145/2875194.2875226
[14] Yuhang Zhao, Cynthia L Bennett, Hrvoje Benko, Edward Cutrell, Christian Holz,
Meredith Ringel Morris, and Mike Sinclair. 2018. Enabling people with visual
impairments to navigate virtual reality with a haptic and auditory cane simulation.
In Proceedings of the 2018 CHI conference on human factors in computing systems.
1–14.
[15] Yuhang Zhao, Edward Cutrell, Christian Holz, Meredith Ringel Morris, Eyal Ofek,
and Andrew D Wilson. 2019. SeeingVR: A set of tools to make virtual reality more
accessible to people with low vision. In Proceedings of the 2019 CHI conference on
human factors in computing systems. 1–14.
[16] Yuhang Zhao, Elizabeth Kupferstein, Brenda Veronica Castro, Steven Feiner, and
Shiri Azenkot. 2019. Designing AR visualizations to facilitate stair navigation
for people with low vision. In Proceedings of the 32nd annual ACM symposium on
user interface software and technology. 387–402.
[17] Yuhang Zhao, Sarit Szpiro, and Shiri Azenkot. 2015. Foresee: A customizable head-
mounted vision enhancement system for people with low vision. In Proceedings
of the 17th international ACM SIGACCESS conference on computers & accessibility.
239–249.

Newsletter

Mit diesem Formular melden Sie sich für den Newsletter des HIVE Labs an. Sie können diese Anmeldung jederzeit mit einer Nachricht an info@hive-lab.org widerrufen.

Captcha