Experiment Archive: Einfluss von Anthropomorphismus in VR-Verhandlungssituationen
1. Title
Anthropromorphe Benutzerschnittstellen: Einfluss der visuellen Darstellung KI-gesteuerter Agenten auf as benutzerverhalten in immersiven Welten.
2. Research Question
Wie beeinflussen verschiedene Avatar-Typen das Verhalten von Nutzern in einer virtuellen Entscheidungssituation.
3. Hypothesis
- H1: Nutzer vertrauen einem menschlichen Avatar eher und lassen sich leichter beeinflussen.
- H2: Mit abnehmendem Anthropomorphismus sinkt die Manipulationsrate.
- H3: Der Grad des Anthropomorphismus beeinflusst die gewählte Distanz innerhalb der virtuellen Interaktion.
4. Experimental Design
- Study type: Within-Subjects-Design
- Conditions: Vier Avatar-Bedingungen – Luisa (menschlich), Robot, Abstract, Particle
- Procedure:
- Einführung, Einverständniserklärung, Demografie-Fragebogen
- Technische Einführung in VR-Steuerung
- Vier Verhandlungsszenarien (ausbalanciert)
- Nach jeder Interaktion: Godspeed Questionnaire + Manipulationsitems
- Abschluss & Debriefing
- Variables measured:
- Wahrnehmung (Godspeed: Anthropomorphismus, Belebtheit, Sympathie, Intelligenz, Sicherheit)
- Manipulation (4 Items zur empfundenen Beeinflussung)
- Räumliche Distanz (Positionsdaten in Unity)
- Verkaufsentscheidungen (gekauft/Preis/abgelehnt)
- Behavioral data: Bewegungs-Tracking, Verhandlungsdauer, Kaufentscheidungen
- Participants: 16 Personen (20–62 Jahre, deutschsprachig)
- Questionnaires: Godspeed Questionnaire [https://www.bartneck.de/publications/2023/godspeed/bartneckGodspeedChapter2023.pdf], Social-Awareness-Items [https://dl.acm.org/doi/10.1162/105474605774785235], eigene Manipulationsfragen
- Ethics: Schriftliches Einverständnis, anonymisierte Daten
5. [Unity] XR Experience
5.1 Project
- Folder:
/UnityProject/ - Enthält das vollständige Unity-Projekt (Unity 2022.3.30f1, ohne Library/Temp).
5.2 Build
- Folder:
/Build/ - Finaler VR-Build für Oculus Quest 3
- Enthält Szenen für die vier Avatar-Bedingungen
5.3 Requirements
- Unity Version: 2022.3.30f1
- Render Pipeline: Built-in
- XR Plugin: Open XR
- Other Dependencies:
- ConvAI SDK (Conversational AI)
- Unity XR Interaction Toolkit
- TextMesh Pro
- Headset used: Meta Quest 3 (Standalone via Link)
- PC specs: min. RTX 3060 / i7 / 16GB RAM / Windows 11
6. How to Run the Experiment
- Scene Names:
Avatar_Luisa,Avatar_Robot,Avatar_Abstract,Avatar_Particle - Build Execution: APK auf Quest 2 installieren oder per Link starten
- Unity Editor: Szene öffnen (insgesamt 16 verschiedenen Szenen - 4 fürjeden Avatar) mit den verschiedenen Produkten, Play Mode starten, XR Settings aktivieren
- Inputs:
- Linker Controller (Joystick = Bewegung)
- Rechter Controller (A-Button = Interaktion starten)
- Data Logging:
Scripts/DataLogger.cs→ speichert Positionsdaten, Verhandlungsdauer, Kaufentscheidungen, Daten müssen manuell gespeichert werden
7. Data
- Folder:
/Data/ - Rohdaten:
.csvmit Zeitstempeln, Positionskoordinaten - Log-Files: anonymisierte IDs, Notizen zu Ausreißern
- Papier-Einverständniserklärungen: verschlossen archiviert (nicht im Repo)
- Ergebnisse der ANOVA (JASP)
8. Any Other Relevant Information
- Bekannte Limitationen: kleine Stichprobe (n=16), identische Stimme & Gesprächsskript, homogener Sprachkontext
- Ein dokumentierter Ausreißer (Teilverkauf eines Produkt-Sets)
- Empfehlungen für Folgestudien: Variation von Stimme/Inhalt, Blicktracking, größere Stichprobe
9. Contact Info
- Author: Lara-Christin Fiedler
- Contact: larafiedler@gmx.net
Description
Languages
C#
72.9%
ShaderLab
21.5%
GLSL
1.8%
Mathematica
1.5%
HLSL
0.7%
Other
1.5%