# Experiment Archive: Einfluss von Anthropomorphismus in VR-Verhandlungssituationen ## 1. Title Anthropromorphe Benutzerschnittstellen: Einfluss der visuellen Darstellung KI-gesteuerter Agenten auf as benutzerverhalten in immersiven Welten. ## 2. Research Question Wie beeinflussen verschiedene Avatar-Typen das Verhalten von Nutzern in einer virtuellen Entscheidungssituation. ## 3. Hypothesis - **H1**: Nutzer vertrauen einem menschlichen Avatar eher und lassen sich leichter beeinflussen. - **H2**: Mit abnehmendem Anthropomorphismus sinkt die Manipulationsrate. - **H3**: Der Grad des Anthropomorphismus beeinflusst die gewählte Distanz innerhalb der virtuellen Interaktion. ## 4. Experimental Design - **Study type**: Within-Subjects-Design - **Conditions**: Vier Avatar-Bedingungen – *Luisa (menschlich)*, *Robot*, *Abstract*, *Particle* - **Procedure**: 1. Einführung, Einverständniserklärung, Demografie-Fragebogen 2. Technische Einführung in VR-Steuerung 3. Vier Verhandlungsszenarien (ausbalanciert) 4. Nach jeder Interaktion: Godspeed Questionnaire + Manipulationsitems 5. Abschluss & Debriefing - **Variables measured**: - Wahrnehmung (Godspeed: Anthropomorphismus, Belebtheit, Sympathie, Intelligenz, Sicherheit) - Manipulation (4 Items zur empfundenen Beeinflussung) - Räumliche Distanz (Positionsdaten in Unity) - Verkaufsentscheidungen (gekauft/Preis/abgelehnt) - **Behavioral data**: Bewegungs-Tracking, Verhandlungsdauer, Kaufentscheidungen - **Participants**: 16 Personen (20–62 Jahre, deutschsprachig) - **Questionnaires**: Godspeed Questionnaire [https://www.bartneck.de/publications/2023/godspeed/bartneckGodspeedChapter2023.pdf], Social-Awareness-Items [https://dl.acm.org/doi/10.1162/105474605774785235], eigene Manipulationsfragen - **Ethics**: Schriftliches Einverständnis, anonymisierte Daten ## 5. [Unity] XR Experience ### 5.1 Project - **Folder**: `/UnityProject/` - Enthält das vollständige Unity-Projekt (Unity 2022.3.30f1, ohne Library/Temp). ### 5.2 Build - **Folder**: `/Build/` - Finaler VR-Build für Oculus Quest 2 - Enthält Szenen für die vier Avatar-Bedingungen ### 5.3 Requirements - **Unity Version**: 2022.3.30f1 - **Render Pipeline**: Built-in - **XR Plugin**: Oculus Integration v57 - **Other Dependencies**: - ConvAI SDK (Conversational AI) - Unity XR Interaction Toolkit - TextMesh Pro - **Headset used**: Meta Quest 2 (Standalone via Link) - **PC specs**: min. RTX 3060 / i7 / 16GB RAM / Windows 11 ## 6. How to Run the Experiment - **Scene Names**: `Avatar_Luisa`, `Avatar_Robot`, `Avatar_Abstract`, `Avatar_Particle` - **Build Execution**: APK auf Quest 2 installieren oder per Link starten - **Unity Editor**: Szene öffnen (insgesamt 16 verschiedenen Szenen - 4 fürjeden Avatar) mit den verschiedenen Produkten, Play Mode starten, XR Settings aktivieren - **Inputs**: - Linker Controller (Joystick = Bewegung) - Rechter Controller (A-Button = Interaktion starten) - **Data Logging**: - `Scripts/DataLogger.cs` → speichert Positionsdaten, Verhandlungsdauer, Kaufentscheidungen, Daten müssen manuell gespeichert werden ## 7. Data - **Folder**: `/Data/` - Rohdaten: `.csv` mit Zeitstempeln, Positionskoordinaten - Log-Files: anonymisierte IDs, Notizen zu Ausreißern - Papier-Einverständniserklärungen: verschlossen archiviert (nicht im Repo) - Ergebnisse der ANOVA (JASP) ## 8. Any Other Relevant Information - Bekannte Limitationen: kleine Stichprobe (n=16), identische Stimme & Gesprächsskript, homogener Sprachkontext - Ein dokumentierter Ausreißer (Teilverkauf eines Produkt-Sets) - Empfehlungen für Folgestudien: Variation von Stimme/Inhalt, Blicktracking, größere Stichprobe ## 9. Contact Info - **Author**: Lara-Christin Fiedler - **Contact**: larafiedler@gmx.net ---