Wie können wir angemessene und möglichst natürliche Formen der Kommunikation zwischen Mensch und Computern entwickeln? Künftig werden Computer kaum mehr als solche wahrgenommen werden, sondern nahtlos in unsere Lebens- und Arbeitswelten integriert sein, z.B. in cyber-physikalischen Systemen. Wie kann der Mensch dabei mit seinen Erfahrungen, Sinnesorganen, gestischen Ausdrucksmöglichkeiten sowie sozialen Bedürfnissen effektiv unterstützt werden?

Im Vordergrund unserer Arbeit steht die systematische und grundlegende Erforschung verschiedenartiger, möglichst natürlicher Interaktionsmodalitäten und deren synergistischer Kombination. Dabei forschen wir zu gestischer Multitouch-Interaktion, digitalen Stiften in Kombination mit digitalem Papier, der effizienten Kombination von Touch- und Stifteingabe, gestischer Interaktion mit Händen, Kopf und Füßen, blick-unterstützter Interaktion für entfernte Displays sowie be-greifbaren Tangibles. Dabei liegt unser Fokus auf kleinen und großen interaktiven Oberflächen (Minidisplays, Smartphones, Tablets, Tabletops, hochaufgelöste Wandgroßdisplays) sowie deren effektiver Kombination in Multi-Display-Umgebungen.

Die entwickelten Techniken und Prinzipien wenden wir in verschiedenen Anwendungsdomänen und Projekten mit akademischen und industriellen Partnern aus dem Aus- und Inland an. Wir untersuchen darüber hinaus, wie moderne User Interfaces und Interaktionstechniken in den Bereichen Interaktive Informationsvisualisierung, Musikinformatik und Semantic Web gewinnbringend eingesetzt werden können.

Neue Publikationen

  • @inproceedings{Horak2018,
       author = {Tom Horak and Sriram Karthik Badam and Niklas Elmqvist and Raimund Dachselt},
       title = {When David Meets Goliath: Combining Smartwatches with a Large Vertical Display for Visual Data Exploration},
       month = {4},
       numpages = {13},
       url = {https://doi.org/10.1145/3173574.3173593}
    }

  • @inproceedings{Bueschel2018a,
       author = {Wolfgang B\"{u}schel and Annett Mitschick and Raimund Dachselt},
       title = {Demonstrating Reality-Based Information Retrieval},
       series = {CHI EA '18},
       month = {4},
       isbn = {978-1-4503-5621-3},
       numpages = {4},
       url = {https://doi.org/10.1145/3170427.3186493},
       acmid = {3186493},
       address = {New York, NY, USA},
       keywords = {augmented reality, immersive visualization, in situ visual analytics, reality-based information retrieval, spatial user interface}
    }

  • Demonstrating David Meets Goliath: Combining Smartwatches with a Large Vertical Display for Visual Data Exploration.

    Horak, T.; Badam, S.; Elmqvist, N.; Dachselt, R.;

    @inproceedings{Horak2018a,
       author = {Tom Horak and Sriram Karthik Badam and Niklas Elmqvist and Raimund Dachselt},
       title = {Demonstrating David Meets Goliath: Combining Smartwatches with a Large Vertical Display for Visual Data Exploration},
       series = {CHI EA '18},
       month = {4},
       numpages = {3},
       url = {https://doi.org/10.1145/3170427.3186497}
    }

  • @inproceedings{DebugAR_Reipschlaeger18,
       author = {Patrick Reipschl\"{a}ger and Burcu Kulahcioglu Ozkan and Aman Shankar Mathur and Stefan Gumhold and Rupak Majumdar and Raimund Dachselt},
       title = {DebugAR: Mixed Dimensional Displays for Immersive Debugging of Distributed Systems},
       series = {CHI EA '18},
       month = {4},
       numpages = {6},
       url = {https://doi.org/10.1145/3170427.3188679},
       address = {New York, NY, USA},
       keywords = {Distributed Systems, Debugging, Augmented Reality, Interactive Surfaces, Multi-display Environments, 3D Visualizations}
    }

  • @inproceedings{ARCord_Klamka2018,
       author = {Konstantin Klamka and Raimund Dachselt},
       title = {ARCord: Visually Augmented Interactive Cords for Mobile Interaction},
       series = {CHI EA '18},
       month = {4},
       numpages = {6},
       url = {https://doi.org/10.1145/3170427.3188456},
       acmid = {3188456},
       address = {New York, NY, USA}
    }