Auflistung nach Autor:in "Hollender, Nina"
1 - 5 von 5
Treffer pro Seite
Sortieroptionen
- WorkshopbeitragKooperativer Informationserwerb und -Austausch durch Hypervideo(Mensch und Computer 2007: Interaktion im Plural, 2007) Hofmann, Cristian; Hollender, NinaIn diesem Artikel wird eine interaktive Hypervideoanwendung präsentiert, welche einen kooperativen Austausch von multimedial aufbereiteten Informationen in einer verteilten Gruppe von Benutzern unterstützt. Ein kooperativer Informationserwerb- und Austausch durch Hypervideo stellt hohe kognitive Anforderungen an die Benutzer. Um diesen Schwierigkeiten entgegen zu wirken, wurden spezifische Visualisierungs- und Interaktionskonzepte zur Unterstützung von Rezeption und Gestaltung von Hypervideodokumenten umgesetzt.
- KonferenzbeitragProzesse und Abläufe beim kollaborativen Wissenserwerb mittels computergestützter Videoannotation(DeLFI 2009 - 7. Tagung der Fachgruppe E-Learning der Gesellschaft für Informatik e.V., 2009) Hofmann, Cristian; Hollender, Nina; Fellner, Dieter W.Computergestützte Annotation und Analyse von Videoinhalten finden zunehmend Anwendung in unterschiedlichen Lehr-Lernszenarien. Eine Reihe von Projekten hat sich mit dem Forschungsbereich Videoannotation mit unterschiedlichen Forschungsschwerpunkten beschäftigt, diese fokussierten jedoch stets einen oder nur wenige Bestandteile des gesamten Annotationsprozesses. Bisher wurde den einzelnen Aufgaben, Prozessen und Abläufen, die einer (kollaborativen) An- notation von Videos zugrunde liegen, keine ausreichende Beachtung geschenkt. In diesem Beitrag möchten wir unter besonderer Berücksichtigung von einer Applikation in kollaborativen Lehr-Lernsituationen ein Modell präsentieren, das die Phasen, die zu erledigenden Aufgaben sowie die konkreten Abläufe innerhalb von Vi- deoannotationsprozessen beschreibt.
- muc: kurzbeitrag (poster)Task descriptions in usability tests: A source of split-attention(Mensch & Computer 2013: Interaktive Vielfalt, 2013) Hollender, Nina; Li, Yiqi; Held, TheoHaving to switch between task descriptions and the interface during a usability test induces cognitive load for participants and increases time on task. An explorative study is reported, showing a large individual variability in how often and for how long participants returned to task descriptions. They returned to descriptions at least once in 80% of all cases (Max=13, Median=2), spending up to 147s re-reading the description (Median=7s). This constituted up to 67% of the total time on task. Practical implications regarding the design of task descriptions and for summative usability testing are sketched.
- KonferenzbeitragTask- and Process-related Design of Video Annotation Systems(Mensch & Computer 2009: Grenzenlos frei!?, 2009) Hofmann, Cristian; Hollender, Nina; Fellner, Dieter W.Various research projects already followed up the design of video annotation applications. Nevertheless, collaborative application scenarios as well as the needs of users regarding the annotation workflow have been taken little into account. This paper discusses requirements for the design of video annotation systems. As our main contribution, we consider aspects that can be associated with collaborative use scenarios as well as requirements respecting the support of the annotation workflow not only considering the tasks but also the processes and sequences within. Our goals are to provide the reader with an understanding of the specific characteristics and requirements of video annotation, to establish a framework for evaluation, and to guide the design of video annotation tools.
- KonferenzbeitragVom Nutzerfeedback zur Softwareverbesserung: Das volle Potential von Daten Nutzen(Mensch und Computer 2024 - Usability Professionals, 2024) Schrepp, Martin; Bertram, Erik; Hollender, Nina; Juhl, Sebastian; Loop, SandraNutzerfeedback in verwertbare Erkenntnisse und Produktverbesserungen umzuwandeln, war schon immer eine Herausforderung für Softwareunternehmen. Es ist oft schwierig, die richtigen Schlussfolgerungen aus den Daten zu ziehen und sie in den Entwicklungsprozess einzubinden. Wir beschreiben, wie man die richtigen Kennzahlen zur UX-Messung auswählt, effizient Feedback von Endbenutzern sammelt, die quantitativen Daten mithilfe von statistischen Methoden analysiert, die Ergebnisse für alle Mitarbeiter im Unternehmen transparent macht, an die relevanten Stakeholder kommuniziert und auf diesen Daten basierende Veränderungen vorantreibt. Neben demographischen und quantitativen Daten zur UX Qualität werden auch Nutzerkommentare analysiert, mit GenAI Modellen effizient aufbereitet und für alle Interessierten nutzbar gemacht. Das Aufsetzen des Prozesses und die Erfahrungen der ersten Jahre werden anhand der aktuellen Verwendung im Bereich der SAP Business Technology Platform beschrieben.