publications([{ "lang": "en", "type_publi": "icolcomlec", "doi": "http://dx.doi.org/10.1145/2993148.2993152", "title": "Bimanual Input for Multiscale Navigation with Pressure and Touch Gestures", "abstract": "We explore the combination of touch modalities with pressure-based modalities for multiscale navigation in bifocal views. We investigate a two-hand mobile configuration in which: 1) The dominant hand is kept free for precise touch interaction at any scale of a bifocal view, and 2) The non-dominant hand is used for holding the device in landscape mode, keeping the thumb free for pressure input for navigation at the context scale. The pressure sensor is fixed to the front bezel. Our investigation of pressure-based modalities involves two design options: control (continuous or discrete) and inertia (with or without). The pressure-based modalities are compared to touch-only modalities: the well-known drag-flick and drag-drop modalities. The results show that continuous pressure-based modality without inertia is 1) the fastest one along with the drag-drop touch modality 2) is preferred by the users and 3) importantly minimizes screen occlusion during a phase that requires navigating a large part of the information space.", "authors": { "1": { "first_name": "Sébastien", "last_name": "Pelurson" }, "2": { "first_name": "Laurence", "last_name": "Nigay" } }, "year": 2016, "uri": "http://iihm.imag.fr/publication/PN16a/", "pages": "145-152", "bibtype": "inproceedings", "id": 771, "abbr": "PN16a", "address": "Tokyo, Japan", "date": "2016-11-12", "document": "http://iihm.imag.fr/publs/2016/ICMI16-bimanualPressure-PelursonNigay.pdf", "type": "Conférences internationales de large diffusion avec comité de lecture sur texte complet", "booktitle": "Proceedings of the 18th ACM International Conference on Multimodal Interaction (ICMI 2016)" }, { "lang": "fr", "type_publi": "these", "title": "Navigation multimodale dans une vue bifocale sur dispositifs mobiles ", "abstract": "Les dispositifs mobiles sont aujourd’hui omniprésents dans notre quotidien. Leurs évolutions technologiques ainsi que les moyens de communication toujours plus rapides font que les utilisateurs manipulent toujours plus d’informations sur leurs dispositifs mobiles, modifiant ainsi l’usage qu’ils en font, et remplaçant petit à petit les ordinateurs de bureau. Cependant les dispositifs mobiles ne s’utilisent pas de la même manière que les ordinateurs de bureau et doivent faire face à des contraintes qui leur sont propres. En particulier, les écrans de taille réduite ne permettent pas d’afficher autant d’information que sur l’écran d’un ordinateur de bureau. De plus, ces écrans, tactiles pour la plupart, sont utilisés à la fois comme périphérique d’entrée et de sortie, entraînant ainsi des problèmes d’occultation d’une partie de l’écran lors de l’interaction. Ces constats et limitations posent ainsi le problème de la visualisation interactive de grandes quantités d’information sur dispositifs mobiles. \r\nLe problème s’articule donc selon deux axes fortement liés : d’une part la visualisation d’information et d’autre part l’interaction sur dispositifs mobiles. Pour le premier axe, nous nous sommes intéressés aux techniques de visualisation permettant de visualiser à la fois une vue globale de l’espace d’information et une sous-partie détaillée de celui-ci. En effet, visualiser uniquement une sous-partie de l’espace d’information rend sa compréhension difficile du fait du manque de contexte. A l’inverse, visualiser l’espace d’information complet à l’écran le rend illisible. \r\nPour le second axe, nous nous sommes interessés aux techniques d’interaction pour naviguer dans l’espace d’information. En effet, la variété des capteurs disponibles aujourd’hui dans les dispositifs mobiles définit un large espace de possibilités en termes de modalités d’interaction. \r\nNos travaux apportent deux types de contribution : conceptuelles et pratiques. Nous présentons tout d’abord un espace de conception des modalités de navigation en l’instanciant au cas des dispositifs mobiles : cet espace permet de décrire, comparer et concevoir des modalités d’interaction pour la tâche de navigation. Nous présentons ensuite un modèle conceptuel de navigation multimodale permettant de naviguer dans un espace d’information multi-échelles. \r\nBasé sur un état de l’art des techniques de visualisation sur dispositifs mobiles, nous avons conçu et évalué expérimentalement une technique de visualisation bifocale. Enfin, en nous reposant sur deux espaces conceptuels et l’état de l’art des modalités d’interaction sur dispositifs mobiles, nous proposons plusieurs techniques d’interaction multimodale conçues et évaluées expérimentalement pour naviguer dans un espace d’information multi-échelles.", "year": 2016, "uri": "http://iihm.imag.fr/publication/P16a/", "id": 766, "bibtype": "phdthesis", "abbr": "P16a", "authors": { "1": { "first_name": "Sébastien", "last_name": "Pelurson" } }, "date": "2016-09-26", "document": "http://iihm.imag.fr/publs/2016/Thesis-Pelurson.pdf", "type": "Thèses et habilitations", "pages": "140" }, { "lang": "en", "publisher": "ACM", "doi": "https://doi.org/10.1145/2818346.2820731", "title": "Multimodal Interaction with a Bifocal View on Mobile Devices", "url": "http://dl.acm.org/citation.cfm?id=2820731&CFID=573279174&CFTOKEN=12003277", "abstract": "On a mobile device, the intuitive Focus+Context layout of a detailed view (focus) and perspective/distorted panels on either side (context) is particularly suitable for maximizing the utilization of the limited available display area. Interacting with such a bifocal view requires both fast access to data in the context view and high precision interaction with data in the detailed focus view. We introduce combined modalities that solve this problem by combining the well-known flick-drag gesture-based precise modality with modalities for fast access to data in the context view. The modalities for fast access to data in the context view include direct touch in the context view as well as navigation based on drag gestures, on tilting the device, on side-pressure inputs or by spatially moving the device (dynamic peephole). Results of a comparison experiment of the combined modalities show that the performance can be analyzed according to a 3-phase model of the task: a focus-targeting phase, a transition phase (modality switch) and a cursor-pointing phase. Moreover modalities of the focus-targeting phase based on a discrete mode of navigation control (direct access, pressure sensors as discrete navigation controller) require a long transition phase: this is mainly due to disorientation induced by the loss of control in movements. This effect is significantly more pronounced than the articulatory time for changing the position of the fingers between the two modalities (“homing” time).", "authors": { "1": { "first_name": "Sébastien", "last_name": "Pelurson" }, "2": { "first_name": "Laurence", "last_name": "Nigay" } }, "year": 2015, "uri": "http://iihm.imag.fr/publication/PN15b/", "pages": "191-198", "bibtype": "inproceedings", "id": 747, "abbr": "PN15b", "address": "Seattle, USA", "date": "2015-11-09", "document": "http://iihm.imag.fr/publs/2015/ICMI2015Pelurson&NigayBifocal.pdf", "type": "Conférences internationales de large diffusion avec comité de lecture sur texte complet", "booktitle": "Conference ACM ICMI 2015, 17th ACM International Conference on Multimodal Interaction, Seattle, November 9-13, 2015 (ICMI 2015)", "type_publi": "icolcomlec" }, { "lang": "fr", "publisher": "ACM", "doi": "http://dx.doi.org/10.1145/2820619.2820639", "title": "Visualisation bifocale sur supports mobiles : une étude empirique / Bifocal Display on Mobile Devices: Empirical Investigation", "url": "http://dl.acm.org/citation.cfm?id=2820639&CFID=573279174&CFTOKEN=12003277", "abstract": "Interactive visualization on mobile devices addresses the problem of large information spaces and small displays. Focusing on 1D/temporal information structures, the paper empirically investigates bifocal display on mobile devices by considering the output visualization and the input modalities for one-dimensional navigation. The intuitive layout of a detailed view in the center (focus) and perspective/distorted panels on either side (context) is particularly suitable for maximizing the utilization of the available display area in landscape mode. We provide a first experiment of a bifocal display on a mobile device. The results of a first qualitative experiment confirm the users’ preference for a coherent display where two levels of details are concurrently visible on the phone’s screen for tasks that involve exploration of the entire set. The second quantitative experiment focuses on navigational tasks with the bifocal display and compares the traditional touch-based flick and two variants of it, namely tilt+flick and dynamic-peephole+flick. The results show that the combined modality dynamic-peephole+flick outperforms the combined modality tilt+flick when the target is very far from the focus area.\r\n\r\nLa visualisation interactive sur supports mobiles traite du problème d’une grande quantité d’informations sur un écran par définition de taille réduite pour sa mobilité. En considérant des données 1D ou temporelles, l’article décrit une exploration empirique d’une visualisation bifocale sur un téléphone mobile (iPhone 4). La vue bifocale est obtenue en appliquant une fonction de transformation à la dimension horizontale de l’espace des données : la vue détaillée au centre (le focus) et les deux vues non détaillées de chaque côté (le contexte) sont particulièrement adaptées pour optimiser la taille occupée à l’écran en mode paysage. Une première étude qualitative concerne l’interface en sortie. Elle confirme l’apport d’une visualisation bifocale (affichant l’espace d’informations en utilisant deux niveaux de détail) sur téléphone mobile pour un ensemble de tâches nécessitant l’exploration de l’ensemble des données. Dans une deuxième étude quantitative, nous étudions deux modalités combinées qui visent à améliorer la technique de défilement classique gestuelle par flick : (interaction physique dans l’espace + flick) et (tilt + flick). Les performances de la modalité combinée (interaction physique + flick) sont meilleures que celles de la modalité combinée (tilt + flick) pour des tâches nécessitant un grand déplacement dans l’espace des données. ", "authors": { "1": { "first_name": "Sébastien", "last_name": "Pelurson" }, "2": { "first_name": "Laurence", "last_name": "Nigay" } }, "year": 2015, "uri": "http://iihm.imag.fr/publication/PN15a/", "pages": "No 20", "bibtype": "inproceedings", "id": 746, "abbr": "PN15a", "address": "Toulouse, France", "date": "2015-10-27", "document": "http://iihm.imag.fr/publs/2015/IHM2015Pelurson&NigayVueBifocale.pdf", "type": "Conférences nationales avec comité de lecture sur texte complet", "booktitle": "Actes 27e conférence francophone sur l'Interaction Homme-Machine (IHM 2015)", "type_publi": "colcomlec" }, { "lang": "en", "publisher": "ACM", "doi": "http://doi.acm.org/10.1145/2820619.2825024", "title": "Exploratory Experimentation of Three Techniques for Rotating a 3D Scene by Primary School Students", "url": "https://hal.inria.fr/IHM-2015/hal-01219135", "abstract": "Multi-touch mobile devices are now commonly used in any area, including education. In this context we focus on applications for 3D geometry learning in primary schools.\r\nManipulating a 3D scene based on a 2D input touch space is one key challenge of such applications for pupils. In this paper we present the results of an exploratory experimentation with pupils. We compare three different\r\ninteraction techniques for rotating a 3D scene based on different interaction metaphors by using: multi-touch input, movements of the tablet captured with a gyroscope sensor and movements of the head captured by a camera-based head tracking. We ran the exploratory experiment with 28 pupils in a primary school to compare these three techniques by considering the performance and the subjective preferences. Results indicate worst performance for head-tracking and similar performance for multi-touch input and gyroscope-based movement. Qualitative results indicate participant preference for multi-touch interaction.", "authors": { "1": { "first_name": "David", "last_name": "Bertolo" }, "2": { "first_name": "Laurence", "last_name": "Nigay" }, "3": { "first_name": "Sébastien", "last_name": "Pelurson" }, "4": { "first_name": "Robin", "last_name": "Vivian" } }, "year": 2015, "uri": "http://iihm.imag.fr/publication/BNP+15a/", "pages": "6", "bibtype": "inproceedings", "id": 748, "abbr": "BNP+15a", "address": "Toulouse, France", "date": "2015-10-27", "document": "http://iihm.imag.fr/publs/2015/IHM2015TECBertoloPELURSON&NIgay.pdf", "type": "Autres conférences et colloques avec actes", "booktitle": "Actes de la 27ème conférence francophone sur l'Interaction Homme-Machine, Travaux en Cours (TeC IHM 2015)", "type_publi": "colloque" }, { "lang": "fr", "type_publi": "colloque", "title": "Relations spatiales en Réalité Augmentée sur dispositifs mobiles", "url": "http://ubimob2013.sciencesconf.org/19693", "abstract": "Les dispositifs mobiles \u0013étant de plus en plus puissants et int\u0013égrant de nombreux capteurs, il est maintenant possible de superposer des images num\u0013ériques \u0012a la vue du monde physique retourn\u0013ée par la cam\u0013éra. Le terme Réalité Augment\u0013ée est d\u0013ésormais couramment utilis\u0013é et cette technique est employ\u0013ée dans de nombreux domaines. Dans ce contexte, cet article \u0013étudie les relations spatiales mises en jeu lors de l'interaction avec cet environnement mixte compos\u0013é de la vue du monde physique augment\u0013ée d'\u0013él\u0013éments num\u0013ériques et a\u000effich\u0013é sur l'\u0013écran du dispositif mobile. Nous nous int\u0013éressons en particulier \u0012a deux relations spatiales : l'une entre l'objet physique et le dispositif mobile et l'autre entre le dispositif mobile et l'utilisateur. Nous pr\u0013ésentons des exemples d'application de R\u0013éalit\u0013é Augment\u0013ée sur dispositifs mobiles qui exploitent ces relations spatiales pour l'interaction.", "authors": { "1": { "first_name": "Thomas", "last_name": "Vincent" }, "2": { "first_name": "Sébastien", "last_name": "Pelurson" }, "3": { "first_name": "Valentin", "last_name": "Regazzoni" }, "4": { "first_name": "Takeshi", "last_name": "Kurata" }, "5": { "first_name": "Laurence", "last_name": "Nigay" } }, "year": 2013, "uri": "http://iihm.imag.fr/publication/VPR+13a/", "id": 632, "bibtype": "inproceedings", "abbr": "VPR+13a", "address": "Nancy, France", "date": "2013-06-05", "document": "http://iihm.imag.fr/publs/2013/Ubimob13_Final.pdf", "type": "Autres conférences et colloques avec actes", "booktitle": "Actes des 9èmes journées francophones Mobilité et Ubiquité (UbiMob 2013)" }]);