This HTML5 document contains 33 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

PrefixNamespace IRI
dctermshttp://purl.org/dc/terms/
marcrelhttp://id.loc.gov/vocabulary/relators/
n29http://www.idref.fr/035679581/
n25http://www.idref.fr/079982654/
n9http://www.idref.fr/059851171/
n19http://www.idref.fr/188120777/
n26http://www.idref.fr/027253139/
n7http://www.idref.fr/201055902/
dchttp://purl.org/dc/elements/1.1/
rdauhttp://rdaregistry.info/Elements/u/
n20http://www.idref.fr/132493950/
n12http://www.idref.fr/112937381/
skoshttp://www.w3.org/2004/02/skos/core#
n27http://www.idref.fr/117889466/
n2http://www.idref.fr/208260269/
n24http://lexvo.org/id/iso639-3/
n22http://www.idref.fr/20053856X/
n16http://iflastandards.info/ns/isbd/terms/contentform/
rdachttp://rdaregistry.info/Elements/c/
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
n11http://www.idref.fr/027805115/
n6http://www.idref.fr/188168753/
n23http://www.idref.fr/032819986/
frbrhttp://purl.org/vocab/frbr/core#
n4http://www.idref.fr/030820529/
n18http://rdaregistry.info/termList/RDAContentType/
n15http://iflastandards.info/ns/isbd/elements/
rdawhttp://rdaregistry.info/Elements/w/
xsdhhttp://www.w3.org/2001/XMLSchema#
n5http://www.idref.fr/112185290/
Subject Item
n2:id
rdf:type
rdac:C10001 frbr:Work
marcrel:ths
n4:id n5:id n6:id n7:id n9:id n12:id n20:id n25:id
marcrel:pra
n29:id
marcrel:aut
n22:id
skos:altLabel
Toward mobile immersion in augmented reality, an approach based on robust natural feature tracking and 3D interaction
dc:subject
Descripteurs binaires Interfaces utilisateur (informatique) Vision par ordinateur Estimation de pose Recalage d'images Thèses et écrits académiques
skos:prefLabel
Vers l'immersion mobile en réalité augmentée, une approche basée sur le suivi robuste de cibles naturelles et sur l'interaction 3D
dcterms:language
n24:fra
dcterms:subject
n11:id n23:id n26:id n27:id
dc:title
Vers l'immersion mobile en réalité augmentée, une approche basée sur le suivi robuste de cibles naturelles et sur l'interaction 3D
marcrel:dgg
n19:id
skos:note
Pose estimation and 3D interaction are the essential basis for any Augmented Reality (AR) system. We aim to treat those two fields in order to offer a pertinent AR system that allows a mobile immersion and natural interaction. In this optic, this thesis provides an overall consistent state of the art in both pose estimation and 3D interaction for AR.In addition, this thesis details our contributions that consists of MOBIL: a binary descriptor that compares geometric moments of the patch through a binary test. Two improvements of this descriptor: MOBIL_2B and POLAR_MOBIL are proposed in order to enhance its robustness.We used this descriptor with PTAM technique to ensure the user pose estimation respectively for the selection/manipulation task and the navigation task.On the other hand, we proposed a novel 3D interaction technique called “Zoom-In”, designed for augmented reality applications. This technique is based on the zoom of the captured image. It calculates the 3D transformation relative to the selected object. This technique allows user selecting and manipulating distant virtual objects by bringing them within the user arm’s reach by zooming in the captured image, and re-estimating the user pose thanks to our proposed descriptor. Finally, we present a conclusion that describes the essential of this work and provide perspective and future work. L’estimation de pose et l’interaction 3D sont les fondements de base d’un système de réalité augmentée (RA). L’objectif de cette thèse étant de traiter ces deux problématiques, nous présentons dans ce mémoire un état de l’art qui regroupe : approches, techniques et technologies relatives à l’estimation de pose et à l’interaction 3D en RA. Puis nous faisons le bilan sur les travaux menés jusqu'à aujourd’hui.A cet effet, nos contributions dans ce vaste domaine sont dans les deux parties : vision et interaction 3D. Nous avons proposé un nouveau détecteur et descripteur binaire nommé MOBIL qui effectue une comparaison binaire des moments géométriques. Par la suite nous avons proposé deux améliorations de notre descripteur. MOBIL_2B et POLAR_MOBIL.En outre, nous avons utilisé notre descripteur avec l’approche PTAM (Parallel Tracking and Mapping) afin d’assurer le recalage des objets virtuels en immersion mobile de l’utilisateur en RA.Nous avons également proposé une technique d’interaction pour la RA, appelée « Zoom-in » qui facilite la sélection et la manipulation des objets virtuels distants. Cette technique est basée sur le zoom de l’image et des objets virtuels recalé sur l’image. Les objets virtuels sont mis à la portée de l’utilisateur en gardant le recalage par rapport à la scène.Ce mémoire se termine par une conclusion générale qui fait le point sur l’essentiel de ce travail et ouvre de nouvelles perspectives.
dc:type
Text
n15:P1001
n16:T1009
rdaw:P10219
2017
rdau:P60049
n18:1020