This HTML5 document contains 25 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

PrefixNamespace IRI
dctermshttp://purl.org/dc/terms/
marcrelhttp://id.loc.gov/vocabulary/relators/
n22http://www.idref.fr/035764201/
n11http://www.idref.fr/031463258/
n19http://www.idref.fr/149645163/
n16http://www.idref.fr/027253139/
dchttp://purl.org/dc/elements/1.1/
n20http://www.idref.fr/139007164/
n2http://www.idref.fr/226732118/
rdauhttp://rdaregistry.info/Elements/u/
skoshttp://www.w3.org/2004/02/skos/core#
n18http://lexvo.org/id/iso639-3/
n9http://iflastandards.info/ns/isbd/terms/contentform/
rdachttp://rdaregistry.info/Elements/c/
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
n23http://www.idref.fr/027805115/
n17http://www.idref.fr/139075119/
frbrhttp://purl.org/vocab/frbr/core#
n13http://rdaregistry.info/termList/RDAContentType/
n21http://www.idref.fr/02778715X/
n8http://iflastandards.info/ns/isbd/elements/
rdawhttp://rdaregistry.info/Elements/w/
xsdhhttp://www.w3.org/2001/XMLSchema#
n6http://www.idref.fr/098809121/
Subject Item
n2:id
rdf:type
rdac:C10001 frbr:Work
marcrel:ths
n6:id n17:id n20:id
marcrel:aut
n19:id
skos:altLabel
Bayesian and deterministic approaches for robust tracking, application to the visual servoing of UAV
dc:subject
Robots mobiles Drones Thèses et écrits académiques Vision par ordinateur
skos:prefLabel
Approche déterministes et bayésiennes pour un suivi robuste, application à l'asservissement visuel d'un drone
dcterms:language
n18:fra
dcterms:subject
n11:id n16:id n22:id n23:id
dc:title
Approche déterministes et bayésiennes pour un suivi robuste, application à l'asservissement visuel d'un drone
marcrel:dgg
n21:id
skos:note
For a robot to autonomously localise or position itself with respect to its environment, a key requirement is the perception of this environment. In this respect, the visual information provided by a camera is a particularly rich source of information, commonly used in robotics. Our work deals with the use of visual information in the context of UAV control. More specifically, two tasks have been considered: first, a tracking task, in which a UAV has to follow a moving object - a car - in an unknown environment; second, a positioning task for a UAV navigating in a structured GPS-deprived environment. In both cases, we propose complete approaches, considering both the robust extraction of appropriate visual informations and the visual servoing of the UAV. Finally, the experiments performed on a small quadrotor UAV show the validity of our approaches. Pour qu'un système robotisé puisse accomplir de façon autonome des fonctions en apparence simples, telles que se localiser ou se positionner par rapport à son environnement, il doit avant tout percevoir cet environnement. La perception visuelle obtenue à l'aide d'une caméra constitue à cet égard une source d'information particulièrement riche, largement utilisée en robotique. Le travail présenté dans cette thèse concerne l'usage d'informations visuelles dans le contexte de la commande de mini-drones. Nous avons considéré plus particulièrement deux types de tâches : une tâche de poursuite, dans laquelle un objet - une voiture - se déplace dans un environnement inconnu et l'on souhaite qu'un drone puisse suivre son mouvement, et une tâche de positionnement ou de navigation pour un drone évoluant dans un environnement structuré - intérieur de bâtiment - dans lequel le signal GPS n'est pas disponible. Dans les deux cas, nous avons proposé des approches complètes, depuis l'extraction robuste d'informations visuelles jusqu'à la commande d'un drone à partir de ces informations. Enfin, des expériences mises en œuvre sur un mini-drone de type quadrirotor montrent la validité des approches proposées.
dc:type
Text
n8:P1001
n9:T1009
rdaw:P10219
2010
rdau:P60049
n13:1020