About: Learning-based interactive character animation   Goto Sponge  NotDistinct  Permalink

An Entity of Type : rdac:C10001, within Data Space : data.idref.fr associated with source document(s)

AttributesValues
type
Thesis advisor
Praeses
Author
alternative label
  • Méthodes d'édition interactive de personnages basées sur l'apprentissage
dc:subject
  • Informatics
  • Machine Learning
  • Informatique
  • Thèses et écrits académiques
  • Animation par ordinateur
  • Apprentissage Automatique
  • Personnage virtuel
  • Capture de mouvement
  • Simulation mouvements
  • Virtual character
  • Motion capture
  • Animation Editing
  • Animation de personnages
  • Character animation
  • Edition d'animation
  • Movement simulation
preferred label
  • Learning-based interactive character animation
Language
Subject
dc:title
  • Learning-based interactive character animation
Degree granting institution
Opponent
note
  • Animated characters are a crucial component of compelling and lively virtual worlds. Their motion is influenced by complex behaviors, and the production of expressive character animation heavily relies upon animators’ skills, training and knowledge. Ever since computers have been used in this creative process, researchers have strived to develop intuitive, interactive and precise tools and interfaces to facilitate animators’ work. In the last decade, deep learning methods have raised a lot of interest in the computer animation community, capitalizing on the increasing availability of real-life captured motion data to train generative models able to synthesize new movement. While the studied application allow for the generation of new realistic animation, the process unfortunately leaves little room for animators’ control. This thesis therefore proposes to use neural networks to learn the subtle complexities carried by motion data and to use the extracted information in the design of user-centric animation tools which fit in the existing animation production workflow. We propose two approaches allowing a user to edit a character’s pose at a given time frame, first by directly manipulating its skeleton, and second through higher-level pose parameters.
  • La principale méthode utilisée pour animer un personnage virtuel consiste à éditer le mouvement d’un squelette, sur lequel un modèle sous forme de maillage sera appliqué et déformé au besoin. Pour convaincre le spectateur, le mouvement d’un personnage doit respecter de nombreuses règles implicites, comme le modèle physique qui régit son monde ou les limites de sa morphologie. Ce faisant, il doit aussi rendre explicite l’action réalisée, et laisser transparaître l’état émotionnel du personnage. La subtilité de ces contraintes rend la création d’animation difficile et la production d’une animation réaliste et/ou plaisante repose fortement sur les connaissances, l’expérience et minutie de l’animateur. La démocratisation des techniques de capture de mouvement (Motion Capture, ou MoCap) permet de produire de plus en plus de données de mouvements tirés du monde réel, qui portent intrinsèquement des informations sur ces contraintes. Les travaux présentés dans cette thèse proposent d’exploiter ces données à l’aide de méthodes récentes d’apprentissage automatique, utilisant les réseaux de neurones pour fournir de nouveaux outils aux artistes animateurs.
dc:type
  • Text
http://iflastandar...bd/elements/P1001
rdaw:P10219
  • 2023
has content type
is primary topic of
is rdam:P30135 of
Faceted Search & Find service v1.13.91 as of Aug 16 2018


Alternative Linked Data Documents: ODE     Content Formats:       RDF       ODATA       Microdata      About   
This material is Open Knowledge   W3C Semantic Web Technology [RDF Data]
OpenLink Virtuoso version 07.20.3229 as of May 14 2019, on Linux (x86_64-pc-linux-gnu), Single-Server Edition (70 GB total memory)
Data on this page belongs to its respective rights holders.
Virtuoso Faceted Browser Copyright © 2009-2024 OpenLink Software