Motion Capture and Animation: set of procedures for converting motion capture using inertial sensors from the MVN Studio PRO (Xsens) software to MotionBuilder

Authors

DOI:

https://doi.org/10.29147/datjournal.v9i4.841

Keywords:

Motion capture, 3D Animation, MVN Studio PRO, MotionBuilder, Inertial sensors

Abstract

Motion capture is an efficient technique for quickly producing realistic animations. In light of this, this article aims to develop a set of procedures for converting data captured by inertial sensors from the MVN Studio PRO (Xsens) software into movements applied to 3D characters using the MotionBuilder software. The steps of exporting, importing, skeleton definition, synchronization with characters, and movement editing are detailed, providing a guide for animation professionals. The methodology included an Integrative Literature Review (Theoretical Phase) and the development of the set of procedures (Practical Phase). The results demonstrate that the integration between the software allows for fluid and high-fidelity animation, offering a viable alternative to traditional frame-by-frame animation methods. In conclusion, the use of motion capture and the correct application of the developed procedures optimize the workflow in 3D animation.

Downloads

Download data is not yet available.

Author Biographies

Ana Cristina Alves Piza Duarte, Universidade Federal de Santa Catarina

Bacharel em Animação pela Universidade Federal de Santa Catarina (UFSC). Bolsista PIBIC entre os anos de 2023 e 2024, com o foco de pesquisa na utilização de captura de movimentos por sensores inerciais na área da animação. E atualmente mestranda no Programa de Pós- -Design da UFSC.

Irandir Izaquiel Paulo, Universidade Federal de Santa Catarina

Doutor em Design com ênfase em Tecnologia pela UFSC, na linha de Gestão de Design com foco em Ergonomia e Design Centrado no Ser Humano. Mestre em Design (UFSC, 2021) e graduado em Design (UFPB, 2019). Membro do Núcleo de Gestão de Design e Laboratório de Usabilidade (UFSC) e pesquisador do grupo “ErgoTO” (UFPE). Experiência em Projeto de Produto, Gestão de Projetos, Design Inclusivo e Universal, Tecnologia Assistiva, Ergonomia, Usabilidade e Sustentabilidade.

César Nunes Giracca, Universidade Federal de Santa Catarina

Mestre em Design com ênfase em Tecnologia pela UFSC, Doutorando em Engenharia de Produção (PPGEP/UFSC), Graduado em Engenharia Biomédica. Especialista em compostos de carbono e testes internacionais, com amplo conhecimento em normativas nacionais e internacionais. Experiência avançada em eletrônica, desde dispositivos IoT até grandes estruturas elétricas prediais. Atua em Engenharia Clínica, desenvolvimento de produtos médico-hospitalares, manutenção de redes e microcomputadores, além de atividades no setor automotivo. Colaborador científico do Núcleo de Gestão de Design e Laboratório de Usabilidade (NGD/LDU/UFSC), com foco em inovação e tecnologia aplicada.

Eugenio Andrés Díaz Merino, Universidade Federal de Santa Catarina

possui graduação em Desenho Industrial pela Universidade Federal do Rio de Janeiro, mestrado e Doutorado em Engenharia de Produção pela Universidade Federal de Santa Catarina. Atualmente é professor Titular da Universidade Federal de Santa Catarina e coordena o Núcleo de Gestão de Design e o Laboratório de Design e Usabilidade. Com uma abordagem Interprofissional vem desenvolvendo atividades integradas entre Design, Engenharia e Saúde, (IDES) e áreas afins. Participa dos programas de pós-graduação em Design (6) e Engenharia de Produção (6) ambos da UFSC. Atualmente é chefe do Departamento de Gestão, Mídias e Tecnologia (UFSC). Realizou Estágio Sênior na Universidad Politécnica de Valencia (UPV Espanha - CAPES). Atualmente é chefe do Departamento de Gestão, Mídias e Tecnologia, pesquisador CNPq PQ 1A.

Giselle Schmidt Alves Díaz Merino, Universidade do Estado de Santa Catarina (UDESC)

Pesquisadora CNPq (PQ 1D) em Design e coordenadora do Comitê de Avaliação de Design (CNPq). Professora na UDESC e nos Programas de Pós-Graduação em Design da UDESC e UFSC. Orientadora premiada pelo Prêmio CAPES de Tese (2020). Pós-Doutora em Fatores Humanos (UDESC/Universidade Politécnica de Valência). Doutora e Mestre em Design (UFSC), com foco em Metodologias de Projeto e Gestão de Design. Graduada em Desenho (UDESC). Atua no NGD e LDU (UFSC) desde 2000, ministrando disciplinas como Ergonomia, Usabilidade e Design Centrado no Ser Humano. Lidera pesquisa em Design Universal, Tecnologia Assistiva e interprofissionalidade em projetos.

References

AIRES, Daniel Silva. Choreobox: objetos hipercoreográficos ou partículas do tempo em dança. 2022. 292 f. Tese (Doutorado) - Curso de Pós-Graduação em Artes Cênicas, Instituto de Artes, Universidade Federal do Rio Grande do Sul, Porto Alegre, 2022.

AUTODESK. Autodesk MotionBuilder: bring characters and creatures to life. Bring characters and creatures to life. Disponível em: https://www.autodesk.com/products/motionbuilder/overview?us_oa=dotcom-us&us_si=8159177f-299c-4dd1-ba04-0e57fed4801d&us_pt=MOBPRO&us_at=Vis%C3%A3o%20geral&term=1-YEAR&tab=subscription&plc=MOBPRO. Acesso em: 14 maio 2024.

GROW, Kevin. INSOMNIAC GAMES: RESISTANCE 3. 2011. Disponível em: https://www.movella.com/resources/cases/insomniac-games-resistance-3. Acesso em: 29 maio 2024.

KERLOW, I. V. - The Art of 3D Computer Animation and Effects (fourth edition), 2009.

OLVERA, Ruben. Kaxan Games. 2013. Disponível em: https://www.movella.com/resources/cases/kaxan-games. Acesso em: 29 maio 2024.

PARTARAKIS, N.; ZABULIS, X.; CHATZIANTONIOU, A.; PATSIOURAS, N.; Adami, I. An Approach to the Creation and Presentation of Reference Gesture Datasets, for the Preservation of Traditional Crafts. Appl. Sci. 2020, 10, 7325. https://doi.org/10.3390/app10207325. DOI: https://doi.org/10.3390/app10207325

PARTARAKIS, N.; ZABULIS, X.; FOUKARAKIS, M.; MOUTSAKI, M.; ZIDIANAKIS, E.; PATAKOS, A.; ADAMI, I.; KAPLANIDI, D.; RINGAS, C.; TASIOPOULOU, E. Supporting Sign Language Narrations in the Museum. Heritage 2022, 5, 1-20. https://doi.org/10.3390/heritage5010001. DOI: https://doi.org/10.3390/heritage5010001

PROETTI, Saulo Godoy; DEL VECHIO, Gustavo Henrique. A CAPTURA DE MOVIMENTO COMO TECNOLOGIA PARA DAR FLUIDEZ NATURAL AOS MOVIMENTOS DE PERSONAGENS E OBJETOS 3D. Revista Interface Tecnológica, v. 17, n. 1, p. 82-94, 2020. DOI: https://doi.org/10.31510/infa.v17i1.752

RIKI, J. K.. How Fast Should You Animate? 2013. Disponível em: https://www.animatorisland.com/how-fast-should-you-animate/

Root, John. What is motion capture? In: OKUN, Jeffrey A.; ZWERMAN, Susan. The VES Handbook of Visual Effects: Industry Standard VFX Practices and Procedures. Burlington, Ma: Focal Press, 2010. Cap. 4. p. 335-336.

SILVA, E. L.; MENEZES, E. M. Metodologia da pesquisa e elaboração de dissertação. 4. ed. Florianópolis: UFSC, 2005. Disponível em: http://tccbiblio.paginas.ufsc.br/files/2010/ 09/024_Metodologia_de_pesquisa_e_elaboracao_de_teses_e_dissertacoes1.pdf. Acesso em: 07 mai. 2024.

SUN, Kaiqiang. Research on Dance Motion Capture Technology for Visualization Requirements. Scientific Programming, [S.L.], v. 2022, n. 2062791, p. 1-8, 17 nov. 2022. Anual. Hindawi Limited. http://dx.doi.org/10.1155/2022/2062791. DOI: https://doi.org/10.1155/2022/2062791

TEIXEIRA, E. et al. (2014). RIL métodos de revisão. Revista de Enfermagem da UFPI , 2(5), 3. DOI: https://doi.org/10.26694/reufpi.v2i5.1457

WELLS, P.. Understanding Animation, London, Routledge, 1998.

WINDER, Catherine; DOWLATABADI, Zahra. Producing Animation. 2. ed. Oxford, Uk: Focal Press, 2011. p.368. DOI: https://doi.org/10.1016/B978-0-240-81535-0.00009-2

XSENS. Moven: user manual. Moven Motion Capture System. The Netherlands: Xsens Technologies B.V. 2012.

XSENS. Ted. 2012. Disponível em: https://www.movella.com/resources/cases/ted Acesso em: 14/05/2024.

Published

2024-12-26

How to Cite

Duarte, A. C. A. P., Paulo, I. I., Nunes Giracca, C., Andrés Díaz Merino, E., & Merino, G. S. A. D. (2024). Motion Capture and Animation: set of procedures for converting motion capture using inertial sensors from the MVN Studio PRO (Xsens) software to MotionBuilder. DAT Journal, 9(4), 71–85. https://doi.org/10.29147/datjournal.v9i4.841