• español
  • English
  • français
  • Deutsch
  • português (Brasil)
  • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    JavaScript is disabled for your browser. Some features of this site may not work without it.

    Listar

    Todo UVaDOCComunidadesPor fecha de publicaciónAutoresMateriasTítulos

    Mi cuenta

    Acceder

    Estadísticas

    Ver Estadísticas de uso

    Compartir

    Ver ítem 
    •   UVaDOC Principal
    • PRODUCCIÓN CIENTÍFICA
    • Departamentos
    • Dpto. Ingeniería de Sistemas y Automática
    • DEP44 - Artículos de revista
    • Ver ítem
    •   UVaDOC Principal
    • PRODUCCIÓN CIENTÍFICA
    • Departamentos
    • Dpto. Ingeniería de Sistemas y Automática
    • DEP44 - Artículos de revista
    • Ver ítem
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano

    Exportar

    RISMendeleyRefworksZotero
    • edm
    • marc
    • xoai
    • qdc
    • ore
    • ese
    • dim
    • uketd_dc
    • oai_dc
    • etdms
    • rdf
    • mods
    • mets
    • didl
    • premis

    Citas

    Por favor, use este identificador para citar o enlazar este ítem:https://uvadoc.uva.es/handle/10324/79353

    Título
    One-shot learning for rapid generation of structured robotic manipulation tasks from 3D video demonstrations
    Autor
    Duque Domingo, JaimeAutoridad UVA Orcid
    Caccavale, Riccardo
    Finzi, Alberto
    Zalama Casanova, EduardoAutoridad UVA Orcid
    Gómez García-Bermejo, JaimeAutoridad UVA Orcid
    Año del Documento
    2025
    Editorial
    Springer Nature
    Descripción
    Producción Científica
    Documento Fuente
    Journal of Intelligent Manufacturing, 2025.
    Resumen
    We present a framework that enables a collaborative robot to rapidly replicate structured manipulation tasks demonstrated by a human operator through a single 3D video recording. The system combines object segmentation with hand and gaze tracking to analyze and interpret the video demonstrations. The manipulation task is decomposed into primitive actions that leverage 3D features, including the proximity of the hand trajectory to objects, the speed of the trajectory, and the user’s gaze. In line with the One-Shot Learning paradigm, we introduce a novel object segmentation method called SAM+CP-CVV, ensuring that objects appearing in the demonstration require labeling only once. Segmented manipulation primitives are also associated with object-related data, facilitating the implementation of the corresponding robotic actions. Once these action primitives are extracted and recorded, they can be recombined to generate a structured robotic task ready for execution. This framework is particularly well-suited for flexible manufacturing environments, where operators can rapidly and incrementally instruct collaborative robots through video-demonstrated tasks. We discuss the approach applied to heterogeneous manipulation tasks and show that the proposed method can be transferred to different types of robots and manipulation scenarios.
    Materias (normalizadas)
    Aprendizaje único
    Aprendizaje robótico
    Aprendizaje por demostración
    Segmentación de actividades
    Materias Unesco
    1203 Ciencia de Los Ordenadores
    1203.04 Inteligencia Artificial
    ISSN
    0956-5515
    Revisión por pares
    SI
    DOI
    10.1007/s10845-025-02673-7
    Patrocinador
    Ministerio de Ciencia e Innovacion (MCIN) / Agencia Estatal de Investigación (AEI): PID2021-123020OB-I00 (MCIN/AEI/10.13039/501100011033/FEDER, UE)
    Consejería de Familia of the Junta de Castilla y León: EIAROB
    EU Horizon INVERSE: 101136067
    EU Horizon Melody: P2022XALNS
    EU Horizon euROBIN: 101070596
    Ministero dell'Università e della Ricerca: PE15 ASI/MUR
    Open access funding provided by FEDER European Funds and the Junta de Castilla y León under the Research and Innovation Strategy for Smart Specialization (RIS3) of Castilla y León 2021-2027.
    Version del Editor
    https://link.springer.com/article/10.1007/s10845-025-02673-7
    Propietario de los Derechos
    © The Author(s) 2025
    Idioma
    eng
    URI
    https://uvadoc.uva.es/handle/10324/79353
    Tipo de versión
    info:eu-repo/semantics/publishedVersion
    Derechos
    openAccess
    Aparece en las colecciones
    • DEP44 - Artículos de revista [83]
    Mostrar el registro completo del ítem
    Ficheros en el ítem
    Nombre:
    One-shot-learning-for-rapid-generation-structured-robotic-manipulation-tasks-3D-video.pdf
    Tamaño:
    4.963Mb
    Formato:
    Adobe PDF
    Thumbnail
    Visualizar/Abrir
    Attribution 4.0 InternacionalLa licencia del ítem se describe como Attribution 4.0 Internacional

    Universidad de Valladolid

    Powered by MIT's. DSpace software, Version 5.10