• español
  • English
  • français
  • Deutsch
  • português (Brasil)
  • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    JavaScript is disabled for your browser. Some features of this site may not work without it.

    Parcourir

    Tout UVaDOCCommunautésPar date de publicationAuteursSujetsTitres

    Mon compte

    Ouvrir une session

    Statistiques

    Statistiques d'usage de visualisation

    Compartir

    Voir le document 
    •   Accueil de UVaDOC
    • PROJET DE FIN D'ÉTUDES
    • Trabajos Fin de Grado UVa
    • Voir le document
    •   Accueil de UVaDOC
    • PROJET DE FIN D'ÉTUDES
    • Trabajos Fin de Grado UVa
    • Voir le document
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano

    Exportar

    RISMendeleyRefworksZotero
    • edm
    • marc
    • xoai
    • qdc
    • ore
    • ese
    • dim
    • uketd_dc
    • oai_dc
    • etdms
    • rdf
    • mods
    • mets
    • didl
    • premis

    Citas

    Por favor, use este identificador para citar o enlazar este ítem:http://uvadoc.uva.es/handle/10324/25548

    Título
    Sistema de interacción visual para un robot social
    Autor
    Domínguez López, Mario
    Director o Tutor
    Gómez García-Bermejo, JaimeAutoridad UVA
    Editor
    Universidad de Valladolid. Escuela de Ingenierías IndustrialesAutoridad UVA
    Año del Documento
    2017
    Titulación
    Grado en Ingeniería en Electrónica Industrial y Automática
    Résumé
    El presente proyecto describe el desarrollo de un sistema de interacción hombremáquina para un robot móvil social constituido por dos subsistemas o módulos. El primer subsistema se encarga de la detección del interlocutor y su seguimiento facial. Para ello realiza una detección inicial a partir de la información suministrada por el láser de navegación del robot, para posteriormente fijar la atención a partir de la información obtenida con una cámara de rango tipo Kinect. El segundo subsistema de encarga de la generación de gestos del robot. Para ello se ha adoptado el estándar FACS (Facial Action Coding System), el cual permite su utilización en diferentes tipos de robots. La generación de expresiones se realiza mediante la combinación del movimiento controlado de cuello, párpados y ojos, con gestos mostrados en un display luminoso en la boca del robot.
    Materias (normalizadas)
    Robots-Diseño y construcción
    Departamento
    Departamento de Ingeniería de Sistemas y Automática
    Idioma
    spa
    URI
    http://uvadoc.uva.es/handle/10324/25548
    Derechos
    openAccess
    Aparece en las colecciones
    • Trabajos Fin de Grado UVa [30934]
    Afficher la notice complète
    Fichier(s) constituant ce document
    Nombre:
    TFG-P-645.pdf
    Tamaño:
    8.164Mo
    Formato:
    Adobe PDF
    Thumbnail
    Voir/Ouvrir
    Attribution-NonCommercial-NoDerivatives 4.0 InternationalExcepté là où spécifié autrement, la license de ce document est décrite en tant que Attribution-NonCommercial-NoDerivatives 4.0 International

    Universidad de Valladolid

    Powered by MIT's. DSpace software, Version 5.10