Search
Now showing items 1-3 of 3
Mejorando reconocimiento de entidades nombradas del español mediante la especialización BETO
(2022)
En este trabajo se realizarán tareas de especialización sobre BETO, que es un modelo de lenguaje no supervisado, equivalente al modelo del lenguaje BERT, pero entrenado sobre un corpus de gran volumen del español. Intentaremos ...
Usar la historia del diálogo para mejorar modelos de Visual Question Answering
(2022)
En este trabajo presentamos algunas técnicas para poder crear modelos que utilicen el historial de una conversación para responder preguntas sobre una imagen. En particular desarrollamos sobre un modelo llamado Oráculo que ...
Aprendizaje no supervisado para cómputo de similitud en programas con errores
(2023-12-23)
En este trabajo se proponen estrategias de extracción de información que se utilizaron para automatizar el proceso de respuesta a dudas planteadas por estudiantes de la plataforma Mumuki. Nuestro enfoque implica entrenar ...