Search
Now showing items 1-2 of 2
Mejorando reconocimiento de entidades nombradas del español mediante la especialización BETO
(2022)
En este trabajo se realizarán tareas de especialización sobre BETO, que es un modelo de lenguaje no supervisado, equivalente al modelo del lenguaje BERT, pero entrenado sobre un corpus de gran volumen del español. Intentaremos ...
Aprendizaje no supervisado para cómputo de similitud en programas con errores
(2023-12-23)
En este trabajo se proponen estrategias de extracción de información que se utilizaron para automatizar el proceso de respuesta a dudas planteadas por estudiantes de la plataforma Mumuki. Nuestro enfoque implica entrenar ...