Generación automática de meta-resúmenes para la evaluación del manejo de estructuras discursivas y coherencia en el alumnado
- Unai Atutxa
- Alejandro Molina Villegas
- Mikel Iruskieta Quintian
ISSN: 1135-5948
Año de publicación: 2021
Número: 66
Páginas: 165-175
Tipo: Artículo
Otras publicaciones en: Procesamiento del lenguaje natural
Resumen
La técnica de crowd-sourcing puede ser una herramienta de gran ayuda tanto para evaluar los resúmenes de los alumnos como para poder ofrecerles un feedback que ayude a mejorar sus destrezas para resumir. En este trabajo, se propone un enfoque para la generación de meta-resúmenes en euskera, con el objetivo de diseñar y desarrollar una evaluación automática de los resúmenes de extracción. Se presenta un nuevo algoritmo que permite usar los meta-resúmenes generados con las siguientes finalidades: i) comparar los resúmenes elaborados por alumnos de diferentes edades y cursos educativos (primaria y universidad), ii) evaluar los resúmenes creados en clase (evaluación de la clase) y iii) evaluar a cada alumno (evaluación individual). Los resultados muestran que el método propuesto, el cual se ha elaborado basándose en aspectos cualitativos (estructura discursiva de la coherencia) y cuantitativos (kappa de Fleis y distancia de Hamming), es apto para comparar grupos e individuos.
Referencias bibliográficas
- Alvarez, I. A. 2004. Evaluación y calificación de resúmenes de textos expositivos en el aula de ile/ife: la guía”babar”. Ib´erica: Revista de la Asociación Europea de Lenguas para Fines Específicos (AELFE), 1(8):81–99.
- Atutxa, U. 2018. Ikasleen laburpencorpusa eta laburpen-gaitasunaren ebaluazioa: oinarri metodologikoak. Master’s thesis, University of the Basque Country (UPV/EHU), Donostia.
- Atutxa, U., M. Iruskieta, O. Ansa, y A. Molina. 2017. Compress-eus: I (ra) kasleen laburpenak lortzeko tresna. EUUnai Atutxa,
- Cabrera-Diego, L. A. y J.-M. Torres-Moreno. 2018. Summtriver: A new trivergent model to evaluate summaries automatically without human references. Data & Knowledge Engineering, 113:184 – 197.
- CY, L. 2004. Rouge: a package for automatic evaluation of summaries. En Proceedings of the Workshop on Text Summarization Branches Out. Barcelona, Spain, páginas 56–60.
- Fleiss, J. L., B. Levin, y M. C. Paik. 2013. Statistical methods for rates and proportions. john wiley & sons.
- Iruskieta, M., A. D. Diaz de Ilarraza, y M. Lersundi. 2014. The annotation of the central unit in rhetorical structure trees: A key step in annotating rhetorical relations. En Proceedings of COLING 2014, the 25th International Conference on Computational Linguistics: Technical Papers, páginas 466–475.
- Louis, A. y A. Nenkova. 2009. Automatically evaluating content selection in summarization without human models. En Proceedings of the 2009 Conference on Empirical Methods in Natural Language Processing: Volume 1-Volume 1, páginas 306–314. Association for Computational Linguistics.
- Mann, W. C. y S. A. Thompson. 1987. Rhetorical structure theory: A theory of text organization. University of Southern California, Information Sciences Institute Los Angeles.
- Molina, A. y J.-M. Torres. 2015. El test de turing para la evaluación de resumen automático de texto. Linguamática, 7(2):45– 55.
- Molina-Villegas, A. 2013a. Compresión automática de frases: un estudio hacia la generación de resúmenes en espa˜nol. Inteligencia Artificial, 16(51):41–62.
- Molina-Villegas, A. 2013b. Sistemas web colaborativos para la recopilación de datos bajo el paradigma de ciencia ciudadana. Komputer Sapiens, 1(5):6–18.
- Nenkova, A. y R. J. Passonneau. 2004. Evaluating content selection in summarization: The pyramid method. En Proceedings of the human language technology conference of the north american chapter of the association for computational linguistics: Hlt-naacl 2004, páginas 145–152.
- Papineni, K., S. Roukos, T. Ward, y W.-J. Zhu. 2002. Bleu: a method for automatic evaluation of machine translation. En Proceedings of the 40th annual meeting on association for computational linguistics, páginas 311–318. Association for Computational Linguistics.
- Radev, D. R., H. Jing, M. Sty´s, y D. Tam. 2004. Centroid-based summarization of multiple documents. Information Processing & Management, 40(6):919–938.
- Radev, D. R. y D. Tam. 2003. Summarization evaluation using relative utility. En Proceedings of the twelfth international conference on Information and knowledge management, páginas 508–511.
- Saggion, H. 2008. A robust and adaptable summarization tool. Traitement Automatique des Langues, 49(2).
- Saggion, H. y T. Poibeau. 2013. Automatic text summarization: Past, present and future. En Multi-source, multilingual information extraction and summarization. Springer, páginas 3–21.
- Saggion, H., J.-M. Torres-Moreno, I. d. Cunha, y E. SanJuan. 2010. Multilingual summarization evaluation without human models. En Proceedings of the 23rd International Conference on Computational Linguistics: Posters, páginas 1059–1067.
- Sanz, A. 2005. Irakurmena lantzeko jarduerak nola prestatu: Lehen hezkuntzako 3. zikloa eta dbhko 1. zikloa. Nafarroako Gobernua.
- Zipitria, I., A. Arruarte, y J. A. Elorriaga. 2008. Lea: A summarization web environment based on human instructors’ behaviour. En 2008 Eighth IEEE International Conference on Advanced Learning Technologies, páginas 564–568. IEEE.
- Zipitria, I., P. Larra˜naga, R. Arma˜nanzas, A. Arruarte, y J. A. Elorriaga. 2008. What is behind a summary-evaluation decision? Behavior Research Methods, 40(2):597–612