Please use this identifier to cite or link to this item: http://hdl.handle.net/10662/21251
Title: Analysis of ChatGPT Performance in Computer Engineering Exams
Authors: Rodríguez Echeverría, Roberto
Gutierrez Gallardo, Juan Diego
Conejero Manzano, José María
Prieto Ramos, Álvaro
Keywords: Chatbots;Chatbots;Inteligencia Artificial;Artificial Intelligence;Educación;Education
Issue Date: 2024
Abstract: La aparición de ChatGPT a finales del 2022 supuso un hito en el campo de las Inteligencias Artificiales Generativas, pero también causó un gran revuelo en el mundo académico. Por primera vez, una interfaz sencilla permitía a cualquier persona acceder a un modelo de lenguaje de gran tamaño y utilizarlo para generar texto. Estas capacidades pueden tener, sin duda, un im- pacto relevante en las metodologías de enseñanza-aprendizaje y también en los métodos de evaluación. Con el objetivo de obtener una medida real del posible desempeño de ChatGPT en la resolución de exámenes, se le ha puesto a prueba con los exámenes de 15 asignaturas de Ingeniería del Software de un grado de Ingeniería Informática. A la luz de los resultados, ChatGPT es capaz de lograr un desempeño relevante en estos exámenes; ya que, es capaz de superar una cantidad significativa de preguntas y problemas de diferente naturaleza en múltiples asignaturas. Como contribución fundamental, se proporciona un estudio detallado de los resultados por tipología de preguntas y problemas, que permite establecer unas recomendaciones a tener en cuenta en el diseño de los métodos de evaluación. Además, se presenta un análisis del impacto del aspecto no determinista de ChatGPT en las respuestas de las preguntas de test.
The appearance of ChatGPT at the end of 2022 was a milestone in the field of Generative Artificial Intelligence. How- ever, it also caused a shock in the academic world. For the first time, a simple interface allowed anyone to access a large language model and use it to generate text. These capabilities have a relevant impact on teaching-learning methodologies and assessment methods. This work aims to obtain an objective measure of ChatGPT’s possible performance in solving exams related to computer engineering. For this purpose, it has been tested with actual exams of 15 subjects of the Software Engineering branch of a Spanish university. All the questions of these exams have been extracted and adapted to a text format to obtain an answer. Furthermore, the exams have been rewritten to be corrected by the teaching staff. In light of the results, ChatGPT can achieve relevant performance in these exams; it can pass many questions and problems of different natures in multiple subjects. A detailed study of the results by typology of questions and problems is provided as a fundamental contribution, allowing recommendations to be considered in the design of assessment methods. In addition, an analysis of the impact of the non-deterministic aspect of ChatGPT on the answers to test questions is presented, and the need to use a strategy to reduce this effect for performance analysis is concluded.
Description: Versión aceptada del artículo publicado en IEEE Revista Iberoamericana de Technologias del Aprendizaje, vol. 19, pp. 71-80.
ISSN: 2374-0132
DOI: 10.1109/RITA.2024.3381842
Appears in Collections:DISIT - Artículos

Files in This Item:
File Description SizeFormat 
rita_3381842_pp.pdf2,62 MBAdobe PDFView/Open


This item is licensed under a Creative Commons License Creative Commons