- 13 de septiembre de 2024
Un profesor descubrió que un grupo de estuiantes utilizó ChatGTP para resolver un examen, la historia completa aquí
El uso creciente de la inteligencia artificial se ha vuelto una realidad común en la vida diaria de las personas, con diversas aplicaciones revolucionarias en múltiples campos, incluido el ámbito escolar. Si bien la inteligencia artificial puede ser beneficiosa para los estudiantes, su mal uso presenta desafíos y dilemas éticos, especialmente en el contexto de los exámenes. Algunos estudiantes han encontrado formas de aprovechar esta tecnología para obtener respuestas rápidas y precisas, como el uso de chatbots o programas de reconocimiento de texto durante las evaluaciones.
Recientemente, en la Universidad de Costa Rica (UCR), un caso llamó la atención cuando dieciocho estudiantes fueron reprobados en un examen después de que su profesor, Melvin Campos Ocampo, descubriera que habían utilizado ChatGPT para responder preguntas abiertas en un curso de Humanidades del primer año de ingreso.
El profesor Melvin Campos Ocampo compartió esta situación en su cuenta personal de Facebook, donde reflexionó sobre el uso de la inteligencia artificial y mencionó que, junto con otros docentes, habían decidido prohibir su uso en el curso. A pesar de su "enojo apocalíptico" inicial, consideró que los estudiantes eran adolescentes en su primer año de universidad y que era su primera infracción, por lo que optó por no iniciar un proceso disciplinario formal.
En lugar de eso, decidió asignarles una calificación de cero en la evaluación afectada. Este caso resalta los desafíos éticos que la inteligencia artificial presenta en la educación y cómo su uso inapropiado puede tener consecuencias negativas para los estudiantes y la integridad académica. El profesor Melvin Campos Ocampo dejó en claro a través de un mensaje que prohíbe el uso de inteligencia artificial en su curso debido a que considera que esto constituye un fraude académico.
Según Campos, el empleo de inteligencia artificial implica que los estudiantes intenten hacer pasar como propio un texto que no fue escrito por ellos, sino generado por una entidad externa, como una Inteligencia Artificial. Además, mencionó que esto representa un intento de engañar al docente, ya que los estudiantes no están elaborando sus propias evaluaciones ni demostrando su verdadero aprendizaje.
Campos reveló que utilizó cinco herramientas para detectar el uso de ChatGPT, una de las cuales es proporcionada por OpenAI, la misma empresa creadora del programa. También mencionó que empleó Turnitin, una herramienta utilizada por la universidad para el control de plagio en textos. En respuesta a la reacción generada en redes sociales y las discusiones sobre las calificaciones otorgadas, el académico amplió su mensaje en Facebook y proporcionó las direcciones electrónicas de las herramientas de verificación utilizadas.
Aclaró que en algunos casos hubo explicaciones que demostraron el conocimiento de los estudiantes, y en esos casos, les restableció la calificación, afirmando que no hubo ninguna injusticia. Campos afirmó que, tras la calificación, los estudiantes aceptaron el uso de la herramienta y que tuvo conversaciones con ellos sobre la gravedad de la acción, la cual comprendieron.
Ninguno de los estudiantes perdió el curso y, por respeto a su privacidad, Campos no proporcionó los nombres de los estudiantes afectados. Además, está preparando un informe para presentarlo a la Universidad de Costa Rica. El profesor admitió que se sorprendió por el interés generado por su publicación y que, de haberlo previsto, quizás no lo hubiera compartido. Sin embargo, agregó que es importante poner en evidencia el uso de la inteligencia artificial y reflexionar sobre su uso adecuado y el papel de las universidades.
Síguenos en Google News para más noticias
Notas Relacionadas
2