Tecnología

Padres demandaron a una escuela por acusar a su hijo de usar Inteligencia Artificial para hacer trampa

Los responsables legales advierten que los señalamientos de la entidad educativa afectan el futuro universitario y profesional del menor de edad.

Imagen de ilustración. Foto: Internet.
Tecnología | Infobae | 2024-11-25 14:20:21

Dale y Jennifer Harris, padres de un estudiante de la escuela secundaria Hingham, presentaron una demanda contra los funcionarios de la institución y el comité escolar tras acusar a su hijo de hacer trampa en un proyecto académico al emplear inteligencia artificial generativa.

Los Harris alegan en su demanda que la sanción fue injusta por la falta de normas claras sobre el uso de esta tecnología en el manual del estudiante.

Por otro lado, la escuela defendió su decisión, argumentando que el objetivo de la medida disciplinaria no es castigar, sino educar sobre la importancia de la honestidad académica y el uso ético de las herramientas tecnológicas en esta área.

Cuál es la acusación en contra del estudiante que usó IA

El caso se originó en diciembre de 2023, cuando el entonces estudiante de tercer año fue señalado junto a un compañero por haber utilizado texto generado por IA en un proyecto de Historia de Estados Unidos de nivel avanzado.

Según el informe emitido por el magistrado federal Paul Levenson y citado por Ars Technica, los estudiantes copiaron y pegaron contenido directamente desde una aplicación de IA generativa, que incluía citas ficticias de libros inexistentes, conocidas como “alucinaciones” de IA.

Aunque la escuela permitía el uso de inteligencia artificial para generar ideas y localizar fuentes, los funcionarios determinaron que ambos estudiantes habían violado las políticas escolares al presentar como propio el trabajo generado por IA.

De acuerdo con las declaraciones hechas por funcionarios en el procedimiento judicial, se demostró que este trabajo tomó aproximadamente menos de una hora en hacerse mientras que otros estudiantes tardaron más de siete horas en completar el mismo proyecto.

Además, la escuela sometió el documento a herramientas de detección de IA como Draft Back y Chat Zero, que confirmaron el uso de texto generado artificialmente.

Por qué demandaron los padres del estudiante a la escuela

Los Harris interpusieron una demanda buscando una orden judicial que obligara a la escuela a modificar la calificación de su hijo, junto con también eliminar el caso de su expediente disciplinario, antes de que comenzara el proceso de solicitudes universitarias.

La familia argumentó que el manual del estudiante no incluía normas específicas que prohibieran el uso de inteligencia artificial y sostuvieron que esta sanción era injusta porque no existía una regla de ese tipo.

Asimismo, los funcionarios escolares indicaron que el uso no autorizado de tecnologías, incluido el empleo inadecuado de IA, estaba implícitamente prohibido en las políticas del manual.

Qué decidió la justicia sobre esta caso que involucra el uso de IA La justicia federal rechazó la demanda. En su fallo, el magistrado Levenson concluyó que los argumentos de la escuela prevalecían tanto en los hechos como en la interpretación legal.

También, destacó que la falta de una regla explícita sobre la IA no exime a los estudiantes de cumplir con las normas generales de honestidad académica.

Según el tribunal, el uso indiscriminado de texto generado por IA, incluyendo información errónea, constituía una forma incompatible con los estándares educativos de la actividad académica.

Cómo debe manejarse la regulación en el uso de la IA en la escuela

El caso ha suscitado un debate más amplio, sobre cómo las instituciones educativas deben abordar el uso de herramientas de IA en el aula.

La popularidad de aplicaciones generativas como ChatGPT ha planteado nuevos desafíos para educadores, quienes buscan equilibrar el aprovechamiento de estas tecnologías con la necesidad de garantizar la integridad académica.

Por su parte, la ausencia de directrices claras en muchos centros educativos ha dejado un vacío normativo que casos como el de Hingham han puesto en evidencia.

Algunas instituciones han comenzado a incorporar políticas específicas sobre el uso de IA, pero al no ser generalizado puede dar lugar a situaciones similares en el futuro.