Lorin Koch

ChatGPT en el aula:

Usos, limitaciones y las experiencias en alumnos y maestros

El mundo de la educación ha entrado en el primer curso escolar completo, 2023-2024, con Inteligencia Artificial (IA) generativa. Fue a principios del 2023 cuando la introducción de ChatGPT desató una oleada de aprensión entre los maestros. Cundía el temor de que esta avanzada tecnología trastornaría el panorama educativo. A medida que avanzamos en el primer año completo de su implantación, empezamos a ver sus beneficios potenciales y a comprender sus posibles inconvenientes. Los educadores siguen explorando y comprendiendo mejor las implicaciones de esta tecnología innovadora y seguirán haciéndolo durante algún tiempo en el futuro.

A pesar de los temores iniciales, la IA generativa se muestra prometedora para ayudar a los educadores en su trabajo y ofrecer nuevas oportunidades a los alumnos. Al mismo tiempo, las limitaciones actuales de la tecnología pueden provocar diversas consecuencias inesperadas.

ChatGPT no es la única fuente de IA generativa. Hay docenas, si no cientos, de grandes modelos lingüísticos (LLM, por sus siglas en inglés) similares, que realizan variaciones del mismo proceso. Algunas aplicaciones destacadas son Bard de Google, Bing Chat de Microsoft, Socrat.AI y Claude de Anthropic. ChatGPT fue el primer modelo ampliamente conocido, lanzado públicamente en noviembre de 2022. En este artículo, por lo tanto, utilizo ChatGPT como una abreviatura para toda la IA generativa, incluso si algunas herramientas actúan de manera algo diferente. [Insertar Recuadro 1 aquí.]

Los LLM se infiltran en la educación

ChatGPT fue el despliegue tecnológico público más rápido de la historia. Facebook tardó dos años en alcanzar el millón de usuarios. Instagram tardó dos meses y medio. ChatGPT tardó cinco días.1 Esta rápida implementación creó tensiones en las aulas ya que los maestros querían abordar su uso, pero no sabían cómo, sobre todo teniendo en cuenta la rapidez de los avances y los cambios. La posibilidad de revelar el secreto del método para el fraude más eficaz que jamás haya existido atenuaba cualquier idea de sacar a la luz el tema.

Los maestros no tenían por qué preocuparse: sus alumnos ya lo sabían. Los alumnos no ignoran el desarrollo tecnológico. Prestan atención a las noticias, aunque normalmente a través de videos de YouTube o de las redes sociales. Un antiguo alumno mío, que se graduó de la secundaria en el curso escolar 2023, dice que los estudiantes se enteraron del ChatGPT por internet, a través de memes y publicaciones en TikTok, y después de un popular episodio de televisión2 a mediados del curso escolar. Otro antiguo alumno, que el año pasado terminó el grado 10 de secundaria, afirma que los videos de YouTube ya hablaban de ChatGPT en noviembre de 2022. Este estudiante fue uno de los primeros en adoptarlo, se inscribió en diciembre y corrió la voz entre otros estudiantes en enero y febrero de 2023.

Las primeras reacciones fueron de entusiasmo (por parte de los estudiantes) y de horror (por parte de los maestros). Profesores y maestros temían que ChatGPT dejara obsoleta la redacción de ensayos, ya que los estudiantes podrían completar sus trabajos en cuestión de segundos y con muy poco esfuerzo. ¿Sería el fin de la redacción? ¿El fin de las tareas escolares?

Al poco tiempo, casi todo el mundo conocía ChatGPT. Los alumnos de mi escuela adventista que confiaban en su capacidad para escribir sus propios pensamientos quizá se sintieran menos tentados, pero los más jóvenes o menos maduros lo veían como un atajo para evitar tareas consideradas lentas, difíciles o molestas. Un alumno no se enorgullecía de admitir que lo utilizaba en las tareas, pero la posibilidad de librarse de hacer el trabajo era demasiado fuerte como para ignorarla. Este estudiante utilizó ChatGPT tanto para ayudar con la lluvia de ideas como para escribir trabajos completos, que luego necesitaban edición. Si el objetivo era ahorrar trabajo, ChatGPT no lo consiguió: El tiempo invertido en solucionar los problemas de los artículos generados por la IA fue mayor que el tiempo que habría tardado en escribir el artículo.

Las posibilidades de la IA en las escuelas

A medida que la tecnología se hacía más conocida y su uso más generalizado, algunos maestros empezaron a pasar del horror al optimismo cauto, llegando a ver ChatGPT como una herramienta más en su caja de herramientas educativas. Nathaniel Whittemore, presentador del podcast The AI Breakdown [El desglose de la IA], afirma que los educadores y los estudiantes siempre se encuentran entre los primeros usuarios adaptables de las nuevas tecnologías.3 La tecnología ha presentado este tipo de posibilidades muchas veces. A modo de comparación, la calculadora alteró la forma de enseñar matemáticas, pero tras un periodo de resistencia, los maestros aprendieron rápidamente a adaptar sus planes de estudio a la nueva herramienta.4

La IA generativa presenta otro tipo de desafío. Esta tecnología era totalmente desconocida para la mayoría de los educadores hace apenas un año. Sin embargo, si los maestros pueden abrirse a las oportunidades que brinda la IA generativa, ésta ofrece muchos usos beneficiosos. El Recuadro 2 contiene una lista de formas en que la IA generativa puede utilizarse en el aula que el autor ha recopilado de diversas fuentes y experiencias de maestros (véase el Recuadro 2 Formas en que puede utilizarse la IA generativa).

Se pueden encontrar muchas más ideas en Internet. Existen listas de ideas gratuitas, como una lista de más de 100 ideas creativas en Zenodo.5 Además, los investigadores están comenzando a publicar libros sobre el tema.6 Muchas de las ideas de la lista del Recuadro 2 proceden de Shah o Skrabut, entre otras fuentes. OpenAI también presentó un conjunto de entradas de blog, herramientas de ayuda y preguntas frecuentes a principios del curso 2023-2024 para educadores que se ocupan de la IA generativa.7

¿Qué limitaciones pueden esperar los maestros y alumnos?

Aunque la IA generativa parece proporcionar textos impresionantes la mayoría de las veces, tiene una serie de defectos que todos los usuarios deberían comprender. Los maestros deben saber que ChatGPT y otros modelos de IA a menudo carecen de sentido común, son imprecisos y se inventan detalles. Los alumnos también deben ser conscientes de la tendencia de la IA a inventarse cosas y del hecho de que tiene muy poca orientación ética. Actualmente, parece haber un acceso limitado a materiales de alta calidad disponibles a cierto precio, revisados por editores expertos de revistas respetadas.8

Los problemas de sentido común y precisión de ChatGPT se deben a que el modelo no entiende las palabras ni el lenguaje.9 El “cerebro” del ordenador simplemente predice lo que cree que quieres oír basándose en cálculos matemáticos y probabilidades. ChatGPT descompone letras y palabras en números binarios, y no tiene ni idea de si su información es exacta o no. Esto da lugar a algunas interacciones desconcertantes, como estas:

Usuario: ¿Cuántas erres (r) hay en la palabra idiosincrasia?

ChatGPT: Hay tres erres (r) en la palabra “idiosincrasia”.

Usuario: Explícame tu respuesta. Localiza todas las erres.

ChatGPT: Pido disculpas por la respuesta incorrecta en mi respuesta anterior. En realidad, hay dos erres en la palabra “idiosincrasia”. Aquí está el desglose correcto:

La primera r aparece después de la letra ‘i’.

La segunda r aparece después de la letra ‘o’.

Usuario: ¿Cuánto es 6257 x 962?

ChatGPT: El producto de 6257 multiplicado por 962 es 6,022,834.

Usuario: No, ¡no lo es!

ChatGPT: Pido disculpas por mi error en mi respuesta anterior. Calculemos el producto correcto de 6257 multiplicado por 962:

6257 x 962 = 6,014,134

Por lo tanto, el resultado correcto es 6,014,134. Gracias por señalar el error.10

(Por cierto, la respuesta correcta es 6,019,234.)

¿Por qué cometería un error tan básico como el número de erres de una palabra o la respuesta a un problema de multiplicación que cualquier calculadora acierta? Recuerda que los LLM se entrenan con textos en línea. Es muy poco probable que alguien en línea haya preguntado alguna vez cuántas erres hay en la palabra idiosincrasia. No les haría falta: Cualquiera que sepa reconocer letras puede contar las erres. Del mismo modo, mientras que es muy probable que el problema de multiplicación 7 x 5 esté en numerosos sitios web, el problema anterior puede no estar en ninguna fuente de internet. La IA tiene que hacer todo lo posible para dar con lo que “cree” que quieres. Las dos veces se acerca bastante. Pero ninguna de las dos respuestas es exacta. En los ejemplos anteriores, ChatGPT dispone de muy pocos datos de entrenamiento.

Esto también explica por qué ChatGPT tiende a inventarse información. Los observadores a veces se refieren a esto como alucinación, pero algunos investigadores prefieren el término confabulación para no humanizar demasiado a los modelos informáticos.11 ChatGPT simplemente no tiene forma de comprobar su información. Al igual que un estudiante sin preparación que hace una presentación, intenta utilizar el texto que conoce para parecer humano, lo que a veces da lugar a información muy confiada pero muy incorrecta. Un ejemplo destacado de esto fue la historia del abogado que utilizó ChatGPT como ayuda para preparar un caso, y acabó citando seis casos por su nombre, ¡ninguno de los cuales existía realmente!12 (Esta historia real debería mencionarse a todos los estudiantes que puedan verse tentados a utilizar la IA generativa).

Otro punto está relacionado con el hecho de que el texto generado por los LLM a veces es humillante y negativo. Dado que ChatGPT es la suma del material que conforma su fuente de datos, puede dar información y consejos que podrían ser tendenciosos u ofensivos. Aunque los programadores han dado a los LLM el objetivo de ser útiles y apropiados, no lo es así en algunos textos vistos en internet. ¿Cuánto texto tendencioso u ofensivo hay en línea? Eso debería darle una idea de lo que un LLM tiene que filtrar para intentar ayudar a los humanos.

AI y las escuelas cristianas

Las escuelas cristianas tienen algunas preocupaciones y oportunidades específicas relacionadas con el uso de la IA generativa. Un área de gran interés para los creyentes es el hecho de que la IA fue creada por humanos. Dios creó a los humanos a su imagen y nos dotó de una chispa de creatividad divina, que luego utilizamos para construir tecnología a nuestra imagen. La tecnología de la IA no es conciencia humana, por supuesto. Pero los programadores quieren que la IA responda como lo haría un ser humano, y esto plantea cuestiones importantes sobre la ética de cómo queremos que se relacione con nosotros.

Una tesis de 2022 analiza en profundidad el tema de la ética en la IA.13 En este estudio, el autor entrevistó a varias personas que trabajan en campos que conecta la fe y la tecnología. En estas entrevistas se analiza cómo la ética deseada y generada por los programadores, como la eficiencia y la precisión, difiere de la ética cristiana, como la humildad, el altruismo, el sacrificio, la misericordia y el amor. Varios de los entrevistados hablaron de las posibles ventajas de incluir el amor en los sistemas éticos, en comparación con los intentos de programar la ética en la IA.

Las preocupaciones mencionadas anteriormente, como la parcialidad y el contenido perjudicial, están directamente relacionadas con la programación ética de la IA generativa. Otras consideraciones éticas importantes planteadas por los críticos de la IA son el uso de deepfakes, la capacidad de proteger los datos privados y el temor a entregar la toma de decisiones humanas a la IA.14 Los entrevistados por Huizinga sugieren que incluir a Dios en la programación ética de la IA podría aliviar algunas de esas preocupaciones. Cuando la razón de la ética se basa en que Dios nos ama primero, actuamos éticamente como una forma de elevar a los demás hacia Dios. Pero cuando un sistema ético se basa en la eficacia, la precisión y en evitar contenidos específicos, es probable que no actúe de forma que beneficie verdaderamente a las personas. Por mucho que pensemos en la IA como un intelecto humano, es útil recordar que es una herramienta programada de formas que no incluyen necesariamente el amor por toda la humanidad.

Como herramienta, ChatGPT todavía puede proporcionar muchos beneficios, incluso específicamente para las necesidades únicas de las personas en las escuelas cristianas. La IA Generativa ofrece sugerencias de programación excepcionalmente buenas para eventos y servicios espirituales. Pensemos en un capellán de escuela muy ocupado que tiene que planificar una Semana de Oración. ChatGPT podría proporcionar rápidamente temas cohesivos, actividades atractivas y preguntas de reflexión para conectar el trabajo del curso de los estudiantes con los conceptos presentados en las reuniones. Pero siempre existe la preocupación de la exactitud. Aunque ChatGPT sabe mucho sobre la Biblia, puede que no proporcione material teológicamente sólido o fiel al texto original.15 Esta regla general para los estudiantes también se aplica aquí: Usar AI para ideas, pero haz tu propio trabajo. Dios nos llama a decir la verdad con amor (Efesios 4:15). Los maestros y los planificadores de eventos espirituales deben asegurarse que las sugerencias de IA utilizadas están en armonía con sus creencias, teniendo en cuenta las preocupaciones éticas comentadas anteriormente.

¿Qué está pasando con ChatGPT?

Cuando a ChatGPT se le ocurre algo extraño y no sabemos el por qué, nos ubicamos ante un ejemplo de lo que se conoce como “problema de alineación”.16 Esto ocurre cuando los objetivos de la IA no coinciden con los que nosotros le planteamos. En estas situaciones, los humanos no entendemos literalmente porqué tiene que realizar varios billones de cálculos para dar las respuestas. Un buen paso para entender por qué los LLM confabulan e introducen errores es comprender lo que las computadoras hacen detrás de los escenarios.17

Imagine una clase en la que el maestro adopta un enfoque poco ortodoxo del aprendizaje. En lugar de fijar objetivos de aprendizaje y estrategias clave, el maestro le dice a los alumnos: “Hagan cualquier cosa que se les ocurra. Tengo un objetivo para ustedes y les diré si se están aproximando al objetivo. ¡Inténtenlo!”

A medida que los alumnos “lo intentan”, el maestro les va dando un pulgar hacia abajo. Si escriben en la pizarra, les da un pulgar hacia abajo. Dibujar les da un pulgar hacia abajo. Abrir un libro de ciencias les da un pulgar hacia abajo.

Exasperado, un alumno se da por vencido y se dirige al rincón de los Legos, y el maestro, sorprendentemente, ¡le muestra el pulgar hacia arriba! Reanimados, los alumnos empiezan a coger Legos y a colocarlos en distintas configuraciones. Finalmente, crean un modelo de un problema de resta: 8 Legos - 5 Legos = 3 Legos. Sin que nadie les diga cuál es el objetivo, los alumnos llegan a una respuesta correcta.

Así es, a muy pequeña escala, como se entrenó a ChatGPT. En lugar de programar reglas y pruebas lógicas, se le hacían preguntas a la computadora. Si sus respuestas eran buenas, los humanos le daban el visto bueno. En el escenario de la clase anterior, con las limitaciones de tiempo de una jornada escolar, es muy posible que los alumnos nunca llegaran a determinar el objetivo del maestro. Pero si se repite este proceso millones, o miles de millones, de veces, se obtiene una computadora que es bastante buena respondiendo de una manera que los humanos entenderán. Esta no es probablemente la mejor manera de enseñar a una clase de estudiantes. El maestro sabe que los alumnos han llegado a una respuesta correcta, pero no sabe realmente lo que han entendido, si es que han entendido algo. Eso es básicamente lo que ocurre con las respuestas dadas por ChatGPT.

Tareas en que los LLM son deficientes

Viendo todo este panorama, los maestros pueden sentirse desesperanzados sobre si podrán evitar que ChatGPT se apodere de las tareas de sus alumnos. Algunos podrían tener la tentación de renunciar a intentar enseñar precisión, redacción, comprensión básica o incluso pensamiento crítico, ya que los LLM pueden hacerlo tan bien y no parece “importarles” cuando fallan. Sería una reacción comprensible, pero que hay que analizar con honestidad.

Los dos maestros a los que entrevisté para este artículo dijeron que no creen que ChatGPT deba sustituir las habilidades tradicionales de escribir, organizar y unir conceptos. Aunque la IA generativa pueda realizar bien las tareas básicas, sigue siendo importante que los alumnos sean capaces de hacerlas. Uno de los maestros mencionó que los alumnos necesitan habilidades rudimentarias para poder adquirir habilidades superiores. Hacer que la IA realice esas tareas más sencillas podría hacer que los maestros se apresuren hacia habilidades más complejas, dejando atrás a los alumnos que necesiten ayuda con habilidades de orden inferior y creando lagunas en la comprensión.18

Reflexionando sobre esta idea, un maestro comentó que debemos evitar el pensamiento de todo o nada sobre la tecnología. No todas las destrezas académicas tienen que hacerse utilizando internet, ni siquiera escribir a máquina. Las destrezas del pensamiento crítico suelen aprenderse mejor en una conversación o mediante actividades en clase. Además, aunque ChatGPT pueda escribir un soneto, eso no significa que la gente deba dejar de escribir sonetos.

Dicho esto, sigue siendo valioso conocer las tareas que ChatGPT no puede hacer actualmente o que le cuesta hacer bien. Esta lista es muy útil para los maestros que intentan minimizar la probabilidad de que los estudiantes intenten utilizar IA generativa para hacer su trabajo de clase.

Los LLM son deficientes para…

  • Analizar datos específicos de imágenes o videos mostrados en clase: Los LLM han empezado a ser capaces de entender lo que hay en las imágenes, pero aún les cuesta comprender el significado del material de imágenes y videos.
  • Realizar análisis que se basan en, o citan, el debate en clase. Las tareas que hacen referencia a lo ocurrido en clase solo pueden ser realizadas por personas que hayan estado presentes.
  • Proporcionar reacciones personales a fuentes específicas citadas: Los maestros pueden pedir a los alumnos que respondan y evalúen material específico mediante su propia comprensión. Los LLM pueden “fingir” que aplican la información a sus “vidas”, pero una conexión con la vida real será mucho más vívida.
  • Dar temas: Debido a que no tienen un sentido de cohesión general, los LLM tienen dificultades con el análisis del panorama general y con el uso de una ilustración más pequeña de un concepto más amplio. Tienden a repetir o incluso a contradecirse en pasajes largos.

Además de los puntos anteriores, los maestros también pueden estructurar el tiempo de clase en donde los alumnos realicen las tareas en la escuela y no por su cuenta, donde la oportunidad de utilizar un LLM es mayor. Para los maestros que deseen enseñar habilidades importantes de escritura, los puntos para el uso del tiempo de clase incluyen:

  • Asignar escritura en clase;
  • Pedir a los alumnos tener una lluvia de ideas y escriban a mano. (No se recomienda pedir a los alumnos que escriban a mano redacciones y pasajes más largos.19 Es posible que haya que hacer adaptaciones adicionales para alumnos con otras necesidades de aprendizaje);
  • Descomponer la escritura en pasos más pequeños que puedan completarse en clase;
  • Exigir el uso de algunas fuentes específicas a las que todos los alumnos tengan acceso;
  • Organizar conferencias individuales de redacción en las que los alumno expliquen sus razonamientos.

Descubrir el uso de ChatPGT

Los dos maestros adventistas con los que hablé para este artículo descubrieron a sus alumnos utilizando ChatGPT el curso pasado. Reflexionaron sobre lo extraño que fue descubrirlo. Ambos se dieron cuenta en una primera lectura de que los trabajos no habían sido escritos por los alumnos. El lenguaje no reflejaba la forma en que se había tratado el tema en clase y el trabajo no “coincidía” con lo que los alumnos habían escrito a principios de curso. Además, el contenido se describió como “exhaustivo, más al punto en que la mayoría de los estudiantes dejarían de hablar de algo”, pero también vago al mismo tiempo.

Cuando se les presentaron las pruebas, la mayoría de los alumnos admitieron enseguida que utilizaban ChatGPT. Uno de los alumnos afirmó que solo lo utilizaba para editar sus escritos y revisar la gramática, aunque el maestro dudó de esta afirmación.

Los dos maestros con los que hablé se mostraron indecisos al hablar de IA generativa con sus alumnos. Cuando los maestros no han utilizado mucho ChatGPT, puede que no se sientan seguros al informar a otros sobre él. Una de las maestras no sabía nada de ChatGPT antes de verlo en su clase. Sabía que el trabajo no había sido escrito por un alumno, pero no sabía de qué se trataba. Pasarlo por un detector de plagios no le ayudó, y se sintió confusa.

¿Se puede utilizar ChatGPT para entrampar a ChatGPT?

Hacia finales del curso escolar 2022-2023, docenas de empresas empezaron a sacar herramientas diseñadas para detectar texto generado por IA en las tareas. Estas herramientas, llamadas “clasificadores”, parecían prometer ser la nueva versión de los verificadores de plagio. OpenAI lanzó su propio clasificador en enero de 2023, con la advertencia de que se equivocaba la mayor parte del tiempo.20 Podía clasificar con precisión el texto de IA solo el 26% de las veces, lo que, por supuesto, significaba que fallaba el 74%, ¡y clasificaba erróneamente texto escrito por humanos como IA el 9% de las veces!

La teoría era que los clasificadores mejorarían con el tiempo y acabarían siendo capaces de determinar con un alto grado de certeza si el texto había sido escrito por un ser humano o por una computadora. Pero no ha sido así. El texto generado por IA es mucho más difícil de detectar que el texto plagiado, que probablemente se publicó en otro lugar. El reto es que el texto generado por IA no existe en ninguna parte, por lo que los clasificadores tienen que buscar otras características del texto. Para algunas comparaciones, son más predecibles que los humanos, suelen completar las frases de la misma manera que los demás y son más coherentes con la longitud y la estructura de las frases.

Con estas características, podría parecer posible determinar si un texto ha sido generado por una persona. Pero, hasta ahora, no son indicadores fiables.21 Hay mucho texto generado por computadora que sigue sin marcarse (falsos negativos), y texto escrito por humanos que suele marcarse (falsos positivos). Las clasificaciones erróneas tienen consecuencias. Reprobar erróneamente a los alumnos por falsos positivos es injusto, y aceptar un texto falso negativo generado por IA no es ético.

Los falsos positivos ya han causado importantes trastornos, como cuando un profesor universitario amenazó con reprobar a toda su clase por el uso de ChatGPT.22 Peor aún es el hecho de que los estudiantes de inglés tienen más probabilidades de que sus escritos sean falsamente marcados como generados por IA, probablemente debido a una escritura predecible y limitada por el vocabulario.23

El problema de la clasificación es tan grave que algunos profesores podrían tener la tentación de preguntar simplemente a ChatGPT si escribió algo. En respuesta a esta idea, OpenAI afirma en sus Preguntas Frecuentes de la Guía del Profesor, que preguntar a ChatGPT si escribió algo, fallará: “ChatGPT no tiene ‘conocimiento’ de qué contenido podría ser generado por la IA o qué ha generado. A veces se inventará respuestas a preguntas como ‘¿has escrito tú esta redacción?’ o ‘¿podría haber sido escrito por la IA?’. Estas respuestas son aleatorias y no tienen fundamento”.24

No obstante, OpenAI ofrece algunas sugerencias a los maestros que deseen evitar el problema de que los alumnos entreguen como propio un texto generado por IA.25 Entre las sugerencias se incluyen incorporar la IA generativa en clase, enseñar a los alumnos a utilizarla de forma ética y responsable, y hacer que los alumnos muestren su trabajo a lo largo del proceso.

Conclusión

La IA generativa tiene el potencial de revolucionar la forma en que enseñamos y aprendemos. Con la explosión de LLM como ChatGPT, estamos viendo un nuevo mundo de aprendizaje personalizado que puede ayudar a estudiantes y maestros por igual. Sin embargo, es importante recordar que estos modelos son todavía relativamente nuevos e impredecibles. Es necesario comprender sus limitaciones a medida que los maestros (y los alumnos) los utilizan en clase.

A medida que avanzamos en la integración de la IA en nuestras aulas, haríamos bien en recordar las consideraciones éticas que conlleva. Tanto los maestros como los alumnos deben ser conscientes de las limitaciones de la IA, como la confabulación, la información inexacta y la posibilidad de sesgos y contenidos cuestionables. Los maestros deben tomar medidas para mitigar estos riesgos y educar a sus alumnos.

En última instancia, el éxito de la IA generativa en la educación dependerá de lo bien que podamos equilibrar las ventajas con las limitaciones. Trabajando juntos para desarrollar mejores prácticas y directrices, y compartiendo nuestros éxitos, podemos garantizar que esta tecnología se utilice de forma responsable y eficaz.


Este artículo ha pasado por la revisión de pares.

Lorin Koch

Lorin Koch, EdD, es autor de cursos para la Universidad Internacional Griggs, autor y promotor de cursos e instrucción para la Comunidad de Aprendizaje Adventista (ALC, por sus siglas en inglés), y asociado de desarrollo curricular para Pedagogy.Cloud, una empresa de consultoría educativa. Con 19 años de experiencia en educación adventista, el Dr. Koch ha trabajado como maestro de secundaria y director de admisiones en la Academia Adventista Livingstone (Salem, Oregón, EE. UU.) y en la Academia de Indiana (Cicero, Indiana, EE. UU.). Tiene un Máster en Currículo e Instrucción por la Universidad de Walla Walla (College Place, Washington, EE. UU.) y un Doctorado en Estudios Curriculares por la Universidad de Carolina del Sur (Columbia, Carolina del Sur, EE. UU.). Este artículo surgió de su presentación en la Convención de Educadores de la División Norteamericana en Phoenix, Arizona, en agosto de 2023, y de su trabajo de desarrollo de cursos para ALC.

Citación recomendada:

Lorin Koch, “ChatGPT en el aula: Usos, limitaciones y la experiencias en alumnos y maestros”, Revista de Educación Adventista 85:3 (2023).

NOTAS Y REFERENCIAS

  1. Noam Hassenfeld, (Host), “The Black Box: In AI We Trust?” [Audio podcast episode]. In Unexplainable. Vox Media Network (July 19, 2023): https://pod.link/unexplainable/episode/4517829cfa939b38f5464d865325c24f.
  2. Jez Corden, “The Latest Episode of South Park is About ... ChatGPT,” Windows Central (March 7, 2023): https://www.windowscentral.com/microsoft/the-latest-episode-of-south-park-is-about-chatgpt.
  3. Nathaniel Whittemore, (Host), “Are Educators Ready for a ChatGPT School Year?” [Audio podcast episode]. In The AI Breakdown. The Breakdown Network (September 1, 2023): https://pod.link/1680633614/episode/dd5a5e33112b0522483800a238c9f00e.
  4. William Pang, “The Common High-School Tool That’s Banned in College,” The Atlantic (December 22, 2016): https://www.theatlantic.com/education/archive/2016/12/the-conundrum-of-calculators-in-the-classroom/493961/.
  5. Chrissi Nerantzi et al., (eds.) “101 Creative Ideas to Use AI in Education: A Crowdsourced Collection,” Zenodo (2023): https://zenodo.org/record/8224168.
  6. Priten Shah, AI and the Future of Education: Teaching in the Age of Artificial Intelligence (San Francisco: Jossey-Bass, 2023); Stan Skrabut, 80 Ways to Use ChatGPT in the Classroom (Self-Published, 2023).
  7. OpenAI, “Teaching With AI” (August 31, 2023): https://openai.com/blog/teaching-with-ai.
  8. Sara Guaglione, “Why Protecting Paywalled Content From AI Bots is Difficult Business,” (August 7, 2023): https://digiday.com/media/why-protecting-paywalled-content-from-ai-bots-is-difficult-business/; Emily Dreibelbis, “‘Browse With Bing’ Disabled on ChatGPT Plus Because It Bypassed Paywalls” (July 5, 2023): https://www.pcmag.com/news/browse-with-bing-disabled-on-chatgpt-plus-because-it-bypassed-paywalls.
  9. Paul Thagard, “Why Is ChatGPT so Smart and So Stupid?” Psychology Today (February 23, 2023): https://www.psychologytoday.com/us/blog/hot-thought/202302/why-is-chatgpt-so-smart-and-so-stupid.
  10. Conversaciones generadas por el autor, utilizando el modelo GPT 3.5 de ChatGPT.
  11. Benj Edwards, “Why ChatGPT and Bing Chat Are So Good at Making Things Up: A Look Inside the Hallucinating Artificial Minds of the Famous Text Prediction Bots,” Ars Technica (April 6, 2023): https://arstechnica.com/information-technology/2023/04/why-ai-chatbots-are-the-ultimate-bs-machines-and-how-people-hope-to-fix-them/.
  12. Kathryn Armstrong, “ChatGPT: US Lawyer Admits Using AI for Case Research,” BBC News (May 27, 2023): https://www.bbc.com/news/world-us-canada-65735769.
  13. Gretchen Huizinga, “Righteous AI: The Christian Voice in the Ethical AI Conversation” (Dissertation, University of Washington, 2022): https://aiandfaith.org/wp-content/uploads/2022/09/RIGHTEOUS-AI-THE-CHRISTIAN-VOICE-IN-THE-ETHICAL-AI-CONVERSATION.pdf.
  14. Selin Akgun and Christine Greenhow, “Artificial Intelligence in Education: Addressing Ethical Challenges in K-12 Settings,” AI Ethics 2 (2022): 431-440. https://doi.org/10.1007/s43681-021-00096-7
  15. Jennifer A. Kingston, “Religious Leaders Experiment with ChatGPT Sermons,” Axios (March 10, 2023): https://www.axios.com/2023/03/10/pastors-chatgpt-sermons-rabbi-minister.
  16. Edd Gent, “What is the AI Alignment Problem and How Can it be Solved?” New Scientist (May 10, 2023): https://www.newscientist.com/article/mg25834382-000-what-is-the-ai-alignment-problem-and-how-can-it-be-solved/.
  17. Samuel R. Bowman, “Eight Things to Know About Large Language Models” (Unpublished manuscript 2023): https://arxiv.org/pdf/2304.00612.pdf.
  18. Shah, AI and the Future of Education: Teaching in the Age of Artificial Intelligence.
  19. Anna Mills and Lauren M. E. Goodlad, “Adapting College Writing for the Age of Large Language Models Such as ChatGPT: Some Next Steps for Educators,” Critical AI (January 17, 2023, updated April 17): https://criticalai.org/2023/01/17/critical-ai-adapting-college-writing-for-the-age-of-large-language-models-such-as-chatgpt-some-next-steps-for-educators/.
  20. Jan Hendrik Kirchner et al., “New AI Classifier for Indicating AI-written Text,” OpenAI (January 31, 2023): https://openai.com/blog/new-ai-classifier-for-indicating-ai-written-text.
  21. Benj Edwards, “Why AI Detectors Think the US Constitution Was Written by AI,” Ars Technica (July 14, 2023): https://arstechnica.com/information-technology/2023/07/why-ai-detectors-think-the-us-constitution-was-written-by-ai/.
  22. Pranshu Verma, “A Professor Accused His Class of Using ChatGPT, Putting Diplomas in Jeopardy,” Washington Post (May 19, 2023): https://www.washingtonpost.com/technology/2023/05/18/texas-professor-threatened-fail-class-chatgpt-cheating/.
  23. Weixin Liang et al., “GPT Detectors Are Biased Against Non-native English Writers,” Patterns 4:7 (July 14, 2023): 100779–100779. https://doi.org/10.1016/j.patter.2023.100779.
  24. OpenAI Help Center Educator FAQ, “Can I Ask ChatGPT if It Wrote Something?” (n.d.): Retrieved September 11, 2023, from https://help.openai.com/en/articles/8318890-can-i-ask-chatgpt-if-it-wrote-something.
  25. OpenAI Help Center Educator FAQ, “How Can Educators Respond to Students Presenting AI-generated Content as Their Own?” (n.d.): Retrieved September 11, 2023, from https://help.openai.com/en/articles/8313351-how-can-educators-respond-to-students-presenting-ai-generated-content-as-their-own.