¿Se convertirá la inteligencia artificial en la mayor ayuda para la educación superior desde el aprendizaje en línea? (Esto supone que el aprendizaje en línea iba una bendición, que es un tema para otro día.) ¿O significará la destrucción total de la academia tal como la conocemos? Esas son las dos opiniones que veo expresadas con mayor frecuencia en estos días, con varias personas a las que respeto tomando lados opuestos.
Como alguien que es naturalmente escéptico ante este tipo de retórica exagerada, creo que la respuesta se encuentra en algún punto intermedio. A pesar de los mensajes contundentes pero contradictorios que rodean a la IA y sus aplicaciones en la educación superior, hasta ahora mi trabajo me ha afectado muy poco. Aunque podría estar equivocado, no espero que esto me afecte mucho en el futuro.
Entonces: ¿debería cambiar la forma en que hago todo para adaptarme a esta “última novedad”? ¿O debería correr hacia las colinas y orar para que las montañas caigan sobre mí? Quizás no debería hacer ninguna de las dos cosas, confiado en que cuanta más atención reciba un juguete nuevo, probablemente menos merezca.
La rapidez con la que la IA llegó al campus el invierno pasado, en forma de ChatGPT, y la velocidad con la que, de la noche a la mañana, se convirtió en todo de lo que se hablaba, recuerdan otros acontecimientos muy publicitados de un pasado no muy lejano. ¿Recuerdas el año 2? Todas nuestras computadoras dejarían de funcionar. Los aviones caerían del cielo. La civilización retrocedería a la Edad de Piedra. Sin embargo, como sospechaba firmemente que sería el caso, nada de eso sucedió. Resultó ser una gran “hamburguesa sin nada”, como dicen.
¿O qué tal la introducción del scooter Segway a principios de la década de 2000? ¿Alguien más recuerda el publicidad rodeando eso? Se suponía que iba a “cambiar fundamentalmente” la forma en que todos vivimos. Alerta de spoiler: no fue así.
Más recientemente, podría señalar (con cierta inquietud) el pánico de Covid de la primavera de 2020, cuando nos obsequiaron con escenas de chinos cayendo muertos en las calles, tomas de camiones congeladores afuera de los hospitales de Nueva York y conteos de muertes en las noches. noticias. La implicación era clara: esta enfermedad respiratoria estaba a la par del Ébola o la peste bubónica. Sin embargo, nada de eso, o al menos muy poco, era real.
Es ahora aparente que, si restamos de los totales tan publicitados aquellos que murieron con el virus en contraposición a obtenidos de el virus, así como aquellos cuyas muertes fueron realmente causadas por los tratamientos que recibieron (o no recibieron) y aquellos que murieron debido a otras medidas de “mitigación” como los cierres, la “pandemia” de Covid ascendió a poco más de un par de malas temporadas de gripe, si eso.
En otras palabras, la pandemia también fue principalmente exageración. Nunca fue tan malo como nos dijeron el gobierno y los funcionarios de salud pública. Pero de todos modos lo aceptamos. Esto se ha convertido en una característica principal de la sociedad moderna, la llamada “era de la información”, en la que eventos relativamente menores son regularmente desproporcionados por la potente combinación de opinión “experta” y medios de comunicación, especialmente las redes sociales.
La obsesión actual con todo lo relacionado con la IA me parece solo la última versión de esta tendencia. No creo que resulte ser un fracaso total, como el Segway, pero sí creo que pronto se volverá endémico, solo parte del paisaje, como el Covid y la gripe. Puedo estar equivocado; el tiempo dirá. Quizás dentro de uno o dos años adopte la IA con entusiasmo y escriba un libro gigante. mea culpa. Pero lo dudo.
Mientras tanto, ¿cómo deberíamos responder aquellos de nosotros que enseñamos en campos no relacionados con la informática a la existencia de la IA y todo el revuelo que la rodea? Como alguien que enseña principalmente escritura universitaria, tengo colegas que adoptan con entusiasmo la IA, cambian todas sus tareas y alientan a los estudiantes a "trabajar con ella". Aunque me agradan y respeto a muchas de esas personas, no estoy de acuerdo con su enfoque. Como profesores de humanidades, en particular, tenemos un trabajo diferente.
Me enseñaron que las “humanidades” abarcan todo lo que nos hace exclusivamente humanos: arte, literatura, filosofía y religión. El propósito de ofrecer cursos de humanidades es ayudar a los estudiantes a abrazar más plenamente su humanidad: a pensar por sí mismos, expandir sus mentes, explorar y aceptar sus esperanzas, sueños y temores más profundos. Me parece que la inteligencia artificial es la antítesis de todo eso, como sugiere incluso el propio nombre.
Después de todo, ¿cuál es la razón para permitir que los estudiantes utilicen la IA en el aula de humanidades, y mucho menos alentarlos a hacerlo y enseñarles cómo hacerlo? ¿Porque probablemente lo utilizarán en algún momento de su vida profesional y tal vez incluso en otros cursos? Bien. Permítales aprender a usarlo en otros lugares (si es que realmente necesitan que se les enseñe). ¿Porque “les facilita las cosas”? ¿Qué estamos haciendo exactamente más fácil? ¿Pensamiento? ¿Por qué querríamos hacer eso?
Todo profesor de humanidades sabe que pensar bien es un trabajo duro, que no es algo natural para la mayoría de las personas, que, por lo tanto, deben disciplinarse para hacerlo de manera consistente y que llegar a ser un pensador claro es, no obstante, una búsqueda que vale la pena porque aporta grandes beneficios personales y profesionales. recompensas. Por mi vida, no entiendo por qué querríamos que los estudiantes hicieran algo que les exige pensar. less o sugiere que dejar su pensamiento en manos de una máquina es una buena idea.
¿Y qué hay de escribir? Una de las cosas que sigo escuchando de los entusiastas de la IA es que aún podemos enseñar a pensar pero permitir que los estudiantes usen la IA para ayudarlos a expresar sus pensamientos. No, lo siento, no funciona de esa manera. Todo escritor entiende, o debería entender, que, en un sentido muy real, escribir is pensamiento. No son dos actividades separadas. Están inextricablemente vinculados.
De hecho, una de las principales formas en que enseñamos a pensar a los estudiantes es enseñándoles a escribir, con sus propias palabras, con su propia voz, involucrando sus propios cerebros. Personalmente, no veo la necesidad de enseñar a mis alumnos a escribir como robots. Obtienen suficiente de eso en sus clases AP de la escuela secundaria. Enseñarles a escribir como seres humanos reales.que es el desafío.
Mencioné anteriormente el hecho de que la rápida y repentina llegada de ChatGPT a los campus universitarios fue recibida con numerosos pronunciamientos desde arriba. Uno de ellos, en mi caso, llegó en forma de un correo electrónico del jefe de mi departamento, sin duda instigado por el decano y probablemente por el rector, informándonos que debíamos incluir una “Declaración sobre IA” en nuestro programa de estudios. Hay que reconocer que esos administradores no nos dijeron qué decía la declaración ni cómo debíamos abordar el tema, sólo que necesitábamos que los estudiantes supieran lo que planeábamos hacer.
Me parece bien. Después de pensar un poco en el asunto, escribí lo siguiente, que ahora forma parte del programa de estudios de todos mis cursos de escritura:
El objetivo principal de este curso es ayudarle a aprender a expresarse, de forma clara y convincente, con su propia voz única: sus pensamientos e ideas, sus emociones (cuando corresponda), sus palabras. Ese tipo de autenticidad tiene un gran valor, tanto a nivel personal como profesional. La IA puede ser una herramienta útil para muchas cosas, pero no puede ayudarte a parecer la mejor versión de ti mismo. También es malo para seguir instrucciones y tiende a inventar cosas, lo cual puede arruinar las calificaciones. Por todos estos motivos, NO PUEDES utilizar IA en ninguna de tus tareas de este curso.
Hago todo lo posible para estructurar las tareas de escritura para que no puedas simplemente entregárselas a ChatGPT. Pero, por supuesto, no siempre lo consigo, y los estudiantes inteligentes a menudo pueden encontrar una solución. (Nunca entenderé por qué no simplemente aplican esa inteligencia a las tareas). Si puedo demostrar que usaste IA, y hay programas para ayudar con eso, recibirás un cero en esa tarea. Si no puedo probarlo, pero la escritura suena robótica (independientemente de si realmente usaste IA o no), es casi seguro que recibirás una calificación más baja que si escribieras con tu propia voz. (He estado leyendo ensayos que parecían escritos por robots desde mucho antes de que apareciera la IA. Me refiero a eso como “Síndrome AP”). Una gran parte de lo que estoy tratando de enseñarles es cómo escribir en de tal manera que suene como un ser humano real, inteligente y único, con personalidad, experiencias, pasiones y opiniones, y no como un programa de computadora sin alma.
¿Puedo realmente impedir que los estudiantes utilicen ChatGPT o cualquier otra forma de IA? Probablemente no. Pero a través de una combinación cuidadosamente seleccionada de enseñanza, estímulo, engatusamiento, un poco de engaño y ajuste continuo de mis tareas, al menos puedo hacer que les resulte más difícil simplemente subcontratar su escritura o pensamiento al cerebro de la colmena.
Si eso me vuelve anticuado, anticuado, miope, obstinado, intransigente, poco cool o un estereotipado “Boomer”, que así sea. Siempre creeré que mi trabajo es ayudar a los estudiantes a aprender a cultivar su propia inteligencia, no a depender de la artificial.
Entonces, oye, ¿ChatGPT? Sal de mi césped.
Publicado bajo un Licencia de Creative Commons Atribución Internacional
Para reimpresiones, vuelva a establecer el enlace canónico en el original Instituto Brownstone Artículo y Autor.