Con todo el orgullo de un fundador de startup, Alberto Carvalho, superintendente del Distrito Escolar Unificado de Los Ángeles, subió al escenario en marzo para lanzar Ed el chatbot. Les dijo a los padres y estudiantes que tenía “el potencial de personalizar el viaje educativo a un nivel nunca antes visto en este distrito, en el país o en el mundo.”
“Ninguna otra tecnología puede cumplir en tiempo real esta promesa”, dijo. “Sabemos que tendrá éxito”.
En junio, después de solo tres meses y casi $3 millones, el distrito eliminó a Ed luego de despidos de más de la mitad del personal en AllHere, la startup que hizo el asistente de IA conversacional. La portavoz del distrito, Britt Vaughan, se negó a responder preguntas sobre el desempeño del bot o cuántos estudiantes y padres lo usaron antes del cierre.
También en junio, una controversia de IA se desarrolló en San Diego, donde, según informes, los miembros de la junta escolar no sabían que el distrito el verano pasado compró una herramienta que sugiere automáticamente calificaciones para las tareas de escritura. La controversia comenzó después de que la maestra de Point Loma High School, Jen Roberts, dijo a CalMatters que usar la herramienta le ahorraba tiempo y reducía el agotamiento, pero también a veces daba calificaciones incorrectas a los estudiantes. Una semana después, Voice of San Diego citó a dos miembros de la junta escolar diciendo que desconocían que el distrito había firmado un contrato relacionado con la IA. De hecho, nadie en la junta parecía saber acerca de la herramienta, dijo el medio de noticias, ya que se incluyó como parte de un contrato más amplio con Houghton Mifflin que se aprobó por unanimidad sin discusión junto con más de 70 otros elementos. (Ninguno de los miembros de la junta respondió a las solicitudes de comentarios de CalMatters. El portavoz del Distrito Escolar Unificado de San Diego, Michael Murad, dijo que como la IA es una tecnología en rápida evolución, “haremos un esfuerzo mayor para informar a los miembros de la junta de detalles adicionales relevantes relacionados con los contratos presentados a ellos en el futuro”.)
Los errores en Los Ángeles y San Diego pueden remontarse a la creciente presión sobre los educadores para adoptar la IA y subrayar la necesidad de que los tomadores de decisiones hagan más y más preguntas difíciles sobre dichos productos antes de comprarlos, dijeron personas que trabajan en la intersección de educación y tecnología. Los expertos externos pueden ayudar a los líderes educativos a evaluar mejor las soluciones de IA, dijeron estas personas, pero incluso hacer preguntas básicas y exigir respuestas en un lenguaje sencillo puede ser de gran ayuda para evitar el arrepentimiento del comprador.
Nadie discute que los educadores enfrentan demandas crecientes para encontrar formas de usar la IA. Tras el lanzamiento de la herramienta de IA generativa ChatGPT de OpenAI hace casi dos años, el Departamento de Educación de California publicó orientación haciendo referencia a una “revolución de IA” y alentando la adopción de la tecnología. Los educadores que hablaron anteriormente con CalMatters expresaron temor de que si se pierden la revolución, sus estudiantes podrían quedarse atrás en el aprendizaje o la preparación laboral.
Grading AI tools
Las deficiencias de personal, el tecno-optimismo, el deseo de estar a la vanguardia y el miedo a quedarse atrás empujan a los educadores a adoptar la inteligencia artificial, dijo Hannah Quay-de la Vallee, una tecnóloga senior en el Center for Democracy and Technology, una organización sin fines de lucro que estudió cómo los profesores y estudiantes están adoptando la inteligencia artificial generativa.
Ella piensa que los eventos recientes en Los Ángeles y San Diego muestran que más líderes educativos necesitan involucrarse en un análisis crítico antes de llevar herramientas de inteligencia artificial a las aulas. Pero si una herramienta de inteligencia artificial en particular merece más escrutinio depende de cómo se usa y del riesgo que represente para los estudiantes. Algunas formas de inteligencia artificial, como las utilizadas para calificar y predecir si un estudiante abandonará la escuela, dijo, merecen un alto riesgo.
La Unión Europea regula la inteligencia artificial de manera diferente según el nivel de riesgo, y en EE. UU., el National Institute of Standards and Technology lanzó un marco de referencia para ayudar a los desarrolladores, agencias gubernamentales y usuarios de tecnología de inteligencia artificial a manejar el riesgo.
El superintendente de las escuelas estatales de California, Tony Thurmond, no estuvo disponible para responder a las preguntas de CalMatters sobre cualquier acción que pueda tomar para ayudar a prevenir futuros problemas de inteligencia artificial en las escuelas.
Los legisladores están considerando un proyecto de ley que requeriría que el superintendente convocara a un grupo de trabajo para hacer recomendaciones sobre el uso “seguro y efectivo” de la inteligencia artificial en la educación. El proyecto de ley fue presentado por Josh Becker, un demócrata del Valle del Silicio, y respaldado por Thurmond y la Federación de Maestros de California.
Quay-de la Vallee sugiere que los educadores trabajen con organizaciones que evalúen y certifiquen herramientas tecnológicas educativas como Project Unicorn, una organización sin fines de lucro que evalúa productos de tecnología educativa.
Cuando los líderes educativos se apresuran a adoptar la inteligencia artificial de proveedores de tecnología educativa ansiosos por vender IA, ambos pueden saltarse pasos, dijo Michael Matsuda, superintendente del Distrito Escolar Secundario de la Unión de Anaheim, quien organizó una cumbre de IA en marzo a la que asistieron educadores de 30 estados y más de 100 distritos escolares.
Él piensa que los problemas recientes de IA en San Diego y Los Ángeles demuestran la necesidad de evitar dejarse llevar por la moda y de evaluar las afirmaciones hechas por las empresas que venden herramientas de IA.
Los distritos escolares pueden evaluar el rendimiento de las herramientas de IA en las aulas con la ayuda de maestros con mentalidad tecnológica y personal de IT interno, dijo Matsuda. Pero también hay ayuda disponible de organizaciones sin fines de lucro como The AI Education Project, que asesora a distritos escolares de todo el país sobre cómo utilizar la tecnología, o un grupo como la Asociación de Mesas Directivas Escolares de California, que tiene un grupo de trabajo de IA que intenta ayudar a distritos y condados a “navegar por las complejidades de la integración de la inteligencia artificial”.
“Tenemos que trabajar juntos, considerar lo que aprendimos de los errores y ser sinceros al respecto”, dijo. “Hay muchos productos buenos saliendo, pero tienes que tener la infraestructura y políticas estratégicas y políticas del consejo para evaluar realmente algunas de estas cosas”.
Los líderes educativos no siempre tienen una comprensión íntima de la tecnología utilizada por los maestros en su distrito escolar. Matsuda dijo que el Distrito Escolar Secundario de la Unión de Anaheim utiliza la IA para personalizar el material de aprendizaje de los estudiantes e incluso ofrece clases a los estudiantes interesados en una carrera en IA, pero dijo que no sabe si los educadores de Anaheim utilizan la IA para calificar hoy. Después de los eventos en San Diego, Matsuda dijo que el distrito puede considerar etiquetas de alto riesgo para ciertos casos de uso, como la calificación.
Utilizando el sentido común
No es necesario ser un experto en IA para ser crítico con las afirmaciones hechas sobre lo que la IA puede hacer por los estudiantes o los profesores, dijo Stephen Aguilar, co líder del Centro de IA Generativa y Sociedad de la Universidad del Sur de California, y ex desarrollador de tecnología educativa. Los funcionarios del distrito que firman contratos con empresas de IA necesitan conocer sus propias políticas, saber qué busca lograr el distrito al firmar el contrato y hacer preguntas. Si los contratistas no pueden responder preguntas en un inglés sencillo, eso puede ser una señal de que están exagerando lo que es posible o tratando de esconderse detrás de jerga técnica.
“Creo que todos deberían tomar lecciones aprendidas de LA Unified y hacer un análisis post mortem, hacer preguntas que no se hicieron y ralentizar las cosas”, dijo Aguilar. “Porque no hay prisa. La IA se va a desarrollar, y realmente depende de las empresas de IA edtech demostrar que lo que están vendiendo vale la inversión.”
Realmente depende de las empresas de IA edtech demostrar que lo que están vendiendo vale la inversión.
— Stephen Aguilar, Centro de IA Generativa y Sociedad, Universidad del Sur de California
El desafío, dijo, es que no se evalúa un modelo de IA una vez. Diferentes versiones pueden producir resultados diferentes, y eso significa que la evaluación debe ser un proceso continuo.
Aguilar dijo que si bien los eventos en las escuelas de Los Ángeles y San Diego demuestran la necesidad de una mayor escrutinio de la IA, los administradores de los distritos escolares parecen estar convencidos de que tienen que estar a la vanguardia de la tecnología para hacer su trabajo, y eso simplemente no es cierto.
“No sé cómo entramos en este ciclo”, dijo.
El mercado está presionando a los proveedores de edtech para incluir IA en sus productos y servicios, las fundaciones están presionando a los líderes escolares para incluir IA en su plan de estudios, y se les dice a los profesores que si no adoptan herramientas de IA, sus estudiantes podrían quedarse atrás, dijo Alix Gallagher, jefa de asociaciones estratégicas del Centro de Análisis de Políticas para la Educación de California en la Universidad de Stanford.
Dado que la IA se está incorporando a muchos productos existentes y contratos que implican currículos, es muy probable que la junta escolar de San Diego no esté sola al descubrir inesperadamente la IA incluida en un contrato. Gallagher dijo que el personal administrativo necesitará hacer preguntas sobre planes de estudios complementarios o actualizaciones de software.
“Es casi imposible para los distritos y las escuelas mantenerse al día”, dijo. “Definitivamente creo que es aún más cierto en los distritos escolares más pequeños que no tienen personas adicionales para dedicar a esto.”
Gallagher dijo que la IA puede hacer cosas positivas como reducir el agotamiento de los profesores, pero los profesores individuales y los distritos escolares pequeños no podrán mantenerse al día con el ritmo del cambio, por lo que organizaciones sin fines de lucro de confianza u oficiales de educación estatales deberían ayudar a determinar qué herramientas de IA son confiables. La pregunta en California, dijo, es ¿quién se va a animar y liderar ese esfuerzo?
###
CalMatters.org es una empresa mediática sin fines de lucro y no partidista que explica las políticas y la política de California.