School Rubric

Ideas emergentes, riesgos crecientes.

Sería estupendo saber de verdad de dónde salen las ideas nuevas. Javier Sampedro recuerda la anécdota del matemático Poincaré caminando hacia el autobús, pensando en cualquier cosa menos en matemáticas, y de pronto se encuentra con la solución que llevaba meses persiguiendo. 

El científico de datos Justo Hidalgo relaciona esa chispa inesperada con las llamadas “propiedades emergentes” de la IA: en cuanto los modelos son lo bastante complejos, empiezan a hacer cosas que nadie les ha explicado paso a paso.

A quienes estamos en educación nos obliga a preguntarnos: ¿cómo integramos todo esto en el aula?

Os recomendamos el trabajo de Juan José de Haro y su “Marco para la integración de la IA generativa en las tareas educativas”, dondepropone una escala muy sencilla de entender, del nivel 0 al 5: desde el trabajo completamente humano hasta la situación en que la IA crea casi todo y la persona solo supervisa. Entre medias, reformular, planificar, usar borradores, cocrear… Pone nombre a lo que ya estamos haciendo. ¿Este trabajo del alumnado está en un nivel 1, en un 3, en un 4? ¿Qué permitimos, qué no, y por qué? 

Esa transparencia, precisamente, es lo que se rompe en la historia que cuenta Enrique Dans en “Grokipedia y la era de la megalomanIA”. Ahí no hablamos de un uso pedagógico de la IA, sino de un experimento de poder: tomar Wikipedia y rehacerlo con IA para que encaje con la visión de una sola persona cuyo nombre no se puede pronunciar mas de tres veces seguidas.  Lo que hace fuerte a Wikipedia es que cualquiera puede ver quién cambió qué y discutirlo. Grokipedia, tal y como la describe Dans, hace justo lo contrario: una caja negra con megáfono, donde el sesgo se viste de objetividad. 

Sobre esto, Jeremy Carmona, en su artículo “Lo que aprendí enseñando ética de la IA a humanos” insiste en que la mayoría de “fallos de la IA” no son técnicos, son humanos: malas instrucciones, objetivos mal definidos, nadie preguntándose qué pasará si ese modelo toma una decisión injusta. Propone una prueba muy simple que podríamos llevar mañana mismo al aula: el “test del titular”. Si lo que estás haciendo con IA saliera mañana en portada con tu nombre, ¿te sentirías orgulloso? Si la respuesta es “no” o “no lo sé”, el problema no es del algoritmo, es ético. Es tu problema. 

Cuando nos vamos a nivel internacional, la cosa se lía aun mas. Cordula Droege, responsable jurídica del Comité Internacional de la Cruz Roja  recuerda que hay sistemas autónomos capaces de elegir objetivos sin que el humano sepa exactamente a quién, dónde y cuándo van a golpear. Si un arma no distingue entre civil y combatiente, es indiscriminada, y por tanto ilegal. La pregunta no es tanto “qué puede hacer la tecnología”, sino “qué estamos dispuestos a permitir que haga”.

Mientras tanto, en el terreno del marketing tecnológico/ idas de olla, Roxana Ologeanu-Taddei, en “Laderas del desierto y superinteligencia: persiguiendo el espejismo”, compara el hype de la superinteligencia con el megaproyecto NEOM en Arabia Saudí, un megaproyecto futurista concebido como una ciudad-región inteligente y sostenible, con un coste estimado de 500.000 millones de dólares: ciudades imposibles en el desierto, fachadas espejo, presupuestos que se disparan, impactos brutales sobre la naturaleza… y una realidad física y material que no coopera. Porque es un desierto.  Con la IA pasa algo parecido: mucha narrativa de ciencia ficción y, por debajo, otro desierto, en este caso de datos desordenados y de desgobernanza.  Los proyectos de IA empiezan limpiando datos, no salvando el mundo. 

Y mientras hablamos de guerras, superproyectos y enciclopedias, la violencia se sigue colando en el instituto o en el colegio de debajo de tu casa. Taryn Parker-Holmes, en “Sextorsión con deepfakes de IA en las escuelas”, relata el caso de una chica de 15 años que ve circulando un falso desnudo suyo, generado con IA, por los grupos de clase y, posiblemente, por webs porno. La imagen es sintética; el daño es real.La carga de actuar recae casi siempre en la víctima y su entorno. 

No necesitamos máquinas más listas: necesitamos comunidades educativas más lúcidas, más críticas y más cuidadosas. Y una IA que, en el sistema educativo, esté al servicio de aprender mejor juntos, no de reescribir la realidad ni de hacer más daño y más rápido.

La solución: educación. Con mayúscula. Y tilde en la “o”.

Referencias. 

Dans, E. (2025, 15 de noviembre). Grokipedia y la era de la megalomanía. Enrique Dans. https://www.enriquedans.com/2025/11/grokipedia-y-la-era-de-la-megalomania.html (enriquedans.com)
De Haro, J. J. (2025, 3 de noviembre). Marco para la integración de la IA generativa en las tareas educativas (V. 2 revisada). Bilateria Educación. https://educacion.bilateria.org/marco-para-la-integracion-de-la-ia-generativa-en-las-tareas-educativas-v-2-revisada (educacion.bilateria.org)
Ologeanu-Taddei, R. (2025, 10 de noviembre). Desert slopes and superintelligence: Chasing the mirage. Policy Panorama. https://medium.com/policy-panorama/desert-slopes-and-superintelligence-chasing-the-mirage-7ced552fbcbb (Medium)
Pascual, M. G. (2025, 12 de noviembre). Cordula Droege (Cruz Roja): “Ya prohibimos las armas químicas y biológicas, ahora le toca a las armas con IA”. El País. https://elpais.com/tecnologia/2025-11-12/cordula-droege-cruz-roja-ya-prohibimos-las-armas-quimicas-y-biologicas-ahora-le-toca-a-las-armas-con-ia.html (El País)
Carmona, J. (2025). What I learned teaching AI ethics to humans. Medium. https://medium.com/@jcarmona86/what-i-learned-teaching-ai-ethics-to-humans-0a71460df32b (Medium)
“Desert slopes and superintelligence” (véase Ologeanu-Taddei, R., 2025)
“AI deepfake sextortion in schools” (autor no especificado) [Artículo en Medium]. https://archive.is/20251114095021/https://medium.com/fourth-wave/ai-deepfake-sextortion-in-schools-ac47e236cf4f (Medium)
ChatGPT. (2025). ChatGPT (versión November 2025) [Modelo de lenguaje]. OpenAI. https://openai.com/chatgpt

Compártelo
Luis Gómez.
Maestro de primaria con 25 años de experiencia. Especialista en Educación Física. Ha formado parte del equipo directivo de un centro público de educación infantil y primaria en Sevilla durante 12 años y ha coordinado proyectos como "El Deporte en la Escuela", "Creciendo en Salud" y "Coeducación". Es Director del Podcast IA y Educación. Entre sus aficiones se incluye el deporte, siendo además fundador de la Asociación Carros de Fuego, que facilita la participación de personas con diversidad funcional en pruebas deportiva como carreras populares, trail , triatlon y orientación.

Categorías
Tags: , , , , ,