School Rubric

Apoye nuestra misión de conectar y compartir información con educadores de todo el mundo.

¿Y si lo más rebelde que puedes hacer este año es sentarte y leer un libro difícil?

Por Luis Gómez Peñalver

Así empieza Javier Sampedro su artículo, con una provocación: pensar cuesta, pero no hay otro camino si queremos entender lo que nos rodea. En un mundo que nos bombardea con contenidos fáciles, leer despacio, confundirse y seguir leyendo se vuelve un acto casi revolucionario. Él lo dice desde la física cuántica, ese terreno en el que la lógica se tambalea y todo parece absurdo… hasta que comprendes que ahí se sostiene gran parte del mundo moderno.

ero mientras unos se atreven a pensar, otros prefieren cerrar los ojos, como en la Comunidad de Madrid.  La inteligencia artificial, que podría ayudarnos a ir más allá, también se ha convertido en terreno de disputa. En IE University, como cuenta Sara Castro, profesores y alumnos trabajan con ChatGPT Edu sin miedo. No se trata de dejarle hacer todo, sino de usarlo bien. No copian, no delegan, no se rinden: discuten con la máquina, la ponen a prueba y la usan para llegar más lejos. Esa manera de aprender, con preguntas reales y sentido crítico, está cambiando la forma en la que se dan las clases.

No todos lo ven así. El filósofo Daniel Innerarity se plantea: ¿quién decide cuando aparentemente nadie decide?
Habla de algo que va más allá de las aulas: si dejamos que las máquinas decidan por nosotros, ¿qué queda del gobierno por parte de las personas? ¿Podemos detener la tecnología por un tiempo? ¿Nos sirven los códigos de conducta que muchos repiten sin pensar? Innerarity no se conforma. Dice que necesitamos mirar la IA con ojos políticos, no solo técnicos. Que lo que está en juego no es el funcionamiento de un programa, sino el tipo de sociedad que queremos.

Y tiene razón. Porque cuando no se piensa bien lo que se hace, lo que llega es Veripol. La noticia, publicada por Civio, explica cómo esta herramienta diseñada por la Policía Nacional para detectar denuncias falsas acabó siendo retirada por no servir en un juicio ni cumplir con lo que prometía. Mal entrenada, poco clara, sin control. Un ejemplo concreto de lo que ocurre cuando el entusiasmo por lo automático pisa los derechos más básicos. Una alerta.

Pero quizá la alerta más seria sea la que lanza Elsa Arnaiz, que escribe sobre el colapso del ágora digital. Deepfakes, bots, vídeos manipulados, noticias falsas que siembran dudas, ruido, sospechas. Ya no se trata de mentir mejor. Se trata de desorientar hasta que a nadie le importe si algo es verdad o no. Y en ese desconcierto, los ciudadanos se cansan. Se apartan. Dejan de participar. Y así, poco a poco, se va vaciando la democracia.

En Estados Unidos, las políticas contra la ciencia de Donald Trump han provocado una nueva fuga de cerebros. Investigadores de instituciones clave están pensando en marcharse. Porque no pueden trabajar sin medios. Porque se sienten despreciados. Porque prefieren irse antes que ver cómo se desmantelan años de avances por culpa de la ignorancia y el desprecio al conocimiento. Lo cuenta un artículo sobre la oferta que una universidad francesa ha lanzado a estos científicos. Quizá ganemos en Europa. Pero todos perdemos.

Por eso volvemos al principio. A la invitación de Sampedro: leer con calma, pensar sin miedo, no conformarse con lo primero que aparece en la pantalla. Porque si no lo hacemos, otros pensarán por nosotros. O peor aún, no pensará nadie, y será un sistema automático el que decida.
Y entonces sí que será tarde.

La solución: Educación. Con tilde en la “o”. 

Referencias. 

Dans, E. (2025, 20 de marzo). Fuga de cerebros, Trump y las actitudes anti-científicas. https://www.enriquedans.com/2025/03/fuga-de-cerebros-trump-y-las-actitudes-anti-cientificas.html

El País. (2025, 19 de marzo). La Policía Nacional deja de usar VeriPol, su IA estrella para detectar denuncias falsas. https://elpais.com/tecnologia/2025-03-19/la-policia-nacional-deja-de-usar-veripol-su-ia-estrella-para-detectar-denuncias-falsas.html


El País. (2025, 19 de marzo). El dilema de la inteligencia artificial: ¿quién decide cuando aparentemente nadie decide? https://elpais.com/ideas/2025-03-19/el-dilema-de-la-inteligencia-artificial-quien-decide-cuando-aparentemente-nadie-decide.html


Retina Tendencias. (2025). El colapso del ágora digital: cómo la IA generativa está enterrando la democracia del debate. https://retinatendencias.com/analisis/el-colapso-del-agora-digital-como-la-ia-generativa-esta-enterrando-la-democracia-del-debate/


El País. (2025, 17 de marzo). Cuando los profesores apuestan por ChatGPT: “La inteligencia artificial nos hace mejores, es una aliada”. https://elpais.com/educacion/2025-03-17/cuando-los-profesores-apuestan-por-chatgpt-la-inteligencia-artificial-nos-hace-mejores-es-una-aliada.html


El País. (2025, 15 de marzo). Sé rebelde y lee un libro difícil. https://elpais.com/opinion/2025-03-15/se-rebelde-y-lee-un-libro-dificil.html

 OpenAI. (2025). ChatGPT (versión GPT-4.5-turbo) [Modelo de lenguaje]. OpenAI. https://openai.com/chatgpt

 

Compártelo
Luis Gómez.
Maestro de primaria con 25 años de experiencia. Especialista en Educación Física. Ha formado parte del equipo directivo de un centro público de educación infantil y primaria en Sevilla durante 12 años y ha coordinado proyectos como "El Deporte en la Escuela", "Creciendo en Salud" y "Coeducación". Es Director del Podcast IA y Educación. Entre sus aficiones se incluye el deporte, siendo además fundador de la Asociación Carros de Fuego, que facilita la participación de personas con diversidad funcional en pruebas deportiva como carreras populares, trail , triatlon y orientación.

Categorías
Tags: , , , ,