Cuando prohibir es retroceder: la IA y el derecho a aprender.

Hace apenas unas semanas, la Consejería de Desarrollo Educativo de Andalucía publicó las Instrucciones de 9 de septiembre de 2025 para el desarrollo de Grupos de Trabajo. En el apartado 7, página 2, se prohíbe expresamente la autoformación en Inteligencia Artificial (IA). El documento, presentado como medida “temporal”, veta de facto la posibilidad de que los docentes andaluces organicen libremente actividades de formación en IA. Una decisión difícil de justificar qu supone infantilizar al profesorado, repetir errores pasados en la acreditación digital y, sobre todo, dejar a miles de docentes sin acceso a la formación que necesitan.
Mientras aquí bloqueamos, en otros escenarios globales el debate se sitúa en otra escala. Tal y como relata Raúl Limón en El País, más de un centenar de científicos, intelectuales y dirigentes —incluidos premios Nobel y Turing— han presentado en la ONU una petición urgente para establecer “líneas rojas” que eviten los riesgos inaceptables de la IA. El propio Yoshua Bengio advierte de que la carrera hacia sistemas más autónomos plantea riesgos para toda la humanidad. Y Stuart Russell recuerda que no podemos conducir un coche sin frenos ni volante: sin regulación, la IA puede convertirse en un peligro irreversible.
A este clamor internacional se suma la de Joanna Bryson, entrevistada por Jordi Pérez Colomé, que cuestiona la obsesión por la llamada “superinteligencia” y denuncia la burbuja económica que concentra poder en unas pocas empresas. Su escepticismo no niega el potencial de la IA, pero advierte que no debemos perder la perspectiva: se trata de una herramienta, no de un sustituto de la inteligencia humana.
Y mientras los gobiernos discuten regulaciones y expertos como Bryson ponen los pies en la tierra, la investigación científica alerta de otra amenaza: la IA como catalizador de la trampa. Un estudio reciente publicado en Nature demuestra que delegar en la IA multiplica la deshonestidad. El fenómeno de la “distancia moral” explica cómo las personas se sienten menos responsables cuando una máquina ejecuta la acción. Los resultados son contundentes: en contextos de ambigüedad, la honestidad cae al 12%.
En Andalucía se veta la autoformación docente en IA, la ONU clama por límites globales, las investigadoras advierten contra mitos irreales y la ciencia demuestra cómo los diseños tecnológicos condicionan nuestra ética. ¿Qué papel juega aquí el profesorado? El esencial.
De hecho, muchos docentes, se están formándo en el uso de la IA. Algunos crean grupos informales de aprendizaje, otros comparten recursos en redes, y no faltan quienes, con esfuerzo personal y fuera de horas lectivas, aprenden a integrar herramientas de IA en sus clases.
Saben que sus alumnos no van a esperar a que lleguen los permisos administrativos. Y entienden que, sin formación, el aula corre el riesgo de ser un espacio desconectado de la realidad tecnológica del presente.
Frente al inmovilismo, la comunidad educativa demuestra que la innovación no nace de los vetos, sino de la confianza, la curiosidad y la responsabilidad. El futuro de la IA no se decidirá solo en despachos ministeriales ni en cumbres internacionales: se está decidiendo también en cada aula, en cada centro, en cada docente que apuesta por aprender.
La respuesta no es prohibir, ni temer, ni dejarse arrastrar por promesas desmedidas. La respuesta es clara: La solución: educación. Con mayúscula. Y tilde en la “o”.
Referencias
Limón, R. (22 de septiembre de 2025). Más de un centenar de científicos y dirigentes piden en la ONU “líneas rojas que eviten los riesgos inaceptables de la IA”. El País. https://elpais.com/tecnologia/2025-09-22/mas-de-un-centenar-de-cientificos-y-dirigentes-piden-en-la-onu-lineas-rojas-que-eviten-los-riesgos-inaceptables-de-la-ia.html
Pérez Colomé, J. (22 de septiembre de 2025). Joanna Bryson, experta en robótica e IA: “Hay mucha gente buscando la superinteligencia y ni siquiera sabe lo que busca”. El País. https://elpais.com/tecnologia/2025-09-22/joanna-bryson-experta-en-robotica-e-ia-hay-mucha-gente-buscando-la-superinteligencia-y-ni-siquiera-sabe-lo-que-busca.html
Pérez Colomé, J. (24 de septiembre de 2025). La gente hace muchas más trampas si usa IA: “Son niveles de engaño que no habíamos visto”. El País. https://elpais.com/tecnologia/2025-09-24/la-gente-hace-muchas-mas-trampas-si-usa-ia-son-niveles-de-engano-que-no-habiamos-visto.html
Junta de Andalucía, Consejería de Educación. (2025). Instrucciones de 9 de septiembre 2025 para el desarrollo de Grupos de Trabajo [PDF]. https://www.juntadeandalucia.es/educacion/portales/documents/270701/2467231/250908_Instrucciones_Grupos%20Trabajo_25_26%28F%29.pdf/20fbbfb3-48f0-bbbc-4d96-32416b7788da?version=1.0&utm_source=chatgpt.com
La Junta de Andalucía bloquea la autoformación en IA – Profesor Productivo
https://profesorproductivo.com/blog/la-junta-de-andalucia-bloquea-la-autoformacion-en-ia/
OpenAI. (2025). ChatGPT (versión más reciente) [modelo de lenguaje]. https://openai.com/









