Vivimos en la hipnopIA

Por Luis Gómez Peñalver
Hace unas semanas hablamos del filósofo hongkonés Jianwei Xun y su novedosa teoría sobre la “hipnocracia”. Hoy debemos admitir que ni Xun existe ni la teoría es suya. Ha resultado ser un personaje creado por Andrea Colamedici con ayuda de inteligencia artificial para demostrar precisamente cómo la IA puede manipularnos. Lo más preocupante es que, en efecto, muchos medios serios (incluidos nosotros mismos) caímos en la trampa. Esta experiencia deja claro que ninguna fuente está ya totalmente fuera del alcance de la inteligencia artificial. Ya dados a inventar palabras, digamos que estamos en la “Hipnopia”.
Y es que, si miramos el AI Index Report 2025 de la Universidad de Stanford, la inteligencia artificial ya domina ámbitos clave como la salud, el transporte y la productividad laboral. Tan solo en 2024, Estados Unidos invirtió 109.100 millones de dólares en inteligencia artificial, mientras que China logró reducir casi por completo la brecha tecnológica con Occidente.
La IA no solo transforma industrias, también está redefiniendo nuestra vida emocional. Un claro ejemplo es la red social Status AI, donde todos los usuarios, excepto tú, son bots. Es una experiencia totalmente vacía y falsa donde puedes convertirte en la celebridad que siempre quisiste ser: fans, haters e incluso medios de comunicación te responden en tiempo real. Curiosamente, sus usuarios afirman que, aunque todo es irreal, se sienten menos frustrados que en redes convencionales. Al menos aquí, la ilusión de ser escuchado y admirado es constante, aunque sea solo una ficción tecnológica. Como decía Woody Allen, “el sexo sin amor es una experiencia vacía. Pero como experiencia vacía, es de las mejores”.
Este fenómeno tiene consecuencias en el mundo laboral, donde el lema parece ser: adaptarse o morir. El reto ahora no es solo aprender tecnología, sino integrarla en nuestro día a día, convirtiendo las herramientas en aliadas y no en rivales. Las empresas que lo han logrado, como BBVA o Iberdrola, reportan claros beneficios, pero esto exige un salto cultural importante que no todos están dispuestos o preparados para dar. Y esto nos lleva al mundo educativo. ¿Por qué será?
Docentes como Ramón Besonías ya están mostrando cómo convivir inteligentemente con esta tecnología. Lo penúltimo es que ha creado un asistente virtual para la asignatura de Filosofía que, con un estilo socrático, guía a los estudiantes en reflexiones políticas profundas. Aquí la IA no reemplaza al pensamiento crítico, lo potencia. Se convierte en un compañero intelectual que cuestiona, desafía y obliga al alumnado a argumentar mejor. Y de forma controlada: las conversaciones con la IA son monitorizadas por el docente, no para vigilar sino para evaluar cómo evoluciona el razonamiento del estudiante.
Pero fuera del aula, la inteligencia artificial también puede ser un arma de desinformación masiva, como muestra un estudio reciente del Media Forensics Hub de la Universidad de Clemson, que reveló cómo la web DCWeekly, apoyada en IA generativa, manipuló opiniones políticas en plena guerra de Ucrania. Curiosamente, estos bots escribían con instrucciones precisas para favorecer ciertas posturas políticas, alcanzando incluso a congresistas estadounidenses.
¿Y qué podemos hacer frente a esto? Según Amy Orben y J. Nathan Matias en la revista Science, esperar a tener certezas científicas absolutas sobre los efectos de la IA en nuestra salud es un lujo que no podemos permitirnos. En lugar de regular a ciegas o no regular en absoluto, proponen acelerar la investigación científica, usar métodos paralelos más rápidos, y considerar medidas preventivas aunque no dispongamos aún de todas las respuestas. Un ejemplo práctico que proponen es incluir datos sobre tecnología en informes oficiales de salud pública, igual que se hace con accidentes de tráfico o laborales.
La inteligencia artificial es una moneda de dos caras: puede enriquecer la educación, optimizar el trabajo y brindar reconocimiento virtual en una red social ficticia, pero también puede manipular percepciones y profundizar nuestra soledad.
¿La solución? Educación. Con tilde en la “o”.
Referencias
- Alonso Viña, D. (2025, abril 9). Adaptarse o morir: el reto de incorporar la IA en el trabajo. EL PAÍS. https://elpais.com/proyecto-tendencias/2025-04-09/adaptarse-o-morir-el-reto-de-incorporar-la-ia-en-el-trabajo.html
- Besonías, R. (2025, abril 8). El mejor gobierno: IA en el aula de Filosofía. IA en las aulas. https://iaenlasaulas.blogspot.com/2025/04/el-mejor-gobierno-ia-en-el-aula-de.html
- Limón, R. (2025, abril 6). Jianwei Xun, supuesto autor de la teoría de la hipnocracia, no existe y es fruto de la inteligencia artificial. EL PAÍS. https://elpais.com/tecnologia/2025-04-06/jianwei-xun-supuesto-autor-de-la-teoria-de-la-hipnocracia-no-existe-y-es-fruto-de-la-inteligencia-artificial.html
- Pérez Colomé, J. (2025, abril 5). Por qué tiene tanto éxito una red social donde todos son bots: “Vives una vida alternativa, puedes ser lo que quieras”. EL PAÍS. https://elpais.com/tecnologia/2025-04-05/por-que-tiene-tanto-exito-una-red-social-donde-todos-son-bots-vives-una-vida-alternativa-puedes-ser-lo-que-quieras.html
- Pérez Colomé, J. (2025, abril 11). Por qué la ciencia no es capaz de responder si la tecnología es mala para la salud (y cómo resolverlo). EL PAÍS. https://elpais.com/tecnologia/2025-04-11/por-que-la-ciencia-no-es-capaz-de-responder-si-la-tecnologia-es-mala-para-la-salud-y-como-resolverlo.html
- Sampedro, J. (2025, abril 11). Primeros datos sobre la manipulación de masas por IA. EL PAÍS. https://elpais.com/proyecto-tendencias/2025-04-11/primeros-datos-sobre-la-manipulacion-de-masas-por-ia.html
- Stanford Institute for Human-Centered Artificial Intelligence. (2025). The 2025 AI Index Report. https://hai.stanford.edu/ai-index/2025-ai-index-report
OpenAI. (2025). ChatGPT (versión GPT-4.5) [Modelo de lenguaje]. https://chat.openai.com