Por Dr. Cristo León,
Última revisión 28 de noviembre de 2025.
En muchos espacios educativos ocurre un patrón silencioso pero profundo. Se ofrece acceso oficial a herramientas de IA generativa para el estudiantado, mientras que el profesorado no recibe la misma preparación ni participa en las decisiones sobre su adopción. Esta brecha inicial produce una doble ruptura de confianza. Docentes que sospechan que el estudiantado oculta su uso de la IA. Estudiantes que sospechan que están siendo monitoreados cuando utilizan las herramientas institucionales. El resultado es que muchos evitan esos recursos autorizados y recurren a alternativas externas que perciben como más seguras o privadas.
Este tipo de tensiones no surge solo por la tecnología. Surgen porque las decisiones se toman sin los actores clave que viven esas tecnologías en su práctica cotidiana. Cuando las herramientas se imponen desde arriba, se desdibujan la agencia, la autonomía y la capacidad de participar en el diseño del propio entorno de aprendizaje. Tal como advierte John Moravec (2025), las instituciones corren el riesgo de aceptar de manera pasiva sistemas que reorganizan prácticas y relaciones sin considerar plenamente sus efectos culturales y políticos.
Una salida a este problema requiere cambiar el enfoque hacia el co-diseño y la colaboración. En lugar de limitar al profesorado y al estudiantado a ser simples usuarios o cumplidores de reglas, es necesario incluirlos como co-creadores del ecosistema tecnológico que habitan. Esto implica abrir conversaciones transparentes sobre qué herramientas se adoptan, qué datos utilizan, cómo funcionan, qué riesgos presentan y qué salvaguardas son necesarias. Significa reclamar tiempo y espacio para reflexionar, decidir y ajustar colectivamente.
La integración responsable de la IA no ocurre cuando se distribuye una licencia de software, sino cuando se construyen relaciones de confianza. Esto requiere procesos participativos, mecanismos de revisión independientes y una cultura que valore la autonomía por encima de la vigilancia. Requiere también el valor de cuestionar la narrativa de inevitabilidad tecnológica y de reivindicar que las tecnologías deben alinearse con los valores de la educación y no al revés.
Tal como señala Moravec, el desafío no es solo técnico. Es cultural, político e institucional. Y comienza cuando educadores y estudiantes se niegan a aceptar que la IA defina las reglas del juego y, en cambio, reclaman su papel como co-diseñadores de su futuro educativo. Cuando esto sucede, la tecnología deja de ser una imposición y se convierte en un recurso para fortalecer la agencia, la participación y la capacidad de aprender con autenticidad.
Conclusión
La integración responsable de la IA solo es posible cuando las comunidades educativas recuperan su capacidad de decidir, dialogar y crear en conjunto. La tecnología no debería ocupar el centro, sino habilitar espacios donde docentes y estudiantes definan de manera colaborativa qué herramientas necesitan, cómo desean usarlas y qué salvaguardas consideran esenciales. Este proceso exige transparencia, corresponsabilidad y una cultura que valore tanto la autonomía como el cuidado mutuo.En última instancia, integrar la IA de forma responsable implica rechazar modelos de adopción basados en la vigilancia o la desconfianza. Implica apostar por la co-diseñación y la cooperación como principios que devuelven equilibrio a la relación entre personas y sistemas tecnológicos. Solo así la IA puede convertirse en un aliado para el aprendizaje y no en una fuerza que erosiona la agencia o la imaginación crítica.
Fuentes
https://educationfutures.com/post/how-big-tech-is-silently-colonizing-education/
