El factor humano en la era de IA: ¿cómo hacer que nadie se quede atrás?
La Inteligencia Artificial (IA) está transformando nuestras vidas y las empresas. Si bien la tecnología define lo que es viable, las personas son las que fijan la rapidez y eficacia con la que se materializa su potencial. La implementación simultánea de múltiples herramientas digitales puede aumentar la productividad, pero son los seres humanos los que impulsan su adopción, velocidad e impacto en las empresas. El desafío es aportar de manera justa e inclusiva para que las nuevas tecnologías beneficien a todos. Y frente a esto surge la pregunta, ¿cómo formar a las nuevas generaciones? Aquí, la visión de académicos UC.
photo_camera La irrupción de la IA no solo implica un desafío para el mercado laboral, sino también en la formación de capital humano, desde la primera infancia a la educación superior.
Fascinación, curiosidad, miedo, adicción y ansiedad. Estas son algunas de las emociones que provoca la Inteligencia Artificial (IA). Según el Monitor de IA de IPSOS 2025, el 53% de los chilenos está entusiasmado con los productos y servicios que utilizan esta herramienta y el 67% afirma que confía en que los gobiernos regulen la IA de manera responsable. Por otra parte, el 60% declara que la IA “los pone nerviosos”; solo el 50% dice que confía en que las empresas protegerán sus datos personales; y el 35% cree que la IA empeorará el mercado laboral en Chile -e igual porcentaje que mejorará por la misma razón.
La IA no deja de provocarnos y sorprendernos. A fines de enero, Google DeepMind presentó en un artículo de la revista Nature su modelo Alpha Genome para interpretar el genoma humano y las áreas no codificantes del ADN. Días antes, esta herramienta fue reconocida como uno de los mayores focos de incertidumbre global, después de la confrontación geopolítica. Así lo refleja la última encuesta de riesgos previa al Foro Económico Mundial 2026, realizado en Davos, Suiza. Más allá de las amenazas del Presidente estadounidense o sus símiles de otras latitudes, los líderes globales ven en la IA una amenaza vertiginosa que puede potenciar otros riesgos.
Una de las mayores preocupaciones de esa encuesta es la brecha entre la IA y la falta de garantías o salvaguardas, lo que estaría incubando un eventual riesgo sistémico, pues las tecnologías implementadas tienen grandes capacidades transformadoras, sin los necesarios sistemas de seguridad y/o personal debidamente capacitado para gestionarlas.
“La percepción de las amenazas asociadas a la IA presentan el incremento más dramático de cualquier riesgo en la historia del informe. No son especulaciones futuristas, sino preocupaciones concretas, inmediatas y cuantificables. Afectan tanto al mercado laboral como a la estabilidad social, por los cambios de los perfiles de empleo, y abren interrogantes sobre la amenaza de la computación cuántica, la integridad de la información y los riesgos militares que plantean los sistemas de defensa cada vez más automatizados”, afirma una reciente editorial del diario El País (19 de enero de 2026).
¿Robots para todos?
En el mismo encuentro en Davos, Elon Musk (X, Tesla, SpaceX) destacó que el trabajo sobre IA y la robótica son “el camino hacia la abundancia” y que en el futuro todas las personas tendrán robots. Explicó que los centros de datos de IA en el espacio –con luz constante y enfriamiento eficiente- podrían ser económicamente viables en pocos años, aunque “pronto llegaremos a tener más chips de los que podemos alimentar”.
Otro líder tecnológico, Jensen Huang (Nvidia) invitó a ver la IA desde un marco visual más amplio que los modelos de lenguaje, considerando la energía, los chips, la nube y las aplicaciones de esa herramienta. Según él, esa herramienta ha desencadenado “el mayor desarrollo de infraestructuras de la historia de la humanidad”.
Se reconoce que la IA tiene el potencial –entre otros- de reducir los costos comerciales, aumentar la productividad, lograr avances en la atención médica y permitir a los científicos avanzar más rápido. Pero, los especialistas coinciden en que para lograr la materialización de esos beneficios, la IA debe “aportar de manera justa e inclusiva, garantizando que nadie se quede atrás”. Esa fue una de las conclusiones de un foro con Christine Lagarde, presidenta del Banco Central Europeo; Ngozi Okonjo-Iweala, directora de la Organización Mundial del Comercio (OMC); Kristalina Georgieva, directora gerente del Fondo Monetario Internacional (FMI) y Albert Bourla, presidente y director ejecutivo de Pfizer. Éste último destacó que “el resultado ideal es que la IA empodere a los trabajadores”, explicando que la disyuntiva es cómo podemos hacer mucho más con los mismos recursos, porque en el sector salud –uno de los que más contribuye al PIB mundial-, los beneficios de la IA no son solo tecnológicos, sino que se extienden a la economía en general, porque ayuda a todos los otros a ser más productivos.
Para el escritor Yuval Noha Harari, a diferencia de las tecnologías anteriores, hay que considerar a la IA como un “agente” y no como una “herramienta”, con una capacidad de decisión propia. “Un cuchillo puede usarse para cortar ensalada o cometer un asesinato, pero la decisión es humana. La IA es un cuchillo que puede decidir por sí mismo a quien cortar”. (Ver intervención en Davos)
El debate en Chile
A la luz del debate global, Sergio Urzúa, investigador internacional de Clapes UC y profesor de la Universidad de Maryland, dice que “las apuestas son altas por el impacto que puede tener la combinación de robótica e inteligencia artificial en nuestras vidas. Los cambios en muchas dimensiones ya son una realidad, pero es posible que, en el mundo productivo y en el mercado laboral, la transformación puede ser muy profunda. ¿Todos vamos a estar mejor? ¿Las ganancias en productividad agregada compensarán los impactos negativos en determinados grupos? Tengo dudas de una visión totalmente positiva”.
Respecto a quienes serán más beneficiados, comenta que “las empresas se están subiendo al carro de la tecnología con una velocidad asombrosa. Existen aún muchas dificultades, pero todos los días se observan innovaciones que facilitan la incorporación de IA o robótica. Entre los humanos, quienes cuenten con las habilidades y capacidades para aprovechar el potencial de la tecnología verán ganancias de productividad importantes. Pero, en función de lo que vemos hoy, tales niveles de competencias no se distribuyen homogéneamente en la población. De ahí el riesgo que muchos pueden enfrentar (…) Las grandes inversiones están agilizando el escalamiento”.
Según Urzúa, el desafío para el ser humano no estará en competir con las máquinas en cognición. “Hombres y mujeres tienes una ventaja esencial sobre la AI o robots, que son las habilidades socioemocionales, transversales (blandas). No me preocupa tanto la automatización de la cognición, sino que el humano no comprenda cuáles son sus ventajas comparativas en este siglo”.
“El tema de la amenaza de la IA es una versión moderna del temor a que las innovaciones técnicas afecten el empleo”, advierte José Díaz Bahamondes, profesor docente asociado del Instituto de Economía UC. “Un caso conocido, aunque extremo, fue el movimiento de los luditas de comienzos del siglo XIX. En Inglaterra, trabajadores textiles se opusieron a la instalación de nuevas máquinas de hilado y tejido, pues permitían que personas de menor calificación aumentaran su productividad haciéndoles más competitivos”. Agrega que otro ejemplo más actual “fue la introducción de cajeros automáticos que, en su momento, se pensó que reduciría la necesidad de personas atendiendo en los bancos”.
Para el académico, “la automatización de procesos productivos es un fenómeno inevitable y continuo. Es un resultado de la innovación que a su vez es estimulada por la competencia, y sus efectos son más complejos de lo que aparece a simple vista. Si bien es cierto que se reemplazan trabajadores por máquinas en algunas actividades, la pregunta relevante es qué ocurre con el empleo total y con la distribución de los ingresos. La innovación técnica produce una reasignación de los recursos y también crea empleos nuevos en áreas antes impensadas. Tanto esta reasignación como los nuevos empleos son mejores oportunidades. La innovación destruye, pero también crea”.
Lo anterior se vio reflejado en los Premios Nobel 2025 Joel Mokyr, Philippe Aghion y Peter Howitt, quienes fueron distinguidos por sus aportes a la comprensión del crecimiento impulsado por la innovación y el cambio tecnológico. Ambos desarrollaron la teoría del “crecimiento endógeno schumpeteriano”, que muestra cómo la innovación y la competencia impulsan el desarrollo desde dentro del sistema económico; en ese contexto, las empresas producen y compiten por innovar, generando una dinámica de “destrucción creativa”, donde las nuevas tecnologías reemplazan a las antiguas.
La hipótesis de Mokyr “es que el cambio tecnológico se volvió transformador cuando la ciencia empezó a explicar por qué y cómo funcionaban las cosas, y cuando las sociedades, inspiradas por la Ilustración, se abrieron a la experimentación y a las nuevas ideas”, apunta José Díaz.
¿Cómo preparamos a las nuevas generaciones?
La irrupción de la IA no solo implica un desafío para el mercado laboral, sino también en la formación de capital humano, desde la primera infancia a la educación superior.
Verónica Mies, profesora docente asociada del Instituto de Economía, quien está investigando este tema con miras a una cátedra interdisciplinaria, plantea las siguientes consideraciones:
- La IA no es neutra desde el punto de vista del aprendizaje. “Según el nivel de desarrollo del estudiante, cognitivo, profesional y ético del estudiante, una misma herramienta puede potenciar aprendizajes profundos o, por el contrario, favorecer competencias más superficiales y mayor dependencia. Por eso, su incorporación en la formación universitaria requiere intencionalidad pedagógica”.
- El principal desafío de la docencia con IA es esencialmente formativo.
“Aunque el manejo de herramientas específicas es parte del proceso, estas evolucionan rápidamente y muchas de ellas tienden a volverse obsoletas en plazos cortos. En cambio, el desarrollo de juicio crítico, autonomía intelectual y responsabilidad profesional constituye una base más profunda para enfrentar un mercado laboral donde la información y las respuestas están cada vez más disponibles, pero donde el criterio para evaluarlas y utilizarlas responsablemente se vuelve escaso y, por lo tanto, más valioso”. - En las interacciones con IA, se observan con frecuencia trade-offs entre resultados y aprendizaje. “La IA puede ahorrar esfuerzo productivo y cognitivo inmediato, incluso en tareas más complejas. Sin embargo, también puede reducir el esfuerzo deliberado que permite formar habilidades duraderas, como el razonamiento, el análisis crítico y la evaluación de implicancias éticas. Reconocer este trade-off es clave para una docencia exigente y responsable”.
- Un riesgo latente en procesos formativos es la posible brecha entre desempeño y aprendizaje. “La facilidad para producir respuestas puede generar una percepción de dominio conceptual que no siempre se traduce en comprensión profunda, y además puede dificultar que los estudiantes distingan qué parte del resultado proviene de su propio trabajo intelectual y cuál del apoyo de la herramienta. Por ello, una buena formación universitaria reconoce que la IA ya forma parte del entorno formativo, y que el desafío no es evitarla, sino desarrollar la literacidad necesaria para integrarla con criterio: comprende cómo funciona, decidir cuándo y cómo apoyarse en ella, y reconocer con claridad sus límites y riesgos”.
- El aprendizaje continuo se vuelve una competencia estructural. “En un contexto donde las tecnologías cambian rápidamente, la capacidad de aprender, revisar y adaptarse es parte clave del desarrollo profesional”.
- La persona y la sociedad siguen siendo el centro del quehacer universitario. “En ese sentido, el rol de formación no cambia: formar personas y profesionales sólidos capaces de integrar tecnología y humanidad, poniendo a la persona en el centro de las decisiones, y asumiendo responsabilidad por sus consecuencias”.
Según la académica, enseñar con IA es, en gran medida, formar criterio en un contexto de abundancia de información. “Hoy las respuestas son más fáciles de obtener, pero lo escaso es el pensamiento crítico; formular buenos problemas; filtrar y jerarquizar la información; detectar sesgos y límites; tomar decisiones responsables bajo incertidumbre”, afirma.
Verónica Mies concluye que “la IA puede proponer alternativas y sugerir escenarios, pero no puede asumir responsabilidad. La evaluación de trade-offs, la justificación de decisiones y la responsabilidad por sus consecuencias, siguen siendo humanas. En ese sentido, una competencia central hacia adelante será precisamente la capacidad de decidir y responder por esas decisiones”.
Pablo Barceló, director de IA UC -de la de la Vicerrectoría de Inteligencia Digital-, destaca que “en la UC estamos avanzando en una política de formación en IA que asume que esta tecnología llegó para quedarse, pero que no da lo mismo cómo se use. Por eso insistimos en que su uso sea explícito, con reglas claras y con supervisión humana, especialmente en contextos formativos. No queremos prohibir, sino formar criterio: ayudar a estudiantes y docentes a entender cuándo la IA aporta y cuáles son sus límites y riesgos, siempre poniendo el aprendizaje y a las personas en el centro”.
Por lo anterior, para muchos, la IA es una oportunidad para nivelar a las personas, brindándoles herramientas para destacarse. Puede ser el caso de los profesionales que descubren nuevas maneras de integrar esta herramienta en sus funciones cotidianas, avanzando más rápido en sus tareas, aumentando su productividad e incluso detectando los errores que cometa la IA. Sin embargo, esto último también podría ampliar la brecha entre quienes se suban a esta “ola” de transformación y quienes opongan resistencia, afectando el trabajo colaborativo.
Educación, responsabilidad y cooperación
Tal como dijo el Premio Nobel de Economía 2024, Daron Acemoglu, "la IA tiene el potencial de ayudar, pero solo si la dirigimos hacia la creación de nuevas capacidades humanas en lugar de simplemente reemplazar el trabajo humano”.
El Papa León XIV, en la 60 Jornada Mundial de las Comunicaciones Sociales, llamó a una alianza entre responsabilidad, cooperación y educación, para preservar las voces y rostros humanos ante los riesgos de la Inteligencia Artificial. Pidió “no renunciar al propio pensamiento”, porque “la IA puede proporcionar apoyo y asistencia en la gestión de tareas comunicativas, eludir el esfuerzo de nuestro propio pensamiento, contentándonos con una compilación estadística artificial", pero se "corre el riesgo, a largo plazo, de erosionar nuestras capacidades cognitivas, emocionales y comunicativas”.
También destacó la importancia de la colaboración: “Ningún sector puede afrontar por sí solo el reto de liderar la innovación digital y la gobernanza de la IA. Por lo tanto, es necesario crear mecanismos de salvaguardia. Todas las partes interesadas, desde la industria tecnológica hasta los legisladores, desde las empresas creativas hasta el mundo académico, desde los artistas hasta los periodistas y los educadores, deben participar en la construcción y la puesta en práctica de una ciudadanía digital consciente y responsable”.