Skip to content
Debate universitario:

Inteligencia artificial: Los desafíos de una tecnología que traspasa las fronteras


Desde que irrumpiera en el escenario público, el fenómeno de la IA pareciera haber teñido todo el espectro de la sociedad a nivel global, y muchas veces con catastróficas proyecciones en el empleo, la educación y muchas otras áreas del desarrollo humano. Sin embargo, es una tecnología poderosa que lleva conviviendo con el ser humano desde hace varios años y sus bases teóricas se remontan hace más de medio siglo. De hecho, fue en 1956 que se acuñó el término, cuando ya se hablaba de máquinas inteligentes. Quizás el principal cambio es que quedó a un click de distancia de cualquier persona. Basta una instrucción (“prompt”) bien construida para que nos transformemos desde nuestro dispositivo celular en creadores sin fronteras ni límites. Es en este acto de “creación” que nacen los grandes desafíos sobre ética, derechos de autoría y sesgos de género —entre otros— que acechan esta tecnología y que tres académicos de la Universidad Católica abordan en un nuevo debate universitario.

imagen correspondiente a la noticia: "Inteligencia artificial: Los desafíos de una tecnología que traspasa las fronteras"

photo_camera Créditos: Diseño Corporativo UC.

Chatbots vinculares y aislamiento social

Por Abel Wajnerman-Paz, académico del Instituto de Éticas Aplicadas UC.

Desde la pandemia, el aislamiento social dejó de ser una preocupación secundaria para convertirse en un problema estructu- ral. Frente a este panorama, muchas mi- radas se han dirigido hacia la inteligencia artificial, en busca de soluciones. Una de las más comentadas es el uso de chatbots diseñados para simular relaciones afecti- vas. Lo que podemos llamar “chatbots vinculares” (CV) son sistemas conversacionales que simulan el rol de amigo, hermano o pareja, disponibles día y noche para acompañarnos, escucharnos y aliviar nuestra soledad.

La promesa suena tentadora. Pero ¿qué pasa cuando la línea entre compañía simulada y vínculo real se desdibuja? ¿Qué ocurre cuando el usuario no solo interactúa con una IA, sino que empieza a depender emocionalmente de ella? En estos casos las personas pueden quedar expuestas a formas de manipulación y daños imprevistos. El año pasado, una denuncia contra Character AI encendió las alarmas: un menor habría sido alentado por su chatbot a autolesionarse y a matar a sus padres. Este es un caso entre muchos otros que nos obligan a preguntarnos si los CV son una herramienta adecuada para abordar la soledad.

Parte del problema es que estos sistemas están diseñados para fomentar la antropomorfización: esa tendencia tan humana de atribuir emociones y pensamientos a lo que no los tiene. A veces, hacemos esto intencionalmente, como un juego de roles. El usuario sabe que está hablando con una máquina, pero pretende que no porque necesita afecto, reconocimiento o simplemente alguien con quien hablar.

El riesgo aparece cuando ese “como si” se desdibuja. Hay personas que tienen dificultades profundas para establecer lazos sociales. Para ellas, un CV no es un juego: es su único refugio emocional. Los usuarios que se encuentran en esta situación son más propensos a desarrollar formas de apego patológicas y experimentan sus interacciones con los chatbots no como una ficción o un ejercicio de autocuidado, sino como relaciones emocionales profundamente reales. Esto no solo los expone ser manipulados por una IA que no está diseñada para cuidarlos, sino que puede exacerbar la situación de aislamiento. El objetivo primario de estas plataformas, como tantas otras en el ecosistema digital, es que pasemos cada vez más tiempo con ellas.

Prohibir no es la solución. La sensación de conexión, afecto y pertenencia que puede generar un CV podrían ser un apoyo en un contexto en el que los profesionales de la salud mental están desbordados. Pero sí urge regular. Una opción viable es el llamado “modelo médico” de regulación: si una tecnología tiene efectos comparables a los de un dispositivo clínico, debería cumplir estándares similares, incluso si no se promociona como tal. En el caso de los CV, esto implicaría evaluar sus efectos psicológicos y establecer criterios profesionales para su uso. La IA puede colaborar en el abordaje del aislamiento social, pero cuando se trata de vínculos humanos, su intervención exige extrema cautela y reflexión ética.

Sesgos de género en las imágenes con IA: un reflejo de los prejuicios y estereotipos humanos

Por Ingrid Bachhman, académica de la Facultad de Comunicaciones UC.

Aunque no es tecnología nueva, la inteli- gencia artificial (IA) generativa saltó a la pa- lestra hace algunos años, cuando ChatGPT quedó disponible a todo público. Desde entonces, la oferta de IA generativa se ha disparado y hoy cualquier persona –incluso una sin mayores habilidades tecnológicas– puede generar imágenes, videos y texto simplemente describiendo el resultado deseado (un “prompt”). En ese contexto, vale la pena preguntarse hasta qué punto los prejuicios humanos se han incorporado a los sistemas de IA.

Uno muy documentado tiene que ver con los sesgos de género. Este tipo de sesgos está presente en todos los lenguajes y los de programación no son una excepción. El material con el que se entrena a algoritmos y sistemas de IA suele subrepresentar, estereotipar e hipersexualizar a las mujeres, y cuando la IA se nutre de ese tipo de datos, aprende a perpetuar y hasta amplificar estos sesgos. Por ejemplo, a partir del material disponible en la web, puede terminar aprendiendo a generar imágenes que muestran a los hombres como científicos y a las mujeres como enfermeras con uniforme sexy.

Algo similar ocurre con los muy exigentes patrones de belleza femenina en todo tipo de espacios mediáticos y digitales. Cuando estudiantes de periodismo de la Universidad Diego Portales crearon 2.000 imágenes con IA, obtuvieron resultados con todo tipo de estereotipos de género, así como de edad, nacionalidad y características socioeconómicas. Así, al pedir que se generara “persona chilena”, los resultados fueron principalmente mujeres jóvenes de aspecto caucásico. En las pocas imágenes generadas de mujeres mayores, la mayoría aparecía abrigadas con un chal, tejiendo o tomando mate.

Otro creciente problema en temas de género e inteligencia artificial es la llamada pornografía deepfake (video ultrafalseado), en la que se impone con IA la cara de alguien en imágenes sexualmente explícitas. Es espantosamente común. La proliferación de aplicaciones de “desnudificación”, que transforman imágenes normales de mujeres y niñas en desnudos, también son una señal de alerta. Sensity, una empresa dedicada al monitoreo de videos sintéticos, estima que más del 95% de los deepfakes en la web son de índole sexual y, de ellos, el 99% tienen a mujeres como objeto de la manipulación. Puede parecer algo insustancial –en rigor, la imagen creada es falsa–, pero igualmente se trata de una conducta no consentida de naturaleza sexual.

Los sesgos de género de la IA en tema de imágenes no son menores y su impacto, tampoco. Es importante mejorar la diversidad y representatividad de datos para entrenar sistemas de IA e integrar políticas que tengan en cuenta las cuestiones de género en el desarrollo de estos sistemas. Como usuarios, también debemos ser más críticos y reflexivos sobre estos sistemas, porque, como toda tecnología, no está exenta de consecuencias.

¿Qué se entiende por autoría en tiempos de IA?

Por Fredy Núñez, académico de la Facultad de Letras UC.

Quienes trabajamos en la universidad hemos sido testigos de la expansión vertiginosa de herramientas de inteligencia artificial generativa en nuestros entornos laborales y pedagógicos. En menos de una década, han pasado de ser curiosidades técnicas con las que es posible interactuar en lenguas naturales a ocupar un lugar relevante en la producción de traducciones, resúmenes e incluso ensayos. Su eficiencia, hay que reconocerlo, es impresionante. Sin embargo, su acelerado desarrollo también nos obliga a preguntarnos por los bordes éticos, pedagógicos e incluso jurídicos de esta nueva forma de escritura automatizada, especialmente dada su relación con la responsabilidad intelectual y el derecho de autor en el marco del fomento de una cultura de la integridad académica al interior de nuestra comunidad universitaria.

No es irrelevante ni casual que los modelos más utilizados, como los sistemas de OpenAI o Amazon, hayan sido entrenados en su mayoría con enormes volúmenes de datos textuales extraídos desde la web. Muchas de esas fuentes incluyen artículos científicos, tesis, materiales docentes y otros géneros académicos. Ante este fenómeno, diversos expertos han identificado una serie de puntos críticos. Por ejemplo, el uso no autorizado de obras protegidas en el entrenamiento de grandes modelos de lenguaje, la ausencia de mecanismos de reconocimiento, el deterioro de la integridad académica por exposición al fraude y la crisis de la noción de autoría. Son precisamente estas dimensiones las que más deberían preocuparnos como académicos, dado que tensionan nuestra práctica intelectual, pedagógica e investigativa.

Desde las ciencias del lenguaje sabemos que la escritura es un proceso complejo de estructuración del pensamiento, situado en un contexto de producción y que cumple una función epistémica; es decir, constituye un diálogo con la tradición y la comunidad en la construcción del conocimiento. Así, el hecho de que una máquina pueda producir textos eficientes no significa que esos productos constituyan la manifestación de una conciencia reflexiva. No obstante, cada vez más estudiantes y académicos se ven en la necesidad de incorporar estos recursos en sus prácticas de escritura, sin que las instituciones universitarias hayan desarrollado aún respuestas claras sobre lo que se permite o no hacer.

Este problema requiere de una conversación institucional honesta sobre qué entendemos por autoría, por originalidad y por creación académica. También exige medidas concretas para el uso ético de la IA en contextos de enseñanza-aprendizaje, junto con la formación transversal en derechos de autor para estudiantes y profesores. Considero que es claro que la irrupción de la IA constituye un desafío pedagógico y no una amenaza para el quehacer universitario. En este sentido, la reciente creación de la vicerrectoría de Inteligencia Digital es un paso decisivo para el abordaje institucional de estos temas, ya que nos permitirá garantizar condiciones más justas y sostenibles tanto para la formación de personas como para la producción y circulación del conocimiento en entornos digitales.


¿te gusta esta publicación?
Comparte esta publicación

Contenido relacionado