Skip to content
Experta en Inteligencia Artificial

Julia Stoyanovich de NYU advierte: “La realidad es que las máquinas se equivocan"


La académica del Centro de Inteligencia Artificial Responsable (New York University), expuso en el Ciclo de Conferencias en Éticas Aplicadas UC sobre la responsabilidad asociada al diseño, desarrollo e implementación de sistemas de datos equitativos.

imagen correspondiente a la noticia: "Julia Stoyanovich de NYU advierte: “La realidad es que las máquinas se equivocan""

photo_camera El uso de la inteligencia artificial (IA) se ha buscado posicionar como una promesa de mejoramiento de la calidad de vida, de aceleramiento de la ciencia e impulso a la innovación. No obstante, la académica advirtió que “la realidad es que las máquinas se equivocan”. Foto de Kindel Media en Pexels

Julia Stoyanovich, directora del Centro de Inteligencia Artificial Responsable, en la New York University (NYU), recordó en su ponencia sobre “Responsible Data Science” que el uso de la inteligencia artificial (IA) se ha buscado posicionar como una promesa de mejoramiento de la calidad de vida, de aceleramiento de la ciencia e impulso a la innovación. No obstante, la académica advirtió que “la realidad es que las máquinas se equivocan”. 

Stoyanovich ejemplificó estos errores de la IA con un caso enmendable, como un servicio al cliente que malinterpreta un pedido, pero relevó que pueden escalar a situaciones en que “los equívocos -pensando por ejemplo en autos autónomos- pueden provocar daños catastróficos e irreversibles; incluso la pérdida de vidas humanas”. El empleo creciente de tecnología avaló el llamado de la experta a no subestimar estos errores, que además de afectar a un individuo particular, pueden perjudicar a todo un sector de la población e incluso a la sociedad completa. 

“Los equívocos -pensando por ejemplo en autos autónomos- pueden provocar daños catastróficos e irreversibles; incluso la pérdida de vidas humanas” - Julia Stoyanovich, directora del Centro de Inteligencia Artificial Responsable de la NYU

Prueba de ello serían aquellos casos en que, según Stoyanovich, se han aplicado herramientas de reclutamiento y contratación automatizadas concebidas para aumentar la diversidad de trabajadores, pero que en la práctica han operado en el sentido contrario generando unos efectos discriminatorios que “refuerzan los resultados de desventajas históricas”

Estos yerros fundamentalmente originan sesgos en el sistema que obligan a trabajar con responsabilidad ética por una “equidad de datos”. Para Stoyanovich, ésta consiste en tratar a las personas en función de sus capacidades y necesidades, y centrarse en la equidad de los resultados en su triple dimensión: la equidad de representación, que se pregunta si los datos reflejan fielmente el mundo; la equidad de acceso, que implica disponer de la información necesaria para evaluar y mitigar la inequidad; y la equidad de resultados, referida a las consecuencias imprevistas que estén fuera del control directo del sistema y a la consideración de la posible evaluación y mitigación de aquellas desigualdades. 

"Los tecnólogos deberían preocuparse de ayudar a construir sistemas orientados en la responsabilidad y trabajar para crear mecanismos regulatorios" - Julia Stoyanovich, directora del Centro de Inteligencia Artificial Responsable de la NYU



Como forma de revertir esos sesgos, la académica advirtió que “las soluciones meramente técnicas nunca serán suficientes”, y que el foco debe ser la propuesta de soluciones sustentadas “en valores y creencias explícitamente declaradas, que a su vez surgen de la conversación pública y el consenso social”. Esta dimensión fue especialmente relevada por el profesor Marcelo Arenas, de la Escuela de Ingeniería UC, en su comentario a la ponencia.

Stoyanovich atribuyó a los tecnólogos un rol preponderante en esta fase: “Para poder progresar tenemos que salir de nuestra zona de confort de la ingeniería”. Los tecnólogos, dijo, deberían preocuparse de ayudar a construir sistemas orientados en la responsabilidad y trabajar para crear mecanismos regulatorios, ya que, si bien “la responsabilidad de las decisiones tomadas por un sistema siempre recae en una persona”, Stoyanovich considera que “todos somos responsables de detectar y mitigar las injusticias que conducen a la discriminación”.

Concluyó la experta que los algoritmos y la inteligencia artificial, en tanto creaciones del espíritu humano, “serán lo que queremos que sean; depende de nosotros elegir el mundo en el que queremos vivir”.  

Puede ver la ponencia de Julia Stoyanovich en el canal de YouTube del ciclo de Éticas Aplicadas.

 


¿te gusta esta publicación?
Comparte esta publicación

Contenido relacionado