Regulación versus innovación: ¿Está en riesgo el desarrollo de la IA en Chile?
La Cámara de Diputadas y Diputados aprobó en general el proyecto de ley que busca regular el uso de la inteligencia artificial, el cual propone establecer un marco normativo para su uso, desarrollo e implementación. Especialistas de la UC destacaron la necesidad de normar esta tecnología, pero también advirtieron que podría frenar la innovación y señalaron las limitaciones de basarse en la Ley de IA de la Unión Europea como principal referente.
photo_camera Si el proyecto de ley que regula los sistemas de IA se concreta, Chile se convertiría en el primer país de la región en contar con una legislación específica sobre el tema. Foto: Karina Fuenzalida.
Recomendaciones de películas, conversaciones con chatbots, el uso de asistentes virtuales e incluso la limpieza del hogar con aspiradoras inteligentes son solo algunos ejemplos de cómo la inteligencia artificial se ha integrado en la vida cotidiana.
Pero, ¿cómo se regula su uso?
El lunes 4 de agosto, la Cámara de Diputadas y Diputados dio su aprobación general al proyecto de ley que busca regular el uso de la inteligencia artificial (IA) en Chile. Si esta iniciativa se concreta, el país se convertiría en el primero de la región en contar con una legislación específica sobre el tema.
La normativa busca asegurar que el desarrollo y uso de tecnologías de inteligencia artificial respete los derechos fundamentales de las personas, garantizando su dignidad, libertad e igualdad; promover la innovación; entregar certezas legales a quienes desarrollan y utilizan IA; y proteger a la ciudadanía frente a riesgos.
La iniciativa se suma a la Política Nacional de Inteligencia Artificial (2021), que sentó las bases para una IA ética y centrada en las personas, y, más recientemente, al proyecto de Ley Marco de Ciberseguridad y al proyecto de Ley de Protección de Datos Personales, los cuales se alinean con los estándares del Reglamento General de Protección de Datos de la Unión Europea, explicó Gabriela Arriagada, académica del Instituto de Éticas Aplicadas, que participará del nuevo curso de pregrado de la UC, “IA: Ciencia y Sociedad”, el cual comenzó a principios de agosto y busca analizar los fundamentos conceptuales, filosóficos y técnicos de la IA.
"Una ley regulatoria sobre inteligencia artificial representa un aporte clave para Chile porque permite establecer límites claros, garantías éticas y marcos de responsabilidad en el desarrollo y uso de esta tecnología" - Gabriela Arriagada, académica UC.
“Una ley regulatoria sobre inteligencia artificial representa un aporte clave para Chile porque permite establecer límites claros, garantías éticas y marcos de responsabilidad en el desarrollo y uso de esta tecnología. En concreto, una regulación bien diseñada ayuda a proteger los derechos fundamentales de las personas, como la privacidad, la no discriminación y la autonomía”, dijo la académica y agregó: “Sin embargo, no implica que la regulación venga a resolver todo problema relacionado con la inteligencia artificial. La ley es un punto de partida, no de llegada”.
Otra arista que se ha visto afectada por la irrupción de la IA es la investigación, desde el análisis de grandes volúmenes de datos hasta la aceleración de descubrimientos científicos, comentó María Angélica Fellenberg, vicerrectora de Investigación y Postgrago UC.
"Esta nueva ley será un paso importante para promover un uso responsable y ético de estas tecnologías, resguardando los principios que sustentan la investigación académica, como la integridad, la transparencia y el impacto social" - María Angélica Fellenberg, vicerrectora de Investigación y Postgrado UC.
“Esta nueva ley será un paso importante para promover un uso responsable y ético de estas tecnologías, resguardando los principios que sustentan la investigación académica, como la integridad, la transparencia y el impacto social”, agregó.
El proyecto también contempla la creación de una Comisión Nacional de Inteligencia Artificial, coordinada por el Ministerio de Ciencia, y sanciones de hasta 20 mil UTM.
¿Un freno a la innovación?
Pero la iniciativa, aunque tenga como objetivo establecer reglas claras, podría entorpecer la innovación por un exceso de burocracia, según explicó Sebastián Dueñas, investigador del Programa de Derecho, Ciencia y Tecnología UC.
“El proyecto asigna a todo sistema de “alto riesgo” exigencias en materia de trazabilidad técnica, gestión de riesgos y supervisión humana, cuyo incumplimiento puede ser sancionado con multas que ascienden a las 20.000 UTM. Si a esto le sumamos la amplia definición de ‘incidente’ en el articulado, nos enfrentamos a una regulación bastante severa y poco previsible, traduciéndose en un claro freno a la innovación”, dijo el investigador.
“Regulación a la europea”
La propuesta toma como referente la Ley de IA de la Unión Europea, la cual clasifica los sistemas de IA según su nivel de riesgo.
- Inaceptable: Sistemas que vulneran la dignidad humana, manipulan emociones o usan reconocimiento facial en tiempo real, excepto por seguridad pública.
- Alto riesgo: Sistemas que pueden dañar la salud, seguridad, derechos o el medio ambiente, como los usados en procesos de selección laboral.
- Riesgo limitado: Herramientas con bajo potencial de manipulación o error, como los chatbots de atención pública.
- Sin riesgo evidente: Aplicaciones que no afectan derechos fundamentales, como las que recomiendan películas o música.
Sin embargo, los estándares europeos por los cuales se rige el proyecto se alejan y diferencian de la realidad del país, según comentó Matías Aránguiz, profesor de la Facultad de Derecho UC y subdirector del Programa de Derecho, Ciencia y Tecnología UC.
“Estamos tratando de regular inteligencia artificial a la europea, pero con un presupuesto no como el europeo. En el proyecto hay discusión si es que va a haber una persona o si es que no va a haber persona, mientras que en la Unión Europea hay un grupo muy grande de personas que va a poder ejecutar la norma. Tratar de poner los mismos criterios, pero sin el personal adecuado es el primer gran problema, aparte de lo normativo”, dijo el académico.
“Regular la IA es necesario, pero hacerlo con la misma rigidez que la Unión Europea —justo cuando están buscando suavizar su propio marco— solo agregaría fricción al desarrollo chileno” - Sebastián Dueñas, investigador UC.
Sebastián Dueñas también planteó que “al replicar el modelo europeo casi sin adaptación, se aparta de nuestra Política Nacional de IA y del plan de data centers 2024-2030, que aspiran a convertirnos en hub regional”, comentó Dueñas y agregó: “Regular la IA es necesario, pero hacerlo con la misma rigidez que la Unión Europea —justo cuando están buscando suavizar su propio marco— solo agregaría fricción al desarrollo chileno”.
“Sandbox” regulatorio
Uno de los objetivos del proyecto de ley es promover la innovación al crear condiciones para que empresas, especialmente las pequeñas y medianas, puedan desarrollar nuevas tecnologías en un entorno seguro, lo que se conoce como entornos “sandbox” regulatorios.
"En el contexto tecnológico, un 'sandbox' es un entorno de prueba, es decir, una plataforma donde puedes hacer funcionar y testear un nuevo software o sistema de IA, pero sin que esté operando aún de verdad en el mundo" - Paula Aguirre, vicerrectora de Inteligencia Digital UC.
“En el contexto tecnológico, un 'sandbox' es un entorno de prueba, es decir, una plataforma donde puedes hacer funcionar y testear un nuevo software o sistema de IA, pero sin que esté operando aún de verdad en el mundo. En el caso regulatorio, se entiende como un ‘espacio seguro’, como una especie de marcha blanca, donde puedes echar a andar por un tiempo determinado un servicio o modelo de negocio innovador, para el cual no se tiene claro aún cómo se debería regular, o qué tan bien se ajusta a las regulaciones existentes”, explicó Paula Aguirre, vicerrectora de Inteligencia Digital UC.
Próximos pasos
Durante la votación, se rechazó el artículo 28, que establecía la responsabilidad civil en casos de daños causados por sistemas de inteligencia artificial, por lo que el proyecto volverá a la Comisión de Futuro, Ciencia, Tecnología, Conocimiento e Innovación, donde continuará con su tramitación en particular.