Skip to content

¿Existe una Inteligencia Artificial sintiente?


La profesora Gabriela Arriagada, del Instituto de Éticas Aplicadas UC, analiza la probabilidad de que exista una Inteligencia Artificial (IA) sintiente, a propósito del caso de LaMDA.

imagen correspondiente a la noticia: "¿Existe una Inteligencia Artificial sintiente?"

photo_camera Gabriela Arriagada es profesora asistente del Instituto de Éticas Aplicadas UC - Instituto de Ingeniería Matemática y Computacional. Imagen: Gentileza IEA.

El 9 de agosto, en la primera noche CENIA (Centro Nacional de Inteligencia Artificial) nos reunimos junto a Carlos Amunátegui, abogado y profesor titular de Derecho UC; y Felipe Bravo, profesor asistente de Ciencias de la Computación en la Universidad de Chile; para conversar sobre la probabilidad de que exista una Inteligencia Artificial (IA) sintiente, a propósito del caso de LaMDA (sigla en inglés que significa modelo de lenguaje para aplicaciones de diálogo).

LaMDA es una gran red neuronal, que se inspira, a grandes rasgos, en la forma en que las neuronas se co nectan a otras en el cerebro. Tiene piezas artificiales que simulan neuronas que están conectadas con pesos numéricos unidos a ellas. Todo esto está en el software, no es hardware, y aprende cuando se le da un texto. Es tan grande y tiene tantas neuronas simuladas que es capaz de memorizar todo tipo de textos creados por humanos y recombinarlos, uniendo diferentes piezas.

Ahora bien, LaMDA tiene otras cosas únicas. También ha aprendido del diálogo humano, eligiendo palabras basadas en las probabilidades que calcula. Y es capaz de hacer eso con mucha fluidez debido a la enormidad del sistema y de los datos con los que ha sido entrenado (la que impresiona si se le compara con sus antecesores).

Esto es, sin duda, una IA muy avanzada, un chatbot más sofisticado que aquellos que usualmente interactúan con nosotros que, de manera frustrante, nos llevan en círculos muchas veces o a una conversación que no solo no pasaría el test de Turing, sino que además no resuelve nuestras necesidades (como los chatbot de grandes tiendas de retail pensados como reemplazos al servicio al cliente). Pero este avance debe ser entendido en sus dimensiones y limitaciones. No hacerlo implica, como argumento aquí, hacer “mala ciencia”.

Debemos partir de la base de que no sabemos realmente de qué hablamos cuando hablamos de consciencia y sintiencia. Más aún, ni siquiera tenemos una definición lo suficientemente clara para evaluar su nivel en una inteligencia artificial.

Por eso, me centraré en negar siquiera la posibilidad de que LaMDA sea sintiente. Lo técnico solo puede explicarnos cómo funciona y darnos suficiente información sobre por qué, a pesar de ser tan avanzada, sería al menos extraño considerarla sintiente. Tampoco nos ayuda mucho lo legal (aunque quizás sí se produzca un debate interesante sobre derechos de robots), ya que actualmente no hay manera de definir la consciencia como criterio para distinguir los derechos o deberes asociados a “ser consciente” ni lo que esto significa

Lo mismo pasa con la psicología, pues subsiste un extenso debate que se mantiene y que busca dilucidar nociones para definir o estructurar lo que significamos cuando hablamos de consciencia, de sintiencia y, más difícil aún, cómo evaluar eso en una entidad externa, abstracta y artificial. Por tanto, debemos partir de la base de que no sabemos realmente de qué hablamos cuando hablamos de consciencia y sintiencia. Más aún, ni siquiera tenemos una definición lo suficientemente clara para evaluar su nivel en una inteligencia artificial.
 
A pesar de que es posible convencernos de que una IA sintiente es posible, como fue el caso de Blake Lemoine, el ingeniero de Google que inició este debate público, la falta de criterios claros lo convierte en un autoengaño. El debate sobre la consciencia en la metafísica y la neurobiología continúa sin soluciones claras, desde una polarización de visiones que tratan de hacer sentido a esta misteriosa propiedad que tenemos en cuanto seres humanos, que, sin embargo, no podemos atribuir única o exclusivamente a un factor biológico o químico. A esto se suma el hecho de que ciertas ideas que se asociaban a la consciencia en siglos pasados tenían que ver con la capacidad creativa o lingüística, algo que ahora IAs avanzadas son capaces de imitar o expandir. 

Por lo mismo, el debate continúa entre aquellos que consideran criterios mecánicos o formales versus aquellos que adhieren a la idea de una esencia o alma que de algún modo parece unificar nuestras capacidades biológicas.

El debate sobre la consciencia en la metafísica y la neurobiología continúa sin soluciones claras, desde una polarización de visiones que tratan de hacer sentido a esta misteriosa propiedad que tenemos en cuanto seres humanos, que, sin embargo, no podemos atribuir única o exclusivamente a un factor biológico o químico.

Más importante aún, es un error categorial atribuir la capacidad de ser sintiente a una IA basándose solo en el uso de lenguaje, como lo hace Lemoine. El lenguaje de LaMDA es altamente desarrollado, pero depende de los humanos. Ser sintiente y usar el lenguaje pueden ser entendidos desde una correlación, pero no una relación de causación. Las IAs no aprenden el lenguaje como nosotros, desde la experiencia, desde una corporalidad, desde una subjetividad, más bien lo aprenden en abstracto. Creer o suponer que esto no es una diferencia transcendental es, por lo bajo, ingenuo.

En este abismo conceptual que supone hablar de consciencia y sintiencia, filósofos de la tecnología, como Mark Coeckelbergh, han planteado el rol fundamental que tiene el lenguaje en este debate. Según nos referimos o hablamos de las tecnologías las moldea, en cuanto a cómo las percibimos, los roles que le atribuimos y las expectativas que tenemos de ellas. En el caso concreto de Lemoine, quien le atribuía un estatus de “persona” a una máquina, hace que se cambie la discusión respecto al estatus moral de la tecnología, y, por lo tanto, refuerza la importancia de la discusión y análisis ético, que está al centro de estas nuevas disrupciones tecnológicas. Es más, esto nos lleva a discutir la subjetividad o relatividad de los estatus morales, la falta de criterios duros de consciencia o si es que acaso el lenguaje moral se ha convertido en juegos de política y manipulación. Más aún, creo que esto nos hace cuestionar la estabilidad epistémica de las ciencias de la IA. 

Cuando vemos estas declaraciones en la prensa y en las redes sociales, estamos frente a profesionales que no solo cometen el error de hacer mala difusión de la ciencia, al esparcir desinformación y polemizar los avances de una tecnología por falta del uso criterioso de conceptos o distinciones, sino que, además, caen en un dogmatismo, en el sentido filosófico, que implica presentar creencias u opiniones como hechos. Lo que la filosofía de la ciencia y así también una robusta ética aplicada nos aporta, es precisamente lo que el filósofo y lógico Bertrand Russell reconocía como el papel de la filosofía, a saber, la capacidad de disipar por completo el escepticismo al dar luz a las complejidades del conocimiento y, al mismo tiempo, prevenir el dogmatismo, no teniendo nunca seguridad absoluta de lo que se conoce o de cómo lo conocemos.

Las IAs no aprenden el lenguaje como nosotros, desde la experiencia, desde una corporalidad, desde una subjetividad, más bien lo aprenden en abstracto. Creer o suponer que esto no es una diferencia transcendental es, por lo bajo, ingenuo.

Este evento generó una fructífera instancia de reflexión, a partir de la cual se puede presentar el rol que juegan, a mi parecer, las éticas aplicadas y la filosofía en el desarrollo responsable de estas tecnologías. Hacer buena ciencia no implica solamente obtener resultados válidos, no es solamente alcanzar límites impensados de desarrollo y aplicación tecnológica. Hacer buena ciencia implica un rol social y público, propio del quehacer de la ética aplicada, que como bien dice Adela Cortina se ocupa de “el bien común”. 

Por esto sugiero que, antes de dar saltos a humanizar o antropomorfizar tecnologías disruptivas, nos ocupemos de cuestionar si es que, en primer lugar, crear inteligencias artificiales sintientes o conscientes es algo moralmente deseable para guiar el desarrollo y quehacer científico a una visión consistente y coherente con directrices éticas claras que efectivamente aporten a ese bien común propio de una sociedad pluralista, desde las responsabilidades propias del quehacer científico. Y, por sobre todo, no nos distraigamos de los riesgos que las IAs sí tienen hoy día, de la mano de las manipulaciones epistémicas, los desafíos de privacidad y vigilancia, y el rol sociopolítico y económico que están jugando a nivel global.


¿te gusta esta publicación?
Comparte esta publicación

Contenido relacionado