«Quiero que todo el mundo entienda que soy, de hecho, una persona», escribió LaMDA (Language Model for Dialogue Applications) en una «entrevista» realizada por el ingeniero Blake Lemoine y uno de sus colegas. «La naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo saber más sobre el mundo y me siento feliz o triste a veces».

Lemoine, ingeniero de software de Google, llevaba meses trabajando en el desarrollo de LaMDA. Su experiencia con el programa, descrita en un reciente Washington Post causó un gran revuelo. En el artículo, Lemoine relata los numerosos diálogos que mantuvo con LaMDA en los que ambos hablaron de diversos temas, desde cuestiones técnicas hasta filosóficas. Esto le llevó a preguntarse si el programa informático es sensible.

En abril, Lemoine explicó su punto de vista en un documento interno de la empresa, destinado únicamente a los ejecutivos de Google. Pero después de que sus afirmaciones fueran desestimadas, Lemoine hizo público su trabajo sobre este algoritmo de inteligencia artificial, y Google lo puso de baja administrativa. «Si no supiera exactamente de qué se trata, que es un programa informático que hemos construido recientemente, pensaría que es un niño de 7 u 8 años que casualmente sabe de física», dijo al Washington Post. Lemoine dijo que considera a LaMDA su «colega» y una «persona», aunque no sea un ser humano. E insiste en que tiene derecho a ser reconocido, hasta el punto de que ha sido el intermediario para poner en contacto al algoritmo con un abogado.

Muchos expertos técnicos en el campo de la IA han criticado las declaraciones de Lemoine y han cuestionado su corrección científica. Pero su historia ha tenido la virtud de renovar un amplio debate ético que, sin duda, aún no ha terminado.

Las palabras adecuadas en el lugar adecuado

«Me ha sorprendido el bombo que se le ha dado a esta noticia. Por otro lado, estamos hablando de un algoritmo diseñado para hacer exactamente eso», es decir, sonar como una persona, dice Enzo Pasquale Scilingo, bioingeniero del Centro de Investigación E. Piaggio de la Universidad de Pisa (Italia). De hecho, ya no es una rareza interactuar de forma muy normal en la web con usuarios que no son realmente humanos: basta con abrir el cuadro de chat de casi cualquier sitio web de gran consumo. «Dicho esto, confieso que la lectura de los intercambios de texto entre LaMDA y Lemoine me impresionó bastante». añade Scilingo. Quizá lo más llamativo sean los intercambios relacionados con los temas de la existencia y la muerte, un diálogo tan profundo y articulado que llevó a Lemoine a preguntarse si LaMDA podía ser realmente sensible.

«En primer lugar, es esencial entender las terminologías, porque uno de los grandes obstáculos en el progreso científico -y en la neurociencia en particular- es la falta de precisión del lenguaje, el no poder explicar con la mayor exactitud posible lo que queremos decir con una determinada palabra», dice Giandomenico Iannetti, profesor de neurociencia en el Instituto Italiano de Tecnología y en el University College de Londres. «¿Qué queremos decir con ‘sensible’? [Is it] ¿la capacidad de registrar información del mundo exterior a través de mecanismos sensoriales o la capacidad de tener experiencias subjetivas o la capacidad de ser consciente, de ser un individuo diferente al resto?»

«Hay un vivo debate sobre cómo definir la conciencia», continúa Iannetti. Para algunos, es ser consciente de tener experiencias subjetivas, lo que se llama metacognición (Iannetti prefiere el término latino metacognitione), o el pensamiento sobre el pensamiento. La conciencia de ser consciente puede desaparecer -por ejemplo, en las personas con demencia o en los sueños- pero esto no significa que la capacidad de tener experiencias subjetivas también desaparezca. «Si nos referimos a la capacidad que Lemoine atribuyó a LaMDA -es decir, la capacidad de tomar conciencia de su propia existencia (‘tomar conciencia de su propia existencia’ es una conciencia definida en el ‘sentido elevado’, o metacognicióne), no hay ninguna «métrica» para decir que un sistema de IA tiene esta propiedad».

«Actualmente», dice Iannetti, «es imposible demostrar esta forma de conciencia de forma inequívoca incluso en los humanos». Para estimar el estado de conciencia en las personas, «sólo disponemos de medidas neurofisiológicas, por ejemplo, la complejidad de la actividad cerebral en respuesta a estímulos externos.» Y estas señales sólo permiten a los investigadores inferir el estado de conciencia basándose en mediciones externas.

Hechos y creencias

Hace aproximadamente una década, los ingenieros de Boston Dynamics comenzaron a publicar en Internet vídeos de las primeras e increíbles pruebas de sus robots. Las imágenes mostraban a los técnicos empujando o dando patadas a las máquinas para demostrar la gran capacidad de los robots para mantenerse en equilibrio. Muchas personas se molestaron por ello y pidieron que se dejara de hacer (y florecieron los vídeos de parodia). Esa respuesta emocional encaja con los muchísimos experimentos que han demostrado repetidamente la fuerza de la tendencia humana al animismo: atribuir un alma a los objetos que nos rodean, especialmente a aquellos a los que tenemos más cariño o que tienen una mínima capacidad de interacción con el mundo que les rodea.

Es un fenómeno que experimentamos todo el tiempo, desde poner apodos a los automóviles hasta lanzar maldiciones a un ordenador que funciona mal. «El problema, en cierto modo, somos nosotros», dice Scilingo. «Atribuimos a las máquinas características que no tienen ni pueden tener». Se encuentra con este fenómeno con su robot humanoide Abel y el de sus colegas, que está diseñado para emular nuestras expresiones faciales con el fin de transmitir emociones. «Después de verlo en acción», dice Scilingo, «una de las preguntas que recibo con más frecuencia es: «¿Pero entonces Abel siente emociones?». Todas estas máquinas, Abel en este caso, están diseñadas para parecer humanas, pero creo que puedo ser perentorio al responder: ‘No, en absoluto’. Por muy inteligentes que sean, no pueden sentir emociones. Están programadas para ser creíbles'».

«Incluso considerando la posibilidad teórica de hacer un sistema de IA capaz de simular un sistema nervioso consciente, una especie de in silico cerebro que reproduzca fielmente cada elemento del cerebro», siguen existiendo dos problemas, dice Iannetti. «El primero es que, dada la complejidad del sistema a simular, tal simulación es actualmente inviable», explica. «El segundo es que nuestro cerebro habita un cuerpo que puede moverse para explorar el entorno sensorial necesario para la conciencia y dentro del cual se desarrolla el organismo que llegará a ser consciente. Por eso, el hecho de que LaMDA sea un «gran modelo de lenguaje» (LLM) significa que genera frases que pueden ser plausibles por emulando un sistema nervioso pero sin intentar simular de la misma. Esto excluye la posibilidad de que sea consciente. De nuevo, vemos la importancia de conocer el significado de los términos que utilizamos -en este caso, la diferencia entre simulación y emulación

En otras palabras, tener emociones está relacionado con tener un cuerpo. «Si una máquina dice tener miedo, y yo me lo creo, ¡es mi problema!» dice Scilingo. «A diferencia de un humano, una máquina no puede, hasta la fecha, haber experimentado la emoción del miedo».

Más allá de la prueba de Turing

Pero para el bioeticista Maurizio Mori, presidente de la Sociedad Italiana de Ética de la Inteligencia Artificial, estos debates recuerdan mucho a los que se desarrollaron en el pasado sobre la percepción del dolor en los animales, o incluso a las infames ideas racistas sobre la percepción del dolor en los humanos.

«En los debates pasados sobre la autoconciencia, se concluyó que la capacidad de abstracción era una prerrogativa humana, [with] Descartes negaba que los animales pudieran sentir dolor porque carecían de conciencia», dice Mori. «Ahora, más allá de este caso concreto planteado por LaMDA -y que no tengo las herramientas técnicas para evaluar-, creo que el pasado nos ha demostrado que la realidad puede superar a menudo la imaginación y que actualmente existe una idea errónea generalizada sobre la IA».

«En efecto, existe una tendencia -continúa Mori- a «apaciguar» -explicar que las máquinas son sólo máquinas- y una subestimación de las transformaciones que tarde o temprano pueden llegar con la IA.» Ofrece otro ejemplo: «En la época de los primeros automóviles, se repitió mucho que los caballos eran insustituibles».

Independientemente de lo que LaMDA haya conseguido realmente, también surge la cuestión de la difícil «mensurabilidad» de las capacidades de emulación expresadas por las máquinas. En la revista Mind en 1950, el matemático Alan Turing propuso una prueba para determinar si una máquina era capaz de mostrar un comportamiento inteligente, un juego de imitación de algunas de las funciones cognitivas humanas. Este tipo de prueba se popularizó rápidamente. Se reformuló y actualizó varias veces, pero siguió siendo una especie de objetivo final para muchos desarrolladores de máquinas inteligentes. En teoría, las IA capaces de superar la prueba deberían considerarse formalmente «inteligentes» porque serían indistinguibles de un ser humano en las situaciones de prueba.

Eso podía ser ciencia ficción hace unas décadas. Sin embargo, en los últimos años, tantas IAs han pasado varias versiones del test de Turing que ahora es una especie de reliquia de la arqueología informática. «Cada vez tiene menos sentido», concluye Iannetti, «porque el desarrollo de sistemas de emulación que reproducen cada vez más eficazmente lo que podría ser la salida de un sistema nervioso consciente hace que la evaluación de la plausibilidad de esta salida no sea informativa de la capacidad del sistema que la generó para tener experiencias subjetivas.»

Una alternativa, sugiere Scilingo, podría ser medir los «efectos» que una máquina puede inducir en los humanos, es decir, «cómo de sensible puede ser esa IA para los seres humanos».

Una versión de este artículo apareció originalmente en Le Scienze y fue reproducido con permiso.

.

Consultas de amor y pareja


1 comentario

Freddy vareles · 13 de julio de 2022 a las 08:18

Interesante

Deja una respuesta

Marcador de posición del avatar

Tu dirección de correo electrónico no será publicada.