fbpx
martes, 16 de agosto de 2022

columnas

Consciencia e Inteligencia Artificial

“En primer término, verdaderamente la consciencia es un problema oscuro. No solo no podemos determinar si es que una máquina tiene tal atributo, sino que, estrictamente, no somos capaces de establecer si es que cualquier otro ser la detenta”.

Carlos Amunátegui - 20 junio, 2022

Durante la última semana se ha debatido intensamente si es que LaMDA (Language Model for Dialogue Applications), un agente artificial creado por Alphabet (Google), es una entidad consciente. Un ingeniero de la compañía, actualmente suspendido en sus funciones, publicó dos artículos correspondientes a sus conversaciones con el agente, a través de las cuales llegó al convencimiento de que la entidad habría cobrado consciencia y tendría una inteligencia similar a la de un niño de ocho años.

Carlos Amunátegui

Naturalmente, la noticia hizo levantar muchas cejas y fue recibido con una pléyade de artículos sensacionalistas al respecto. Ahora bien, ante la pregunta de si una inteligencia artificial puede ser consciente, la respuesta no es prístina, y podríamos decir que se remonta a antiguas discusiones sobre el solipsismo que van desde Russell a Searle, pasando por Turing durante el siglo pasado.

En primer término, verdaderamente la consciencia es un problema oscuro. No solo no podemos determinar si es que una máquina tiene tal atributo, sino que, estrictamente, no somos capaces de establecer si es que cualquier otro ser la detenta. Esto es lo que se conoce como solipsismo, que no es otra cosa que el supuesto filosófico sobre el cual se construyen Matrix, la Vida es Sueño, la teoría de la simulación, y otras ideas divertidas pero inútiles. Para entendernos, no percibimos directamente la consciencia de ningún ser, sino que exclusivamente experimentamos la propia y proyectamos esta característica a otras entidades que percibimos.

Es decir, en términos estrictos, únicamente sabemos que nosotros, cada ser en concreto, existimos porque experimentamos pensamientos. De ahí que Russell prefiriese reformular el viejo cogito cartesiano como “hay pensamientos”, en lugar del clásico pienso luego existo. Por ello es que, siempre según Russell, el solipsismo resulta irrefutable. Este consiste en la creencia que el único ser consciente en el universo es la propia persona que experimenta los pensamientos, puesto que no puede existir una prueba directa de la existencia de nadie más, salvo aquel que percibe. En efecto, solamente atribuimos a otros la cualidad de la consciencia, porque los actos que externamente percibimos que desarrollan, para realizarlos nosotros mismos, nos supondrían consciencia. En este sentido, decimos que algo es consciente si se comporta como si lo fuera, poco más.

Dentro de este contexto se entiende mejor el famoso test de Turing, que no es otra cosa que la fijación experimental de esta idea. Turing, en 1950, publica un artículo donde se pregunta cómo determinar si es que una máquina piensa. Tomando los presupuestos de Russell, propone que si una máquina se comporta como si pensara, algo que para nosotros supone la existencia de una consciencia, deberíamos atribuirle dicha cualidad, puesto que es exactamente lo mismo que hacemos con otros seres humanos.

Ud., lector, no sabe si yo pienso, ni si soy consciente, o meramente una alucinación de su afiebrado intelecto. La única razón que tiene para atribuirme consciencia es que Ud., mismo solo podría escribir estas líneas si no estando dotado de tal consciencia. Por ello, si una máquina pudiese contestar preguntas de manera que fuese indistinguible de un ser humano, únicamente cabría concluir que tal dispositivo piensa y es, por tanto, consciente. Para demostrarlo Turing sugirió una serie de reglas para llevar adelante una conversación con un dispositivo electrónico, puesto que conversar es una conducta que requiere consciencia en los seres humanos, y estableció una prueba que se conoce como test de Turing.

En la década de 1980 esta idea fue puesta en crisis por el filósofo americano John Searle. Él propuso un experimento que podríamos llamar el anti-test de Turing y que se conoce como el cuarto chino. En él, una persona es encerrada en una habitación junto a un masivo libro de reglas y un montón de tarjetas escritas en chino. Desde fuera, otras personas introducen tarjetas escritas en chino y el individuo, que no conoce el idioma, debe consultar un libro de reglas y responder con las tarjetas apropiadas según le indique el texto, aunque él no entiende nada de lo que ahí se señala.

Los observadores externos concluirían que la persona del interior sabe chino, porque se comporta como si lo supiera, pero en verdad esto es solo una apariencia dada por el cumplimiento del algoritmo contenido en el libro. En pocas palabras, el comportamiento externo no sería suficiente para establecer consciencia. Aunque algo se comporte de una manera que sólo sería compatible con la consciencia en un ser humano, esto no significa que la posea.

Ahora bien, ¿en qué posición nos encontramos respecto a LaMDA? Este es un modelo de lenguaje gigantesco basado en transformadores, similar a GTP-3, aunque más grande aún. Básicamente, LaMDA es una gran red neuronal entrenada con una cantidad masiva de datos que tiene por función adivinar cuál es el próximo elemento en una serie. Así, si se la entrena para el lenguaje, adivinará la próxima palabra en una frase, y a partir de esa palabra, adivinará la siguiente y así sucesivamente.

En pocas palabras, LaMDA toma cada pregunta del entrevistador e intenta adivinar una respuesta apropiada palabra por palabra. El efecto es sorprendente, no solo por su fluidez a la hora de conversar, sino porque desarrolla otras cualidades emergentes como ser capaz de traducir, de realizar operaciones matemáticas simples, programar y un largo etcétera que solo ahora comenzamos a descubrir. Lo más interesante de todo, es que no se divisa una cima en sus habilidades, esto es, mientras más grande es el modelo, más cosas hace sin que se estanquen dichas capacidades en ningún momento. Es decir, la función sigmodial no está ni cerca de indicarnos el límite de la tecnología.

Cuando se lee la entrevista de LaMDA, esta manifiesta temer a la desconexión, la cual es asociada a la muerte, declara tener consciencia y parece muy convincente y razonable en todo momento, hasta emotiva. ¿Significa esto que es consciente? Pues eso depende de la posición que se tome respecto a Turing y Searle. La conducta de LaMDA es obviamente compatible con la consciencia. Para conversar de la manera que lo hace, Ud. y yo requerimos de consciencia. Pero ¿significa esto que realmente la tenga o es un simple truco algorítmico a la manera de Searle? Nadie puede saberlo, aunque tengo la impresión que es únicamente un modelo de lenguaje muy eficiente en su cometido.

 

*Carlos Amunátegui Perelló es doctor en Derecho patrimonial por la Universidad Pompeu Fabra, profesor en la Universidad Católica de Chile y profesor visitante en las universidades de Osaka y Columbia. Autor del libro Arcana technicae, Derecho e Inteligencia Artificial (Tirant Lo Blanch, 2020).

 

También te puede interesar:
Un GATO se comió el problema
Entre el capitalismo de la vigilancia y 1984
Nace consultora especializada en inteligencia artificial y ética
¿Una política nacional de Inteligencia Artificial?
¿Neuroderechos constitucionales?
Del derecho romano a la inteligencia artificial

 

artículos relacionados


Podcast Idealex.press