"No puedo dejar de pensar en ellos cuando veo que ciertas oficinas de abogados se precian de no conocer límites,...
Un GATO se comió el problema
Lo más interesante de GATO es que es un modelo relativamente pequeño, experimental, que simplemente intenta demostrar que una misma red neuronal puede adquirir dimensiones generales. Si algo como GATO fuese replicado usando una red verdaderamente grande, como GTP-3 o PaLM es posible que nos encontremos con la primera inteligencia artificial general.
Carlos Amunátegui - 30 mayo, 2022
Hace solo un par de años, la mayor parte de los estudiosos estaban relativamente contestes en que la posibilidad de una inteligencia artificial general (AGI por su sigla en inglés) era relativamente lejana. El término nace en 1997, aunque tiende a apuntar a problemas propios de la década de 1980. Durante los 50 y los 60, la ambición de crear una entidad artificial que razonara como nosotros era el dominio no solo de la ciencia ficción, sino también de la naciente informática.
Una de las escuelas más influyentes en aquella época, la simbolista, creía que la esencia de la inteligencia era el razonar lógico, y puesto que los ordenadores son constructos que automatizan este tipo de razonamientos, lo único necesario para lograr un ser inteligente era proveerlo de un sistema de reglas y un conjunto de conceptos —una ontología— que le permitiese operar en el mundo con sentido común.
Esto demostró ser mucho más difícil de efectuar de lo que los primeros teóricos anticiparon y, finalmente, ante la falta de resultados, el financiamiento terminó por cortarse a comienzos de los años 70, cuando devino el primer “invierno” de la inteligencia artificial. Durante dicha década surge una idea más modesta: si bien programar todos los conocimientos de una persona para dotar a un ordenador de inteligencia puede ser excesivo, tal vez sea posible programar solamente los conocimientos de un experto en un área específica, de manera que el sistema se transforme, a su vez, en un experto.
Ahora bien, puesto que los costos de contratar determinados expertos suelen ser bastante altos, hacia comienzos de los años 80 muchas empresas y gobiernos consideraron que ésta era una idea interesante y el financiamiento volvió a fluir hacia la inteligencia artificial.
Aunque hubo ciertos éxitos iniciales, el sueño de vivir sin desagradables expertos humanos —como nosotros, los abogados—, se esfumó, porque sin sentido común estos sistemas tenían una utilidad muy limitada. Es en este contexto es que durante los 90 se comienza a hablar de inteligencias artificiales estrechas (Narrow Artificial Intelligence), que solo pueden realizar determinadas labores específicas, frente a las —teóricamente— generales (Artificial General Intelligence), que eventualmente podrían realizar múltiples labores y actividades diversas, como nosotros los seres humanos podemos hacerlo.
Aunque las técnicas simbolistas han quedado en el pasado, y las redes neuronales han tomado el rol protagónico en los últimos diez años, hasta hoy todos los agentes artificiales en uso eran estrechos, es decir, únicamente podían efectuar labores muy específicas para las cuales eran entrenados. En pocas palabras, AlphaGo juega al Go, pero no conduce un automóvil, y así.
Aunque los modelos de lenguaje basados en transformadores, como GTP-3, parecían estar desafiando esta tendencia con su habilidad para ejecutar varias labores distintas, en definitiva todas estaban relacionadas directamente con el lenguaje y, en cierto sentido, eran del mismo tipo.
Esto es lo que GATO viene a cambiar, -otro más en la seguidilla de nombres ridículos que DeepMind pone a sus agentes experimentales, como Flamingo, Chinchilla y varios más. GATO es una red construida por DeepMind mediante transformadores y que ha sido entrenada para realizar tareas de muy distinta naturaleza.
Así, GATO puede jugar videojuegos, conversar fluidamente en lenguaje natural, traducir, resumir textos, controlar un brazo robótico, identificar objetos en una imagen y muchas otras cosas más. En definitiva, GATO es capaz de efectuar muy distintas labores para los que usualmente se utilizaban distintos agentes estrechos.
Lo más interesante de GATO es que es un modelo relativamente pequeño, experimental, que simplemente intenta demostrar que una misma red neuronal puede adquirir dimensiones generales. Si algo como GATO fuese replicado usando una red verdaderamente grande, como GTP-3 o PaLM, es posible que nos encontremos con la primera inteligencia artificial general.
Ahora bien, el concepto de inteligencia general es distinto al de inteligencia artificial fuerte, que implica la existencia de una consciencia similar a la nuestra (strong AI), frente a una débil, que solo logra resultados que para nosotros requieren inteligencia sin poseerla realmente (weak AI), desarrollado por John Searle.
En su popular experimento mental acerca del cuarto chino, Searle compara dos posibles escenarios para un agente artificial: uno en que verdaderamente tiene una comprensión subjetiva del mundo similar a la nuestra, desarrollando un yo y experimentando el mundo en sí, mientras que en el otro, el agente artificial simplemente se comporta como si tuviera una subjetividad sin experimentarla.
En cierto sentido, es una contestación a la idea de Turing acerca de que si una máquina se comporta externamente como si pensase, en efecto deberíamos asumir que piensa. En cualquier caso, tal vez en unos pocos años tengamos que discutir con un descendiente de GATO acerca de estas ideas y preguntarnos si merece tener algunos atributos de la personalidad.
*Carlos Amunátegui Perelló es doctor en Derecho patrimonial por la Universidad Pompeu Fabra, profesor en la Universidad Católica de Chile y profesor visitante en las universidades de Osaka y Columbia. Autor del libro Arcana technicae, Derecho e Inteligencia Artificial (Tirant Lo Blanch, 2020).
También te puede interesar:
— Entre el capitalismo de la vigilancia y 1984
— Nace consultora especializada en inteligencia artificial y ética
— ¿Una política nacional de Inteligencia Artificial?
— ¿Neuroderechos constitucionales?
— Deo Auctore. El poder de Dios y los emperadores
— Populismo e inteligencia artificial
— Del derecho romano a la inteligencia artificial