Víctor Gómez Pin
Evidentemente, desde el punto de vista filosófico el problema no es si hemos alcanzado ya o todavía no una máquina que supere el reto de Turing, sino más bien si es posible alcanzarla. Antes decía que el mismo Turing había avanzado una amplia variedad de objeciones al respecto. Algunos pretenden que la lista incluye todas las cuestiones que se han planteado, desde que el escrito de Turing apareció… y que habrían sido respondidas por el propio Turing. Pero la cosa no está clara. Existen al menos dos argumentos:
A) Aunque la máquina haya superado el test de inteligencia de Turing, esto no prueba que tenga aspectos intencionales ligados a la consciencia. Pero consciencia e intencionalidad son características difícilmente separables de la inteligencia humana.
B) El segundo argumento está vinculado al pensador americano John Searle y esencialmente alega lo siguiente: si la máquina superase el test, simplemente simularía una conversación humana, sin llegar nunca a hablar o pensar realmente. Para hacer esta simulación basta con un ordenador que pueda seguir unas determinadas normas o pautas.
La tesis de John Searle es ampliamente conocida como The Chinese Room Argument y fue publicada por primera vez en 1980 en un documento titulado «Mentes, Cerebros y Programas». El argumento se centra en la llamada Inteligencia Artificial Fuerte (es decir, aquella que podría ser comparada a la inteligencia humana), ya que Searle no hace ninguna objeción a la posibilidad de una inteligencia artificial débil, que esencialmente sería un dispositivo auxiliar de los verdaderos seres inteligentes (por ejemplo, con el fin de estudiar modalidades de expresión de la inteligencia humana).
Transcribo aquí la síntesis de la reflexión que el propio Searle realiza en un texto de 1989 titulado, “Reply to Jacquette”. La letra A representa la palabra “axioma”, la letra C, representa la palabra “conclusión”.
A1. Los programas computacionales son puramente formales (sintácticos).
A2. Las mentes tienen contenidos mentales (semántica).
A3. La sintaxis por sí misma no es, ni constitutiva de la semántica, ni condición suficiente para forjarla.
C1. Los programas computacionales ni son constitutivos de la mente, ni condición suficiente de la misma.
Si ahora añadimos:
A4. Los cerebros son agentes causales de las mentes.
Se infiere:
C2. Cualquier sistema capaz de generar mentes, ha de tener poderes causales equivalentes (cuando menos) a los de los cerebros.
C3. Cualquier artefacto productor de fenómenos mentales, cualquier cerebro artificial, ha de tener la capacidad de duplicar [no meramente simular, la precisión es nuestra] los específicos poderes causales de los cerebros, y no podría realizar tal cosa limitándose a responder a un programa formal.
C4. La manera en la que el cerebro genera efectivos fenómenos mentales, no puede reducirse al hecho de responder a un programa computacional.
Cabe decir que Searle en la tradición de la tesis enunciada con absoluta claridad y distinción hace ya cuatro siglos por René Descartes:
“Quería demostrar que una máquina con los órganos y la figura de un ser humano y que imitase nuestras acciones en lo que moralmente fuera posible, no podía ser considerada como un hombre; y para ello, aducía dos consideraciones irrefutables. La primera era que nunca una máquina podrá usar palabras ni signos equivalentes a ellas, como hacemos nosotros para declarar a otros nuestros pensamientos. Es posible concebir una máquina tan perfecta que profiera palabras a propósito de actos corporales que causen algún cambio en sus órganos –por ejemplo: si se le toca en un punto, que conteste lo que determinó el autor de la máquina – ; lo que no es posible, es que hable contestando con sentido a todo lo que se diga en su presencia, como hacen los hombres menos inteligentes. La segunda consideración era que, aún en el caso de que esos artefactos realizarán ciertos actos mejor que nosotros, obrarían no con conciencia de ello, sino como consecuencia de la disposición de sus órganos”. (Descartes, Discurso del Método trad. Francisco Larroyo, México: Porrúa, 1977, pág. 31-32.).
Tesis cartesiana que hoy puede ciertamente ser puesta en tela de juicio, es decir, discutida con argumentos racionales, dada de un plumazo por superada. “Los robots no tienen que ser inteligentes todo el tiempo” declaraba años atrás una estancia en Barcelona Manuela Veloso investigadora de la Carneggie Mellon University, señalando al respecto que si las máquinas no siempre se muestran inteligentes tampoco parece que “los humanos seamos inteligentes máquinas pensantes 24 horas al día”. Sin duda está en lo cierto: los humanos no somos probablemente máquinas pensantes, ni 24 horas al día, ni un minuto. Y ello, por la sencilla razón de que no somos máquinas, de que nuestro pensamiento de entrada no es reductible a funcionamiento maquinal.
En este registro de la inteligencia artificial (como en tantos otros, por ejemplo cuando se trata de extraer consecuencias de hechos científicos en sí indiscutibles, como el alto grado de coincidencia genética entre humanos y chimpancés) hay presupuestos, cuando no sesgos apriorísticos, que determinan la interpretación que se da de los hechos. Cabe decir que, de alguna manera, (como en “l’auberge espagnole” del proverbio francés) uno sólo encuentra en ellos lo que lleva en sus alforjas. Algunos están dispuestos a encontrar a todo precio indicios de que, tanto respecto a la inteligencia como respecto al lenguaje, se difumina la frontera que separa artefactos y humanos, mientras que John Searle parece dispuesto a lo contrario Es difícil tomar partido en esta maraña de interpretaciones, réplicas, contra-réplicas y hasta recurso a la autoridad, ya sea la autoridad de la ciencia. Pero es conveniente señalar que el argumento de ausencia de semántica es generalmente concedido a Searle cuando se trata de un programa computacional. Las objeciones van más bien por considerar que la inteligencia artificial, al menos potencialmente, no se reduce a un computer program. Si definimos la Inteligencia Artificial Fuerte como una máquina que puede emular o superar la inteligencia humana en todas las modalidades que esta adopta, entonces se plantea un doble problema:
¿Es esto un mero proyecto, o algo que cabe considerar como algo ya alcanzado? Caso de respuesta afirmativa, ¿es seguro que las manifestaciones fenoménicas responden a la existencia en la mente maquinal de la polaridad significante/ significado, es decir de una suerte de platónico campo eidético correlativo del dominio de la conexión de signos? Intentar responder a la primera pregunta supone meterse en intrincados asuntos como por ejemplo el problema clásico de determinar si los procesos que se dan en el cerebro están o no caracterizados por el determinismo. Si así fuera, llegando a hacer que un programa duplicara exactamente las conexiones de las partículas de nuestro cerebro (¡asunto arduo!), entonces podríamos suponer que estaría funcionando como nuestra mente. Supongamos sin embargo la hipótesis contraria: no solo en nuestro cerebro hay algo intrínsecamente indeterminado, sino (hipótesis de Penrose) que la modalidad de indeterminación (de hecho cuántica) que se da en nuestro caso es condición del singular funcionamiento de nuestra mente. En esta hipótesis está excluido que se pueda construir la réplica computacional del mismo y por consiguiente se cierra la posibilidad de construcción de un artefacto homologable al ser humano.