Víctor Gómez Pin
Decía en una reflexión anterior que no tenía seguridad de que cuando los manuales introductorios se refieren a los artefactos que emulan el funcionamiento del cerebro humano, sea lícito hacer referencia a lo que en este funcionamiento es dependiente del lenguaje. Indicaba así que si por “responder” se entiende una respuesta lingüística, no tenía yo mucha seguridad de que haya artefacto inteligente que efectivamente de respuestas. No se trata de una duda retórica, simplemente no lo sé: no sé hasta qué punto los prodigiosos logros de la inteligencia artificial nos permiten decir que hay ya entre nosotros inter-pares, entiendo por inter-par toda entidad que efectivamente esté dotada del don de la palabra.
El problema aparece entre líneas por todas partes, incluso cuando nos estamos refiriendo a cuestiones meramente de técnica. Un ejemplo recogido de uno de esos manuales introductorios a los que hecho alguna referencia:
El autor está presentando una red neuronal básica pero que permitiría clasificar los siguientes dígitos 504192 (imagine el lector que están escritos a mano). Se plantean dos problemas, en primer lugar hay hacer que la imagen total que constituye el conjunto de los dígitos se convierta en una secuencia, es decir, hay que introducir la diversidad, de tal manera que haya seis imágenes y no una. Tras esta segmentación se plantea el problema central de clasificar cada digito individual, es decir, realizar la acción de ubicar en un grupo u otro, por ejemplo reconocer en la imagen 5 un caso particular del dígito “cinco”. Pues bien, aquí el autor señala la conveniencia de abordar directamente el segundo problema, pues su solución acarrea la solución del primero, o sea: lograr clasificar implica lograr distinguir. Desde luego suena muy platónico, pero ¿lo es realmente? Todo depende de cómo clasifica la máquina: ¿cata-loga la máquina, es decir, subsume, a la manera platónico-aristotélica, por mediación del logos, reconociendo en lo dado una forma, una especie o idea? ¿O más bien a la manera como un animal no confunde un gato con un perro, es decir, sin idea de lo que está en presencia? Hemos visto que el John Searle que se encuentra en la cámara china no tiene idea de chino y sin embargo funciona como si la tuviera, es decir: a efectos prácticos una simulación de lenguaje parece funcionar como si el lenguaje estuviera presente.
Este es el problema filosófico de fondo que este titánico proyecto de la inteligencia artificial nos plantea, y que, como ya he indicado, hay que abordar sin apriorismos. Muchos seres carentes de lenguaje realizan complejísimas funciones que en nosotros son difícilmente separables del lenguaje, y ello simplemente porque el lenguaje lo empapa todo en nuestras vidas. Esta intrínseca porosidad del cuerpo humano al lenguaje hace quizás que tomemos como efecto de lenguaje lo que quizás podría tener lugar sin presencia del mismo. Nosotros no confundimos un individuo de una especie con un individuo de otra especie, pero un perro, sin poder (por hipótesis puesto que animal no racional) especificar, tampoco los confunde, de lo contrario no podría adaptarse al entorno. De ahí una vez más la sospecha: el lenguaje, que emerge en la vida, quizás no tiene como meta esencial fortificar la vida.