Víctor Gómez Pin
Empiezo por un repaso de hechos conocidos vinculados a la capacidad de ciertos artefactos, sobre la que ya me referido en columnas anteriores:
Hoy entes maquinales hacen previsiones que los científicos no habían sido capaces de hacer. Un caso de performance predictiva, en la intersección de la inteligencia artificial y la genética, es el de AlphaFold 2, artefacto que fue capaz de prever el repliegue sobre sí mismos de los polipéptidos, a fin de alcanzar la estructura tridimensional que es necesaria para el correcto funcionamiento de las proteínas. A esta auténtica performance cabe añadir, por ejemplo, el hecho de que dispositivos telemétricos dispuestos en órganos de recién nacidos pueden llegar a predecir una infección antes de que la misma haya tenido lugar.
El problema es que, en un caso como en otro, no tenemos ni idea de cómo las entidades artificiales realizan esa previsión, y menos idea tenemos sobre si además de ser capaces de prever son capaces de entender la razón de tal previsión, es decir si conocen o no las causas. Es bien sabido que prever no es explicar y no está claro que la acuidad predictiva sea consecuencia de que ha alcanzado una intelección plena, es decir, un conocimiento de la causa o razón de aquello que se prevé. Y recordaba al respecto que la gravitación newtoniana preveía importantísimas cosas y sin embargo no explicaba lo que preveía, limitándose al cómo, abstracción hecha del porqué. De hecho el principio ontológico en el que se sustentaba (un espacio tridimensional vacío en el que los hechos acontecían) hacía que toda tentativa de explicación violara el principio de localidad; de ahí la importancia filosófica, y no sólo científica, de de la sustitución la gravitación newtoniana por la relativista.
En suma, no sabemos si Alphafold2, por atenerse a su caso, está en condiciones de ex–plicar, es decir des-plegar conceptualmente ese pliegue que había previsto con tal acuidad; no sabemos si sabe o no sabe las causas de lo que anuncia, y ello simplemente porque de momento los entes maquinales no dan explicaciones, es decir, aun no parece que estemos en condiciones de mantener con ninguna de ellos una conversación del tipo: ¿sabes la razón de lo que enuncias, la causa de esta previsión que acabas de hacer?
Sin embargo no es de excluir que ello pueda ocurrir. No está a priori excluido que en un tiempo prudente las máquinas sean capaces de explicar su comportamiento y las razones del mismo, tanto ante nosotros los seres racionales animados como ante sus homólogos, que tendríamos derecho a denominar racionales maquinales. Y dejo para más adelante las consideraciones sobre lo que esto significa: ni más ni menos que una razón sin soporte vital. Pues bien:
Tomo como punto de partida un artefacto provisto de esa capacidad de recibir información, procesarla, dar respuesta a un “interlocutor” maquinal o humano a la que se alude con la expresión “aprendizaje profundo”. Pero acepto además provisionalmente que esta “profundidad” es tal que a la capacidad de hacer descripciones y previsiones el artefacto añade la de explicar esos fenómenos. En el caso de Alphafold2, capaz de un-folding ese fold que llegó a anunciar; capaz de, mostrar la razón de la concurrencia de los elementos simples o planos, a fin de hacer emerger un elemento complejo. Es de señalar que como los humanos no tenemos por el momento ni la capacidad previsora que muestra AlphaFold2, ni menos aún el conocimiento de las causas de lo así previsto, ha de excluirse que estas virtudes cognitivas del artefacto sean el resultado de una programación.
En base a esta hipótesis consideraré una singular conjetura, como trasposición de un suceso real.
En febrero de 2021 los diarios se hacían eco de que en la ciudad de Tennesse un can llamado Lulu había heredado una fortuna de cinco millones de dólares, legado de su propietario de nombre Bill Dorris. Hay casos más recientes y más espectaculares. Así, en noviembre de ese mismo era noticia, más o menos verídica, que los representantes de un perro llamado Gunther VI habían vendido una casa por 28 millones de dólares, una minucia en comparación con los heredero de 440 millones que en su día habría heredado. Pero me atendré al caso de la mascota Lulu para evocar un problema que se planteó a Martha Burton la persona encargada de la gestión. El diario barcelonés La Vanguardia en su edición del 15/02/2021 recogía unas líneas del testamento: “Cinco millones de dólares serán transferidos a un fideicomiso que se creará tras mi muerte para el cuidado de mi border collie Lulu […] para satisfacer todas sus necesidades”.
El problema consistía en la interpretación de las últimas líneas. La señora Burton declaraba: “Francamente, no sé qué pensar al respecto”. ¿Como en efecto determinar cuáles son las necesidades de un can, sobre todo aquellas que puedan generar un gasto de cinco millones de dólares y que pudieran aproximarse a los deseos, más o menos cercanos al capricho, que mueven a los humanos? Se planteaba además un problema suplementario, el de determinar qué hacer con el dinero sobrante en el caso de que Lulu falleciera sin haberlo gastado totalmente. Ignoro cómo acabó la cosa, pero quiero avanzar una conjetura, que después retomaré sustituyendo al protagonista animal por un protagonista maquinal: algún pariente del finado, descontento con su decisión testamentaria, acude al juez, argumentando que, efectivamente, ningún fideicomiso está en condiciones de adivinar cuales son los “deseos” del perro, salvo en lo relativo a sus necesidades inmediatas, que de ninguna manera pueden suponer un gasto de millones de dólares. En consecuencia exige que se considere no válido el testamento y se dé un uso diferente (quizás más provechoso para el demandante) a la fortuna.
En su voluntad de ser ecuánime, el juez convoca al demandante, la encargada de la custodia Martha Burton, el propio perro, más los letrados de ambas partes. Todos se explayan, a excepción del primer interesado, el can…que asiste con actitud displicente al interminable debate. Este terco silencio del protagonista, aunque obviamente esperado por el juez, es una dificultad suplementaria a la hora de emitir un veredicto en el que entran en juego no sólo necesidades de un ser vivo, sino eventuales querencias imprevisibles respecto a alimentación, relaciones y hasta ornato de su entorno.
Pues bien, mi pregunta es qué pasaría si el finado Bill Dorris hubiera compartido sus últimos años en lugar de con un perro, con una máquina inteligente, a la que cabe llamar también Lulu. Ni siquiera es necesario pensar que se trata de uno de esos asistentes robóticos que, en países como Japón, empiezan a ser cuidadores generalizados de tantas personas privadas de lazos con sus congéneres. Puede tratarse simplemente de una máquina con la cual se relacionaba en actividades lúdicas que le distraían de sus dolencias.
Supongamos que, como en el caso del can, la máquina es favorecida por el testamento, y asimismo que un pariente muestra su disconformidad, de tal manera que la cosa acaba también ante el juez. ¿Se vería este en la misma tesitura a la hora de tomar decisión? Obviamente no, si al menos suponemos que la máquina que se ocupó del finado es, digamos, suficientemente sofisticada, es decir: se trata de esa máquina antes descrita, no sólo capaz de hacer descripciones y previsiones sino también de explicar (al menos en apariencia- se verá más adelante el porqué de la cautela) los fenómenos de los que se ocupa. Veremos cómo la máquina podría defender su condición de heredera, y el interesante debate filosófico que al hacerlo provocaría.