Skip to main content
Escrito por

Víctor Gómez Pin

Victor Gómez Pin se trasladó muy joven a París, iniciando en la Sorbona  estudios de Filosofía hasta el grado de  Doctor de Estado, con una tesis sobre el orden aristotélico.  Tras años de docencia en la universidad  de Dijon,  la Universidad del País Vasco (UPV- EHU) le  confió la cátedra de Filosofía.  Desde 1993 es Catedrático de la Universitat Autònoma de Barcelona (UAB), actualmente con estatuto de Emérito. Autor de más de treinta  libros y multiplicidad de artículos, intenta desde hace largos años replantear los viejos problemas ontológicos de los pensadores griegos a la luz del pensamiento actual, interrogándose en concreto  sobre las implicaciones que para el concepto heredado de naturaleza tienen ciertas disciplinas científicas contemporáneas. Esta preocupación le llevó a promover la creación del International Ontology Congress, en cuyo comité científico figuran, junto a filósofos, eminentes científicos y cuyas ediciones bienales han venido realizándose, desde hace un cuarto de siglo, bajo el Patrocinio de la UNESCO. Ha sido Visiting Professor, investigador  y conferenciante en diferentes universidades, entre otras la Venice International University, la Universidad Federal de Rio de Janeiro, la ENS de París, la Université Paris-Diderot, el Queen's College de la CUNY o la Universidad de Santiago. Ha recibido los premios Anagrama y Espasa de Ensayo  y  en 2009 el "Premio Internazionale Per Venezia" del Istituto Veneto di Scienze, Lettere ed Arti. Es miembro numerario de Jakiunde (Academia  de  las Ciencias, de las Artes y de las Letras). En junio de 2015 fue investido Doctor Honoris Causa por la Universidad del País Vasco.

Blogs de autor

La decisión del poeta

Las neuronas de una red artificial sopesan los datos que recibe en función de una finalidad (por ejemplo el reconocimiento de si los píxeles percibidos corresponden o no a un determinado dígito) y relativizan el monto añadiendo su propio sesgo o querencia. La mayor o menor acuidad en la tarea (por ejemplo tanto por ciento de dígitos reconocidos correctamente en un tiempo determinado) se acentúa por el hecho de que la red reconoce sus propios errores y aprende a corregirlos.

La proyección de nuestros estados psicológicos sobre sistemas artificiales se traduce directamente en el vocabulario. Un ejemplo:

En el reconocimiento de dígitos, en ocasiones el sistema parece funcionar al nivel de las imágenes que sirven de entrenamiento,  pero este buen funcionamiento es ilusorio, pues al pasar a las imágenes no específicamente seleccionadas para entrenar se percibe que el tanto por ciento de correcta clasificación se ha estancado. Se diría que el sistema, funcionando  bien ante el conjunto de dígitos elegidos para su entrenamiento, es sin embargo incapaz de generalizar. Pues bien, cuando esto ocurre se dice que el sistema, padece de sobre-entrenamiento (overtraining, también overfitting) de alguna manera está estresado. Y como se diría de un deportista que falla en el momento de la competición real mientras que se mantenía en los entrenamientos (algún caso se ha dado en los últimos juegos olímpicos), es entonces imperativo que la red neuronal deje de entrenar. En vista de todas estas analogías entre entidades artificiales y seres humanos es legítima la pregunta: ¿cabe decir que un sistema neuronal artificial adopta una resolución tal como nosotros lo hacemos de ordinario?

Tratándose de elucidar si lo que percibimos es un 5, quizás hay coincidencia entre los procesos que nosotros  efectuamos (de hecho sin conciencia de ello)  y lo que efectúa una red neuronal (por ejemplo cuando de diez neuronas output sólo la que corresponde al número 5 se activa). De todas maneras ciertos  autores  niegan que, incluso a este nivel, quepa hablar de homologación. Así el filósofo americano  John  Searle lleva decenios  proclamando que aunque la performance objetiva sea comparable, las entidades artificiales se mueven en una dimensión exclusivamente sintáctica, no teniendo acceso alguno  a la semántica.

En cualquier caso: ¿qué ocurre cuando se trata de tomar una resolución con implicaciones éticas y con datos contradictorios? Por ejemplo cuando hay variables que apoyan la decisión de tomar una medida sanitaria mientras otras variables la señalan como perjudicial. Y sobre todo: ¿es el comportamiento de la red homologable al nuestro cuando el poeta decide que las almas a las que se apela son las de las rosas (“A las aladas almas de las rosas/del almendro de nata te requiero”) y no las de algún otro ser que, de considerarse la oración desde el punto de vista de la información que da un código de señales,  sería perfectamente homologable?

Leer más
profile avatar
21 de octubre de 2021
Blogs de autor

El peso de la inteligencia y el peso de la vida

Cuando se introduce la cuestión de la potencia de cerebros artificiales, alcanza mayor sentido una pregunta filosófica que ha tomado particular relieve en nuestro tiempo, a saber, la de si hay seres homologables (ya sea parcialmente) al cerebro humano no sólo en capacidad de conocimiento sino también de simbolización.

Esta homologación está de hecho implícita tras la idea recurrente de que la comprensión de la inteligencia artificial nos ayudaría a entender el funcionamiento de nuestro propio cerebro.

En cualquier caso, esta problemática de la capacidad de entes artificiales para emular e incluso superar las facultades mentales humanas, deja de alguna manera en segundo plano, el problema simétrico de la homología entre humanos y animales. Cierto es que los animales tienen en común con nosotros la condición de seres vivos dotados de códigos de señales de gran complejidad, pero desde luego el nivel de interrogación al que se ha llegado respecto a la inteligencia animal no es comparable al sofisticadísimo en el que estamos ya embarcados en relación a la inteligencia de seres artificiales…

En síntesis: cuando se trata de cerebros artificiales se presenta con mayor acuidad una interrogación clave: ¿hay fuera de los cerebros humanos algo análogo a la prodigiosa facultad de lenguaje?; ¿hay fuera de los cerebros humanos algo análogo a lo que constituye una frase cuyo significado es irreductible al cumulo complejo de combinaciones de los significados de sus componentes?

A mi juicio es fácil responder con la negativa a estas preguntas cuando se trata de cerebros de otros animales (por muchos esfuerzos que se ha hecho para reconocer en ciertos de ellos facultades humanas como la de lenguaje, nunca se ha llegado demasiado lejos), mientras que la pregunta permanece abierta tratándose de la inteligencia artificial. Y en caso de que se llegara a una respuesta positiva, habría un sorprendente corolario: la inteligencia lingüística se ha dado en ese ser vivo que es el hombre, pero no cabría decir que la vida es una condición necesaria de la inteligencia.

Leer más
profile avatar
4 de octubre de 2021
Blogs de autor

A vueltas con la pregunta de Turing

¿Pueden las máquinas pensar? Ante  esta pregunta, formulada por Alan Turing ya en 1950 (Computering Machynery and Intelligence)  lo primero que pasa por la cabeza es la de que todo depende de lo que entendemos por pensar. El propio Turing escribe en el arranque “Deberíamos  empezar definiendo lo que significan los términos máquina y pensar” No parece que esta exigencia se haya siempre respetado.

Etimológicamente pensar es sopesar, alzar, relevar, hacer que algo destaque a fin de pesarlo o pensarlo, dirimir respecto a sus posibilidades con vistas a obtener un resultado que se espera. Pero, obviamente, esto corresponde tanto a la compleja reacción que tiene un animal que  valora opciones  de fuga ante la presencia de un depredador como a la disposición   de un político que  tantea o calibra los beneficios y perjuicios de adoptar tal posición. Y cuando Turing plantea la pregunta se está refiriendo a algo más que esto.

De hecho Turing se está refiriendo  a un ser (“una cosa que piensa” Descartes dixit) cuya reacción ante el entorno fuera homologable a la de los humanos cuando actúan racionalmente. Y quisiera al respecto hacer una precisión. En ocasiones se presenta la cosa así: Turing nos estaría pidiendo que juzguemos a la invisible entidad de la misma manera que usualmente juzgamos a los humanos: si estos responden a nuestras preguntas de un modo que nos parece razonable diremos que están pensando. Pero la cosa no es exactamente así: cuando nos dirigimos a un ser humano, tenemos como punto de arranque, presupuesto o condición que estamos dirigiéndonos a un ser pensante. Si responde mal o caóticamente, diremos que es un ser pedante, confuso o claramente estúpido, pero no esperamos la respuesta para determinar que se trata de un ser pensante.

 Pero con independencia de este problema cuando Turing se está refiriendo a una potencial máquina  inteligente, está pensando en una inteligencia que se activa incluso cuando nada concierne en lo relativo a las  condiciones de posibilidad de su existencia, es decir al soporte material de la misma. Una máquina cuya percepción sensible fuera actuada por entidades que no son ellas mismas sensibles, como en todo caso son los conceptos, una máquina que respondiera al campo eidético. Una máquina que a partir de de un conjunto finito de elementos potencialmente pudiera desplegar una pluralidad infinita. Obviamente no se trata de elementos del mismo nivel. Conjunto finito de elementos físicos, es decir significantes, versus -conjunto infinito (potencialmente, pues los elementos  no se dan al mismo tiempo) de elementos eidéticos, es decir significados. Pero el pensar al que se refiere Turing va quizás más allá.

En la intersección de la ciencia y la filosofía, el proyecto de Turing abre el siguiente interrogante. Siendo el hombre un animal de razón y de lenguaje, ¿llegará él mismo a ser creador de razón y lenguaje? ¿Conseguirá un  artificio que sea cabalmente inteligente, es decir, que incluya los aspectos emocionales y creativos de la inteligencia? ¿O aquello que llamamos inteligencia artificial no es verdaderamente algo que (parafraseando a Descartes) afirma, niega, siente, conjetura, concluye  teme, se motiva y sobre todo duda, aspectos todos ellos que son expresión de inteligencia?

Los  cerebros artificiales solucionarán  mucho mejor que el hombre ciertos problemas aquí ya  evocados, reemplazándonos en  tareas tecnológicas. Pero ¿serán  émulos de Dante  o Calderón, compondrán como Mozart o Vivaldi? A lo cual cabe añadir:

¿Serán esos nuevos seres  capaces  de formular algo análogo al principio de equivalencia de la relatividad general o al principio de incertidumbre de Heisenberg de la Mecánica Cuántica?  ¿Serán capaces de “interesarse” por algo como las figuras cónicas que fascinaban al pensamiento griego y que sin embargo no tuvieron durante siglos utilización técnica alguna? ¿Serán  susceptibles de ser movidos por la pura exigencia de inteligibilidad que, desde la física elemental de los jónicos hasta las discusiones sobre los fundamentos de la física cuántica  (¡que se prolongan desde hace un siglo!)  son un aspecto esencial de la ciencia (no el único por supuesto)? ¿Serán capaces de sentir ese estupor (según Aristóteles punto de  arranque de la filosofía) que experimenta un científico cuando constata algo que, funcionando perfectamente, parece escapar a los principios mismos de la ciencia, ese estupor que -por mucho que  hubiera previsto el resultado- no dejó de experimentar Alain Aspect ante su experimento de no localidad? En suma:

¿Dará el hombre lugar a un ser artificial dotado de la inteligencia a la vez conceptual y sentiente (por utilizar la expresión de Zubiri) que ha posibilitado un Garcilaso,  pero también un Descartes o un Einstein, y que además tenga esa trágica   certeza de la propia finitud que acompañaba a esos  creadores, como acompaña a todo ser de palabra.

Leer más
profile avatar
30 de julio de 2021
Blogs de autor

¿Sensores que detectan el mero pensar?

Un artículo en Nature en mayo de 2021 daba cuenta de  los resultados de un experimento en la universidad de Stanford: a una persona afectada por una lesión tetrapléjica se le insertaron pequeños electrodos en partes del cerebro vinculadas al movimiento de los brazos. Tales  sensores    detectan la actividad   neuronal correspondiente al deseo de activar el brazo y la mano con vistas al trazado de letras. La información es entonces  transmitida a un ordenador que escribe las frases deseadas. Se trata de un experimento  en el marco de un programa denominado Brain Gate.

 Lo que  se ha conseguido es escribir 90 caracteres por minuto, cuando en experimentos anteriores no se habían pasado de 40 caracteres, no se trata pues de un salto cualitativo. Por otro lado Humberto Bustince ha señalado que el experimento estaba desde el inicio focalizado en un individuo concreto (la máquina estaba por así decirlo adecuada a los rasgos de funcionamiento de ese individuo) y no en la mente de personas en general. La observación es tanto más pertinente cuanto  que el equipo dirigido por el propio Bustince en la universidad pública de Navarra, hace tiempo que realiza experimentos aplicables a cualquier persona, aunque restringidos a la reacción neuronal a preguntas elementales que sólo exigen la respuesta sí o no.

Conviene recordar  que el trazado caligráfico es algo enormemente complejo (de ahí las dificultades de las primeras  redes neuronales para avanzar en el mero reconocimiento de dígitos manuscritos) y compleja es pues la actividad  neuronal que le da soporte. Así que  pese a las observaciones que preceden, el asunto es desde luego impresionante, y desde luego abre la puerta a interrogaciones de calado.

Si he entendido bien  lo que se ha conseguido es detectar las señales de que se intenta efectuar una acción física, no directamente el pensamiento que ha dado lugar a tal voluntad. Supongamos, pues,  que (contrariamente al caso evocado) no se tratara  de un pensamiento tendiente a la activación de un órgano, sino de pensamiento sin otra intencionalidad que el pensamiento mismo, un pensamiento abstracto, relación matemática, por ejemplo, o una asociación metafórica; un pensamiento en suma no vinculado a la acción física. ¿Podrían sensores análogos a los evocados  decir algo de esta actividad neuronal sin intencionalidad de traducción en gesto físico luego con correlato meramente eidético?

Obviamente el pensamiento tiene soporte en el cerebro, y la correlación neuronal de tal acto de pensar podría eventualmente ser captada  por sensores análogos a los considerados. Cabría entonces decir que estos sensores interrelacionan casi directamente con el pensamiento. En suma: una cosa es que una máquina reconozca los correlatos neuronales de la intención de trazar  físicamente un dígito o una letra y otra que reconozca los correlatos neuronales del puro pensar. Si dejamos aparte casos de metapsicología, entendemos al otro a partir del aspecto físico del signo lingüístico saussuriano, sea este verbal o visual (tal el lenguaje de los sordomudos). Y es efectivamente sorprendente la posibilidad de que un instrumento acceda a lo que a nosotros mismos parece  estar  vedado.

Leer más
profile avatar
21 de julio de 2021
Blogs de autor

Distinguir y conocer no implica tener idea

Decía en una reflexión anterior que no tenía seguridad de que cuando los manuales introductorios se refieren a los artefactos que emulan el funcionamiento del cerebro humano, sea lícito hacer referencia a lo que en este funcionamiento es dependiente del lenguaje. Indicaba así que si por “responder” se entiende una respuesta lingüística, no tenía yo mucha seguridad de que haya artefacto inteligente que efectivamente de respuestas. No se trata de una duda retórica, simplemente no lo sé: no sé hasta qué punto los prodigiosos logros de la inteligencia artificial nos permiten decir que hay ya entre nosotros inter-pares, entiendo por inter-par toda entidad que efectivamente esté dotada del don de la palabra.

El problema aparece entre líneas por todas partes, incluso cuando nos estamos refiriendo a cuestiones meramente de técnica. Un ejemplo recogido de uno de esos manuales introductorios a los que hecho alguna referencia:

El autor está presentando una red neuronal básica pero que permitiría clasificar los siguientes dígitos 504192 (imagine el lector que están escritos a mano). Se plantean dos problemas, en primer lugar hay hacer que la imagen total que constituye el conjunto de los dígitos se convierta en una secuencia, es decir, hay que introducir la diversidad, de tal manera que haya seis imágenes y no una. Tras esta segmentación se plantea el problema central de clasificar cada digito individual, es decir, realizar la acción de ubicar en un grupo u otro, por ejemplo reconocer en la imagen 5 un caso particular del dígito “cinco”. Pues bien, aquí el autor señala la conveniencia de abordar directamente el segundo problema, pues su solución acarrea la solución del primero, o sea: lograr clasificar implica lograr distinguir. Desde luego suena muy platónico, pero ¿lo es realmente? Todo depende de cómo clasifica la máquina: ¿cata-loga la máquina, es decir, subsume, a la manera platónico-aristotélica, por mediación del logos, reconociendo en lo dado una forma, una especie o idea? ¿O más bien a la manera como un animal no confunde un gato con un perro, es decir, sin idea de lo que está en presencia? Hemos visto que el John Searle que se encuentra en la cámara china no tiene idea de chino y sin embargo funciona como si la tuviera, es decir: a efectos prácticos una simulación de lenguaje parece funcionar como si el lenguaje estuviera presente.

Este es el problema filosófico de fondo que este titánico proyecto de la inteligencia artificial nos plantea, y que, como ya he indicado, hay que abordar sin apriorismos. Muchos seres carentes de lenguaje realizan complejísimas funciones que en nosotros son difícilmente separables del lenguaje, y ello simplemente porque el lenguaje lo empapa todo en nuestras vidas. Esta intrínseca porosidad del cuerpo humano al lenguaje hace quizás que tomemos como efecto de lenguaje lo que quizás podría tener lugar sin presencia del mismo. Nosotros no confundimos un individuo de una especie con un individuo de otra especie, pero un perro, sin poder (por hipótesis puesto que animal no racional) especificar, tampoco los confunde, de lo contrario no podría adaptarse al entorno. De ahí una vez más la sospecha: el lenguaje, que emerge en la vida, quizás no tiene como meta esencial fortificar la vida.

Leer más
profile avatar
5 de julio de 2021
Blogs de autor

El can de Pavlov y el transistor de sinapsis

Los que somos ajenos a la especialización científica y sin embargo, por una u otra razón, nos sentimos obligados a estar informados de los avances científicos, nos vemos a menudo desorientados para distinguir lo que constituye una auténtica novedad, es decir un salto cualitativo en un aspecto clave de una disciplina (que muchas veces va más allá de esta, pues acarrea implicaciones filosóficas), de lo que es meramente un avance desde el punto de vista operativo. Tal es en todo caso lo que me ocurre en relación a la publicación el día 30 de mayo por “Nature Communications” de un artículo relativo a una máquina en la que se perfeccionaría grandemente un funcionamiento sináptico émulo del funcionamiento del cerebro humano (“Mimicking associative learning using an ion-trapping non-volatile synaptic organic electrochemical transistor” es el complejo título del artículo).

Hace tiempo que artificios neuro-morfológicos, tras conseguir el reconocimiento de dígitos manuscritos y de frases escritas (utilizados por ejemplo para la identificación de firmas bancarias) se han sofisticado, formando complejos sistemas constituidos por múltiples capas de neuronas artificiales, lo cual les permite reconocer rostros o “responder” a las interrogaciones de un ser humano ( como veremos, las comillas se deben a que no tengo seguridad de que se dé en la máquina esa dimensión semántica que constituye lo esencial de una respuesta lingüística). Pero es más: En el llamado Deep Learning se hallan en juego sistemas susceptibles de corregir el peso que dan a un estimulo con vistas a obtener que la respuesta se acerque lo más posible a lo “deseado”, o sea, que disminuya el nivel de incorrección. Considerando que en esto consiste uno de los procedimientos básicos del aprendizaje, cabe decir que tales sistemas aprenden, y lo que es más importante: lo hacen sin intervención del programador exterior, o sea, aprenden por sí mismos. Por otro lado, instrumentos denominadas “inorganic memnistors” se habían manifestado operativos en la imitación de sinapsis características del cerebro humano.

¿Dónde reside pues la novedad en lo que el artículo de Nature Communications describe? Los autores enfatizan que la nueva máquina no sólo sería capaz de aprender por sí misma, sino de hacerlo mediante actividad en paralelo, procesando y archivando a la vez la información que recibe, y realizando ese tipo de sinapsis que posibilita el funcionamiento sensorial en animales como el hombre. Baste recordar que el cerebro humano (que los autores presentan significativamente como un caso sofisticado de computadora, “complex computing machine” lo denominan) contiene 1011 neuronas interconectadas por 1015  sinapsis para apercibirse del enorme reto que (más allá del caso que ahora nos ocupa) supone la forja de entes artificiales susceptibles de emularlo.

Si he entendido bien, una de las ventajas es que la implementación de la potencialidad de cómputo se realiza sin apenas necesidad de suplemento energético. Pero sobre todo: los entes artificiales (“inspired by the operation of human Brain” recuerdan los autores) que tenían objetivos análogos a los del nuevo artefacto, así los evocados “memristors” eran incompatibles con el orden biológico, mientras que el “organic synaptic transistor” sería bio-compatible, lo cual a priori abre la puerta al tratamiento de lesiones en el hombre y otros animales. Y aquí surge la pregunta antes aludida: ¿La novedad que este nuevo artefacto supone es conceptualmente relevante, o el interés es esencialmente práctico? Y hay una segunda pregunta vinculada a la anterior, y quizás más relevante: ¿el nuevo instrumento viene a replicar el funcionamiento específico del hombre entre los animales superiores, o concierne más bien a lo que el hombre tiene genéricamente en común con estos (sin duda a un nivel más acentuado de complejidad)? De hecho, los experimentos se han realizado siguiendo la pauta trazada en su día por Pavlov: el perro saliva cada vez que escucha el sonido que tenía asociado a la llegada de alimento; el sistema neuronal artificial reacciona a una presión inexistente que tenía asociada a una luz efectivamente incidente.

Tras recordar que el aprendizaje asociativo es importantísimo para la adaptación de un individuo al medio, y la importancia para el proyecto de que lo imitado sea el proceso asociativo en el cerebro humano, resulta quizás algo decepcionante que se presente como ejemplo paradigmático de aprendizaje asociativo el del can de Pavlov. Pues no está claro que nuestras asociaciones mentales sean siempre análogas a la descrita por Pavlov. Se me ocurre un ejemplo trivial: Una persona padeció una crisis hepática tras una noche de excesos en las que predominaba el brandy. Durante largos meses tuvo sensación de náusea ante la sola presencia en carteles anunciadores con el anciano que daba marca a la bebida. Un neurólogo puede concluir que está reaccionando como el animal “pavloviano”. Sin embargo un lingüista diría más bien que está bajo los efectos de una metonimia del tipo “símbolo sustituyendo a la cosa simbolizada”, y en este caso no limitada a la expresión verbal (como cuando se decía ¿tomamos un centenario?) sino con efectos corporales. Sin duda ambas explicaciones son compatibles, pero no es desde luego claro que se expliquen por el mismo mecanismo. Estoy simplemente señalando que el pensamiento asociativo de orden lingüístico no es el pensamiento asociativo de orden biológico, aunque las manifestaciones de uno y otro sean a veces de hecho difícilmente discernibles.

La metonimia es un cambio semántico, se aprovecha la conexión, que puede o no ser casual, para hacer presente concepto de algo que quizás ni siquiera está, pero que por el peso eidético tiene efectos fisiológicos como si estuviera.

Insisto en la pregunta: estos nuevos artefactos, que funcionan sinápticamente ¿reproducen el funcionamiento del cerebro humano, o más bien solo aquello que el funcionamiento del cerebro humano tiene de análogo al funcionamiento del evocado perro de Pavlov? Los algoritmos en juego en el “organic synaptic transistor” ¿aprenden como este can famoso, o aprenden realmente como el hombre?

Obviamente no se trata de dar una respuesta a priori (aunque se esté tentado de hacerlo), sino de mirar la cosa y establecer una auténtica comparación. Se trata de ver si en la mente humana intervienen variables que van más allá del funcionamiento sináptico, aunque sean indisociables del mismo. En cualquier caso la cuestión del ser del hombre tiene hoy ahí uno de sus lugares de reflexión primordiales.

Leer más
profile avatar
23 de junio de 2021
Blogs de autor

La neurona sigmoide y el topo de Delibes

David Patterson, Premio Turing de ciencias de la computación, declara en una entrevista el 26 de febrero de 2021: “Si usted introduce datos en un programa para que una máquina aprenda a reconocer rostros, y al hacerlo obvia una raza o un género es su propio prejuicio el que convierte en estúpida racista o machista a la máquina”.

Contradictorio párrafo: por una lado se reconoce que la máquina no hace otra cosa que reflejar las eventuales disposiciones del programador, mas por otro lado se hable de tal reflejo como de una verdadera herencia, connotaciones morales incluidas: máquina “racista”, o “machista”.

En un manual sobre redes neuronales, al referirse a la respuesta, “output” que daría un “perceptrón” (forma “sencilla” de una red neuronal artificial) sin haber recibido inputs, nos dice que esa respuesta no sería “deseada”. Y refiriéndose a la posibilidad de que una red neuronal (no el perceptrón, sino la más sofisticada neurona sigmoide) pudiera ir aproximando una respuesta errónea a la correcta en base a ir modificando paulatinamente los datos de arranque (peso de las variables en juego y sesgo de la propia neurona que marca “querencia” o “reticencia” hacia el objetivo), el mismo manual nos indica que el artefacto estaría aprendiendo (“the network would be learning”).

Todo depende en última instancia de lo que se entiende por aprendizaje. Es obvio que un animal que evita un peligro del cual ha sido ya víctima, da muestras de haber aprendido, y cuando un topo sale a la superficie para lanzar tierra sobre los agujeros que provocan corriente de aire en su galería (ejemplo puesto por Miguel Delibes en su novela Las ratas), está mostrando un saber que algunos pueden estar tentados de identificar a la técnica humana. Al respecto, simplemente dos observaciones que en reflexiones ulteriores han de ser enriquecidas:

No es obvio que los ejemplos descritos den testimonio de que en la red sigmoide y el topo de Delibes, estén operando ideas o conceptos, presentes sin embargo en todo acto de aprendizaje humano, sin que quepa excluir que están también presentes (como ya sugería Aristóteles) en todo acto de humana percepción.

Tratándose de animales, no es obvio que pueda hablarse de aprendizaje cuya finalidad sea el aprendizaje mismo; no está claro que haya casos de aprendizaje no sometido a los instintos de conservación del individuo o de la especie.

Tratándose de redes artificiales, la cosa es más compleja. Obviamente no tiene sentido referirse a un instinto “vital” de la máquina, aunque sí sea concebible una inclinación a persistir, del que daba muestra, por ejemplo, el “protagonista” maquinal del film “La odisea del espacio”, cuando se le amenaza con desenchufarle.

Mas tenga o no algo análogo a un instinto de conservación, sí cabría atribuir a la máquina una tendencia muy vinculada al deseo humano, como es la inclinación a ganar por ganar, ganar con independencia de eventuales beneficios prácticos del triunfo. En este caso un artefacto como Alpha Go (así llamado por haber vencido al campeón Lee Sedol en el juego del Go) aprendería con la exclusiva finalidad de ganar. ¿Finalidad consciente?

Depende de lo que se entiende por consciente, y en gran medida de si se conserva el término de conciencia para un funcionamiento carente de ideas. Pues nada en los prodigios de Alpha Go deja indicar que para él Go significante tiene polaridad en “Go” significado.

No hay en suma indicios de que en el topo de Delibes y Alpha Go, el aprendizaje incluya esa variable fundamental del aprendizaje propiamente humano que es el lenguaje. Lo cual no quiere decir que uno y otro no aprendan de manera excelente en relación a determinados objetivos. Quiero decir que para ciertas cosas admirables, ni hay funcionamiento propiamente lingüístico ni quizás falta alguna hace que lo haya.

Leer más
profile avatar
10 de junio de 2021
Blogs de autor

Tan solo para contarlo

En esta reflexión sobre el hacer del hombre (puesto en paralelo comparativo con el comportamiento de animales y máquinas con estructura de redes neuronales) he venido sugiriendo que si el hombre hace cuentas y en ocasiones da cuenta o razón de las cosas, quizás la modalidad primordial de contar es la emblemáticamente representada por nombres como Homero, Tolstoy o Melville. Me he referido ya aquí en más de una ocasión a la trama de Moby Dick y al destino de Ismael, el narrador, que ahora creo útil recoger de nuevo:

Ismael vincula su deseo de escapar de tierra firme al hecho de que la vida se ha convertido para él en un gris y desolador día de noviembre. En lugar, nos dice, de arrojarse como Catón sobre su espada, Ismael busca en los puertos de mar un modo de redención y un nuevo destino. Destino que, para todos los tripulantes de la nave, quedará sellado por la obsesión trágica del capitán del ballenero, Ahab: Starbuck, segundo de a bordo, que tras oponerse a los designios de Ahab es el primero en acudir a la llamada de éste cuando resurge de las aguas, ligado por los arpones al lomo del cetáceo; Bulkington, presentado como embarcación azotada por el temporal, para la que la costa rocosa (promesa de reencuentro con "todo lo que es caro a nuestra existencia mortal") constituye el peligro mayor; el arponero Queequeg, que al tener premonición de su propia muerte encarga al carpintero el ataúd… y así todos los tripulantes de la nave, el Pequod.

Sin embargo, algo distingue a Ismael de los demás, a saber, el hecho de que Ismael sobrevive. Sobrevive gracias al ataúd que había construido para sí Queequeg y que, en la calma de las aguas que sigue al apocalipsis, la suerte ofrece le como balsa flotante. No obstante, Ismael no se equivoca sobre cómo interpretar esta condición de único superviviente; sabe ahora cuál era realmente el contenido del nuevo destino que buscaba, destino que se confunde con una misión: Ismael ha sido preservado "tan sólo para contarlo".

Contar no es, en efecto, una actividad contingente, que el hombre vendría o no a realizar según se lo permitieran o no las vicisitudes serias de la vida. Pues contadas o narradas vienen a ser para el hombre, en un momento esencial de su desarrollo, todas las cosas que configuran el mundo. Si un día el mundo apareció bañado en palabras, es decir, si fue contemplado por ese animal singular que es el hombre, justo es que Ismael sienta que sobrevivir al destino del Pequod supone asumir la tarea de redimir por la palabra la pulsión que atormenta a Ahab y que, imponiéndose sobre toda exigencia movida por el interés social o la exigencia animal de conservación, le había llevado a sacrificar, junto a la suya propia, la vida de sus hombres.

Leer más
profile avatar
28 de mayo de 2021
Blogs de autor

De nuevo sobre la problemática “ciencia del hombre”

Decimos: “el hombre es uno de los resultados de la evolución natural”. Si además añadimos: “no hay variables exteriores a la naturaleza que hayan intervenido en la emergencia del hombre”, entonces parece lícito afirmar: “el hombre es un mero ser natural”. Sin duda a lo largo de la historia se han avanzado hipótesis contrarias a esta reducción, y ello en base a inquietudes espirituales de elevadísima profundidad. Pero simplemente tales hipótesis no pueden entrar en juego cuando el marco de discusión es el científico. La ciencia, no lo olvidemos, tiene emblema en la física, y lo que da nombre a esta, su objetivo no es otro que la naturaleza (physis).

En base a la premisa de que el hombre es un ser meramente natural, en el radar de la ciencia (que tiene como objetivo explorar la naturaleza y hacerla inteligible) estaría el espectro del hombre. Y sin embargo es la propia ciencia, o al menos la reflexión sobre sus presupuestos de base, la que hace que surjan escrúpulos sobre el proyecto de una ciencia del hombre. Por ello vengo señalando que la naturalización del hombre (su reducción a potencial objeto de la ciencia natural) es algo problemático.

Tan indiscutible como que se da en el ser humano la disposición que caracteriza al espíritu científico, es el hecho de que la misma se inscribe en un marco previo: el hombre habla y entre las manifestaciones de la facultad de hablar se halla como un caso particular el hablar científicamente. Simplemente, la ciencia es un producto del lenguaje. Primero está el hablar y eventualmente este hablar llega a ser hablar como un matemático o en hablar como un científico. Y separo ambos aspectos en razón de que, aunque las descripciones de la ciencia se hayan revelado indisociables de la matemática, la esta última se da con independencia de la física, es decir, con independencia de la disciplina que es modelo mismo de la ciencia. Grandes civilizaciones en las cuales no se daba una concepción de la naturaleza que posibilitara la ciencia física, sí se daba ya un profundo conocimiento matemático. Se diría que la matemática (como barrunta Platón en el diálogo Menón) es mayormente inherente a las estructuras elementales del lenguaje que la ciencia de la naturaleza (habrá ocasión de retornar sobre este asunto).

Pero si el hablar que objetiviza aquello de lo que trata, el hablar que da cuenta de la la naturaleza, es sólo un modalidad del hablar, ¿cómo podría dar cuenta del ser que habla, del ser cuya propiedad singular es el hablar? Sostener que cabe dar cuenta científica del ser que habla, supone (explícita o implícitamente) dejar de considerar que la ciencia es un decir y que lo resaltado por la ciencia es algo dicho. Siendo anterior al decir, lo natural deviene vida, código, y en fin lenguaje.

Tenemos sin duda certeza de ser animales, y asimismo certeza de que hablamos. Pero no podremos nunca tener certeza alguna del origen del lenguaje, por razones que ya en su día puso de relieve el padre de la lingüística Ferdinand de Saussure, y que aquí he retomado desde un ángulo diferente que cabe expresar así: la ciencia sólo podría dar cuenta del lenguaje situándose ella misma fuera del lenguaje.

Leer más
profile avatar
21 de mayo de 2021
Blogs de autor

El pensamiento quiere saber de sí mismo

“Kaì ’éstin… nóesis noéseos noéseos” (“Y es un pensamiento del pensamiento del pensamiento” Aristóteles sobre el motor del cosmos)

Pese a los logros en la exploración y descripción, los científicos aceptan la perplejidad en la que siguen inmersos cuando se trata del cerebro humano, empezando por su origen, es decir, por las condiciones de posibilidad y necesidad de su aparición.

El intento de salir de la misma ha conducido a proyectos como el llamado Brain Initiative, apoyado en 2013 por el presidente Obama y que se presenta como el equivalente en el campo de las neurociencias de lo que el proyecto genoma humano ha sido en el campo de la genética. Una de las almas del mismo, el neuro-biólogo Rafael Yuste (universidad de Columbia y DIPC- Donostia International Physics Center) apuesta a que pronto la tecnología permitirá hacer un mapa del estado de nuestro cerebro, no sólo de lo que estamos percibiendo en acto, sino también de lo que estamos deseando o temiendo. El método es holístico, es decir, la intervención en las partes exige tener un trazado del Todo. El todo ni más ni menos que del cerebro…de ahí las exigencias deontológicas, que obligan a extremar las precaución, al menos en el contexto de la investigación académica: se empieza por penetrar en el cerebro de los animales para ver las causas de eventuales deficiencias en el comportamiento de los mismos, pero la finalidad es llegar a hacerlo en el de los humanos, entre otras cosas para intentar entender mecanismos como el Parkinson o el Alzheimer. Sin duda las máximas que motivan no siempre son tan encomiables. Yuste no ha dejado de poner en guardia sobre las posibles consecuencias negativas: utilización por grupos o estados a los que poco importa la medicina o el conocimiento, pues su objetivo es llegar a manipular el cerebro de los ciudadanos.

Si se piensa que en un cerebro humano en ocasiones están actuando simultáneamente alrededor de 90000 millones de neuronas, se entiende lo titánico del esfuerzo que exige quizás mayor colaboración interdisciplinar que la necesaria para establecer un mapa del universo. Así los neurólogos se apoyan hoy en la nano-tecnología, pero obviamente también en la ingeniería genética, la inteligencia artificial y otras disciplinas. La modalidad de funcionamiento sináptico que opera en el cerebro de los animales superiores posibilita que se den cosas tan prodigiosas como la percepción sensorial, y en el caso del animal humano, se añade el pensamiento racional. Y si una máquina como el “transistor de sinapsis”( a la que en otro momento hago referencia) fuera capaz de emular el funcionamiento del cerebro, estaría cercana la perspectiva de considerar que hemos dado lugar a entes que se nos aproximan. Sin embargo en lo esencial la perplejidad aún perdura.

Rafael Yuste admite que uno de los retos es llegar a saber lo que es un pensamiento. Cree que si se llega a saber cómo se forja un pensamiento se entenderá quizás qué es el cerebro humano. O sea: se admite que en el pensamiento reside esa misteriosa clave de nuestro ser que ya obsesionaba a Platón. La hipótesis es que el pensamiento (y con ello las emociones que en el hombre están vehiculadas por ideas, así el amor o el odio) es una propiedad emergente de las propiedades de las neuronas funcionando simultáneamente. Pero esta afirmación nos conduce a preguntarse qué se entiende por propiedades emergentes, pues veremos que las propiedades emergentes más interesantes, aquellas que John Searle califica como “de segundo orden”, son puestas en tela de juicio por múltiples filósofos, en primer lugar el propio Searle.

En el proyecto Brain se trabaja, como antes decía, con ratones, intentando trazar el mapa completo de su cerebro. Pero es más: no sólo se “lee” en el cerebro del ratón, sino que se “escribe” en el mismo, haciendo que el ratón reaccione a imágenes no presentes como si lo estuvieran. Desde un punto de vista estrictamente científico el recurso a este animal es muy indicado, pues el ratón tiene un alto grado de homología genética con el humano, así que todo lo que sepamos del cerebro del ratón tiene muchas probabilidades de ser útil con vistas al conocimiento de nuestro propio cerebro. Pero desde luego el conjunto de información así obtenida no bastará para explicar el comportamiento humano, y ello no sólo porque hay variables en el cerebro humano no presentes en el del ratón, sino también porque estas otras variables impregnan las que sí tenemos en común, perturbando hasta la deformación lo que de ellas cabe esperar. Una de estas variables es obviamente la facultad de lenguaje, que tiene un soporte genético pero que no se explica exclusivamente por la genética, es decir, no es posible objetivizarla plenamente, o sea, reducirla a objeto de ciencia.

Ya en 2009 el equipo de Svante Pääbo indujo en un ratón la mutación del gen FXP2 que se ha vinculado al lenguaje, con el resultado de que se alargaron las dendritas en algunas de las regiones de su cerebro y sobre todo que su vocalización empezó a emitir sonidos mayormente parecidos al llanto de los niños, de lo cual cabía extraer que en el pequeño animal se había dado una aproximación a las condiciones genéticas de posibilidad de las imágenes acústicas del lenguaje. ¿Significa ello que el ratón se había aproximado a la dimensión semántica del lenguaje? Sería osado aventurarlo. Ni ese ratón genéticamente modificado ni el chimpancé ni el bonobo hablan, aunque sean introducidos en un medio social en el que opera el lenguaje humano, mientras que el humano (salvo el caso de infortunada deficiencia) sólo dejará de hablar si se le excluye de tal medio, así el caso de los llamados niños salvajes.

La pregunta es reiterativa: ¿el mapa de variables que explican, por ejemplo, las deficiencias en el cerebro animal que son generadoras de una enfermedad, ¿es cualitativamente coincidente con el mapa de las variables que explican la deficiencia en el caso de los humanos? Y en general, el mapa total del cerebro humano ¿sólo varía en relación al ratón de la misma manera que el de este lo hace en relación al chimpancé? O aún: ¿la diferencia entre hombre y ratón o chimpancé es del mismo tipo que la que se da entre estos últimos? Y en definitiva ¿es el cerebro humano el cerebro de una animal entre otros animales?

Leer más
profile avatar
14 de mayo de 2021
Close Menu
El Boomeran(g)
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.