Víctor Gómez Pin
Las neuronas de una red artificial sopesan los datos que recibe en función de una finalidad (por ejemplo el reconocimiento de si los píxeles percibidos corresponden o no a un determinado dígito) y relativizan el monto añadiendo su propio sesgo o querencia. La mayor o menor acuidad en la tarea (por ejemplo tanto por ciento de dígitos reconocidos correctamente en un tiempo determinado) se acentúa por el hecho de que la red reconoce sus propios errores y aprende a corregirlos.
La proyección de nuestros estados psicológicos sobre sistemas artificiales se traduce directamente en el vocabulario. Un ejemplo:
En el reconocimiento de dígitos, en ocasiones el sistema parece funcionar al nivel de las imágenes que sirven de entrenamiento, pero este buen funcionamiento es ilusorio, pues al pasar a las imágenes no específicamente seleccionadas para entrenar se percibe que el tanto por ciento de correcta clasificación se ha estancado. Se diría que el sistema, funcionando bien ante el conjunto de dígitos elegidos para su entrenamiento, es sin embargo incapaz de generalizar. Pues bien, cuando esto ocurre se dice que el sistema, padece de sobre-entrenamiento (overtraining, también overfitting) de alguna manera está estresado. Y como se diría de un deportista que falla en el momento de la competición real mientras que se mantenía en los entrenamientos (algún caso se ha dado en los últimos juegos olímpicos), es entonces imperativo que la red neuronal deje de entrenar. En vista de todas estas analogías entre entidades artificiales y seres humanos es legítima la pregunta: ¿cabe decir que un sistema neuronal artificial adopta una resolución tal como nosotros lo hacemos de ordinario?
Tratándose de elucidar si lo que percibimos es un 5, quizás hay coincidencia entre los procesos que nosotros efectuamos (de hecho sin conciencia de ello) y lo que efectúa una red neuronal (por ejemplo cuando de diez neuronas output sólo la que corresponde al número 5 se activa). De todas maneras ciertos autores niegan que, incluso a este nivel, quepa hablar de homologación. Así el filósofo americano John Searle lleva decenios proclamando que aunque la performance objetiva sea comparable, las entidades artificiales se mueven en una dimensión exclusivamente sintáctica, no teniendo acceso alguno a la semántica.
En cualquier caso: ¿qué ocurre cuando se trata de tomar una resolución con implicaciones éticas y con datos contradictorios? Por ejemplo cuando hay variables que apoyan la decisión de tomar una medida sanitaria mientras otras variables la señalan como perjudicial. Y sobre todo: ¿es el comportamiento de la red homologable al nuestro cuando el poeta decide que las almas a las que se apela son las de las rosas (“A las aladas almas de las rosas/del almendro de nata te requiero”) y no las de algún otro ser que, de considerarse la oración desde el punto de vista de la información que da un código de señales, sería perfectamente homologable?