El interés actual por comprender el cerebro humano es enorme. Más en épocas en que las preocupaciones de los especialistas han permeado al gran público gracias a la Inteligencia Artificial (IA).
Todos los días escuchamos más avances, al mismo tiempo que no faltan voces agoreras que predicen desgracias, entre las que no son menores la pérdida de empleos (por lo que todo el mundo se preocupa) y la dominación que las máquinas “inteligentes” tendrán en un futuro -no tan lejano que no se pueda atisbar- sobre la humanidad.
El estudio de la inteligencia humana, más que respuestas produce diariamente múltiples preguntas: ¿Qué es? ¿Cómo funciona? ¿Crece o mengua de generación en generación? ¿Cuáles son sus límites? ¿En qué coincide y en qué se diferencia con la “inteligencia” de otros animales? ¿Puede ser comprendida de modo tal que pueda ser manipulada?… Un modo de investigar que, como es sabido, no demuestra ignorancia, sino todo lo contrario: cuantas más preguntas se abren sobre la inteligencia, es señal clara de que vamos poco a poco conociendo más acerca de su naturaleza.
De hecho, la inteligencia está en esa zona gris entre lo pragmático (ciencia) y lo especulativo (filosofía, antropología), que hace muy difícil llegar a conclusiones firmes respecto a cualquier pregunta que nos hagamos sobre ella, tanto desde la ciencia como desde la filosofía.
A partir de uno o varios modelos cerebrales -que como todo patrón representativo son útiles para explicar cómo funciona algo, aunque estén lejos de comprender a fondo lo que estudian- numerosos estudios y proyectos de IA están teniendo éxito;basándose en una creencia bastante razonable, que dice que solo estaremos en disposición de comprender la inteligencia cuando logremos simularla artificialmente… una tradición que viene de lejos y que se basa en la explicación del premio Nobel Santiago Ramón y Cajal con respecto a la forma en que explicóel funcionamiento cerebral basándose en las neuronas y sus conexiones.
De hecho, la IA en general se basa en la construcción de redes neuronales artificiales, empleadas por los sistemas de “deep learning”, que fundamentan los asombrosos avances que vemos hoy día en este campo científico. Sin embargo, como se titula esta nota, el mapa no es el territorio: imitar como funcionan las conexiones neuronales no es haber logrado descifrar la inteligencia… y los científicos, y los filósofos lo saben.
Como se dice en los ambientes en que esto se estudia, “Big data no es conocimiento”. Una frase que resume muy bien lo que venimos tratando de explicar, y que podría complementarse diciendo que describir no es comprender.
“Parte del problema –escribe Kelly Clancy en un artículo publicado en Wired hace unos años– es lo que señaló el escritor Lewis Carroll hace ya más de un siglo. Carroll imaginó un país tan obsesionado con la exactitud cartográfica que ampliaba una y otra vez la escala de sus mapas: primero, un centímetro por kilómetro; después, seis; y, al final, un kilómetro por kilómetro. Un mapa de esa magnitud es impresionante, no cabe duda. Pero ¿qué puede enseñar? Incluso aunque los neurocientíficos fueran capaces de recrear con exactitud la inteligencia a través de la simulación de cada molécula que existe en el cerebro, no habrían encontrado los principios subyacentes a la cognición”: el mapa no es el territorio.
Lo paradójico de todo esto es que, en realidad, elcerebro es algo completamente diferente a una computadora: una neurona no tiene nada que ver con un switch binario que se puede apagar o encender, que deja pasar o no impulsos eléctricos a través suyo: las neuronas no responden mecánicamente, sino analógicamente; y aquí, en la realidad analógica de la mente se encuentra el misterio ¿cómo comprender a fondo algo que no se sujeta a leyes físicas, químicas, lógicas o matemáticas, pero que usa de ellas para funcionar?
Ingeniero/@carlosmayorare