martes, 20 de septiembre de 2022

“Todo lo que hace el cerebro es minimizar el error de predicción”


 

Según la teoría de minimización de errores de predicción, el cerebro busca continuamente minimizar su error de predicción: minimizar la diferencia entre sus predicciones sobre qué insumo le proporcionarán los sentidos (vista, oído etc) y el insumo que, efectivamente, le proporcionan. Es una idea extremadamente simple, pero de ella surge una concepción sorprendentemente ingeniosa de cómo funciona un cerebro.

En nuestro cerebro albergamos un modelo que genera expectativas que anticipan qué insumo sensorial se producirá efectivamente (veremos una hoja de un árbol que cae a nuestro lado cuando paseamos por un bosque en otoño)… Los parámetros de las predicciones del modelo se actualizarán a la luz de cualquier error de predicción en la inferencia bayesiana aproximada: el error de predicción se pondera por lo que ya sabemos (la precisión previa), por lo que estamos aprendiendo del insumo (la precisión de la probabilidad ¿ha caído la hoja tal como esperábamos?). Lo que percibimos viene pues determinado por las predicciones que mejor funcionan efectivamente.

Está claro que si las predicciones no se basan en expectativas a largo plazo, será difícil predecir muy bien el insumo sensorial (la trayectoria de la hoja será difícil de anticipar si está anocheciendo, y la precisión de la entrada sensorial puede ser baja). Esto se deduce de la simple observación de que vivimos en un mundo en el que las causas interactúan… . Este tipo de conexión de las expectativas basadas en regularidades causales a diferentes escalas de tiempo garantiza que la inferencia perceptiva, a través de la minimización del error de predicción, pueda captar toda la riqueza integrada de la percepción. Esto es posible gracias a la incorporación de una perspectiva a largo plazo en la minimización del error de predicción. Así, obtenemos una perspectiva de aprendizaje (y de memoria) porque la construcción de un modelo jerárquico requiere entonces la extracción de regularidades causales a lo largo de varias escalas de tiempo y su utilización para predecir mejor.

Por poner un ejemplo a largo plazo: aunque haya sabido anticipar determinadas lluvias en determinadas estaciones del año, es posible que tenga que ajustar la predicción en función de que, en esas fechas, se haya producido el cambio del fenómeno de "La niña" a "El niño", de forma que no se puede deducir del hecho de que haya caído un poco de lluvia, que podamos estar seguros de que estamos teniendo un buen otoño.) Esto es importante porque, para que los parámetros del modelo se actualicen de forma óptima a la luz del error de predicción, es necesario que haya una estimación de la precisión de ese error de predicción (no sirve de nada cambiar la hipótesis a la luz de una medición imprecisa). Para ello es necesario crear expectativas sobre la precisión (cuán precisos) de los errores de predicción, es decir, expectativas sobre en qué contextos los errores de predicción tienden a ser fiables. Esto no es más que una minimización del error de predicción, pero de un orden estadístico superior (por ejemplo, podemos sorprendernos de la precisión del error de predicción)

Lo más interesante es que esto nos permite explicar la atenciónla atención consiste en asignar recursos a las señales que valen la pena, y las expectativas de precisión pueden guiar los esfuerzos de error de predicción hacia las señales que valen la pena o son precisas. Por supuesto, hay mucho más que decir sobre esta idea, pero es enormemente atractiva porque sitúa la atención en el nivel básico y como algo separado de la percepción, aunque intrínsecamente relacionado con ella.

De esta forma, los tres conceptos: percepción, predicción y atención pueden conectarse a la teoría de minimización de errores de predicción. A estos, se puede añadir ahora la comprensión, que implica tener un modelo razonable para dar sentido a un entorno, aunque siga habiendo incertidumbre sobre los estados del entorno. Lo contrario de la comprensión es la confusión, que consiste en no saber a qué modelo recurrir razonablemente… la selección del modelo trata de minimizar la incertidumbre

… Si alguien ve un dado que muestra algún número de puntos, se producirá una confusión si se piensa en ese insumo en el marco de un modelo de lanzamiento de moneda. Está claro que la minimización del error de predicción se ve favorecida por la selección de buenos modelos, ya que un modelo erróneo no servirá para anticipar el siguiente insumo.

Un buen modelo también captura un determinado insumo minimizando la complejidad, es decir, sin demasiados parámetros innecesarios. Si el modelo está sobreajustado, no podrá predecir cuál será la siguiente serie de datos. El sobreajuste puede proporcionar una minimización decente del error de predicción momentánea o a corto plazo, pero está destinado a fracasar a largo plazo. De ahí que debamos esperar que un cerebro que minimiza errores de predicción tenga como objetivos seleccionar modelos y reducir la complejidad, es decir, tenga como objetivo la comprensión.

Lo último que hay que añadir es la acción. En este caso, la historia es un poco más complicada, aunque la idea básica es sencilla. Si una hipótesis tiene predicciones que no se sostienen, entonces la hipótesis ha de cambiarse para ajustarse al insumo o el insumo ha de cambiarse para ajustarse a la hipótesis. Hasta ahora he hablado de lo primero, pero también es posible minimizar el error actuando en el entorno…

… tenemos que actuar para minimizar el error de predicción a largo plazo. Si sólo actualizamos los parámetros de nuestro modelo en función del error, no podremos mantenernos en estados de baja sorpresa (dado nuestro modelo). Más concretamente, la acción ha de concebirse en términos de una competencia entre distintas hipótesis sobre cuál es el verdadero estado del mundo.

Por ejemplo, una hipótesis (verdadera) es que mi mano está cerca del teclado  del ordenador y otra (falsa) es que mi mano está en la taza de café que tengo al lado. La acción se produce cuando la hipótesis falsa empieza a ganar, lo que ocurrirá si desconfío progresivamente del insumo sensorial real: la hipótesis falsa se convierte en verdadera al minimizar su error de predicción cuando mi mano se acerca a la taza. Suena bastante intrincado, pero es una idea convincente, que prescinde de las funciones de coste y los comandos motores. En la actualidad, nos divertimos mucho con esta noción de "inferencia activa"… en los experimentos de rascarse o hacerse cosquillas

El mecanismo de la minimización de errores predictivos explica la percepción, porque garantiza una elevada información mutua entre el cerebro y el mundo sobre la base de la comparación de dos cantidades a las que el cerebro tiene acceso, a saber, las predicciones y el insumo sensorial. Esta teoría tiene una elevada coherencia, también, con las ideas más admitidas sobre lo que supone ser un organismo vivo.

Jakob Hohwy, Is prediction error minimization all there is to the mind?, 2014

No hay comentarios:

Archivo del blog