Teorías unitarias de la memoria
Las teorías unitarias de la memoria son hipótesis que intentan unificar los mecanismos de la memoria a corto y largo plazo. Se pueden encontrar contribuciones tempranas a las teorías de la memoria unitaria en las obras de John McGeoch en la década de 1930 y Benton Underwood, Geoffrey Keppel y Arthur Melton en las décadas de 1950 y 1960.
Robert Crowder argumentó en contra de una tienda separada a corto plazo a partir de finales de la década de 1980. James Nairne propuso una de las primeras teorías unitarias, que criticó el modelo de memoria de trabajo de Alan Baddeley,cuál es la teoría dominante de las funciones de la memoria a corto plazo.
Se han propuesto otras teorías desde Nairne; destacan mecanismos alternativos que el modelo de memoria de trabajo pasó por alto inicialmente.
Fondo
Descripción general
La memoria de trabajo es el sistema responsable de la retención y el procesamiento transitorio de información nueva y ya almacenada, un proceso importante para el razonamiento, la comprensión, el aprendizaje y la actualización de la memoria. La memoria de trabajo generalmente se usa como sinónimo de memoria a corto plazo, pero esto depende de cómo se definan las dos formas de memoria.
La memoria de trabajo incluye subsistemas que almacenan y manipulan imágenes visuales o información verbal, así como un ejecutivo central que coordina los subsistemas. Incluye representación visual de los posibles movimientos y conocimiento del flujo de información dentro y fuera de la memoria, todo almacenado durante un tiempo limitado.
En 1974, Baddeley y Hitch introdujeron y popularizaron el modelo multicomponente de memoria de trabajo. Esta teoría propone un ejecutivo central que, entre otras cosas, es responsable de dirigir la atención a la información relevante, suprimir la información irrelevante y las acciones inapropiadas, y de coordinar los procesos cognitivos cuando se debe realizar más de una tarea al mismo tiempo.
El ejecutivo central tiene dos «sistemas esclavos» responsables del mantenimiento a corto plazo de la información, y un «ejecutivo central» es responsable de la supervisión de la integración de la información y de coordinar los sistemas esclavos. Un sistema esclavo, el circuito fonológico(PL), almacena información fonológica (es decir, el sonido del lenguaje) y evita su descomposición al articular continuamente sus contenidos, actualizando así la información en un ciclo de ensayo.
Puede, por ejemplo, mantener un número de teléfono de siete dígitos mientras uno se repita el número una y otra vez. El otro sistema esclavo, el bloc de dibujo visuoespacial, almacena información visual y espacial. Se puede utilizar, por ejemplo, para construir y manipular imágenes visuales, y para la representación de mapas mentales.
El bloc de dibujo se puede dividir en un subsistema visual (que trata, por ejemplo, con la forma, el color y la textura) y un subsistema espacial (que trata de la ubicación).
En 2000, Baddeley amplió el modelo agregando un cuarto componente, el búfer episódico, que contiene representaciones que integran información fonológica, visual y espacial, y posiblemente información no cubierta por los sistemas esclavos (por ejemplo, información semántica, información musical). El componente es episódico porque se supone que vincula la información en una representación episódica unitaria.
El buffer episódico se asemeja al concepto de memoria episódica de Tulving, pero difiere en que el buffer episódico es una tienda temporal.
Modelos
Modelo de características
El modelo de características fue descrito por primera vez por Nairne (1990)La característica principal de este modelo es el uso de señales tanto para la memoria a corto plazo como para la memoria a largo plazo. Las señales se asocian con una memoria y luego se pueden usar para recuperar memorias del almacenamiento a largo plazo.
Cuando se forma una memoria, las señales asociadas con la memoria formada forman una constelación de redes nerviosas en las que se almacena la memoria. Mientras las señales están presentes, los nervios que forman la constelación están activos y la memoria se está trabajando en la memoria a corto plazo.
Cuando las señales ya no están presentes, la constelación ya no está activa y está esperando en el almacenamiento de memoria a largo plazo cuando las señales vuelvan a estar presentes. En lugar de utilizar la teoría de la descomposición para explicar cómo se olvidan los recuerdos, el modelo de características se centra en la interferencia basada en elementos.
Esto significa que otros elementos que usan las mismas constelaciones de señales o similares se interponen en el camino de recordar otros recuerdos. Por ejemplo, si está intentando recordar una fruta de una lista de productos electrónicos, encontrará que la fruta es fácil de recordar. Por otra parte, recordar una fruta de una lista de otras frutas será una tarea mucho más difícil.
Esta es la teoría detrás de la pérdida de memoria utilizada en el modelo de características.
Modelo OSCAR
Browne, Preece y Hulme propusieron el modelo de reubicación asociativa basada en osciladores (OSCAR) en 2000El modelo OSCAR es otro modelo de memoria basado en señales. En este modelo, las señales funcionan como un puntero a la posición de un recuerdo en la mente. Los recuerdos mismos se almacenan como vectores de contexto en lo que Brown llama la parte del oscilador de la teoría.
Si bien no se está utilizando una memoria en la memoria a corto plazo, el vector de contexto oscila más lejos de la posición inicial. Cuando una señal se hace presente, el vector de contexto al que apunta la señal vuelve a oscilar hasta el punto de partida, donde la memoria se puede utilizar en la memoria a corto plazo.
No existe una teoría de la descomposición en este modelo, por lo que para tener en cuenta la pérdida de memoria o el desvanecimiento, la teoría afirma que los recuerdos se mueven más y más desde el punto de partida, y la recuperación se vuelve más difícil cuanto más se aleja la memoria de la estación de servicio (posición de inicio).
Además, Algunos recuerdos oscilan más rápido que otros. La teoría detrás de esto es que los recuerdos a los que se accede y utiliza con frecuencia se alejarán más lentamente del punto de partida, ya que la probabilidad de recuperar la memoria es relativamente alta. Esto critica el modelo anterior.
Diferencias
A diferencia de los modelos estándar de memoria a corto plazo / de trabajo, las teorías unitarias no asumen una conexión directa entre el nivel de activación y el éxito de la memoria. Tampoco proponen ensayos de roles, y se centran más en la interferencia basada en elementos que en el deterioro de la memoria.Las teorías unitarias generalmente también tienen un solo bucle o ningún bucle, mientras que el modelo de memoria de trabajo se basa en múltiples bucles para explicar las diferentes formas de entrada de memoria.
Debido a la teoría del bucle múltiple, la memoria de trabajo tiene más dificultades para explicar cómo la memoria a corto plazo se consolida en la memoria a largo plazo, mientras que las teorías unitarias generalmente explican la memoria a largo plazo utilizando el mismo principio único que utilizan para explicar la memoria a corto plazo.
Por otro lado, las teorías unitarias tienen más problemas para explicar situaciones en las que la memoria a corto plazo difiere, como el efecto de longitud de palabra, que puede explicarse más fácilmente con el modelo de memoria de trabajo.
Críticas
La crítica más frecuente de los modelos unitarios es que intentan simplificar en exceso muchos procesos complejos en un solo mecanismo. Los estudios han demostrado que la memoria a corto plazo y la memoria a largo plazo son dos procesos distintos que enfatizan diferentes niveles de activación en el cerebro entre diferentes áreas corticales.
Además, la tasa de descomposición es mucho más rápida en la memoria a corto plazo que en la memoria a largo plazo. El modelo OSCAR en particular no tiene en cuenta este fenómeno. También supone que los recuerdos siempre circulan a diferentes áreas del cerebro, sin tener un espacio cortical definido que almacene la memoria.
Mientras se produce esta transferencia de almacenamiento, la tasa de descomposición en el modelo OSCAR es constante o inexistente. Ambas tasas son inverosímiles, como una tasa constante de descomposición descuida todos los factores externos que pueden contribuir a una tasa más rápida de descomposición (por ejemplo, estrés, centrar la atención en otras cosas).
No descuidar en absoluto la descomposición es aún más inverosímil, ya que hace dos afirmaciones erróneas: los recuerdos no se olvidan, y cuando se recuerda la información, se recuerda perfectamente cada vez. Si bien las teorías unitarias de la memoria pueden prestar atención a factores alternativos que el modelo de memoria de trabajo había pasado por alto inicialmente, han surgido nuevos datos y el modelo se ha adaptado a los nuevos hallazgos.
Sigue siendo el modelo estándar de cómo funciona la memoria a corto plazo, y seguirá siendo el modelo estándar hasta que la nueva evidencia lo anule. No descuidar en absoluto la descomposición es aún más inverosímil, ya que hace dos afirmaciones erróneas: los recuerdos no se olvidan, y cuando se recuerda la información, se recuerda perfectamente cada vez.
Si bien las teorías unitarias de la memoria pueden prestar atención a factores alternativos que el modelo de memoria de trabajo había pasado por alto inicialmente, han surgido nuevos datos y el modelo se ha adaptado a los nuevos hallazgos. Sigue siendo el modelo estándar de cómo funciona la memoria a corto plazo, y seguirá siendo el modelo estándar hasta que la nueva evidencia lo anule.
No descuidar en absoluto la descomposición es aún más inverosímil, ya que hace dos afirmaciones erróneas: los recuerdos no se olvidan, y cuando se recuerda la información, se recuerda perfectamente cada vez. Si bien las teorías unitarias de la memoria pueden prestar atención a factores alternativos que el modelo de memoria de trabajo había pasado por alto inicialmente, han surgido nuevos datos y el modelo se ha adaptado a los nuevos hallazgos.
Sigue siendo el modelo estándar de cómo funciona la memoria a corto plazo, y seguirá siendo el modelo estándar hasta que la nueva evidencia lo anule.