Teori769a Del Procesamiento de La Informacion-2

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 9

Teoría del Procesamiento de la Información

En Historia de la Psicología
Enrique Lafuente, J C Castro y Pizarroso.
Universidad Nacional de Educación a Distancia Madrid, 2017

Podemos hablar indistintamente de psicología cognitiva o cognitivismo y así lo


haremos en este capítulo. No obstante, si quisiéramos ser escrupulosos deberíamos reservar
el segundo término para casos en los que incluyéramos otros ámbitos además de la
psicología, como la neurociencia, la lingüística o la informática. En ocasiones se ha hablado,
en este segundo sentido más inclusivo, de «ciencia cognitiva» (en singular) o «ciencias
cognitivas» (en plural). Otra expresión que a veces se considera equivalente a la de
psicología cognitiva es la de «psicología del procesamiento de la información (o del P.I.)».
Esta expresión es más restringida. Valdría para las versiones del cognitivismo que conciben la
mente como un dispositivo de cómputo de representaciones o manipulación de símbolos. El
funcionamiento de la mente consistiría en realizar cálculos, mediante algoritmos, sobre
copias del mundo externo. Se trata, probablemente, de la concepción más característica del
cognitivismo, y es en la que nos vamos a centrar aquí1.
La psicología cognitiva eclosionó en la década de los sesenta del siglo pasado a partir
de algunos desarrollos teóricos y técnicos fraguados desde finales de los años cuarenta. A
menudo se afirma que el cognitivismo constituyó una especie de revolución contra el
reinado del conductismo, el cual fue derrocado y reemplazado por una forma de hacer
psicología igual de científica pero más acorde con la naturaleza humana. No obstante, ni el
cognitivismo ha tenido tanta unidad interna ni su ruptura con lo anterior fue tan abrupta
como para justificar la idea de una revolución.

LA PSICOLOGÍA DEL PROCESAMIENTO DE LA INFORMACIÓN

La concepción del cognitivismo como una revolución científica fue utilizada por
algunos psicólogos cognitivos apoyándose en los trabajos de filosofía e historia de la ciencia
de Thomas Kuhn (1922-1996), quien publicó en 1962 un libro muy influyente titulado La
estructura de las
revoluciones científicas (Caparrós, 1985). En este libro, basado sobre todo en la historia de la
física, Kuhn defendía que el desarrollo histórico de las ciencias no es acumulativo, sino que
consiste en una sucesión de «paradigmas» que constituyen casi cosmovisiones y dictan lo
que se debe investigar y cómo. Existen periodos de «ciencia normal» durante los cuales todo
marcha bien, es decir, no hay discusiones importantes entre los científicos y se tiene la
sensación de que se acumula conocimiento mediante la aplicación del método científico. Sin
embargo, en un momento dado comienzan a aparecer anomalías, esto es, datos que no
1
Es, en cualquier caso, una caracterización que utilizamos con fines puramente expositivos. Las clasificaciones
de las distintas tendencias del cognitivismo son diversas. Por ejemplo, Ángel Rivière (1991a) distingue entre la
perspectiva del P.I. y el paradigma computacional-representacional. Desde el punto de vista de este autor la
psicología del P.I. va ligada a una versión débil de la metáfora del ordenador (la idea de que la mente funciona
como un programa informático), mientras que el paradigma computacional-representacional va ligado a una
versión fuerte de la misma (la idea de que la mente es un programa informático). Más adelante nos referiremos
a la analogía o metáfora del ordenador. Por otro lado, distintas maneras de aproximarse al origen y desarrollo
del cognitivismo pueden verse en los trabajos de Florentino Blanco (1995), Jerome Bruner (1990/1991), Tomás
R. Fernández (1996), Tomás R. Fernández, Sánchez, Aivar, y Loredo (2003), Fernando Gabucio y Antonio
Caparrós (1986), Howard Gardner (1988), Pilar Grande y Alberto Rosa (1993), y Ángel Riviére (1987, 1991b).
1
encajan en el paradigma, el cual, entonces, empieza a convertirse en objeto de discusión, o
lo que es lo mismo, entra en crisis A medida que aumentan las anomalías el paradigma es
cada vez más cuestionado, hasta que finalmente tiene lugar una «revolución» que resuelve
la crisis e instaura un nuevo paradigma, el cual inaugura otro periodo de ciencia normal. El
esquema historiográfico kuhniano les parecía idóneo a algunos psicólogos cognitivos para
presentarse como adalides de un nuevo paradigma (por ejemplo, Lachman, Lachman y
Butterfield, 1979).

Supuestamente la historia de la psicología consistiría en una concatenación de


paradigmas, y el conductismo sería el que habría definido el periodo de ciencia normal entre
aproximadamente 1930 y 1960 (el paradigma previo sería el del funcionalismo, que a su vez
habría reemplazado al estructuralismo). Algunas anomalías con las que se encontró el
conductismo le habrían hecho entrar en crisis y ésta se habría resuelto con una revolución
que daría lugar a un nuevo paradigma: la psicología cognitiva. Además, desde esta
perspectiva se ha solido añadir una valoración positiva del cognitivismo según la cual éste
retomó lo que siempre había sido el verdadero objeto de estudio de la psicología, la mente,
sólo que ahora lo hacía mediante una metodología científica posibilitada por la tecnología de
los ordenadores.
De hecho, el concepto clave de la psicología cognitiva es seguramente el de
«procesamiento de información». En torno a él gira la teorización de la actividad. Lo
psicológico consiste en —o se reduce a— procesamiento de información. Ulric Neisser
(1928- 2012), que pasa por ser el primero en utilizar la expresión «psicología cognitiva», lo
expresaba del siguiente modo en su manual así titulado, publicado en 1967:
«[U]n libro como este puede llamarse “La información del estímulo y sus vicisitudes”.
Tal como se emplea aquí, el término “cognición” se refiere a todos los procesos mediante los
cuales el ingreso [input] sensorial es transformado, reducido, elaborado, almacenado,
recobrado o utilizado. […] [T]érminos como sensación, percepción, imaginación, recuerdo,
solución de problemas y pensamiento, entre otros, se refieren a etapas o aspectos
hipotéticos de la cognición» (Neisser, 1967/1979, p. 14)2.

Desde un punto de vista más amplio, suele decirse que en el surgimiento de la


psicología del procesamiento de la información, reconocible a finales de los sesenta en obras
como la de Neisser, confluyeron diferentes desarrollos teóricos y científico-técnicos, algunos
muy ligados a la investigación militar motivada por la Segunda Guerra Mundial y la Guerra
Fría. Entre ellos podemos destacar cinco: la teoría de la información y la cibernética, la
inteligencia artificial, la psicología experimental británica, la psicología aplicada
norteamericana y el conductismo mediacional, y la lingüística de Noam Chomsky.

La teoría de la información y la cibernética

Elaborada por el matemático e ingeniero Claude E. Shannon (1916-2001) y el biólogo


Warren Weaver (1894-1978) a finales de los cuarenta, la teoría de la información pretendía
servir de herramienta para analizar el flujo de información por un canal cualquiera,
2
Según se puede comprobar en las referencias bibliográficas, el manual de Neisser, Cognitive psychology, se
tradujo al español como Psicología cognoscitiva. Sin embargo, más tarde acabó imponiéndose el adjetivo
«cognitiva». Por otro lado, la estructura de algunos manuales de psicología general escritos desde una
perspectiva cognitiva recuerda a la de los escritos por algunos funcionalistas norteamericanos: se organizan por
funciones psicológicas y van desde las «inferiores», como la atención, la percepción y la memoria, hasta las
«superiores», como el lenguaje y el pensamiento (por ejemplo, Johnson-Laird, 1988/1990; Lindsay y Norman,
1977/1986).
2
midiéndola en bits (la unidad de medida que aún se utiliza en informática). Definían un bit
como la unidad de información mínima. En la Universidad de Harvard, George Armitage
Miller (1920-2012) aplicó esa teoría a la psicología en un famoso artículo cuyo título, «El
mágico número 7±2», hacía referencia a las unidades de información —entre 5 y 9— que es
capaz de procesar la mente humana (Miller, 1956/1983). Se basaba en experimentos con
tareas de diferenciación de estímulos, discriminación de fonemas, recuerdo de ítems o
cálculo de cifras. No obstante, Miller advirtió de que el bit no constituía una unidad de
medida psicológicamente relevante, porque los sujetos pueden agrupar los elementos de la
estimulación sensorial que reciben y, en función de la agrupación que realicen, tratar como
unidades de información cantidades de estímulos distintas. Por eso Miller propuso una
nueva unidad de medida, que denominó chunk. Su artículo, pues, se refería a 7±2 chunks.
Posteriormente este tipo de mediciones se trasladaron a las investigaciones sobre la
memoria operativa o de trabajo (working memory) y la memoria a corto plazo. El artículo de
Miller quedó como un clásico de la psicología cognitiva.

La cibernética es la tecnología de control electrónico de las máquinas, antecedente


de la actual informática y otra de las fuentes del concepto moderno de información. El
principal fundador de la cibernética fue el matemático norteamericano Norbert Wiener
(1894-1964), quien en 1948 defendió que los modelos matemáticos de control de la
comunicación en máquinas también pueden aplicarse a los seres vivos, incluyendo los
humanos (Wiener, 1961/1985). Uno de los conceptos más importantes a este respecto era el
de feedback (realimentación o retroalimentación), procedente de los servomecanismos
(aparatos electromecánicos). La retroalimentación implica que hay un intercambio de
información entre el servomecanismo y el entorno, en virtud del cual el primero es regulado
por el segundo. Así funciona, por ejemplo, el termostato de la calefacción, que se enciende o
se apaga de acuerdo con su medición de la temperatura ambiente. El sistema nervioso
central podría considerarse, entonces, un dispositivo basado en la retroalimentación, porque
su funcionamiento está regulado por un intercambio de información con el entorno. Se
activa o desactiva en función de las consecuencias de esa activación. Esta idea de
información como intercambio de datos con el entorno, propuesta por Wiener, influyó en
George A. Miller.

La inteligencia artificial
La inteligencia artificial (a veces nombrada por sus siglas, I.A.) fue también un
antecedente de la informática. Su paternidad suele atribuirse al matemático inglés Alan M.
Turing (1912-1954), muy conocido por el juego o prueba de la imitación que propuso en
1950, a veces denominado «test de Turing» (Turing, 1950/1984). Ideó asimismo la «máquina
de Turing», que impulsó la construcción de ordenadores y consistía en un modelo formal
que describía el funcionamiento de un dispositivo de cómputo basado en la inserción de
símbolos en una cinta.

La prueba de Turing
La prueba de Turing fue la base de la inteligencia artificial y pretendía resolver por vía
práctica la cuestión de si las máquinas pueden pensar. Imaginemos una situación en que una
persona recibe respuestas mecanografiadas a las preguntas que envía a la habitación de al
lado, con la cual no tiene otro medio de comunicación. En esa habitación hay un hombre y
una mujer, y el objetivo de quien recibe las respuestas es adivinar cuál es el hombre y cuál la
mujer, pero teniendo en cuenta que el objetivo del hombre es engañarle y, por tanto,
mentirá. Supongamos ahora que una máquina sustituye al hombre. ¿Sería capaz de darse
cuenta de la sustitución la persona que hace las preguntas? Dicho en términos más
3
generales: sin contacto sensorial directo, ¿podría un ser humano averiguar si su interlocutor
es una persona o una máquina? En caso negativo, es perfectamente legítimo afirmar que las
máquinas piensan. Esto es lo que defendía Turing.
Pese a la sencillez de su formulación, la prueba de Turing fue muy controvertida,
aunque su idea de que las máquinas piensan se extendió rápidamente. En 1956 el
Dartmouth College de Hanover, New Hampshire, auspició una reunión científica que ha
pasado a la historia como la Conferencia de Dartmouth y que algunos consideran la puesta
de largo del cognitivismo. A esta reunión acudieron investigadores en inteligencia artificial —
Marvin Minsky (1927-), Herbert A. Simon (1916-2001), Allen Newell (1927-1992)— y en ella
se habló por vez primera de la analogía o metáfora del ordenador, según la cual el
ordenador podría ser un buen modelo de la mente humana y, por tanto, la inteligencia
artificial podría tener implicaciones psicológicas importantes.

La analogía del ordenador


En efecto, la analogía del ordenador se diseminó por la psicología cognitiva y la
neurociencia hasta prácticamente nuestros días. Al igual que la prueba de Turing, es
bastante sencilla de exponer y ha sido muy controvertida. Se basa en la superposición de dos
distinciones: la clásica distinción filosófica entre el cuerpo y la mente, y la distinción técnica
entre el ordenador y los programas implementados en él. La mente equivaldría a los
programas, es decir, al software. El cuerpo, y más en concreto el cerebro o el sistema
nervioso, equivaldría al hardware, es decir, al soporte físico de los programas (el disco duro,
el cableado interno del ordenador, los microchips, las placas de memoria, etc.).
En realidad, analogías similares se venían planteando desde al menos diez años
antes, cuando se habían empezado a concebir ordenadores muy rudimentarios. Organizado
por la Fundación Hixon, en 1948 tuvo lugar en el Instituto de Tecnología de California el
conocido como Simposio de Hixon, dedicado debatir sobre «los mecanismos cerebrales del
comportamiento». Participó en él el matemático John von Neumann (1903-1957), uno de los
padres de los ordenadores, quien comparó el ordenador con un cerebro (no en vano los
ordenadores comenzaron llamándose «cerebros electrónicos»). Lo que ocurrió en la
segunda mitad de los cincuenta es que la mecha prendió definitivamente y la analogía del
ordenador se encauzó de tal manera que acabó penetrando en la psicología, convertida ya, a
mediados de los sesenta, en psicología del procesamiento de la información.
(…)

La habitación china
Uno de los más conocidos críticos de la analogía del ordenador, especialmente de su
versión fuerte, ha sido John Searle (1932-), de la Universidad de California en Berkeley. En
1980 formuló su argumento de la «habitación china», como se le suele llamar, con el que
intentaba demostrar que, si aplicáramos la prueba de Turing a la vida real, estaríamos
obligados a sostener que se puede hablar un idioma sin entender el significado de sus
palabras. El argumento de Searle tiene una estructura similar a la prueba de Turing, pero
pretende reducir al absurdo la actitud de quienes toman la metáfora del ordenador en un
sentido fuerte.
El argumento es el siguiente (Searle, 1980): Consideremos un ordenador en el que se
ha instalado un programa de traducción de chino. Hoy estos traductores automáticos son
populares, pero siguen consistiendo esencialmente en lo mismo que cuando Searle expuso
su argumento hace más de tres décadas: conjuntos de instrucciones que indican cómo
sustituir símbolos de unos idiomas por símbolos de otros idiomas. ¿Diríamos que el
ordenador entiende el chino? Imaginemos ahora que una persona que no habla chino se

4
mete en una habitación donde encuentra papelitos con símbolos chinos, es decir,
ideogramas cuyo significado desconoce.
Ahora esa persona recibe una hoja con instrucciones —en su lengua materna—
donde se le pide que combine los símbolos chinos de una determinada manera y saque la
combinación fuera de la habitación. Pues bien, tras hacer esto varias veces con nuevos
símbolos y nuevas instrucciones, la persona se entera de que los ideogramas que le daban
eran preguntas de hablantes chinos que estaban fuera de la habitación, mientras que las
instrucciones servían para combinar los símbolos de tal modo que la combinación resultante
consistía en respuestas a esas preguntas. Dado que había seguido bien las instrucciones, las
personas chinas de fuera de la habitación habían pensado que un auténtico hablante de su
idioma estaba respondiendo las preguntas. Obviamente, tras descubrirse el truco, nadie diría
que la persona encerrada en la habitación entiende el chino. ¿Por qué decir, entonces, que
una máquina de traducción sí lo entiende?
Lo que quería hacer Searle con su ejemplo de la habitación china era subrayar que la
mente no sólo consiste en sintaxis —concatenaciones de símbolos procesándose según
ciertas reglas— sino que también incluye contenido semántico, o sea, significados: los
símbolos son símbolos de algo, y conocer ese algo es esencial para comprender el
funcionamiento de la mente. Por lo demás, los propios psicólogos cognitivos acabaron
advirtiendo ciertas limitaciones metodológicas de la analogía del ordenador (Vega, 1982).
Sin embargo, quizá el principal problema de la analogía es que ni siquiera vale como
metáfora —o sea, en su versión débil— por la sencilla razón de que no es una metáfora, sino
una metonimia: toma la parte por el todo. Los ordenadores no son más que instrumentos de
los que se sirve nuestra actividad como seres humanos, y en ese sentido son partes de dicha
actividad. No sirven como modelos de nuestra actividad porque son parte de ella. Son
herramientas nuestras, con las que intentamos lograr ciertos propósitos. Por sí mismos, ellos
no actúan. Su funcionamiento es puramente mecánico. No se les pueden atribuir funciones
psicológicas.
Somos nosotros, en tanto que observadores, quienes leemos el resultado del
funcionamiento del ordenador en términos de información. Sólo cabe hablar de información
cuando es informativa para alguien. En el fondo, ni siquiera tiene sentido afirmar que los
programas informáticos consisten en instrucciones de manipulación de símbolos. Los
símbolos sólo son símbolos para quien sepa interpretarlos como tales. Y las instrucciones
sólo son instrucciones desde el punto de vista del programador humano, que es quien las
escribe persiguiendo determinados fines; por ejemplo, traducir automáticamente un texto,
guiar un misil, ganar una partida de ajedrez o entretenernos con un videojuego.

…………………………………………………………………………………………………………………………..

TPI. EL PROCESAMIENTO DE LA INFORMACIÓN. Resumen.


(Extraído de: https://www.tdx.cat/bitstream/10803/9274/11/PARTE_I_Capitulo_I_2009.pdf)

El Procesamiento de la Información es un paradigma situado en el seno de la psicología


cognoscitiva para explorar cómo el aprendizaje tiene lugar dentro de los estudiantes, cuando
procesan la información. El aprendizaje es visto como dependiente de procesos y ajustes
cognoscitivos y subsiste en ellos (Mladenovic y Brokett (2002). Su objetivo es identificar y
clasificar las estrategias de procesamiento y estimular a los estudiantes a adoptar estrategias
adecuadas para lograr buenos resultados.
Según Pozo (1997), este enfoque concibe al ser humano como procesador de información;
el ser humano al igual que el computador son verdaderos informnívoros: sistemas cognoscitivos
cuyo alimento es la información.
5
Dentro de este mismo modelo de aprendizaje se considera a la actividad mental como un
sistema (Heller, 1995) cuya principal razón de ser sería la de procesar la información; lo que se
realizaría en tres fases, denominadas "funciones cognitivas", a saber:
- Entrada (adquisición senso-perceptiva de información),
- Elaboración (transformación y organización de la información),
- Salida (respuesta, producción de información).

Cada una de estas fases compromete una serie de procesos, operaciones y funciones
cognoscitivas; así, por ejemplo, durante la etapa de entrada se activan los mecanismos de
percepción que le permiten al sujeto discente obtener toda la cantidad y calidad de información
que necesita para definir y comprender; durante la elaboración se comparan y se relacionan las
porciones de información con la información o con la experiencia previas a fin de definir el
problema y luego procesar su información; finalmente durante la etapa de salida se organiza la
información con el objeto de poder comunicarla: el sujeto informa sobre el resultado del
problema.
Información pues y procesos son dos entidades inseparables. Los procesos mentales
operan sobre la información, sobre las ideas y experiencias para ir organizándolas en estructuras
sistematizadas, las cuales a su vez tienen influencia decisiva sobre los nuevos aprendizajes. De
aquí que con razón Heller sostiene que "mientras más flexible y permeable sea la estructura
cognoscitiva, más posibilidades tendrá de enriquecerse con la información que recibe".

A pesar de su corte conductista remozado, el paradigma del procesamiento de la


información sigue teniendo una fuerte influencia en los medios educacionales de todo el mundo.

Para los psicólogos del procesamiento de la información conocer es: recopilar, almacenar,
interpretar, comprender, utilizar la información tanto interna como proveniente del entorno. Los
teóricos del procesamiento de la información, además, no definen el aprendizaje como una
modificación relativamente permanente de la conducta que ocurre como resultado de la
experiencia (enfoque conductista) sino como "la construcción de estructuras cognitivas". Ahora
bien, estudiar las estructuras cognitivas, dentro del paradigma del procesamiento de la
información, consiste en investigar de qué manera el ser humano adquiere información, la
registra, la transforma, la reproduce y de qué manera toma decisiones. En ese contexto, aprender
consiste en modificar el estado interno de sus conocimientos, o según la expresión ya corriente
entre ellos, de sus estructuras cognitivas.

Conviene además tener presente que el modelo de procesamiento de la información de la


memoria, se desarrolló junto con la tecnología computacional, desde 1960; de ahí que se
consideró lógico comparar la cognición humana con el procesamiento de la información realizado
por los computadores. El cerebro recibe impulsos del entorno a través de los canales sensoriales y
decide procesar ese input. El procesamiento depende de la naturaleza y de la complejidad de los
datos que son percibidos por el individuo: la mente humana capta la información, la organiza, la
almacena para un uso posterior y, luego, la recupera cuando sea necesario. El modelo consta de
varios estadios de procesamiento que incluyen la atención, la memoria sensorial, la memoria de
trabajo, y la memoria a largo plazo.

La memoria sensorial es llamada a veces el “buzón sensorial” en cuanto es como un


espacio temporal en un computador que guarda información por un breve período. Luego viene la
memoria a corto plazo que se parece mucho más a un archivo en el que se está trabajando antes de
guardarlo (de ese modo la memoria a corto plazo es como RAM). Y la memoria a largo plazo es,
por supuesto, análoga al disco duro.

Farrell y Kotrlik (2003) entregan una sucinta y actualizada descripción del enfoque del
procesamiento de la información. Según estos autores, desde este enfoque, que es el núcleo de la
psicología cognoscitiva, se explica la manera como los individuos reciben y procesan la
información para la codificación, repetición, almacenamiento y recuperación de la memoria. El
6
enfoque incluye los sentidos, los registros sensoriales, la memoria a corto plazo (de trabajo), y la
memoria a largo plazo.

Los sentidos:
Introducimos una información desde nuestro entorno al cerebro a través de nuestros cinco
sentidos y de nuestros propioceptores. Todos los estímulos sensoriales entran al cerebro como una
corriente de impulsos eléctricos que es el resultado del encendido de las neuronas en secuencia a
lo largo de específicas sendas sensoriales. El cerebro, pues, no ve las ondas de luz ni oye las ondas
de sonido. Sino que determinados módulos especializados de neuronas procesan los impulsos
eléctricos creados por ondas de luz y sonido en lo que el cerebro percibe como visión y sonido.

El registro sensorial:
Una vez que la información es introducida a nuestro cerebro, es filtrada por el registro
sensorial.

La Memoria a corto plazo:


O memoria de trabajo, es el lugar donde ocurre el procesamiento consciente. Se podría
comparar a la memoria de trabajo con una mesa de trabajo, un lugar de capacidad limitada donde
podemos construir, tomar aparte, o reelaborar ideas para un eventual almacenaje en alguna parte.
Cuando algo está en nuestra memoria de trabajo, generalmente captura nuestro foco y demanda
nuestra atención.
La memoria de trabajo puede manejar solo unos pocos ítems a la vez. La capacidad
funcional cambia con la edad. Los niños preescolares pueden tratar con dos ítems de información
a la vez. Los preadolescentes pueden manejar tres o siete ítems, con un promedio de cinco.
Durante la adolescencia, ocurre una mayor expansión cognoscitiva y aumenta la capacidad a un
nivel de cinco a nueve, con un promedio de siete. Para muchas personas, este número permanece
constante a lo largo de la vida. Esta capacidad limitada explica por qué tenemos que memorizar
una canción o un poema por etapas. Es posible aumentar el número de ítems dentro de la
capacidad funcional de la memoria de trabajo mediante un proceso llamado chunking
(agrupamiento).
La memoria de trabajo es temporal y puede tratar con ítems sólo por un tiempo limitado.
¿Cuán largo es ese tiempo? Para los preadolescentes es más probable que sea de 5 a 10 minutos, y
para los adolescentes y adultos, de 10 a 20 minutos.

El almacenamiento a largo plazo:


Ahora viene la más importante decisión de todas: ¿Deben esos ítems en la memoria de
trabajo moverse hacia el almacén a largo plazo para una futura recordación, o deben ser
eliminados del sistema? Esta es una decisión importante porque no podemos recordar lo que no
hemos almacenado.
La memoria de trabajo utiliza algunos criterios para tomar esa decisión: 1) La información
que tiene un valor de supervivencia es rápidamente almacenada. 2) Las experiencias emocionales
tienen también una alta probabilidad de ser almacenadas de manera permanente. Tendemos a
recordar las mejores y peores cosas que nos han sucedido.
Pero en la sala de clase, entran en juego, además, otros dos factores. Parece que la
memoria de trabajo se conecta con las experiencias pasadas del aprendiz y se plantea justamente
dos preguntas para determinar si el ítem es guardado o rechazado. Estas son: “¿Tiene esto
sentido?” y “¿Tiene esto significado?”. Las experiencias previamente aprendidas del aprendiz
pueden ser comparadas con la nueva información para determinar la confiabilidad de lo que se
retiene de manera permanente de la información para una futura recordación. Los conceptos
provenientes de la memoria a largo plazo pueden ser activados para ser usados a fin de darle
sentido a los datos entrantes.
Las experiencias pasadas siempre influyen en el nuevo aprendizaje. Lo que ya sabemos actúa
como un filtro, ayudándonos a prestar atención a esas cosas que tienen significado (esto es,
relevancia) y dejar de lado las que no lo tienen. El significado, por tanto, tiene un gran impacto en
si la información y habilidades serán aprendidas y almacenadas.
7
La memoria a largo plazo (MLP)
Se piensa que la memoria a largo plazo es un sistema dinámico e interactivo que activa las
áreas de almacenamiento distribuidas a través del cerebro para recuperar y reconstruir recuerdos.
La memoria a largo plazo se refiere al proceso de almacenar y recuperar información. El
almacenamiento a largo plazo se refiere al lugar donde son guardados los recuerdos en el cerebro.
La información que recibe atención y que es significativa es codificada para el
almacenamiento de manera permanente en la memoria a largo plazo. La memoria de trabajo
prepara la información para transferirla a la memoria a largo plazo codificándola. El verdadero
acto de aprendizaje es la codificación exitosa de la información a ser aprendida en la memoria a
largo plazo. Si la codificación significativa no tiene lugar podemos decir que no se da el
aprendizaje.
Una vez que la información es almacenada en la MLP, se queda allí de manera
permanente. Sin embargo, debe ser recuperada dentro de la memoria de trabajo para el
procesamiento. Los investigadores están de acuerdo en que la MLP no tiene límite o capacidad
conocidos y que la información nunca se pierde; sin embargo, con el tiempo la accesibilidad a la
información se pierde. Esta inaccesibilidad se puede deber a la interferencia entre las nuevas y las
viejas memorias. La instrucción debería utilizar estrategias para minimizar y contrarrestar esa
interferencia (Driscoll, 1994). Las estrategias de enseñanza, además, pueden servir como pistas
que permitan la recuperación o accesibilidad a los ítemes almacenados.
Si tuvo lugar el aprendizaje, la información es recuperable en la MLP. Se utilizan pistas
para localizar y copiar la información adecuada desde la MLP a la memoria de trabajo para la
revisión consciente. Las pistas asequibles, y la cualidad de esas pistas, dependen de las que fueron
utilizadas cuando la información fue inicialmente almacenada. Saber cómo fueron almacenadas
las memorias en el pasado es esencial si queremos que la recordación de la memoria sea efectiva.
El olvido de la información, o la inhabilidad para localizar y recuperar la información puede
atribuirse a la manera como fue inicialmente secuenciada y codificada. Por lo tanto la información
aprendida puede interferir con la recordación de datos más antiguos, lo que se llama interferencia
retroactiva. Lo opuesto se llama interferencia proactiva.

ALGUNAS CRÍTICAS AL ENFOQUE DEL PROCESAMIENTO DE LA INFORMACIÓN

El procesamiento de la información difícilmente puede explicar el origen de las


“estructuras de conocimiento” que determinan la conducta de los sujetos; pues, si bien por una
parte afirma que los sujetos construyen su propio conocimiento a partir de sus estructuras y
procesos cognitivos, por otra parte, no explica cómo construyen esas estructuras y procesos
iniciales.
El procesamiento de la información mantiene vivas algunas de las prohibiciones teóricas
centrales del conductismo y se revela como una concepción mecanicista incapaz de abordar el
problema de la mente consciente, intencional, subjetiva y causal. De hecho puede ser definido
como un asociacionismo computacional. El procesamiento de la información está más ocupado en
estudiar cómo se representa la información en la memoria que de la forma como se adquieren o
modifican esas representaciones. De ahí que sea incapaz de proporcionar una verdadera teoría del
aprendizaje, imposibilidad que se origina en el propio núcleo conceptual de dicha teoría, la que, a
pesar de su apariencia revolucionaria, es profundamente continuista de la tradición del
conductismo.

Otra abierta crítica al “paradigma del procesamiento de la información” es la que presenta


Soren Brier (1992). La autora parte sosteniendo que la ciencia cognoscitiva gira, entre otros
temas, en torno a la teoría de la información. La ciencia cognoscitiva se interesa en la naturaleza
del conocimiento, sus componentes, sus fuentes, su desarrollo. Inherente a ella es la idea de que el
conocimiento es puramente objetivo.
8
Si el conocimiento es objetivo, la información está en el mundo exterior independiente del
observador.
Pero, sabemos muy bien que la información depende básicamente de una persona que se
comunica con otra. El concepto de información no puede ser definido sin un observador y sin su
atención selectiva motivacional e intencional. De ahí que el punto de partida de la información
debe ser fenomenológico. El conocimiento humano es el punto de encuentro entre lo subjetivo
autopoiético y lo objetivo (realidad parcialmente independiente) y por eso es relacional y
propenso a errores. El conocimiento humano es un proceso en marcha.

Ese carácter mecanicista y objetivista del paradigma del procesamiento de la información


no puede ser soslayado y conviene que como educadores estemos alerta cuando tengamos que
utilizarlo y aplicarlo en nuestras actividades pedagógicas.

También podría gustarte