Resumen Tema 4

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 10

Atención auditiva y crossmodal.

1. Introducción.

Los primeros trabajos experimentales sobre atención utilizaron, mayoritariamente, estímulos


auditivos para abordar cuestiones críticas, tales como la naturaleza de la atención selectiva y
de la dividida o si la selección tenía lugar en fases tempranas o tardías del procesamiento.

Hoy en día el debate gira entorno a la existencia de distintos tipos de atención, vinculados con
diferentes modalidades sensoriales.

2. Atención selectiva auditiva.

Entender un mensaje auditivo, o detectar un target auditivo, depende de nuestra capacidad


para analizar y fragmentar los sonidos complejos más simples. Al proceso de separar el sonido
en elementos o componentes auditivos simples se le conoce como “análisis o segregación del
continuo auditivo”. Esta capacidad de segregar los sonidos complejos es la que nos permite
diferenciar una fuente de información sonora de otras.

La segregación del continuo es de gran interés en la investigación sobre atención auditiva.

Por ejemplo, todos hemos tenido la experiencia de intentar seguir 2 conversaciones a la vez.
Un clásico ejemplo de ello es lo que se conoce en psicología como el efecto “cocktail party”. Si
estamos en una fiesta hablando con un amigo, y de repente escuchamos nuestro nombre en
una conversación a nuestras espaldas, intentaremos atender encubiertamente a lo que se dice
de nosotros, a la vez que seguimos hablando con nuestro amigo.

3. Escucha dicótica: el sombreado.

En los años 50 del siglo pasado se desarrolló el denominado paradigma de escucha dicótica. Se
denomina así porque 2 fuentes diferentes de información auditiva se presentan por separado
en cada uno de los oídos del sujeto. Ejemplo: podemos oír una lista de palabras en un oído y
una lista de dígitos en el otro.

La presentación dicótica genera la impresión de escuchar dos flujos auditivos separados, cada
uno de ellos localizados más o menos en el oído correspondiente.

Colin Cherry (1953) fue el primer investigador en aplicar el paradigma de escucha dicótica.

En sus experimentos, pidió a los sujetos que sombrearan, es decir que repitieran rápidamente
y sin demora, uno de los mensajes e ignorasen el otro. Al final, cuando los sujetos se les
preguntaba sobre la información presentada en el oído no atendido o no sombreado, se
descubrió que eran incapaces de informar del contenido del mensaje allí presentado, siendo su
única percepción la de haber escuchado sonidos.

En definitiva, parecía que determinadas propiedades físicas del mensaje ignorado eran
detectadas (se percataban de cambios en el género del hablante si la voz pasaba de hombre a
mujer); pero aspectos más elaborados como el lenguaje, las palabras individuales o el
contenido semántico pasaban desapercibidas.

Moray demostró, que el mensaje no atendido se procesaba también hasta un punto


inmediatamente anterior a la experiencia consciente, hasta justo antes de que la información
accediera a la consciencia y pudiera comunicarse abiertamente. Si esta información no
atendida recibía un poco más de activación -porque acababa de ser escuchada en el oído
atendido- atraería la atención de los sujetos y éstos serían conscientes de ellos.

Este último resultado de Moray supuso un serio revés para las teorías de la selección temprana
de filtro rígido que vimos en el capítulo previo, desde las que se postulaba la presencia de un
filtro, del tipo todo o nada, que seleccionaba la información auditiva según ciertas propiedades
físicas, tales como la localización del mensaje atendido.

4. Factores que facilitan la selección.

A partir de los hallazgos obtenidos en estos trabajos pioneros aplicando el paradigma de


escucha dicótica, se llegó a la conclusión de que los oídos se comportaban como 2 canales de
procesamiento relativamente independientes.

Por este motivo, el interés primario de los investigadores fue comprobar cómo algunas
propiedades físicas del mensaje sombreado permitían su selección en detrimento del mensaje
alternativo, entre ellas la ubicación espacial, el desfase temporal y el tono.

4.1. Localización espacial.

Los oídos, actúan a modo de canales de procesamiento diferentes, pero el potencial de


interferencia entre ellos es elevado si el nº de canales activos se incrementa. Por lo tanto,
atender a un mensaje auditivo relevante teniendo en cuenta su localización espacial tiene sus
limitaciones.

4.2. Desfase temporal.

Para facilitar la selección del canal relevante en escucha dicótica, es necesario en ocasiones
separar ambos mensajes aplicando un pequeño desfase temporal entre ellos.

Por lo tanto, bajo condiciones dicóticas, además de la localización física del mensaje, la
existencia de una asincronía o desfase temporal entre las palabras de cada uno de los
mensajes es también un importante factor que facilita la selección.

4.3. Tono (frecuencia).

El tono actúa como filtro y facilita la selección de una información en detrimento de otra, en
línea con la teoría de Broadbent expuesta en el tema previo.

Por esta razón, las personas tenemos más facilidad para atender a un mensaje e ignorar el
alternativo cuando las voces de cada uno de ellos son de género diferente que cuando son del
mismo género.

5. El procesamiento semántico de la información no atendida.

Aunque los primeros trabajos de escucha dicótica se dedicaron a explorar la eficacia de


algunas propiedades físicas para facilitar la selección del mensaje atendido (localización,
desfase o tono), los estudios posteriores se interesaron por conocer qué tipo de información
podía “adquirirse” del canal no atendido.
Un primer descubrimiento, cuanto menos curioso, fue que numerosas personas eran capaces
de escuchar su propio nombre en el canal ignorado.

El resultado de Treisman (1960) demuestra que la información del canal no atendido podría
ser analizada en un nivel semántico.

Al igual que la pronunciación de nuestro nombre en el canal no atendido puede captar nuestra
atención, las palabras que deben ignorarse, pero que se ajustan al contexto de una oración
sombreada, también pueden hacerlo.

Aunque los resultados de Corteen y Wood son consistentes con la existencia de un análisis
semántico de las palabras del canal no atendido, esto no implica, necesariamente, que toda la
información de dicho canal acceda a la consciencia.

De hecho, sólo el 33% de los sujetos reconoce su propio nombre en una tarea de escucha
dicótica (cuando se presenta el nombre del sujeto en el oído no atendido).

6. Atención dividida auditiva.

Hemos descrito cómo los mecanismos selectivos permiten atender a un único canal
informativo, en detrimento de otro.

Sin embargo, en muchas tareas, el problema no es tanto atender a una única fuente de
estimulación, sino dividir la atención entre diversas fuentes.

7. Escucha dicótica: la técnica de amplitud de memoria dividida (Split-span)

Una de las modificaciones incorporadas en el paradigma de escucha dicótica permitió, además,


analizar la habilidad de las personas para dividir su atención entre diferentes fuentes o
canales.

Una de estas modificaciones fue la denominada técnica de amplitud de memoria dividida


(Split-span), donde una lista de ítems se fracciona en dos listas más cortas que se presentan,
cada una de ellas, en un oído.

La diferencia con la técnica del sombreado reside en que, ahora, el sujeto debe atender a
ambos oídos a la vez (atención dividida) y, una vez finalizada la presentación estimular,
recordar lo que ha escuchado en ambos.

→ Broadbent explicó este


resultado argumentando
que la selección de la info
se producía en fases
tempranas del
procesamiento.
Contrarios a las propuestas de selección temprana de Broadbent, algunos trabajos posteriores
demostraron que la selección de los ítems podía realizarse también recurriendo a propiedades
semánticas, y no sólo mediante claves físicas como la localización.

Si se presentaba en cada oído una lista compuesta por dígitos y monosílabos (oído derecho:
who-3-there, oído izquierdo: 2-goes-9), los sujetos tendían a recordarlos según el canal,
primero un oído y luego el otro, al igual que en el estudio de Broadbent.

Sin embargo, si se pedía que los seleccionaran categorialmente, es decir, recordar primero los
dígitos y luego las palabras, lo hacían sin mayores problemas; de hecho, varios sujetos,
espontáneamente, recordaban los ítems agrupados, primero según la frase familiar “who goes
there” seguido de los dígitos “2-3-9”.

8. Tareas de detección auditiva.

En las tareas de detección auditiva los participantes escuchan secuencias o series de estímulos
auditivos, debiendo indicar cuándo han escuchado un determinado target; por ejemplo, deben
presionar un pulsador cuando detecten un tono de 1200 Hz entre secuencias de tonos de otras
frecuencias o sobre un fondo de ruido blanco (el ruido blanco es aquel formado por todas las
frecuencias del espectro, de tal manera que ninguna de ellas sobresale sobre las otras).

En principio, las personas tenemos buena capacidad para dividir nuestra atención entre ambos
oídos y detectar targets relevantes aislados que pueden aparecer en cualquier de ellos.

En estos casos, la detección es buena (1) si se presenta un único target en un momento dado y
(2) en caso de que se utilicen varios targets, estos se discriminan adecuadamente entre sí
(pertenezcan a frecuencias muy diferentes).

Cuando esto sucede, nuestra atención auditiva se “configura” para distribuirse


adecuadamente entre uno u otro oído.

Sin embargo, el problema surge cuando debemos detectar 2 targets que aparecen al mismo
tiempo, uno en cada oído (el llamado “déficit del doble target”). Esta tarea es muy dificultosa y
demuestra que la atención no se puede compartir apropiadamente entre ambos oídos. Es
decir, podemos dirigir la atención a múltiples fuentes estimulares, pero parece emerger un
cuello de botella en el procesamiento cuando se requiere detectar varios estímulos relevantes
que aparecen a la vez.

En conclusión, dividir la atención auditiva entre diferentes canales para detectar estímulos
relevantes simultáneos es mucho más difícil que atender exclusivamente a una única fuente de
información.

9. Funciones de alerta de la atención auditiva.

La realidad es que nuestra capacidad para atender a estímulos sonoros es, en gran medida,
independiente de la posición de la cabeza y de los oídos.

Por lo tanto, “esta neutralidad del sistema auditivo lo convierte en un excepcional sistema de
alerta temprana, listo para recibir y procesar estímulos provenientes desde cualquier
dirección, independientemente de la orientación adoptada por el organismo”.

9.1. Funciones de alerta del HOC.


Contrariamente a lo que sucede con los ojos, cuyo movimiento permite dirigir la mirada y
facilitar la recogida de info visual, nuestros oídos no se pueden mover a la captura del sonido.
Sin embargo, esto no excluye que la atención auditiva pueda estar suspendida a algún tipo de
control fisiológico interno.

La cóclea, estructura anatómica situada en el oído interno donde se localizan los receptores
sensoriales, recibe inputs desde el cerebro y, tal vez, estos inputs puedan ejercer un control
sobre dónde dirigir nuestra atención auditiva.

De hecho, unas 1400 fibras nerviosas (el llamado haz olivococlear: HOC) conectan el tronco del
encéfalo con la cóclea, transmitiendo un input que proviene de los centros auditivos del lóbulo
temporal.

Este input eferente podría ayudar a sintonizar los receptores sensoriales, favoreciendo la
selección de un sonido relevante en detrimento de otro irrelevante, lo que constituiría un
excelente sistema de alerta y control necesario para protegernos de las distracciones. Se sabe
que los gatos a los que se les ha lesionado el HOC se distraen más fácilmente ante un ruido
irrelevante. Cuando el input eferente del HOC está intacto, los gatos, y quizá las personas, son
menos susceptibles a la distracción e interferencia ocasionada por el ruido.

9.2. Control de la atención visual ejercido por los sonidos (crossmodalidad).

Los sonidos además de controlar la atención auditiva, también tienen la capacidad de orientar
la atención visual.

La crossmodalidad o vinculación entre modalidades atencionales diferentes (visión y audición),


incrementa la prominencia perceptiva de los estímulos.

Aumentar la prominencia de eventos que aparecen de forma próxima o simultánea, en el


espacio y en el tiempo, puede ayudarnos a integrar la información recibida por los diversos
sentidos para construir una representación multimodal del ambiente.

10. Predisposición atencional.


10.1. Predisposición hacia la frecuencia.

Si nos piden detectar un tono del que conocemos por adelantado su frecuencia nuestra
ejecución será mucho mejor que si no la conociéramos, incluso cuando la probabilidad de
aparición de dicha frecuencia sea reducida.

Es decir, los oyentes exhibimos cierta predisposición atencional y detectamos mejor aquello
que esperamos que suceda.

Los oyentes podemos configurar una especie de “filtro” atencional que nos predispone a
detectar una frecuencia concreta, de forma análoga a lo que sucede cuando focalizamos
nuestra atención visual en una región específica del espacio.

Un paradigma utilizado frecuentemente para estudiar la predisposición atencional de una


persona ante la frecuencia es el llamado paradigma de detección del estímulo sonda (probe-
signal paradigm).

En este paradigma, se familiariza previamente al sujeto con un tono de una frecuencia


determinada (target), que es presentado reiteradamente de manera clara y audible.

Se consigue, así, crear una predisposición atencional hacia dicha frecuencia.


A continuación, se le presentan 2 breves secuencias sucesivas de ruido de fondo
(habitualmente ruido blanco), una de las cuales incluye el target o, en su defecto, un tono
desviado en frecuencia (estímulo sonda o probe), con una intensidad en ambos casos que
dificulta su detección. La tarea del sujeto consiste, simplemente, en indicar en cuál de las 2
secuencias -en la primera o en la segunda- le pareció escuchar el tono target.

La figura 4.4. muestra los resultados obtenidos en experimentos que han aplicado esta técnica
para detectar un sonido target de 1000 Hz. La línea punteada representa el grado en que los
oyentes son capaces de detectar tonos sonda desviados en presencia de ruido de fondo,
respecto al target de 1000 Hz. A esta línea se le denomina “gradiente de detección” y se ha
obtenido promediando los datos de multitud de experimentos. Observe que la detección
disminuye bruscamente en el momento en que nos desviamos ligeramente del target (900-
1100 Hz).

Obsérvese también el alto grado


con el que los resultados reales de
un experimento (línea continua
con puntos blancos) se ajustan al
gradiente de detección, lo que
sugiere la existencia en los
oyentes de una predisposición
atencional auditiva, consecuencia
de sintonizar el filtro con la
frecuencia target.

Esta predisposición auditiva


parece configurarse en fases
tempranas del procesamiento.

Un descubrimiento muy
interesante, relacionado con esta sintonización o predisposición hacia la frecuencia, demuestra
que, si a los sujetos se les instruye a esperar no uno, sino dos targets distintos (p.e. 700 Hz y
1600 Hz), su rendimiento detectando ambos tonos es bastante bueno.

10.2. Predisposición hacia el espacio.

Además de hacia la frecuencia, predisponer a una persona a escuchar un sonido procedente de


una determinada ubicación espacial puede facilitar su detección.

Es decir, la atención auditiva también parece que puede sintonizarse hacia una ubicación
espacial, de ahí que “un adecuado ajuste de la atención auditiva con la localización de los
eventos sonoros ayuda al procesamiento de los mismos”.

Esta afirmación sólo parece sostenerse cuando el ambiente estimular o la tarea son complejos,
pues la precisión para detectar un simple target auditivo no se beneficia demasiado por el
hecho de conocer, por anticipado, su lugar de procedencia.

Es posible que la posición espacial de procedencia de un sonido no resulte tan importante para
la percepción auditiva como lo es para la visual.

No obstante, a pesar de que la localización no parece ser un factor muy eficiente para la
selección, algunos estudios sí que han demostrado que conocer por adelantado la procedencia
espacial de un sonido puede beneficiar su detección, al menos si el estímulo se emite desde
altavoces lo suficientemente alejados de la posición del sujeto, y no mediante auriculares.

10.3. Conclusiones.

Se impone la hipótesis de que la frecuencia parece ser más importante que la localización
espacial para orientar la atención auditiva. Manipulando ambas propiedades a la vez, algunos
trabajos insisten en esta idea al demostrar que la frecuencia es, a menudo, más eficaz para
seleccionar la información auditiva que la localización.

En conclusión, el espacio no parece desempeñar un papel tan relevante durante el


procesamiento auditivo, como sí lo hace durante el procesamiento visual.

11. Atendiendo a diferentes modalidades sensoriales.

El procesamiento multisensorial es algo tan cotidiano que habitualmente no nos percatamos


de su existencia.

La psicología de la atención se ha interesado por estudiar ciertas cuestiones relacionadas con


el uso e integración de la información procedente de diversas modalidades sensoriales
(crossmodalidad).

11.1. Los beneficios del procesamiento multisensorial.

Diversos estudios han demostrado que, en ocasiones, es posible atender a la información


procedente de varias modalidades sensoriales, en lugar de a una sola, sin aparente coste.

Es más, otros hallazgos conceden cierta ventaja a las presentaciones crossmodales frente a las
unimodales.

Por ejemplo, es más fácil atender simultáneamente a una secuencia visual y a una auditiva
para detectar la presencia de un target (p.e. ver el dibujo de un animal y escuchar su nombre),
que atender o bien a dos secuencias visuales o bien a dos secuencias auditivas.

No obstante, a pesar de que una tarea requiera recursos auditivos y otra los requiera visuales,
determinadas exigencias de procesamiento pueden eliminar los beneficios de la presentación
bimodal, si nos piden detectar cambios en la intensidad de un sonido o de una luz solemos ser
muy buenos dividiendo nuestra atención entre los estímulos auditivos y los visuales
presentados simultáneamente. Pero las cosas empeoran cuando se nos solicita detectar
cambios en la duración de los estímulos, pues el rendimiento ahora es mucho peor bajo
condiciones de atención dividida que cuando se atiende a cada modalidad por separado.

Al parecer, la emisión de juicios temporales recurre a un tipo de procesamiento que debe


compartirse necesariamente entre ambas modalidades, lo que explicaría el deterioro.

11.2. Predisposición hacia una modalidad sensorial.

La detección de una frecuencia se facilita si existe una predisposición en el sujeto a esperarla.


De forma semejante, se ha explorado si predisponer a una persona a esperar un estímulo de
una modalidad sensorial determinada afecta a su procesamiento.

Los experimentos demuestran que es posible crear una predisposición a esperar un estímulo
de una modalidad determinada, pero esto no siempre facilitará su procesamiento.
12. Dominancia de la modalidad visual.

La “dominancia visual” alude a que, compitiendo con información procedente de otras


modalidades (p.e. auditiva, propioceptiva: la propiocepción de la posición de nuestro cuerpo
que es procesada por los receptores de las articulaciones y los músculos; táctil), la información
visual captura y controla nuestra percepción.

Los trabajos realizados sugieren que puede existir una predisposición atencional hacia la
información visual. Sin embargo, se debe tener en cuenta que esta dominancia visual no es
algo universal. Sabemos, por lo expuesto en secciones anteriores, que los estímulos auditivos
exhiben una tendencia mucho más poderosa para capturar la atención que la que tienen los
estímulos visuales.

Sin embargo, cuando los estímulos visuales adquieren la misma importancia que otros
estímulos de modalidades sensoriales simultáneas, y suministran igual o mayor información, es
muy probable que exista un sesgo o predisposición hacia la modalidad visual y que ésta sea la
dominante.

13. Efectos de la información visual sobre la localización auditiva: la ventriloquía.

El efecto de la ventriloquía demuestra la influencia de los efectos crossmodales en la atención,


pues nuestra percepción del origen del sonido se ve alterada por la información visual.

Es decir, la información visual nos engaña y creemos que en ella se sitúa el origen del sonido.
Aunque el sonido proviene del ventrílocuo nosotros lo ubicamos en la boca del muñeco. El
efecto se hace más poderoso conforme la fuente del sonido resulta más difícil de localizar.

14. Efectos de la atención sobre la percepción del dolor.

Si dirigir la atención visual a una región del espacio facilita el procesamiento de los targets allí
presentados, saber por adelantado qué zona de nuestra piel va a ser estimulada reduce los
umbrales para detectar la estimulación en dicha zona y nos hace más sensibles.

Además. Cuando la estimulación es dolorosa, saber por adelantado que va a ser aplicada nos
hará todavía más sensibles debido a lo aversivo de la misma.

En un experimento, en el que a los sujetos se les aplicó en cada ensayo una dosis de calor
radiante aversivo, se descubrió que la estimulación térmica fue valorada como más intensa y
desagradable cuando era esperada que cuando no lo era.

Esta observación tiene una importante repercusión durante la aplicación de terapias: distraer
la atención de un paciente cuando recibe un tratamiento doloroso puede hacer que su
experiencia sea, relativamente, más liviana.

15. Atención crossmodal.

Si consideramos la atención como un mecanismo necesario para dirigir nuestra conducta en un


ambiente complejo, resulta obvio pensar que esta capacidad de control sólo puede llevarse a
cabo integrando la información recogida desde los distintos sentidos.

La manera más adecuada de entender qué queremos decir por atención crossmodal consista
en analizar la manera en la que percibimos el espacio y construimos marcos de referencia
espaciales a partir de la información recibida desde los distintos sentidos.
Dada que cada sentido recopila información procedente de su propio conjunto de receptores,
y dado que estos receptores se sitúan en diferentes lugares -unos respecto a otros y respecto a
los eventos del ambiente-, las conexiones entre la información aportada desde diferentes
modalidades sensoriales permiten construir una representación estable del ambiente externo
que nos permite actuar y dirigirnos en el medio.

Una manera en la que se ha estudiado la integración entre modalidades sensoriales es


analizando la llamada facilitación crossmodal.

Esta se estudia comparando las respuestas neuronales separas ante cada uno de los 2
estímulos unimodales, con la respuesta neuronal conjunta obtenida ante la presentación
bimodal. Si esta respuesta bimodal es mayor que la respuesta combinada a cada uno de los 2
estímulos unimodales, entonces se dice que ha ocurrido una facilitación crossmodal de la
respuesta debida a la integración de ambas modalidades.

Estudios de potenciales evocados, en los que se sustrajeron los ERP correspondientes a la


presentación unimodal de targets visuales y auditivos del correspondiente ERP obtenido ante
la presentación bimodal, demuestran que la interacción entre ambas modalidades comienza
aproximadamente 40 ms después de la presentación estimular, es decir, en fases tempranas
del procesamiento perceptivo.

16. Efectos de la señalización crossmodal.

Sabemos que la presencia de una señal puede controlar nuestra atención, dirigiéndola hacia
un objeto o hacia una determinada región del espacio.

De forma análoga a lo que sucede con señales unimodales, se han estudiado también los
potenciales efectos de la señalización crossmodal. Por señalización crossmodal aludimos al
fenómeno por el que una señal de una modalidad (p.e. visual) puede dirigir la atención hacia
alguna dimensión de un estímulo presentado en otra modalidad (p.e. auditiva).

Lamentablemente, las cosas no son tan sencillas, pues existen factores no atencionales que
pueden ser responsables de los efectos de señalización.

Los psicólogos han sabido cómo evitar este problema y, para ello, han desarrollado el
denominado “paradigma de la señalización ortogonal”.

Observe en la figura 4.11. cómo una luz, a modo de punta de flecha, ubicada junto al punto de
fijación, indica el lado de la posible aparición de un estímulo target (izquierda o derecha). El
target (p.e. un sonido) puede presentarse en cualquiera de los 4 altavoces. La lógica de este
paradigma es: a pesar de que la señal luminosa indica que el target auditivo puede aparecer en
cualquier altavoz del lado izquierdo o derecho, la tarea del participante consiste en juzgar si el
target se ha presentado en un altavoz de la parte superior o inferior (de ahí el nombre de
señalización ortogonal).

Utilizando una señalización ortogonal como la descrita, se considera que existen efectos de
señalización crossmodal cuando las respuestas a la posición vertical del target (arriba o abajo)
son más rápidas en el lado señalizado que en el no señalizado.
17. Conclusiones: ¿existen los efectos de señalización crossmodal?

A pesar de las divergencias experimentales encontradas, podemos concluir que los efectos de
señalización crossmodal existen y se manifiestan en diversos trabajos experimentales.

18. ¿Existe un control supramodal único para la atención espacial?

Determinados aspectos de la atención espacial parecen estar, aparentemente, bajo un


controlador supramodal.

La localización espacial externa, compartida entre estímulos de distintas modalidades, facilita


la presencia de vínculos atencionales crossmodales, lo que favorece la presencia de una
especie de controlador atencional supramodal.

En efecto, en ocasiones se afirma que: “la atención opera sobre representaciones espaciales
que están sujetas a influencia crossmodal, […] y no sobre representaciones exclusivas de una
única modalidad”.

En definitiva, se podría concluir que los mecanismos responsables de orientar la atención


visual, y aquellos responsables de orientar la atención auditiva (o táctil), no son
completamente independientes, sino que comparten información en algún momento del
procesamiento.

También podría gustarte