1.- INTRODUCCIÓN
La mayor parte de la investigación realizada a finales del siglo XX se dedicaba a explorar la modalidad visual. Sin embargo, es bueno saber que los primeros trabajos experimentales sobre atención utilizaron, mayoritariamente , estímulos auditivos para abordar cuestiones críticas, tales como la naturaleza de la atención selectiva y de la dividida o si la selección tenía lugar en fases tempranas o tardías del procesamiento . Hoy en día, el debate que acapara el interés creciente de la comunidad científica gira en torno a la existencia de distintos tipos de atención, vinculados con diferentes modalidades sensoriales. Por ello, la pregunta que debemos formularnos en la actualidad se dirige, más bien, a conocer cómo se integra la información procedente de las diversas modalidades sensoriales (visión, audición y tacto) y si puede existir algo parecido a una especie de controlador atencional central de naturaleza supramodal.
2.- ATENCIÓN SELECTIVA AUDITIVA
Entender un mensaje auditivo, o detectar un target auditivo, depende de nuestra capacidad para analizar y fragmentar los sonidos complejos en componentes más simples. A este proceso de separar el sonido en elementos o componentes auditivos simples se le conoce como «análisis o segregación del continuo auditivo» (streaming segregation ). La segregación del continuo es un tema de gran interés en la investigación sobre atención auditiva. Un clásico ejemplo de ello es lo que se conoce en psicología como el efecto «cocktailparty «. Si estamos en una fiesta hablando con una amiga y, de repente, escuchamos nuestro nombre en otra conversación a nuestra espalda, seguramente intentaremos atender encubiertamente a lo que se dice de nosotros, a la vez que seguimos manteniendo la conversación con nuestra amiga.
2.1.- Escucha dicótica: el sombreado
En los años cincuenta del siglo pasado se desarrolló el denominado paradigma de escucha dicótica. Se denomina así porque dos fuentes diferentes de información auditiva se presentan por separado en cada uno de los oídos del sujeto. Por norma general, bajo condiciones de escucha dicótica es mucho más sencillo seleccionar un único mensaje que bajo condiciones de escucha cotidiana (Egan, Carterette y Thwing, 1954). Colin Cherry (1953) fue el primer investigador en aplicar el paradigma de escucha dicótica para estudiar la atención. Es sus experimentos, pidió a los sujetos que sombrearan -repitieran rápidamente y sin demora- uno de los mensajes (p. ej.: el del oído derecho) e ignorasen el otro (el del oído izquierdo). Esta tarea de «sombreado» se realizaba sorprendentemente bien. Al finalizarla, cuando a los sujetos se les preguntaba sobre la información presentada en el oído no atendido o no sombreado, se descubrió que eran incapaces de informar del contenido del mensaje allí presentado, siendo su única percepción la de haber escuchado sonidos.
Otro investigador, Neville Moray, quiso comprobar si, en efecto, las personas eran tan insensibles al canal no atendido, como apuntaban los datos de Cherry. En una tarea de sombreado, Moray presentó treinta y cinco veces una misma lista de palabras en el oído no atendido. Descubrió que la probabilidad de recordar alguna de estas palabras fue tan baja como la de recordar palabras que nunca fueron presentadas. También descubrió que si el mensaje presentado en el oído no atendido era el mismo que el del oído atendido, los sujetos se percataban de la semejanza, siempre y cuando el desfase o diferencia temporal entre las palabras repetidas de ambos canales no excediera de unos escasos segundos. Los resultados de Moray suponen un serio revés para las teorías de la selección temprana de filtro rígido. El mensaje no atendido se procesaba también hasta un punto inmediatamente anterior a la experiencia consciente, hasta justo antes de que la información accediera a la consciencia y pudiera comunicarse abiertamente. Si esta información no atendida recibía un poco más de activación atraería la atención de los sujetos y éstos serían conscientes de ella (lo que estaría en consonancia con la propuesta del filtro atenuado de Treisman.
2.2.- Factores que facilitan la selección
Localización espacial. El lugar de procedencia de un mensaje en escucha dicótica es una clave que permite su selección frente al mensaje alternativo. Se sabe que la resolución espacial auditiva es muy limitada, por lo que el número de mensajes que pueden atenderse e ignorarse es también limitado.
Los oídos actúan a modo de canales de procesamiento diferentes, pero el potencial de interferencia entre ellos es elevado si el número de canales activos se incrementa. Por lo tanto, atender a un mensaje auditivo relevante teniendo en cuenta su localización espacial tiene sus limitaciones.
Desfase temporal. Bajo condiciones dicóticas, además de la localización física del mensaje, la existencia de una asincronía o desfase temporal entre las palabras de cada uno de los mensajes es también un importante factor que facilita la selección.
Tono (frecuencia). El tono actúa como filtro y facilita la selección de una información en detrimento de otra, en línea con la teoría de Broadbent. Por esta razón, las personas tenemos más facilidad para atender a un mensaje e ignorar el alternativo cuando las voces de cada uno de ellos son de género diferente que cuando son del mismo género.
2.3.- El procesamiento semántico de la información no atendida
Moray (1959) advirtió que la secuencia «puedes parar ahora», presentada en el oído no sombreado, hizo que sólo un 8% de los participantes detuvieran la tarea. Sin embargo, cuando esa misma secuencia estuvo precedida por el nombre del sujeto (p. ej.: «Ana, puedes parar ahora») el número de participantes que detuvieron la ejecución alcanzó el 33%. Treisman (1960 presentó dos mensajes diferentes. Ambos eran relatos significativos y estaban grabados por la misma voz (p. ej.: «vi a la niña saltando en la calle» y «devuélveme hoy el libro de física»). Los mensajes fueron fraccionados, de forma que la primera mitad de cada mensaje fue presentado en un oído y la otra mitad en el otro. Aunque se instruyó a los participantes para que atendieran y sombrearan todo aquello que se presentaba en un único oído, a menudo «saltaron» al canal no atendido en el punto en el que el mensaje se fraccionaba y pasaba al otro canal. Al igual que la pronunciación de nuestro nombre en el canal no atendido puede captar nuestra atención, las palabras que deben ignorarse, pero que se ajustan al contexto de una oración sombreada, también pueden hacerlo.
Carteen y Wood ( 1972). Estos investigadores condicionaron a las personas a esperar una leve descarga eléctrica al escuchar el nombre de ciertas ciudades. Posteriormente, los participantes realizaron una tarea de escucha dicótica, en la que el mensaje no atendido incluía los nombres de las ciudades condicionadas, mezclados con nombres de otras ciudades y palabras no relacionados. Aunque los nombres de las ciudades condicionadas no superaron el umbral de la experiencia consciente, parece que sí fueron analizados semánticamente en un plano inconsciente.
3.- ATENCIÓN DIVIDIDA AUDITIVA
En muchas tareas, el problema no es tanto atender a una única fuente de estimulación, sino dividir la atención entre diversas fuentes.
3.1.- Escucha dicótica: la técnica de amplitud de memoria dividida (split-span)
Utilizando el paradigma de escucha dicótica, las personas pueden dirigir su atención hacia una única fuente de estimulación en detrimento de otra, siempre que dicha fuente esté bien definida por una propiedad básica como es la localización espacial, el desfase temporal o el tono. Algunas modificaciones incorporadas en el paradigma de escucha dicótica permitieron, además, analizar la habilidad de las personas para dividir su atención entre diferentes fuentes o canales. Una de estas modificaciones fue la denominada técnica de amplitud de memoria dividida (split-span ).
En la técnica de amplitud dividida o split-span, una lista de ítems se fracciona en dos listas más cortas que se presentan, cada una de ellas, en un oído. El sujeto debe atender a ambos oídos a la vez (atención dividida) y, una vez finalizada la presentación estimular, recordar lo que ha escuchado en ambos.
3.2.- Tareas de detección auditiva
En las tareas de detección auditiva los participantes escuchan secuencias o series de estímulos auditivos, debiendo indicar cuándo han escuchado un determinado target; por ejemplo, deben presionar un pulsador cuando detecten un tono de 1200 Hz entre secuencias de tonos de otras frecuencias o sobre un fondo de ruido blanco[1].
En principio, las personas tenemos buena capacidad para dividir nuestra atención entre ambos oídos y detectar targets relevantes aislados que pueden aparecer en cualquier de ellos, sin embargo, el problema surge cuando debemos detectar dos targets que aparecen al mismo tiempo, uno en cada oído (el llamado «déficit del doble target») . Esta tarea es muy dificultosa y demuestra que la atención no se puede compartir apropiadamente entre ambos oídos.
Tal como sucedía en las tareas de búsqueda visual, en donde la localización de conjunciones era más difícil que la localización de una característica única, dividir la atención auditiva entre diferentes canales para detectar estímulos relevantes simultáneos es mucho más difícil que atender exclusivamente a una única fuente de información.
4.- FUNCIONES DE ALERTA DE LA ATENCIÓN AUDITIVA
Nuestra capacidad para atender a estímulos sonoros es, en gran medida, independiente de la posición de la cabeza y de los oídos. Por lo tanto, «esta neutralidad del sistema auditivo lo convierte en un excepcional sistema de alerta temprana, listo para recibir y procesar estímulos provenientes desde cualquier dirección, independientemente de la orientación adoptada por el organismo».
Función de alerta del HOC. Contrariamente a lo que sucede con los ojos, nuestros oídos no se pueden mover con vistas a facilitar la captura del sonido. Sin embargo, esto no excluye que la atención auditiva pueda estar supeditada a algún tipo de control fisiológico interno. La cóclea[2] recibe inputs desde el cerebro y, tal vez, estos inputs puedan ejercer un control sobre dónde dirigir nuestra atención auditiva. De hecho, unas mil cuatrocientas fibras nerviosas (el llamado haz olivococlear -HOC-) conectan el tronco del encéfalo con la cóclea, transmitiendo un input que proviene de los centros auditivos del lóbulo temporal. Este input eferente podría ayudar a sintonizar los receptores sensoriales, favoreciendo la selección de un sonido relevante en detrimento de otro irrelevante.
Control de la atención visual ejercido por los sonidos ( crossmodalidad). Los sonidos están a menudo asociados con eventos importantes, incluso amenazantes para nuestra vida, es lógico que su presencia alerte de un potencial peligro y que exista una fuerte tendencia a orientar nuestra atención auditiva hacia su lugar de procedencia. Pero, además de controlar la atención auditiva, los sonidos también tienen la capacidad de orientar la atención visual.
La crossmodalidad o vinculación entre modalidades atencionales diferentes (visión y audición) incrementa la prominencia perceptiva de los estímulos. Aumentar la prominencia de eventos que aparecen de forma próxima o simultánea (en el espacio y en el tiempo) puede ayudamos a integrar la información recibida por los diversos sentidos para construir una representación multimodal del ambiente.
5.- PREDISPOSICIÓN ATENCIONAL
Predisposición hacia la frecuencia. Los oyentes podemos configurar una especie de «filtro» atencional que nos predispone a detectar una frecuencia concreta, de forma análoga a lo que sucede cuando focalizamos nuestra atención visual en una región específica del espacio. Un paradigma utilizado frecuentemente para estudiar la predisposición atencional de una persona ante la frecuencia es el llamado paradigma de detección del estímulo sonda (probe-signal paradigm ). En este paradigma, se familiariza previamente al sujeto con un tono de una frecuencia determinada (target), que es presentado reiteradamente de manera clara y audible. A continuación, se le presentan dos breves secuencias sucesivas de ruido de fondo (habitualmente ruido blanco), una de las cuales incluye el target o, en su defecto, un tono desviado en frecuencia (estímulo sonda o pro be), con una intensidad en ambos casos que dificulta su detección (las detecciones oscilan a veces entre el 65- 80%). La tarea del sujeto consiste, simplemente, en indicar en cuál de las dos secuencias (en la primera o en la segunda) le pareció escuchar el tono target.
Predisposición hacia el espacio. La atención auditiva también parece que puede sintonizarse hacia una ubicación espacial, de ahí que «un adecuado ajuste de la atención auditiva con la localización de los eventos sonoros ayuda al procesamiento de los mismos». Sin embargo, la realidad es que ésta sólo parece sostenerse cuando el ambiente estimular o la tarea son complejos, pues la precisión para detectar un simple target auditivo no se beneficia demasiado por el hecho de conocer, por anticipado, su lugar de procedencia (Lowe, 1968; Scharf, 1988).
No obstante, a pesar de que la localización no parece ser un factor muy eficiente para la selección, algunos estudios sí que han demostrado que conocer por adelantado la procedencia espacial de un sonido puede beneficiar su detección, al menos si el estímulo se emite desde altavoces lo suficientemente alejados de la posición del sujeto, y no mediante auriculares.
Conclusiones. A pesar de estos últimos resultados descritos, se impone la hipótesis de que la frecuencia parece ser más importante que la localización espacial para orientar la atención auditiva. El espacio no parece desempeñar un papel tan relevante durante el procesamiento auditivo, como sí lo hace durante el procesamiento visual.
5.1.- Atendiendo a diferentes modalidades sensoriales
El procesamiento multisensorial es algo tan cotidiano que habitualmente no nos percatamos de su existencia. Son numerosas las tareas cotidianas que requieren que se integre la información recogida desde los diversos sentidos. Cuando vamos de pesca, la apariencia visual de la carnada, su frescura, la temperatura del agua, el viento, el coeficiente de la marea, un mínimo conocimiento de fondo marino y de las especies que lo habitan, pueden ser determinantes en el éxito de la jornada. Pues bien, la psicología de la atención se ha interesado por estudiar ciertas cuestiones relacionadas con el uso e integración de la información procedente de diversas modalidades sensoriales (crossmodalidad).
Los beneficios del procesamiento multisensorial. Diversos estudios han demostrado que, en ocasiones, es posible atender a la información procedente de varias modalidades sensoriales, en lugar de a una sola, sin aparente coste. Por ejemplo, la detección de tres estímulos -visual, olfativo y táctil- presentados simultáneamente puede ser igual de correcta que cuando son presentados aisladamente, uno tras otro (Shiffrin y Grantham, 1974). Es más, en ocasiones la presentación corssmodal es muy ventajosa frente a la unimodal, cuando ensatamos un gusano en el anzuelo, la ausencia de movimiento es una mala señal, pero si además de la ausencia de movimiento huele, sabemos que ese gusano lleva muerto bastante tiempo y no es apto para la pesca, aunque en la pesca el factor “suerte” hace posible casi cualquier cosa.
Predisposición hacia una modalidad sensorial. Se ha explorado si predisponer a una persona a esperar un estímulo de una modalidad sensorial determinada afecta a su procesamiento (Spence y Driver, 1997b). En definitiva, es posible crear una predisposición a esperar un estímulo de una modalidad determinada, pero esto no siempre facilitará su procesamiento, tal como demuestra este trabajo.
5.2.- Dominancia de la modalidad visual
La «dominancia visual» alude a que, compitiendo con información procedente de otras modalidades (p. ej.: auditiva, propiocepción, táctil), la información visual captura y controla nuestra percepción. Los trabajos realizados sugieren que puede existir una predisposición atencional hacia la información visual. Sin embargo, se debe tener en cuenta que esta dominancia visual no es algo universal (Heller, 1992). Por ejemplo, sabemos, por lo expuesto en secciones anteriores, que los estímulos auditivos exhiben una tendencia mucho más poderosa para capturar la atención que la que tienen los estímulos visuales (McDonald et al., 2000). Sin embargo, cuando los estímulos visuales adquieren la misma importancia que otros estímulos de modalidades sensoriales simultáneas, y suministran igual o mayor información, es muy probable que exista un sesgo o predisposición hacia la modalidad visual y que ésta sea la dominante.
5.3.- Efectos de la información visual sobre la localización auditiva: la ventriloquía
Cualquier persona que haya visto trabajar a un ventrílocuo habrá observado la influencia que ejerce la información visual sobre la localización del sonido. El efecto de la ventríloquía demuestra la influencia de los efectos crossmodales en la atención, pues nuestra percepción del origen del sonido se ve alterada por la información visual. Es decir, la información visual nos engaña y creemos que en ella se sitúa el origen del sonido. Aunque el sonido proviene del ventrílocuo nosotros lo ubicamos en la boca del muñeco. El efecto se hace más poderoso conforme la fuente del sonido resulta más difícil de localizar. Localizar un sonido en el plano vertical es mucho más dificultoso que localizarlo en el plano horizontal, lo cual tiene sus implicaciones para posicionar el muñeco en el escenario.
5.4.- Efectos de la atención sobre la percepción del dolor
Si dirigir la atención visual a una región del espacio facilita el procesamiento de los targets allí presentados , saber por adelantado qué zona de nuestra piel va a ser estimulada reduce los umbrales para detectar la estimulación en dicha zona y nos hace más sensibles (Meyer, Gross y Teuber, 1963). Además, cuando la estimulación es dolorosa, saber por adelantado que va a ser aplicada nos hará todavía más sensibles debido a lo aversivo de la misma (Bushnell et al., 1985). Esta observación tiene una importante repercusión durante la aplicación de terapias: distraer la atención de un paciente cuando recibe un tratamiento doloroso puede hacer que su experiencia sea, relativamente , más liviana.
6.- ATENCIÓN CROSSMODAL
Quizás, la manera más adecuada de entender qué queremos decir por atención crossmodal consista en analizar la manera en la que percibimos el espacio y construimos marcos de referencia espaciales a partir de la información recibida desde los distintos sentidos. Dado que cada sentido recopila información procedente de su propio conjunto de receptores, y dado que estos receptores se sitúan en diferentes lugares, las conexiones entre la información aportada desde diferentes modalidades sensoriales permiten construir una representación estable del ambiente externo que nos permite actuar y dirigirnos en el medio (Driver y Spence, 1998).
Metodológicamente , una manera en la que se ha estudiado la integración entre modalidades sensoriales es analizando la llamada facilitación crossmodal. La facilitación crossmodal se estudia comparando las respuestas neuronales separas ante cada uno de los dos estímulos unimodales (p. ej., uno visual y otro auditivo), con la respuesta neuronal conjunta obtenida ante la presentación bimodal. Si esta respuesta bimodal es mayor que la respuesta combinada a cada uno de los dos estímulos unimodales, entonces se dice que ha ocurrido una facilitación crossmodal de la respuesta debida a la integración de ambas modalidades. Estudios de potenciales evocados, en los que se sustrajeron los ERP correspondientes a la presentación unimodal de targets visuales y auditivos (flash de luz y ráfagas de ruido) del correspondiente ERP obtenido ante la presentación bimodal, demuestran que la interacción entre ambas modalidades comienza unos 40 ms después de la presentación estimular, es decir, en fases tempranas del procesamiento perceptivo (Teder-Salejarvi , McDonald , Di Russo y Hill yard; 2002; Stein y Meredith , 1993).
6.1.- Efectos de la señalización crossmodal
Sabemos por lo explicado en el apartado dedicado a exponer las funciones de alerta de la atención auditiva, que las señales auditivas pueden facilitar la respuesta ante estímulos visuales presentados en el mismo lado que dichas señales. Sin embargo, es más discutible afirmar que las señales visuales ejerzan algún efecto sobre la orientación de la atención auditiva, pues en este punto los resultados son contradictorios . Algunos trabajos han encontrado que las señales visuales no afectan en tareas de discriminación auditiva (Spence y Driver, 1996), mientras que otros estudios han descubierto lo opuesto (Ward, 1994). Probablemente, la razón de esta divergencia pueda localizarse en la naturaleza de las señales y los targets utilizados (en el primer estudio las señales fueron simples y los targets complejos, y a la inversa en el segundo). No obstante, a pesar de estas divergencias, podemos concluir que los efectos de señalización crossmodal existen y se manifiestan en diversos trabajos experimentales.
6.2.- ¿Existe un control supramodal único para la atención espacial?
Determinados aspectos de la atención espacial parecen estar, aparentemente, bajo un controlador supramodal. Por ejemplo, es más sencillo atender a un estímulo visual y a otro auditivo si el monitor y el altavoz que los presentan se ubican en el mismo lado, en lugar de si uno se sitúa a la izquierda y el otro a la derecha, respecto del sujeto. Si pedimos a un grupo de sujetos que focalicen su atención, bien en su mano derecha, o bien en su mano izquierda para detectar estímulos táctiles, y presentamos a la vez estímulos visuales o auditivos, descubrimos que cuando estos últimos estímulos aparecen en el mismo lado espacial en el que se espera la estimulación táctil el componente N1 de los ERP es mayor que cuando los estímulos aparecen en el lado opuesto. En conclusión, la localización espacial externa, compartida entre estímulos de distintas modalidades, facilita la presencia de vínculos atencionales crossmodales, lo que favorece la presencia de una especie de controlador atencional supramodal.
Los mecanismos responsables de orientar la atención visual, y aquellos responsables de orientar la atención auditiva (o táctil), no son completamente independientes, sino que comparten información en algún momento del procesamiento.
¿realmente el hecho de haber descubierto efectos crossmodales entre visión, audición y tacto, o efectos de señalización crossmodal, es suficiente para postular la existencia de un control atencional supramodal? El simple hecho de que el despliegue atencional en una modalidad pueda modular o afectar a los efectos atencionales en otra no implica, necesaria mente, que la atención esté controlada por un mecanismo supramodal. La existencia de una intercomunicación entre la información procedente de diferentes modalidades sensoriales resulta posible en cualquier momento del procesamiento. Y, aunque esto pueda ser utilizado en contra de una estricta modularidad o independencia entre el procesamiento ejercido en cada una de la diversas modalidades, no prueba necesariamente la existencia de un sistema maestro de control supramodal.
Fuente.
- Johnson, A., Proctor, R. W., & Crespo León, A.Atención: Teoría y práctica (trad., adapt. y rev. ed.). Madrid
- Youtube
[1] El ruido blanco es aquél formado por todas las frecuencias del espectro, de tal manera que ninguna de ellas sobresale sobre las otras. Es semejante al que escuchamos en un televisor desintonizado, cuando aparece la pantalla blanca con multitud de puntitos negros que parecen moverse.
[2] Estructura anatómica situada en el oído interno donde se localizan los receptores sensoriales.