Una tarde nublada en Yokohama. Desde el piso 69 de la torre Landmark, la más alta de Japón, se contempla un paisaje urbano sin fin. Rascacielos, cemento, luces de neón..., la ciudad se extiende hasta donde alcanza la vista. En el horizonte, unas nubes negras y amenazadoras anuncian la llegada del primer tifón de la temporada. De pronto, vemos el destello de un relámpago que cae a lo lejos. Los fotones de luz llegan a nuestra retina casi instantáneamente, y de ahí, una señal eléctrica y química viaja hasta nuestra corteza visual en pocos milisegundos. Pronto empezará a diluviar. Al cabo de unos diez segundos, casi una eternidad, las ondas sonoras golpean nuestros tímpanos y oímos el trueno. ¿Corresponde ese trueno al relámpago que hemos visto? Dudamos. Vista y oído nos aportan información aparentemente inconexa.
Unos minutos más tarde, en plena calle, cruzamos la calzada a toda prisa aprovechando el enorme colapso circulatorio. Los coches intentan avanzar a través del enjambre de peatones que corren a su alrededor en todas direcciones. Todo el mundo quiere llegar a casa antes de que empiece a llover. De repente, uno de los coches frena estrepitosamente. Lo veíamos aproximarse a través de la periferia de nuestra retina pero, entre tanto movimiento, no lo habíamos advertido conscientemente. Sin embargo, hemos reaccionado de inmediato al oír el frenazo, identificando visualmente el peligro. Ésta es una de las estrategias que la evolución ha instalado en nuestro cerebro: la integración multisensorial. Un sonido y un movimiento procedentes del mismo lugar y originados al mismo tiempo crean un efecto mayor que la suma de los estímulos por separado, y atraen nuestra atención rápidamente.
Los sentidos, nuestra única puerta al mundo exterior, están especializados en captar diferentes modalidades de información: luces, sonidos, olores, sabores, etc. Despedazan la realidad en diversos fragmentos que viajan a nuestro cerebro por rutas totalmente independientes. Sin embargo, nuestro éxito o supervivencia dependen de cómo combinemos de nuevo estas señales para entender lo más rápido posible a qué fenómeno nos estamos enfrentando.
No es extraño, pues, que nuestro cerebro esté finamente diseñado para captar interacciones entre los distintos sentidos. Gusto y olfato nos aportan excelente información sobre la composición química de un objeto, pero nos dicen poco sobre dónde se encuentra. Para situarlo en el espacio, lo mejor es utilizar la vista. El oído, a su vez, es de gran ayuda en la oscuridad o para detectar peligros ocultos fuera del campo visual. Cada sentido nos aporta información útil, aunque limitada, pero una parte esencial de la información está precisamente contenida en la coherencia espacial y temporal entre las señales de diferentes modalidades.
¿Cómo combina el cerebro las sensaciones de los diferentes sentidos? Sinceramente, aún no lo sabemos del todo. Hasta hace poco creíamos tener una buena respuesta a esa pregunta. Pero descubrimientos muy recientes nos están forzando a cambiar radicalmente los conceptos más básicos que poseíamos sobre los mecanismos neuronales de la percepción sensorial.
Pero, ¿qué oyen mis ojos? Interacción entre sentidos
Tradicionalmente se han estudiado las modalidades sensoriales una por una, por separado, como si en el cerebro también trabajaran de forma independiente. Pero en realidad, los sentidos interactúan y se influyen entre ellos mucho más de lo que creemos, creando sorprendentes fenómenos multisensoriales.
Multitud de estudios psicológicos demuestran cómo la integración multisensorial puede mejorar (o empeorar, si no hay congruencia) la eficacia de nuestra respuesta frente a un estímulo externo. En el famoso «efecto del ventrílocuo», por ejemplo, se observa cómo un estímulo visual muy llamativo le puede robar groseramente el protagonismo a la verdadera fuente sonora y hacernos creer que el sonido proviene, en realidad, del estímulo visual.1 Otro fenómeno muy conocido, el efecto MacGurk, descrito en 1976, nos muestra otra vez cómo lo que vemos puede modificar sustancialmente lo que oímos.2 Si miramos los labios de una persona diciendo «ba», pero en realidad escuchamos la voz de alguien pronunciando «ga», percibiremos algo intermedio como «da». No obstante, cuando sí existe congruencia, la visión de los labios de nuestro interlocutor puede ayudarnos mucho a entender lo que está diciendo, especialmente en un ambiente ruidoso o si está hablando en un idioma que conocemos pero que no es el nuestro.3
Aunque la visión es el sentido más dominante en los humanos y demás primates, también existen numerosos casos en los que un sonido puede modificar la percepción de lo que vemos. Un estudio demuestra que si simultáneamente a la aparición de un breve destello de luz oímos dos pitidos muy seguidos, es muy probable que erróneamente percibamos dos destellos de luz.4
Aunque la vista y el oído son las dos modalidades que más se han estudiado, la integración multisensorial puede darse entre cualquier combinación de dos o más sentidos. De hecho, la degustación de un alimento o una bebida es un momento de multisensorialidad por excelencia: una exquisita combinación de estímulos gustativos y olfativos, pero también táctiles y visuales, y puede que hasta sonoros.5 Un caso dramático de incongruencia entre sentidos puede echar por tierra la reputación de los más adiestrados catadores de vinos. En un simple experimento, estudiantes franceses de enología fueron víctimas del dominio que la vista puede ejercer sobre los sentidos químicos del gusto y del olfato. Se les dio a probar un vino blanco pero teñido de rojo-negro por un colorante inodoro e insípido. Sorprendentemente, muchos de ellos lo describieron con gran lujo de detalles ¡como un excelente vino tinto! 6
Otro fenómeno fascinante relacionado con la integración intermodal es el caso de la sinestesia. En las personas sinestésicas, un estímulo de una modalidad sensorial les induce la activación simultánea e involuntaria de otro de sus sentidos. La forma más común de sinestesia es aquella en la que las letras o números evocan irremediablemente la percepción de colores. Se sospecha que algunos grandes artistas eran también grandes sinestésicos. Kandinsky, por ejemplo, relataba cómo «oía» los colores mientras los pintaba. Para él, el color bermellón «sonaba como una tuba».7 Otras personas, sin poder evitarlo, experimentan un intenso sabor cuando contemplan algunos colores o escuchan determinadas palabras. Para cierto sujeto, por ejemplo, casi cada palabra posee su propio sabor, incluso los nombres propios: John sabe a pan de trigo, William a patatas y Steven a huevo frito.8 A otra persona, un vaso de agua con azúcar le produce la visión del color rojo mientras que el agua con sal le evoca el color azul. Curiosamente, la mezcla de los dos sabores le sugiere un color mezclado: el violeta.8La sinestesia no está considerada una patología, pero su estudio puede aportar una información valiosísima sobre las bases neuronales de la interacción entre sentidos.
Las denominadas «experiencias extracorporales» son fenómenos extremadamente inquietantes y que han asombrado a la humanidad durante siglos. En ellas, un sujeto se percibe a sí mismo como «saliendo fuera» de su propio cuerpo, viéndolo a él y al mundo desde una posición externa y elevada. La neurociencia actual parece tener una explicación para estos sucesos que encontramos en antiguas mitologías y en múltiples experiencias espirituales. Un fallo de coherencia multisensorial sobre la percepción del propio cuerpo, muchas veces relacionado con factores desencadenantes como las drogas, la anestesia o el sueño, podría ser el culpable de esta turbadora experiencia.9
Todos estos fenómenos tienen una base común, la integración multisensorial, y están ampliamente documentados desde el punto de vista psicológico. Pero ¿cuáles son las bases neuronales que los explican? ¿Qué ocurre en el interior de nuestro cerebro cuando vemos, oímos, olemos... al mismo tiempo? Ahí entra en juego la moderna neurobiología.
El fin de la hipótesis jerárquica
Fruto de los estudios anatómicos y fisiológicos llevados a cabo en animales durante las décadas de 1970 y 1980, así como los primeros ensayos funcionales en seres humanos, se construyó una hipótesis muy coherente y robusta: cada sentido captura una fracción de la realidad y envía su señal al cerebro. Allí la información fluye de forma jerárquica: cada estímulo es analizado por una región cerebral unisensorial: visual, auditiva, somatosensorial, etc. Una vez procesada la información, el resultado viaja a las regiones multisensoriales o asociativas, donde las señales convergen y se combinan para reconstruir el evento y percibirlo en su totalidad.10
Según este modelo, las funciones cerebrales están segregadas en diferentes áreas especializadas. La corteza cerebral humana, por ejemplo, se puede dividir claramente en regiones sensoriales, que son las que reciben la información, regiones asociativas, que son las que la procesan, y regiones motoras que, finalmente, emiten una respuesta. Dentro de la corteza sensorial podemos identificar con precisión los territorios responsables de procesar cada sentido: está claro que vemos a través de la región occipital, oímos a través de la circunvolución temporal superior, el tacto y el gusto los localizamos en el lóbulo parietal y los olores los percibimos en varias zonas del sistema límbico. Éstas son regiones que podemos catalogar como de bajo rango. A partir de ahí se encuentran las regiones asociativas, distribuidas en la corteza frontal, parietal y temporal, que podemos denominar de alto rango, y que son las responsables de integrar la información de forma multisensorial y más compleja.11
Sin embargo, en la actualidad, este modelo está siendo profundamente reconsiderado. Las tecnologías más modernas, especialmente las de neuroimagen en humanos, han desvelado la inesperada existencia de integración multisensorial en casi todas las áreas de la corteza, incluso en las regiones tradicionalmente consideradas como unisensoriales. Nuevos estudios anatómicos y fisiológicos en primates y en roedores están igualmente descubriendo nuevas funciones multisensoriales en áreas corticales de bajo rango.10,12,13 Por lo tanto, sin ser del todo incorrecta, la hipótesis clásica de la convergencia jerárquica puede considerarse actualmente obsoleta. Las interacciones entre regiones van mucho más allá de lo que suponíamos. Y las zonas supuestamente especializadas puede que alberguen otras muchas funciones que ni tan sólo sospechábamos. ¿Cómo es posible que no se hubiera descubierto este hecho anteriormente? Básicamente por dos razones: en primer lugar, por la limitación de las técnicas tradicionales, y en segundo lugar, simplemente, porque no se había buscado.
En estos momentos ya se han localizado neuronas o poblaciones neuronales que responden a sonidos y/o señales táctiles en todas las jerarquías de las áreas visuales, tanto en humanos como en otros primates. Incluso la región V1, la más primaria y selectiva para la visión, parece que también sintoniza finamente los sonidos. Aunque no de forma uniforme, las neuronas que «ven» la parte periférica de nuestro campo visual son las que «escuchan» mejor los sonidos. Otras áreas visuales que reconocían de forma selectiva las caras de personas familiares, ahora resulta que también reconocen sus voces.12
La corteza visual es la región del cerebro de la que más información disponemos. De hecho, ahí es donde se advirtió por primera vez la evidente promiscuidad de sus neuronas. Ya en 1972, se publicó un estudio en el que se mostraba que hasta un 40 % de las neuronas de la zona V1 del gato podían también responder a los estímulos acústicos.14 Sin embargo, no ha sido hasta ahora cuando se ha empezado a reconocer la trascendencia de estos datos.
Del mismo modo se están identificando neuronas en las regiones primarias y secundarias de la corteza auditiva que responden a estímulos visuales y táctiles, tanto en el cerebro humano como en el de otros primates. Se ha observado, por ejemplo, que la corteza auditiva del mono detecta preferentemente señales cutáneas provenientes de la cabeza y el cuello y que, también, es sensible a la posición de los ojos.15
La búsqueda de zonas multisensoriales y el estudio de las bases neuronales de la integración intermodal no han hecho más que empezar. Las tecnologías actuales permiten ir mucho más lejos y explorar con profundidad todos los rincones del cerebro.
Así pues ¿cómo podemos identificar nuevas regiones multisensoriales entre los centenares de miles de millones de neuronas de nuestro cerebro? ¿Qué armas disponen hoy en día los neurocientíficos para abordar semejante búsqueda? ¿Cuáles son los mecanismos ocultos de la multisensorialidad?
Para contestar estas preguntas debemos volver otra vez a Japón, pero no a la bulliciosa Yokohama, sino al tranquilo pueblo de Okazaki, en el corazón geográfico e histórico del imperio nipón.
(Sigue en la segunda parte)
Bibliografía
1. Bulkin, D.A. y Groh, J.M.: «Seeing sounds: visual and auditory interactions in the brain», Curr Opin Neurobiol 2006, 16: 415-419.
2. McGurk, H. y MacDonald, J.: «Hearing lips and seeing voices», Nature 1976, 264: 746-748.
3. Navarra, J. y Soto-Faraco, S.: «Hearing lips in a second language: visual articulatory information enables the perception of second language sounds», Psychol Res 2007; 71: 4-12.
4. Shams, L.; Kamitani, Y. y Shimojo, S.: «Illusions. What you see is what you hear», Nature 2000; 408: 788.
5. Stillman, J.A.: «Gustation: intersensory experience par excellence», Perception 2002; 31: 1491-1500.
6. Morrot, G.; Brochet, F. y Dubourdieu, D.: «The color of odors», Brain Lang 2001; 79: 309-320.
7. Cohen, K.R. y Henik, A.: «Can synaesthesia research inform cognitive science?», Trends Cogn Sci 2007; 11: 177-184.
8. Ward, J. y Simner, J.: «Lexical-gustatory synaesthesia: linguistic and conceptual factors», Cognition 2003; 89: 237-261.
9. Blanke, O. y Mohr, C.: «Out-of-body experience, heautoscopy, and autoscopic hallucination of neurological origin. Implications for neurocognitive mechanisms of corporeal awareness and self-consciousness», Brain Res Brain Res Rev 2005; 50: 184-199.
10. Macaluso, E.: «Multisensory processing in sensory-specific cortical areas», Neuroscientist 2006; 12: 327-338.
11. Macaluso, E. y Driver, J.: «Multisensory spatial interactions: a window onto functional integration in the human brain», Trends Neurosci 2005; 28: 264-271.
12. Ghazanfar, A.A. y Schroeder, C.E.: «Is neocortex essentially multisensory?», Trends Cogn Sci 2006; 10: 278-285.
13. Hirokawa, J.; Bosch, M.; Sakata, S.; Sakurai, Y. y Yamamori, T.: «A Functional Role of Secondary Visual Cortex in Multisensory Facilitation of Reaction Speed in Rats», En revision (2007).
14. Morrell, F.: «Visual system's view of acoustic space», Nature 1972; 238: 44-46.
15. Schroeder, C.E. y Foxe, J.: «Multisensory contributions to low-level, “unisensory” processing», Curr Opin Neurobiol 2005; 15: 454-458. |