Offline
La lengua humana puede ayudar a las personas ciegas a ver
Ciencia
Publicado en 18/10/2022

La lengua, uno de esos músculos que tenemos y que sirven para tantas cosas. No solo nos ayudan a saborear y sentir la diferencia entre sabores salados, dulces o incluso el relativamente nuevo 'umami'. También podemos experimentar placer besando, porque admitamos que es una sensación bastante más potente que darse la mano. Es una pieza bastante increíble, aunque notoriamente difícil de estudiar, debido a su posición.

 

Tiene mayor sensibilidad al tacto que la yema de un dedo, sin ella no podríamos hablar, cantar, respirar o tragar las bebidas (además del mencionado besar). Pero entonces, ¿por qué no la usamos más?

 

Un nuevo estudio publicado en 'Science Alertha investigado cómo aprovechar al máximo este extraño órgano, potencialmente como una interfaz para ayudar a las personas con discapacidad visual a navegar e incluso hacer ejercicio. Suena un poco raro, pero las piezas encajan: la investigación forma parte de un campo conocido como sustitución sensorial, una rama de la ciencia interdisciplinaria que combina psicología, neurociencia, informática e ingeniería para desarrollar 'dispositivos de sustitución sensorial' (conocidos como SSD).

 

La investigación buscaba cómo aprovechar al máximo este órgano como una interfaz para ayudar a las personas con discapacidad visual a navegar e incluso hacer ejercicio

 

 

Los SSD convierten la información sensorial de un sentido a otro. Por ejemplo, si el dispositivo está diseñado para una persona con discapacidad visual, esto generalmente significa convertir la información visual de un video en sonido o tacto. Uno de ellos es BrainPort, que fue desarrollado por primera vez en 1998, que convierte la transmisión de vídeo de una cámara en patrones móviles de estimulación eléctrica en la superficie de la lengua.

 

La pantalla de la lengua, que es un pequeño dispositivo con forma de piruleta, consta de 400 electrodos diminutos de los cuales cada uno corresponde a un píxel de la transmisión de vídeo de una cámara. Crea una pantalla táctil de baja resolución en la lengüeta que coincide con la salida de la cámara. La tecnología se suele utilizar para ayudar a las víctimas de accidentes cerebrovasculares a mantener su sentido del equilibrio, y también se ha aprobado su uso para ayudar a personas con discapacidad sensorial.

 

Imagínalo así: sostienes tu mano frente a una cámara y comienzas a sentir otra pequeña mano que aparece simultáneamente en la punta de tu lengua, como si estuviera dibujando imágenes en ella con un caramelo. El estudio usaba BrainPort para probar cómo funciona la atención humana en la superficie de la lengua, para ver si las diferencias en la percepción pueden ser la causa de esto.

 

En la investigación en psicología, existe un método famoso para evaluar la atención, llamado el paradigma Posner Cueing, llamado así por el psicólogo estadounidense Mike Posner, quien lo desarrolló en la década de 1980 para medir la atención visual. Posner descubrió así que nuestra atención puede ser guiada por estímulos visuales. Por ejemplo: si vemos brevemente algo moviéndose por el rabillo del ojo, la atención se enfoca en esa área. Probablemente, evolucionamos de esta manera para reaccionar rápidamente a las serpientes peligrosas que acechan en las esquinas y en los bordes de nuestro campo visual.

 

Nuestra atención puede ser guiada por estímulos visuales. Si vemos una serpiente por el rabillo del ojo, por causas evolutivas, toda nuestra atención irá hacia ella

 

Este proceso también ocurre con otros sentidos. Si alguna vez estuviste en una piscina en pleno verano y has oído el temible zumbido de una abeja, tu atención es irremediable que fuera hacia ella. Es a lo que llamamos atención intermodal: las cosas que aparecen en un sentido pueden influir en otros sentidos.

 

El estudio, por tanto, trataba de desarrollar una variación del paradigma Posner Cueing para ver si el cerebro puede asignar atención táctil en la superficie de la lengua de la misma manera que las manos u otros modos de atención. Sabemos mucho sobre la atención visual y la atención táctil en las manos y otras partes del cuerpo, pero no tenemos idea si este conocimiento se traduce en la lengua. BrainPort está diseñado, construido y vendido para ayudar a las personas a 'ver' a través de su lengua. Pero necesitamos entender si 'ver' con la lengua es lo mismo que ver con los ojos.

 

La respuesta a estas preguntas, como casi todo en la vida, es complicada.

 

La lengua responde a la información con claves más o menos de la misma manera que las manos o la visión, pero a pesar de la increíble sensibilidad de la lengua, los procesos de atención son un poco limitados en comparación con los otros sentidos. Es muy fácil sobreestimular la lengua, lo que provoca una sobrecarga sensorial que puede dificultar sentir lo que está pasando.

 

Necesitamos entender si 'ver' con la lengua es lo mismo que ver con los ojos

 

También encontraron que los procesos de atención en la lengua pueden verse influenciados por el sonido. Por ejemplo, si un usuario de BrainPort escucha un sonido a la izquierda, puede identificar más fácilmente la información en el lado izquierdo de la lengua. Esto podría ayudar a guiar la atención y reducir la sobrecarga sensorial con BrainPort si se combina con una interfaz auditiva.

 

En términos del uso real de BrainPort, esto se traduce en administrar la complejidad de la información visual que se sustituye y, si es posible, usar otro sentido para ayudar a compartir parte de la carga sensorial. Con algunos ajustes, esta tecnología puede convertirse en un instrumento para ayudar a las personas sordas o ciegas a navegar. Incluso puede ayudar a las personas parapléjicas, incapaces de usar sus manos, navegar o comunicarse de manera más eficiente.

Comentarios
¡Comentario enviado exitosamente!

Chat Online