Acción / Reacción

Aplicación convierte formas en paisajes sonoros

De esta forma, los ciegos pueden aprender a percibir la forma del cuerpo humano, convirtiendo las imágenes en notas musicales gracias a un algoritmo.

 

buendiario-Aplicacion-convierte-formas-paisajes-sonoros

 

Solemos decir que una imagen vale más que mil palabras, y es verdad. Pero tal vez no nos hayamos parado a pensar lo importante que es en realidad en muchos aspectos de nuestra vida. Por ejemplo, en nuestra relación diaria con otras personas, sus posturas y movimientos son fundamentales para anticipar sus acciones e incluso sus intenciones. Para las personas que no pueden ver, esto es una desventaja. Pero podría dejar de serlo.

Noticia relacionada: Inventan tecnología para rastrear a personas por su olor

Un equipo de científicos de la Universidad Hebrea de Jerusalén muestra en el último número de Current Biology que los ciegos de nacimiento pueden aprender a percibir la forma del cuerpo humano mediante “paisajes sonoros” que convierten las imágenes en notas musicales gracias a un algoritmo. Con un pequeño entrenamiento, los invidentes pueden deducir de los sonidos la presencia de un cuerpo humano, su silueta y, lo que es más interesante, su postura, que pueden incluso imitar.

Esta investigación se traduce en una app llamada EyeMusic que se puede obtener gratis en iTunes. “La idea es reemplazar la información de un sentido que se perdió, como la vista, por la que puede transmitir otro (el oído). Es lo que hacen los murciélagos o los delfines, utilizan los sonidos y la ecolocalización para ver a través de sus oídos” , explica Amir Amedi, el autor principal de la investigación.

Y para lograrlo idearon un algoritmo llamado vOICe, capaz de “traducir” las imágenes en blanco y negro a notas musicales. Por ejemplo, una línea diagonal descendente de izquierda a derecha puede representarse con una escala musical descendente, explica Amedi. Y al revés, una diagonal que apunta hacia arriba estaría representada por una escala musical ascendente.

Noticia relacionada: Científicos logran mover un helicóptero con la mente

Posteriormente desarrollaron otra aplicación más compleja, EyeMusic, que proporciona información también sobre el color utilizando en este caso diferentes instrumentos musicales. EyeMusic es un dispositivo de sustitución sensorial (DSS) que escanea una imagen y utiliza tonos tonos musicales para representar la localización de pixels.

Cuanto más alto está situado un pixel de la imagen en un plano vertical, más agudo es el tono que le corresponde. Las notas que están próximas al inicio representa el lado izquierdo de la imagen, mientras que las que suenan al final dan información sobre el lado derecho. Los diferentes instrumentos musicales, incluida la voz humana, dan informacón sobre el color: la voz representa al blanco, la trompeta el azul, el órgano el rojo, el violín el amarillo, el negro el silencio… Este dispositivo de sustitución sensorial, a diferencia de otros, es agradable y relativamente bien tolerado durante un uso prolongado, explica Amedi.

Al leerlo puede parecer complicado, pero al parecer no lo es tanto. En la investigación, entrenaron a ciegos de nacimiento a percibir primero formas simples: puntos o líneas, como las diagonales descritas. Después aprendieron a percibir las uniones entre líneas, las líneas curvas y otras estructuras cada vez más complejas. Después de solo 70 horas de entrenamiento (un par de meses) eran capaces de deducir, mediante los sonidos que percibían, la posición exacta de la persona representada en una imagen y de imitarla. Por cierto, imitar una postura es algo que hacemos inconscientemente cuando hablamos con alguien que nos cae bien. Forma parte del lenguaje que nuestro cuerpo utiliza para demostrar a nuestro interlocutor que empatizamos con él.

Noticia relacionada: Demuestran que el coro sincroniza los corazones

Lo sorprendente en este experimento no es sólo lo que los invidentes logran “percibir” un contorno humano. También es muy interesante que en el cerebro de las personas ciegas que participaron se activó un área de la corteza visual recientemente descubierta (2001) que está especializada en el procesamiento de imágenes de cuerpos humanos y su movimiento. Esta zona se relaciona con la percepción errónea de su cuerpo que tienen las personas con anorexia. Y más curioso aún es que los participantes en el estudio eran ciegos de nacimiento, por lo que esta zona, denominada área corporal extraestriada, teóricamente no había sido utilizada nunca.

El equipo de Amedi espera que su App EyeMusic, además de servir a las personas invidentes, se convierta en una herramienta utilizada también en la investigación en Neurociencia: “Podría ser interesante explorar los cambios en plasticidad asociados con el aprendizaje que lleva a decodificar la información del color a partir de sonidos en las personas con ceguera congénita, que nunca han percibido los colores. Además podría servir de ayuda para comprender la organización del cerebro en general” , explica el neurocientífico.

 

Visto en ABC

Agradecemos a Perla Wior por enviarnos esta noticia.

Dejá un comentario

Tu dirección de correo electrónico no será publicada.

Buenas noticias relacionadas