Información

¿Qué sucede cuando el cerebro con ceguera congénita recibe información visual?

¿Qué sucede cuando el cerebro con ceguera congénita recibe información visual?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Si una persona ciega congénita obtiene la vista (ya sea hipotéticamente o en un futuro cercano debido a los avances en la tecnología), ¿podrá su cerebro manejar esa información o se sobrecargará?


Respuesta corta
Las personas con ceguera congénita pueden recuperar la función visual a una edad más avanzada. Sin embargo, cuanto más tiempo hayan estado ciegos, menor será su función visual y más tiempo les llevará rehabilitarse. Inmediatamente después de recibir la primera vista, la experiencia visual de las personas con ceguera congénita no es comparable a la de las personas con visión normal. Es posible que necesiten meses de entrenamiento en rehabilitación para darle sentido a la vista recién adquirida, especialmente cuando estuvieron ciegos durante muchos años.

Fondo
Existen varios tratamientos para la ceguera hasta la fecha. Desde que mencionas tecnología en la pregunta, prótesis visuales se me ocurre. Las prótesis visuales ya existen y, en el momento de escribir este artículo, hay dos sistemas de implantes de retina disponibles comercialmente; el Argus II y el alpha-IMS (Stronks et al., 2014). Los implantes de retina se utilizan para proporcionar una forma cruda de visión a las personas con degeneraciones retinianas graves, como en etapa terminal. retinitis pigmentosa. Sin embargo, la tecnología de la prótesis visual aún está en su infancia y, en el momento de escribir este artículo, solo se implantan las personas que perdieron la visión más adelante en la vida. Por lo tanto, todavía no hay datos disponibles sobre su pregunta sobre si las personas con ceguera congénita pueden beneficiarse de ella.

Sin embargo, a partir de una tecnología relacionada, prótesis cocleares, sabemos que cuanto antes se implanta una persona sorda congénita, mejor es el resultado. Las personas con implantes tempranos pueden aprender a comprender el habla y desarrollar el habla con relativa normalidad. Hoy en día, los bebés de tan solo 3 meses reciben implantes cocleares. La implantación temprana es fundamental, porque el cerebro es de plástico. Cuando la corteza auditiva no se usa debido a la privación sensorial, rápidamente será reemplazada por otras áreas corticales. Una vez que este reclutamiento cortical progresa durante demasiado tiempo, una persona nunca puede obtener una audición funcional al nivel alcanzado por las personas con implantes tempranos (Teoh et al., 2012).

Es muy probable que ocurra lo mismo con las prótesis visuales. Una persona con ceguera congénita debe recibir un implante lo antes posible después del nacimiento. Esto, porque se sabe que la plasticidad transmodal da como resultado que la corteza visual sea reclutada para el procesamiento táctil y auditivo. Al igual que con el sistema auditivo, una vez que esta reestructuración progresa lo suficiente, mi conjetura es que una persona nunca podrá desarrollar una visión funcional comparable a un sujeto implantado temprano. Y esta es la razón por la que en la actualidad solo los ciegos adquiridos reciben implantes de retina.

Por ejemplo, el informe de un caso de un sujeto que estuvo ciego durante más de 50 años recuperó la vista después de una cirugía de córnea. Aunque el sujeto desarrolló la función visual después de la cirugía, el rendimiento visual permaneció muy comprometido. Esto fue particularmente evidente cuando las tareas tenían como objetivo niveles más finos de procesamiento perceptual Siki et al., 2013).

Se están obteniendo pistas importantes en el "Proyecto Prakash", un ambicioso proyecto para proporcionar apoyo oftalmológico a la población de las zonas rurales pobres de la India. Se han realizado cirugías de cataratas de rutina en personas con cataratas, incluso en personas con cataratas presentes de forma congénita, donde los lentes de los ojos eran opacos desde el nacimiento. Los niños mayores, como los adolescentes, que fueron ciegos de nacimiento, por lo general muestran una visión no funcional después de que se quitan los vendajes después de la cirugía. Se piensa que estos primeros momentos para los recién videntes son borrosos, incoherentes y saturados de brillo, semejantes a remolinos de colores que no tienen sentido como formas o rostros o cualquier tipo de objeto. Sin embargo, después de meses de rehabilitación, desarrollan una visión funcional. Los marcadores de función visual de nivel inferior nunca alcanzan valores normales. Específicamente, continúan sufriendo de mala agudeza visual, el estándar de oro para evaluar la función visual. No obstante, algunos aspectos de la visión de orden superior parecen estar mejorando. Dentro de una semana o unos meses después de la cirugía, los niños pueden hacer coincidir los objetos de fieltro con sus contrapartes visuales (fuente: The New Yorker, 28 de agosto de 2014).

Referencias
- Siki et al., Ipercepción (2013); 4(8): 498-507.
- Stronks et al., Dispositivos Expert Rev Med (2014); 11(1):23-30
- Teoh et al., Laringoscopio (2004); 114(9): 1536-40


¿Qué ven las personas ciegas? Formas y cuerpos congénitamente ciegos & # 039Ver & # 039 con nueva técnica de paisaje sonoro

Mientras leía en un viaje en autobús por la Buenos Aires de la década de 1950, el escritor argentino Jorge Luis Borges vio de repente que el mundo se disolvía ante sus ojos.

“Los ciegos viven en un mundo que es inconveniente, un mundo indefinido del que surgen ciertos colores: para mí, amarillo, azul (excepto que el azul puede ser verde) y verde (excepto que el verde puede ser azul)”, diría más tarde. escribir en una elegía por la facultad que había perdido sin previo aviso. "En cuanto al rojo, se ha desvanecido por completo".

Borges, un hombre con ojo para lo inimaginable, se había encontrado con una respuesta personal a la pregunta que ha tensado nuestra imaginación durante siglos: ¿Qué ven los ciegos, si es que ven algo?

Las investigaciones sugieren que, aunque las personas que nacen incapaces de ver no pueden detectar los estímulos visuales, sus cerebros aún interpretan cierta información como visual. Un ejemplo es un nuevo estudio de la Universidad Hebrea de Jerusalén, donde los neurobiólogos han determinado que las personas ciegas pueden aprender a "ver" otros cuerpos usando solo sus oídos.

Aunque pueda parecer extraño al principio, este tipo de navegación es bastante común en la naturaleza. "La idea es reemplazar la información de un sentido faltante utilizando información de un sentido diferente", dijo en un comunicado de prensa Amir Amedi, profesor de neurología y autor principal del estudio. "Es como si los murciélagos y los delfines usaran sonidos y ecolocalización para 'ver' usando sus oídos".

Publicado en la revista Biología actual, los nuevos hallazgos sugieren que las personas ciegas pueden aprender a hacer esto con la ayuda de ciertos algoritmos que traducen los datos visuales en sonidos. Para investigar, los investigadores primero enseñaron a los participantes a percibir puntos y líneas simples. Luego, gradualmente se abrieron camino hacia formas más complejas.

"Imagine, por ejemplo, una línea diagonal que desciende de izquierda a derecha si usamos una escala musical descendente, yendo en el piano de derecha a izquierda, lo describirá muy bien", Ella Striem-Amit, candidata a doctorado y autora principal del estudio. , explicó. "Y si la línea diagonal va de izquierda a derecha, usamos una escala musical ascendente".

Con no más de 70 horas de entrenamiento, el participante promedio pudo reconocer la forma de un cuerpo humano. Además, pudieron detectar e imitar posturas exactas. Más tarde, los escáneres cerebrales revelaron que su corteza visual, es decir, el área responsable del procesamiento de datos visuales, se iluminó con la actividad durante estas tareas.

Según Amedi, los hallazgos tienen un gran potencial terapéutico. La aplicación del laboratorio, EyeMusic, que escanea imágenes y las transforma en paisajes sonoros perceptibles para los ciegos, ya está disponible. "Estamos empezando a comprender [que] el cerebro es más que una máquina sensorial pura", explicó Amedi. "Es una máquina de tareas muy flexible. Ha llegado el momento de reactivar el enfoque en la rehabilitación visual práctica con dispositivos de sustitución sensorial".

Fuente: Striem-Amit E, Amedi A. Visual Cortex Extrastriate Body-Selective Area Activation in Congenitally Blind People "See" by Using Sounds. Biología actual. 2014.


¿Hay áreas de la corteza cerebral dedicadas exclusivamente a la visión? ¿O puede la corteza "visual", bajo algunas condiciones, responder a los sonidos? Dos artículos publicados recientemente abordan esta cuestión. En primer lugar, Micah Murray y sus colegas de Suiza discuten la función multisensorial de la corteza visual primaria en humanos en un artículo de revisión publicado en Neuropsychologia. Critican la visión convencional de que la corteza visual primaria (en el lóbulo occipital) es poco más que un punto de recepción de señales provenientes de los ojos, a través del nervio óptico y el tálamo. En cambio, Murray et al. digamos, estas partes del cerebro también reciben información de otras modalidades sensoriales, p. ej. de la corteza auditiva:

La corteza visual primaria es inherentemente multisensorial. Hay un número creciente de estudios que informan de la presencia de conectividad entre la corteza visual primaria y la corteza auditiva primaria (así como otras cortezas visuales y auditivas de nivel superior). Varios laboratorios independientes han demostrado ahora que los estímulos no visuales mejoran la excitabilidad de las cortezas visuales de bajo nivel dentro del polo occipital.

Mientras Murray et al. centrarse en estudios de cerebros adultos sanos, otro equipo de investigadores demostró recientemente el procesamiento no visual en la corteza visual de personas con ceguera congénita. Marina Bedny y sus colegas del MIT publicaron sus resultados en el Journal of Neuroscience: & quot; Visual & quot; Cortex responde al lenguaje hablado en niños ciegos. Usando fMRI, Bedny et al. muestran que los sonidos, especialmente el lenguaje hablado, provocan activación en (lo que normalmente sería) la corteza visual de los niños ciegos de nacimiento. Esto no era cierto para los niños videntes, incluso si llevaban vendas en los ojos. Esto sugiere que los cerebros de los niños ciegos se habían adaptado, a través de algún tipo de neuroplasticidad, para reutilizar la corteza "visual" para procesar los sonidos.

Este resultado es sorprendente, pero tiene sentido si seguimos a Murray et al. en creer que la corteza "visual" es inherentemente multisensorial. Si el cerebro normal contiene entradas auditivas a la corteza visual, ¿quizás lo que sucede en las personas ciegas es un fortalecimiento de esas conexiones existentes? Por otra parte, una cosa es mostrar que las señales auditivas se pueden transmitir a la corteza visual. Pero, ¿qué está haciendo la corteza visual con esta información, si es que hace algo? Me pregunto qué pasaría si alguien sufriera una lesión cerebral que desconectara su corteza visual de las entradas no visuales. ¿Mostrarían síntomas notables? En las personas ciegas, existe evidencia de que la corteza occipital desempeña un papel funcional en la lectura de Braille, una modalidad táctil (táctil). Pero el sentido común sugeriría que estas áreas son funcionalmente específicas de la visión de las personas videntes. Excepto para aquellos de nosotros con sinestesia, parece que existe una diferencia cualitativa entre oír y ver. Quizás esta intuición resulte equivocada.

Bedny M, Richardson H y Saxe R (2015). "Visual" La corteza responde al lenguaje hablado en niños ciegos. The Journal of Neuroscience, 35 (33), 11674-81 PMID: 26290244

Murray MM, Thelen A, Thut G, Romei V, Martuzzi R y Matusz PJ (2015). La función multisensorial de la corteza visual primaria en humanos. Neuropsicología PMID: 26275965


Los científicos mapean los cerebros de los ciegos para resolver los misterios de la especialización del cerebro humano

La opinión aceptada en décadas anteriores era que el cerebro está dividido en distintas regiones principalmente por la información sensorial que las activa, como la corteza visual para la vista y la corteza auditiva para el sonido. Dentro de estas grandes regiones, se han definido subregiones que están especializadas para tareas específicas como el "área visual de forma de palabra", una región funcional del cerebro que se cree identifica palabras y letras a partir de imágenes de formas incluso antes de que se asocien con sonidos o significados. De manera similar, hay otra área que se especializa en símbolos numéricos.

Ahora, una serie de estudios en el Laboratorio Amedi de Investigación Cerebral y Multisensorial de la Universidad Hebrea desafía este punto de vista utilizando herramientas únicas conocidas como Dispositivos de Sustitución Sensorial (SSD). Los dispositivos de sustitución sensorial toman información de un sentido y la presentan en otro, por ejemplo, permiten a las personas ciegas "ver" mediante el uso de otros sentidos, como el tacto o el oído. Al utilizar un teléfono inteligente o una cámara web para traducir una imagen visual en un paisaje sonoro distinto, los SSD permiten a los usuarios ciegos crear una imagen mental de los objetos, como sus dimensiones físicas y su color. Con un entrenamiento intenso (ahora disponible en línea en www.amedilab.com), los usuarios ciegos pueden incluso "leer" letras identificando su paisaje sonoro distintivo.

"Estos dispositivos pueden ayudar a los ciegos en su vida diaria", explica el profesor Amir Amedi, "pero también abren oportunidades de investigación únicas al permitirnos ver lo que sucede en las regiones del cerebro normalmente asociadas con un sentido, cuando la información relevante proviene de otro. "

El equipo de Amedi estaba interesado en si los sujetos ciegos que usaban la sustitución sensorial, como las personas videntes, usarían la subregión del área de forma de palabra visual del cerebro para identificar imágenes de formas, o si esta área está especializada exclusivamente para la lectura visual con los ojos. .

En un nuevo artículo publicado en Comunicaciones de la naturaleza Sami Abboud y sus colegas del laboratorio Amedi, como "un área en forma de número en los ciegos", muestran que estas mismas regiones cerebrales "visuales" son utilizadas por sujetos ciegos que en realidad "ven" a través del sonido. Según el investigador principal Sami Abboud, "estas regiones se conservan y funcionan incluso entre los ciegos congénitos que nunca han experimentado la visión".

Los investigadores utilizaron imágenes de resonancia magnética funcional (fMRI) para estudiar los cerebros de sujetos ciegos en tiempo real mientras usaban un SSD para identificar objetos por su sonido. Descubrieron que cuando se trata de reconocer letras, posturas corporales y más, las áreas cerebrales especializadas se activan por la tarea en cuestión, en lugar de por el sentido (visión o audición) que se utiliza.

El equipo de Amedi examinó un área recientemente identificada en el hemisferio derecho del cerebro conocida como el "Área de forma numérica visual". La mera existencia de tal área, a diferencia del área de forma de palabra visual, es sorprendente, ya que los símbolos como 'O' se pueden usar como la letra O o como el número Cero, a pesar de ser visualmente idénticos.

Los intentos anteriores de explicar por qué existen tanto las áreas de palabras como las de números, como la 'Teoría del reciclaje neuronal' de Dehaene y Cohen (2007), sugieren que en un pasado lejano estas áreas estaban especializadas para otras tareas visuales como reconocer líneas pequeñas, sus ángulos e intersecciones, y por lo tanto eran los más adecuados para ellos. Sin embargo, este nuevo trabajo muestra que los usuarios con ceguera congénita que utilizan los dispositivos de sustitución sensorial todavía tienen exactamente las mismas áreas, lo que sugiere que la visión no es la clave para su desarrollo.

"Más allá de las implicaciones para la teoría de la neurociencia, estos resultados también nos ofrecen esperanzas para la rehabilitación visual", dice Amedi. "Sugieren que mediante el uso de la tecnología adecuada, incluso de forma no invasiva, podemos volver a despertar el cerebro con privación visual para procesar tareas consideradas visuales, incluso después de muchos años de ceguera".

Pero si el canal de entrada sensorial específico no es la clave para desarrollar estas regiones del cerebro, ¿por qué estas funciones se desarrollan en sus ubicaciones anatómicas específicas? La nueva investigación apunta a patrones de conectividad únicos entre el área de forma de palabra visual y las áreas de procesamiento del lenguaje, y entre el área de forma de número visual y las áreas de procesamiento de cantidad.

Amedi sugiere: "Esto significa que el criterio principal para que se desarrolle un área de lectura no son los símbolos visuales de las letras, sino la conectividad del área con los centros de procesamiento del lenguaje del cerebro. De manera similar, un área numérica se desarrollará en una región que ya tiene conexiones". a las regiones de procesamiento de cantidades ".

"Si damos un paso más", agrega Amedi, "este mecanismo basado en la conectividad podría explicar cómo las áreas del cerebro podrían haberse desarrollado tan rápidamente en una escala de tiempo evolutiva. Solo hemos estado leyendo y escribiendo durante varios miles de años, pero la conectividad entre áreas relevantes nos permitió crear nuevos centros únicos para estas tareas especializadas. Este mismo 'reciclaje cultural' de los circuitos cerebrales también podría ser cierto para cómo nos adaptaremos a las nuevas innovaciones tecnológicas y culturales en la era actual de rápida innovación, incluso acercándonos a la potencial de la Singularidad ".


3

Según este estudio, sí. Pusieron auriculares estéreo a 12 personas videntes y 12 ciegos y les hicieron señalar donde pensaban que estaba el sonido, todo el tiempo bajo una resonancia magnética. En los ciegos, la corteza visual mostró más actividad que en los videntes. Hicieron el mismo experimento, pero en lugar de auriculares estéreo, usaron vibradores eléctricos en cada dedo y los participantes les dijeron qué dedo estaba estimulado. De nuevo bajo la resonancia magnética. Los participantes ciegos mostraron más actividad en la corteza visual que las personas videntes.

"Eso nos dice que la corteza visual en los ciegos asume estas funciones y procesa la información sonora y táctil que no hace en los videntes", dice. "Las células y fibras neuronales siguen ahí y siguen funcionando, procesando los atributos espaciales de los estímulos, impulsados ​​no por la vista sino por el oído y el tacto. Esta plasticidad ofrece un gran recurso para los ciegos ''.


Los científicos mapean los cerebros de los ciegos para resolver los misterios de la especialización del cerebro humano

Al estudiar la actividad cerebral de las personas ciegas, los científicos de la Universidad Hebrea de Jerusalén están desafiando la visión estándar de cómo el cerebro humano se especializa para realizar diferentes tipos de tareas y arrojando nueva luz sobre cómo nuestros cerebros pueden adaptarse a los rápidos cambios culturales y tecnológicos. del siglo XXI.

    (1) Comprender la actividad cerebral de los ciegos puede ayudar a resolver uno de los fenómenos más extraños del cerebro humano: ¿cómo pueden las tareas como leer y reconocer símbolos numéricos tener sus propias regiones cerebrales si estos conceptos solo se desarrollaron hace varios miles de años? es insignificante en una escala de tiempo evolutiva)? ¿Cuál era el trabajo de estas regiones antes de su invención?

(2) Nueva investigación publicada hoy en Comunicaciones de la naturaleza demuestra que la visión no es un requisito previo para que las regiones corticales "visuales" desarrollen estas preferencias.

(3) Esto contrasta con la teoría principal actual que explica esta especialización, que sugiere que estas regiones se adaptaron de otras tareas visuales como los ángulos de las líneas y sus intersecciones.

(4) Estos resultados muestran que la condición requerida no se basa en los sentidos (visión) sino en la conectividad y el procesamiento. Por ejemplo, las personas ciegas que leen Braille con los dedos seguirán utilizando las áreas "visuales".

(5) Los usos de esta investigación muestran patrones de conectividad únicos entre el área de forma de número visual (VNFA) y las áreas de procesamiento de cantidades en el hemisferio derecho, y entre el área de forma de palabra visual (VWFA) y las áreas de procesamiento del lenguaje. en el hemisferio izquierdo.

(6) Este tipo de mecanismo puede ayudar a explicar cómo nuestro cerebro se adapta rápidamente a los cambios de nuestra era de constantes innovaciones culturales y tecnológicas.

La opinión aceptada en décadas anteriores era que el cerebro está dividido en distintas regiones principalmente por la información sensorial que las activa, como la corteza visual para la vista y la corteza auditiva para el sonido. Dentro de estas grandes regiones, se han definido subregiones que están especializadas para tareas específicas como el "área visual de forma de palabra", una región funcional del cerebro que se cree identifica palabras y letras a partir de imágenes de formas incluso antes de que se asocien con sonidos o significados. De manera similar, hay otra área que se especializa en símbolos numéricos.

Ahora, una serie de estudios en el Laboratorio Amedi de Investigación Cerebral y Multisensorial de la Universidad Hebrea desafía este punto de vista utilizando herramientas únicas conocidas como Dispositivos de Sustitución Sensorial (SSD). Los dispositivos de sustitución sensorial toman información de un sentido y la presentan en otro, por ejemplo, permiten a las personas ciegas "ver" utilizando otros sentidos como el tacto o el oído. Al utilizar un teléfono inteligente o una cámara web para traducir una imagen visual en un paisaje sonoro distinto, los SSD permiten a los usuarios ciegos crear una imagen mental de los objetos, como sus dimensiones físicas y su color. Con un entrenamiento intenso (ahora disponible en línea en http: // www. Amedilab. Com), los usuarios ciegos pueden incluso "leer" letras identificando su paisaje sonoro distintivo.

"Estos dispositivos pueden ayudar a los ciegos en su vida diaria", explica el profesor Amir Amedi, "pero también abren oportunidades de investigación únicas al permitirnos ver lo que sucede en las regiones del cerebro normalmente asociadas con un sentido, cuando la información relevante proviene de otro. "

El equipo de Amedi estaba interesado en si los sujetos ciegos que usaban la sustitución sensorial, como las personas videntes, usarían la subregión del área de forma de palabra visual del cerebro para identificar imágenes de formas, o si esta área está especializada exclusivamente para la lectura visual con los ojos. .

En un nuevo artículo publicado hoy en Comunicaciones de la naturaleza Sami Abboud y sus colegas del laboratorio Amedi, como "un área en forma de número en ciegos", muestran que estas mismas regiones cerebrales "visuales" son utilizadas por sujetos ciegos que en realidad "ven" a través del sonido. Según el investigador principal Sami Abboud, "estas regiones se conservan y funcionan incluso entre los ciegos congénitos que nunca han experimentado la visión".

Los investigadores utilizaron imágenes de resonancia magnética funcional (fMRI) para estudiar los cerebros de sujetos ciegos en tiempo real mientras usaban un SSD para identificar objetos por su sonido. Descubrieron que cuando se trata de reconocer letras, posturas corporales y más, las áreas cerebrales especializadas se activan por la tarea en cuestión, en lugar de por el sentido (visión o audición) que se utiliza.

El equipo de Amedi examinó un área recientemente identificada en el hemisferio derecho del cerebro conocida como "Área de forma numérica visual". La mera existencia de tal área, a diferencia del área de forma de palabra visual, es sorprendente, ya que los símbolos como 'O' se pueden usar como la letra O o como el número Cero, a pesar de ser visualmente idénticos.

Los intentos anteriores de explicar por qué existen tanto las áreas de palabras como las de números, como la 'Teoría del reciclaje neuronal' de Dehaene y Cohen (2007), sugieren que en un pasado lejano estas áreas estaban especializadas para otras tareas visuales como reconocer líneas pequeñas, sus ángulos e intersecciones, y por lo tanto eran los más adecuados para ellos. Sin embargo, este nuevo trabajo muestra que los usuarios con ceguera congénita que utilizan los dispositivos de sustitución sensorial todavía tienen exactamente las mismas áreas, lo que sugiere que la visión no es la clave para su desarrollo.

"Más allá de las implicaciones para la teoría de la neurociencia, estos resultados también nos ofrecen esperanzas para la rehabilitación visual", dice Amedi. "Sugieren que mediante el uso de la tecnología adecuada, incluso de forma no invasiva, podemos volver a despertar el cerebro con privación visual para procesar tareas consideradas visuales, incluso después de muchos años de ceguera".

Pero si el canal de entrada sensorial específico no es la clave para desarrollar estas regiones del cerebro, ¿por qué estas funciones se desarrollan en sus ubicaciones anatómicas específicas? La nueva investigación apunta a patrones de conectividad únicos entre el área de forma de palabra visual y las áreas de procesamiento del lenguaje, y entre el área de forma de número visual y las áreas de procesamiento de cantidad.

Amedi sugiere: "Esto significa que el criterio principal para que se desarrolle un área de lectura no son los símbolos visuales de las letras, sino la conectividad del área con los centros de procesamiento del lenguaje del cerebro. De manera similar, un área numérica se desarrollará en una región que ya tiene conexiones". a las regiones de procesamiento de cantidades ".

"Si damos un paso más", agrega Amedi, "este mecanismo basado en la conectividad podría explicar cómo las áreas del cerebro podrían haberse desarrollado tan rápidamente en una escala de tiempo evolutiva. Solo hemos estado leyendo y escribiendo durante varios miles de años, pero la conectividad entre áreas relevantes nos permitió crear nuevos centros únicos para estas tareas especializadas. Este mismo 'reciclaje cultural' de los circuitos cerebrales también podría ser cierto para cómo nos adaptaremos a las nuevas innovaciones tecnológicas y culturales en la era actual de rápida innovación, incluso acercándonos a la potencial de la Singularidad ".

Acerca del laboratorio de Amedi para la investigación cerebral y multisensorial:

El Laboratorio Amedi de Investigación Cerebral y Multisensorial está dirigido por el Prof. Amir Amedi en el Departamento de Neurobiología Médica del Instituto de Investigación Médica Israel-Canadá (IMRIC) en la Facultad de Medicina de la Universidad Hebrea de Jerusalén. El laboratorio también es miembro fundador del Centro Edmond & Lily Safra de Ciencias del Cerebro (ELSC) de la Universidad Hebrea.

El laboratorio se ocupa de la comprensión del cerebro humano, la rehabilitación del cerebro y la plasticidad, con énfasis en ayudar a los ciegos y deficientes visuales. Se han desarrollado varios dispositivos patentados en el laboratorio que pueden ayudar a las personas ciegas a identificar objetos y navegar utilizando una técnica llamada "Sustitución sensorial" (principalmente 'ver' traduciendo una imagen tomada desde un simple teléfono inteligente o cámara web en sonido sin necesidad de hardware especial).

EyeMusic es una herramienta que proporciona información visual a través de una experiencia auditiva musical. Usando una cámara montada en sus lentes, los pacientes pueden escuchar notas musicales que crean una imagen mental de la escena visual frente a ellos. Los resultados incluyen permitir a los usuarios ciegos encontrar objetos como zapatos en una habitación desordenada, elegir una manzana roja de un cuenco de verdes y más. Para ver un video explicativo claro en formato TEDx, consulte http: // goo. gl / Lcb7QV. Dominar EyeMusic requiere un entrenamiento intensivo (al menos 20-30 horas para un uso práctico básico). Como parte del intento de hacer que esta tecnología esté más disponible para el público, el equipo ha creado recientemente un nuevo sitio web de capacitación en línea (http: // www. Amedilab. Com) y ha puesto EyeMusic disponible gratuitamente para su descarga en iTunes y Google-Play.

Otro dispositivo desarrollado en el Amedi Lab es el EyeCane, que utiliza un algoritmo para traducir la distancia en sonido y vibraciones. El EyeCane tiene como objetivo impulsar la movilidad y la navegación de las personas con discapacidad visual, aumentando el tradicional White-Cane con un mayor alcance (hasta 5 m), ángulos y discreción. Dentro de los 5 minutos de entrenamiento, los usuarios pueden navegar, detectar y evitar obstáculos y estimar la distancia con éxito. La investigación de EyeCane publicada recientemente demostró que el uso de EyeCane mejora claramente los patrones de movilidad de los usuarios. "Nuestros usuarios ya no se aferran a las paredes", explica Shachar Maidenbaum, uno de los investigadores que trabaja en este proyecto. "Por lo general, las personas ciegas evitan los grandes espacios abiertos ya que no tienen 'anclas' en ellos, pero la información sensorial ampliada del EyeCane les permite caminar fácilmente por el centro de un pasillo o atravesar el centro de habitaciones grandes".

Para obtener más información, consulte: http: // www. BrainVisionRehab. com (Vaya a 'Biblioteca de medios' para videos, imágenes y documentos)

Descargo de responsabilidad: AAAS y EurekAlert! ¡no somos responsables de la precisión de los comunicados de prensa publicados en EurekAlert! por las instituciones contribuyentes o para el uso de cualquier información a través del sistema EurekAlert.


Más allá del modelo cerebral platónico

Los límites del modelo cerebral platónico

Recuerde: uno de los objetivos de una neurociencia platónica es el de encontrar “un mapeo normal (predeterminado) de función-estructura” (Henson 2005: p. 225) de máxima generalización. Dentro de ese marco, parece seguro afirmar que la FFA está funcionalmente especializada en el procesamiento de rostros. El hecho de que el mapeo de procesamiento de caras FFA no se pueda obtener en sujetos prosopagnóticos congénitos no es una molestia para el modelo cerebral platónico. Después de todo, el modelo está destinado a generalizarse para saludable los adultos y los sujetos prosopagnóticos apenas cuentan como tales.

Sin embargo, el modelo cerebral platónico es comprometido a pasar por alto la multifuncionalidad superficial latente de los FFA, ya que solo se manifiesta en ciertos individuos, es decir, en perceptores expertos de alguna categoría de objetos como automóviles o imágenes radiológicas.

Un defensor del modelo cerebral platónico bien puede responder que estos son solo detalles ociosos acerca de las funciones de la superficie, y más bien se conforma con especificar el profundo-función de cada estructura neuronal. Por lo tanto, dado que los neurocientíficos de hecho obtuvieron una caracterización funcional profunda relativamente sólida de FFA como un área involucrada en procesamiento holístico de formas, ¿por qué molestarse en especificar a qué dominios se aplica este procesamiento?

Ahora bien, si bien es legítimo, tal respuesta viene con una implicación no despreciable: a saber, que el modelo cerebral platónico se vuelve bastante poco informativo de la conducta. Como se discutió en §3.3, las funciones profundas subdeterminan el comportamiento. Recordemos que según Price y Friston (2005: p. 272), el sello distintivo de una buena ontología es que “la función debe predecirse a partir de la activación anatómica y, a la inversa, que la activación anatómica debe predecir la función”. Si tomamos "función" para incluir la función de superficie, podemos observar que, al saber que el FFA de alguien se está activando de manera relevante, no se puede inferir si solo está mirando una cara o si, p. Ej. un radiólogo veterano que intenta diagnosticar alguna infección pulmonar. Sin embargo, hemos visto (en §3.3) que la información contextual puede mejorar la falta de robustez de la inferencia inversa de estructuras a funciones de superficie. En este caso, la información contextual relevante es la experiencia del sujeto en algunos dominios visuales específicos: al saber que ella no es una radióloga experta, por ejemplo, podemos excluir que la activación de FFA en su caso subyace a la observación de imágenes radiológicas. .

Si bien conocer las funciones profundas de una estructura es insuficiente para predecir su contribución al comportamiento, las adscripciones funcionales profundas pueden desempeñar un papel heurístico importante. De hecho, al investigar la participación de FFA en la percepción de los expertos más allá de los rostros, esperaban un mismo estilo de procesamiento funcional profundo, es decir, procesamiento configuracional. Para verificar esto, comprobaron los efectos de inversión en la percepción de greebles (Gauthier et al. 1999) o imágenes radiológicas (Bilalić et al. 2014). Con base en tales expectativas sobre la función profunda de FFA, las investigaciones futuras sobre su posible redistribución en el reconocimiento de objetos de otros dominios probablemente privilegiarán clases de objetos que pueden ser discriminados por su forma general en lugar de clases de objetos que pueden discriminarse prestando atención. en algunos detalles.

Por el contrario, el conocimiento de las posibles funciones de la superficie puede ayudar a comprender las funciones profundas que puede desempeñar un área. Al localizar una parte de la corteza selectiva para Pokémon en varios exjugadores, Gomez y sus colegas (2019) no solo estaban comprobando una rareza. Más bien, se preguntaban qué propiedad semántica funcional profunda explicaba mejor la especificidad del estímulo funcional superficial que podía adquirir esa porción de la corteza: animicidad, rectilinealidad, tamaño del mundo real o excentricidad de los estímulos (es decir, si se percibe típicamente en foveal o en visión periférica). Al comparar la respuesta de los sujetos a los personajes Pokémon con otras clases de objetos como caras, animales, partes del cuerpo y pasillos, argumentaron a favor de la excentricidad (pero ver de Beeck et al.2019: p. 794).

Aparte de la multifuncionalidad entre sujetos (superficial), el modelo cerebral platónico está mal equipado para dar cuenta de la degeneración entre sujetos. Algunas tareas cognitivas, especialmente aquellas que involucran facultades cognitivas superiores complejas, admiten múltiples soluciones, es decir, los sujetos pueden resolverlas aprovechando conjuntos alternativos de funciones profundas, lo que resulta en la participación de diferentes circuitos neuronales. Miller y sus colegas (2002) informan de amplias diferencias entre sujetos en los patrones de activación de la resonancia magnética funcional de seis sujetos que realizan una tarea de recuperación. Sin embargo, también observaron una buena estabilidad a lo largo del tiempo dentro del mismo individuo, lo que sugiere que estas idiosincrasias no deben descartarse como ruido. Since these idiosyncratic activations might be overlooked by pooling the activations of different subjects, they warn that “group analysis alone, particularly for higher order cognitions like episodic retrieval, may be incomplete and, in some cases, misleading” (Miller et al. 2002: 1211).

Accepting that individuals accomplish tasks in different ways does not imply that no generalizability is possible. On the contrary, in a later study Miller and colleagues (2012) try to interpret this variety of activations as differences in cognitive style (i.e. whether people are mainly visualizers o verbalizers) and encoding strategies, measured with some questionnaires. They found that both factors accounted for a significant part of the variance in the similarity of brain activity between individuals. In a similar vein, Noppeney and colleagues (2006) had 17 subjects performing a verbal decision task about some auditory stimulus (spoken word or sound), primed by either congruent or incongruent visual stimuli (written word or picture). Besides some regions commonly activated across all subjects, the experimenters were able to distinguish two subgroups, based on the set of further regions activated beside the common ones. They speculate on the deep-functional meaning of different activations, although unfortunately, unlike Miller and colleagues (2012), they did not verify them with independent measures such as questionnaires.

Population of subjects as a context for function-structure mappings

According to Burnston, within a contextualist approach toward function-structure mapping, “discovering the limits of generalizability for a certain conjunct is just as important an advance as discovering that it holds in many instances” (Burnston 2016b: p. 547). Thus far, the allure of the Platonic Brain Model may have misled neuroscientists. They could either have overlooked some aspects of some structure’s deep-function or failed to appreciate some of their unusual surface-function. For instance, the comparisons between sighted and blind subjects allowed to reveal supra-modal deep-functions in areas traditionally (mis)conceived as merely visual, as well as to reveal further surface-functions that they may acquire due to plastic reorganization (Pascual-Leone and Hamilton 2001 Ricciardi and Pietrini 2011 Cecchetti et al. 2016 Bedny 2017). On the other hand, Simons, Shoda and Lindsay (2017) suggest that to mitigate the dreaded replication crisis in psychological science, the section “Constraints on generality” may be added in research papers. Here researchers should answer questions concerning the generalizability they expect for their findings, including: “to which populations do you expect those findings to apply?”

To answer this question, and more in general to develop a proper contextualist function-structure mapping that still admits some generalizability, criteria shall be found for sorting subjects in different poblaciones. The carvings of such populations are not self-evident. Rather, “the definition of a reference population is theory-laden” (Caramazza 1986: p. 51). So, for instance, blind subjects may be a population if we are studying vision, but other criteria will possibly drive population-clustering when we turn to study for instance smell. Moreover, Hochstein (2016) reminds us that, like the rest of science, the sciences of the mind have many purposes, and that the best categorization of the mental depends on what purpose one is pursuing. The same point holds for population-based contextualism about structure function mappings. For instance, neurosurgeons are happy to sacrifice generalizability for the sake of accuracy, which is why before the surgical intervention they often directly assess causal role of some specific spots of cortex is often assessed by means of direct electrical stimulation (Duffau 2017). To them, the ideal population is composed by only one individual (at a given time).

For researchers who want to retain some generality, developing an ontology of neuroscientifically relevant populations will require a significant amount of conceptual and empirical effort. Factors predictive of a certain functional organization of the brain must be predicted, and their boundaries and mutual interactions scrutinized, in the light of certain aims and questions. Subjects will simultaneously belong to multiple populations, and each of these memberships is likely of interest only unos pocos function-structure mappings. To complicate things, we have reason to expect that these memberships will interact non-linearly, as surface-functions often compete for neural real estate: developmental studies show that the FFA’s preference for face is lateralized in the right hemisphere después, and possibly porque, the ipsilateral region establish its preference for words (Dundas, Plaut and Behrmann 2013 Dehaene-Lambertz, Monzalvo and Dehaene 2018).

That being said, I can sketch with broad stokes the contour of at least one kind of population, for which I propose the following working definition:

[Expertise-based Population] Structure S playing the deep-function F is recruited for some processing related to the surface-functional domain D in F-way if and only if a subject is an expert in D.

This definition captures the empirical insight that, in some cases, prolonged experience with some kinds of stimuli or cognitive activities does not only yield quantitative changes in brain anatomy (as in Maguire et al. 2000). Rather, when the relevant amount of expertise is achieved, expert performance may differ not only quantitatively, e.g. because it engages neural structure more or less intensively (which can be easily accounted for by the Platonic Brain Model), but also qualitatively. When this is the case, a same task may recruit different deep-functions and hence different neural structures (Roepstorff, Niewöhner, and Beck 2010 Guida et al. 2012 Bilalić 2017). The transition between non-experts and expert may occur smoothly, and sharp boundaries may thus be hard to establish (Buckner 2016). But just like vague boundaries between brain areas do not discourage scientists from speaking about brain areas (Haueis 2012), neither should vague boundaries between experts and non-experts in a certain domain discourage them to speak about expert populations.

Being an expert in the respective domains makes the difference for the FFA’s involvement in holistic perception of objects like greebles, chess games, and radiological images. Moreover, if the expertise hypothesis is correct, expertise is also at the root of FFA’s surface-functional specialization in face recognition. The same logic applies equally well for other cases such as echolocators and literate subjects: it is only thanks to the acquaintance with written letters that the left fusiform gyrus of literate subjects acquires the surface-function of reading. Moreover, a sufficiently liberal notion of ‘expertise’ can also account for the difference between the functional vocation of the (Platonically speaking) “visual” areas in sighted as opposed to non-sighted subjects the former being conceived as ‘experts’ in the (broad) domain of vision.

Other kinds of populations may be individuated based on demographic (e.g. socio-economic status, ethnicity or gender) or clinical factors (e.g. suffering from a psychopathological disease).

Admittedly, “demographical factors” include disparate things, from Socioeconomic Status (SES) to sex. A review of the neural correlates of SES (Farah 2017) shows that, on the one hand, patterned differences can be found in the neural activity underlying certain tasks based on the subjects’ SES, which are not only quantitative but also qualitative. However, on the other hand, Farah highlights that, despite being a proxy measure for prediciendo these differences, SES per se is not necessarily productor ellos. On the contrary, SES is a composite index that collapses many factors like stress and literacy, whose causal relationships with brain organization can follow multiple paths. Indirect measures such as SES can be at best proxies toward the causally relevant factors driving brain organization. In other words, it is likely that, at least in some cases, function-structure mappings with a nice correlation with some demographic factor turn out to correlate even better with some underlying factors that can be accounted in term of expertise. Footnote 12

One may think that this line of cautionary reasoning applies to certain factors, like SES, but not to others, like sex. After all, unlike SES, an eminently social phenomenon, sex is rooted in biology. Thus, we can perhaps hope to distinguish “the female brain” and “the male brain”. This line of reasoning, however, fails to appreciate that belonging to a particular sex (and gender) has several consequences that span throughout the life history of an individual, and that are highly dependent on cultural factors. In simple terms, in virtually every society of human history, being born female or male makes it much more likely to routinely perform some activities rather than others. Thus, even if differences that are driven on genetic or hormonal bases exist, they are so tightly intertwined with culturally based learning-driven factors that distinguishing them is not straightforward (Joran-Young and Rumiati 2012 Joel et al. 2015 but cf. Del Giudice 2019).

Finally, seen in the light of population contextualism, many clinical uses of functional neuroimaging are seen as inferences from structure más función para a certain clinical population. Similarly to the Platonic Brain Model strategy to zero-out the contextual variable of population by checking only “normal subjects”, many clinical studies aim at zeroing-out the possible confounds of an externally-driven function by using a resting state design (e.g. van den Heuvel et al. 2013). Defining and diagnosing psychopathological and neurological disorders presents several challenges (e.g., recall Caramazza’s concern about etiology- versus symptom-based grouping), and relevant ethical implications, that cannot be addressed in this paper. However, abandoning the Platonic Brain Model may set the stage for a more fruitful discussion. To mention but one example, think of the recent claims that, at least in some cases, Asperger Syndrome is not a syndrome at all, it is just neurodiversity—not differently from other cases of biological dimorphism (for a discussion, see Jaarsma and Welin 2012). Whatever one think about this claim, approaching it from a post-platonic framework will probably help to take this claim with the seriousness that it deserves, because such a framework does not prescribe a monolithic normativity about the brain.


Seeing with the Ears

One approach is to use sound as a stand-in for vision. In a study published in Current Biology , neuroscientists at the Hebrew University of Jerusalem used a “sensory substitution device” dubbed " the vOICe " (Oh, I See!) to enable congenitally blind patients to see using sound.

The device translates visual images into brief bursts of music, which the participants then learn to decode. Over a series of training sessions they learn, for example, that a short, loud synthesizer sound signifies a vertical line, while a longer burst equates to a horizontal one. Ascending and descending tones reflect the corresponding directions, and pitch and volume relay details about elevation and brightness. Layering these sound qualities and playing several in sequence (each burst lasts about one second) thus gradually builds an image as simple as a basic shape or as complex as a landscape.

The concept has tried and true analogs in the animal world, says Dr. Amir Amedi , the lead researcher on the study.

“The idea is to replace information from a missing sense by using input from a different sense. It’s just like bats and dolphins use sounds and echolocation to ‘see’ using their ears.”

Starting with sounds for basic shapes and lines, the participants in the recent study worked their way up to being able to identify bodily forms and positions – “seeing” them in their mind even though they had never before caught sight of a human form.

Remarkably, after approximately 70 hours of training, the blind participants were able to convert the sounds into visual activity in their brains, tapping into the same areas as control subjects who had seen the target images. This included a specific part of the visual cortex – the extrastriate body area (EBA) – that is specially activated when perceiving human shapes and positions. These participants had never before been able to perceive an entire human body. They could grab a hand, touch a cheek, even wrap someone in a bear hug, but they didn’t know what a person looked like squatting down, standing on one leg, or pumping their fists in the air.

Yet despite this, these individuals were able to activate a very specific area of the visual cortex just by hearing certain sounds, correctly identifying these positions. According to Dr. Amedi, the brain is able to transfer the initial activation in the auditory cortex into the “correct” visual area of the brain. “What is going on is neuronal recycling, in the sense that the same neurons [are] doing the same task, but now with a different sensory modality.”


Introducción

The classical model of the neurobiology of language, based on brain lesion data 1,2 , proposed a left-lateralized linguistic network of the fronto-temporal regions located around the perisylvian fissure 3 . However, recent neuroimaging studies, as well as patient data, reported a more detailed cortical organization of the language areas, showing that brain areas outside the classical perisylvian cortex as well contribute to the processing of meaningful symbols and language 4,5,6 . A range of cortical areas have been documented to be differentially involved, depending on the semantic type of symbols or larger meaningful constructions 7,8,9,10,11,12,13,14 . For example, Moseley et al. 14 , reported enhanced neuromagnetic (MEG) responses for action words in the fronto-central areas, including motor regions, and for object-related words in the visual temporo-occipital areas, respectively. This and similar observations support neurobiological language models postulating that linguistic and semantic processes are carried by neuron circuits distributed across the perisylvian language regions as well as modality-preferential and multimodal areas in ‘extra-sylvian’ space 6,15,16,17,18 .

A range of studies reported that the distributed language network shows striking capabilities to re-organize and adapt to focal lesions or sensory deprivation 19,20,21 . Compared with healthy individuals, blind people’s language processing in the so-called verb generation task leads to relatively stronger activation of visual areas in occipital cortex 22,23,24,25,26,27 . Several brain imaging studies showed activation of the primary visual (V1) and higher extra-striate visual cortices when congenitally blind individuals were required to generate semantically related verbs to heard nouns 22,23,24 (see Fig. 1a). In contrast, sighted subjects showed activation of the perisylvian language regions (e.g., Broca’s and Wernicke’s areas) and motor areas, but no or significantly less visual area activation than blind individuals 23,24 . Similar differences in V1 activation have also been reported for single word 27,28 and sentence processing tasks 29,30 , which imply semantic understanding 27,28,29 . Furthermore, congenitally blind people with relatively stronger V1 activity in the processing of meaningful language were reported to show better verbal working memory 22 and generally enhanced verbal abilities compared to sighted individuals 22,31,32,33 . Although one might argue that visual responses in blind individuals are epiphenomenal with no functional relevance for language processing, a study inducing temporary virtual lesions of the primary visual area (V1) using transcranial magnetic stimulation (TMS) during a verb generation task showed an increase in semantic (but not phonological) errors in blind individuals. In contrast, sighted control subjects showed a similar behavioural change only when TMS was applied to the left prefrontal cortex (lPFC) 25 . These results demonstrate that, in congenitally blind subjects, visual cortices respond in a similar way as classic language regions 30 and are functionally relevant for language and semantic processing.

FMRI activation patterns in congenitally blind and sighted individuals. (a) Activation of the primary (V1) and higher extra-striate visual areas when blind people recall words from memory or generate verbs from nouns compared to the sighted individuals (adapted from Amedi et al. 22 ). The green asteriks indicates the stimulated cortical area delivered with rTMS causing substantial semantic errors in the verb generation task (adapted from Amedi et al. 25 ). (B) Percent signal change in the left primary visual area for blind and sighted control participants during meaningful sentence comprehension and backwards speech perception (adapted from Bedny et al. 30 , this figure is not covered by the CC BY licence. [Credits to National Academy of Science]. All rights reserved, used with permission).

Undeprived healthy individuals may also activate their visual areas in language processing, but this is specific to words and sentences with a strong semantic relationship to visual information, for example, words like ‘cow’ or ‘tower’, which have visually perceivable referents 8,14,34,35,36 . Associative learning can explain this category-specific semantic activation in the human brain: Because symbols with ‘visual semantics’ frequently co-occur with visually perceived referent objects during learning 37 , the correlated neuronal activations are mapped at the neuronal level. However, such stimulus-driven correlation is obviously impossible in congenitally blind subjects. Therefore, the generally robust visual cortex activations during language processing and the associated relevance of visual areas in the blind appear as a mystery.

Why is the visual cortex generally relevant in language processing in congenitally blind individuals, and why would a role of visual areas in sighted subjects, if present at all, be restricted to only specific semantic categories?

It is unlikely that congenitally blind and undeprived human subjects differ in the neuroanatomical connections interlinking visual areas and language regions, as diffusion tensor imaging (DTI) studies do not consistently demonstrate such differences 38,39,40,41 . However, at the functional level, there is evidence for relatively stronger functional connectivity (estimated from fMRI) between visual and frontoparietal language regions in blind people 30,42,43,44 . Therefore, the critical question to answer is how, given the absence of differences in anatomical long-range connectivity, it is possible that visual cortex function changes in congenitally blind people. It has been suggested that the lack of competing inputs to the deprived cortical areas during development may be critical this would leave the blind’s visual cortices available for recruitment for language processing 45 . However, the neural mechanisms determining such takeover remain to be specified. Here, we show that general neurobiological mechanisms and principles can explain the functional changes in the visual cortex, and we identify the factors that may drive such plastic change.

We applied a neurobiologically constrained model implementing properties of fronto-temporo-occipital areas and their connectivity in an attempt to simulate features of language acquisition in undeprived (i.e. sighted) and deprived (i.e. congenitally blind) human subjects. The models were given information for learning the referential relationships between individual verbal symbols and the actions and objects they are typically used to communicate about. By comparing (congenitally) ‘blind’ and ‘undeprived’ models, we aimed to shed light on the neural language mechanisms consequent to sensory deprivation.


Activating the 'mind's eye': Scientists teach blind to read, recognize objects with sounds (w/ Video)

Illustration demonstrates the concept of visual-to-auditory sensory substitution. Images from a camera are converted into “soundscapes,” using a predictable algorithm, allowing the user wearing earphones to listen to and then interpret the visual information coming from the camera. This enables blind people to decode the visual information within the sounds and perceive complex images of people, words and objects. Credit: Karin Kedar and Michael Gluhoded

Common wisdom has it that if the visual cortex in the brain is deprived of visual information in early infanthood, it may never develop properly its functional specialization, making sight restoration later in life almost impossible.

Scientists at the Hebrew University of Jerusalem and in France have now shown that blind people – using specialized photographic and sound equipment – can actually "see" and describe objects and even identify letters and words.

The new study by a team of researchers, led by Prof. Amir Amedi of the Edmond and Lily Safra Center for Brain Sciences and the Institute for Medical Research Israel-Canada at the Hebrew University and Ph.D. candidate Ella Striem-Amit, has demonstrated how this achievement is possible through the use of a unique training paradigm, using sensory substitution devices (SSDs).

SSDs are non-invasive sensory aids that provide visual information to the blind via their existing senses. For example, using a visual-to-auditory SSD in a clinical or everyday setting, users wear a miniature camera connected to a small computer (or smart phone) and stereo headphones.

This is an example of one image from each of the visual categories used in the structured SSD training (geometric shapes, Hebrew letters, textures, body postures, everyday objects, houses, and faces) is demonstrated, along with its corresponding transformation to sound via the vOICe SSD (two repetitions of each 2-s-long soundscape). Credit: Striem-Amit et al., Neurona

The images are converted into "soundscapes," using a predictable algorithm, allowing the user to listen to and then interpret the visual information coming from the camera. The blind participants using this device reach a level of visual acuity technically surpassing the world-agreed criterion of the World Health Organization (WHO) for blindness, as published in a previous study by the same group.

The resulting sight, though not conventional in that it does not involve activation of the ophthalmological system of the body, is no less visual in the sense that it actually activates the visual identification network in the brain.

The study shows that following a dedicated (but relatively brief) 70 hours of unique training paradigm developed in the Amedi lab, the blind people could easily use SSDs to characterize images into object categories, such as images of faces, houses, body shapes, everyday objects and textures. They could also identify even more complex everyday objects—locating people's positions, identifying facial expressions, and even reading letters and words.

These unprecedented behavioral results are reported in the current issue of the prestigious neuroscience journal, Neurona.

After the training program, participants could assign soundscapes to their visual categories and also determine multiple features of the stimulus (such as hairstyle in a face image, number of floors and windows in a house image, and body posture in a body-shape image), enabling them to differentiate between objects within categories. The movie depicts two examples of these abilities: a trained congenitally blind participant in the study as she reads a three-letter word and another participant as she identifies emotional facial expressions perceived through the SSD. Credit: Striem-Amit et al., Neurona

The Hebrew University study went on further to actually test what happens in the brain when the blind learn to see with sounds. Specifically, the group tested the ability of this high-acuity vision to activate the supposedly dormant visual cortex of the blind, even though it was taught to process the visual images through sounds only in adulthood.

Prof. Amedi, and Ella Striem-Amit used functional magnetic resonance imaging (fMRI) to measure the neural activity of people blind from birth as they "saw"—using the SSD—high-resolution images of letters, faces, houses, everyday objects and body-shapes. Surprisingly, not only was their visual cortex activated by the sounds, their brain showed selectivity for visual categories which characterize the normally developing, sighted brain.

A specific part of the brain, known as the Visual Word Form Area, or VWFA—that was first discovered in sighted people by Profs. Laurent Cohen and Stanislas Dehaene of Pitie-Salpétriere Hospital-INSERM-CEA, of France, co-authors of the current article—is normally very selective.

In sighted people, it has a role in reading, and is activated by seeing and reading letters more than by any other visual object category. Astonishingly, the same was found in this area in people deprived of sight. Their VWFA, after only tens of hours of training in SSD use, showed more activation for letters than for any of the other visual categories tested.

In fact, the VWFA was so plastic to change, that it showed increased activation for SSD letters after less than two hours of training by one of the study participants.

"The adult brain is more flexible that we thought," says Prof. Amedi. In fact, this and other recent research from various groups have demonstrated that multiple brain areas are not specific to their input sense (vision, audition or touch), but rather to the task, or computation they perform, which may be computed with various modalities. (This information was summarized in a recent review by the Amedi research group published in the journal Current Directions in Neurology.)

All of this suggests that in the blind, brain areas might potentially be "awakened" to processing visual properties and tasks even after years or maybe even lifelong blindness, if the proper technologies and training approaches are used, says Amedi.

The findings also give hope that reintroduced input into the visual centers of the blind brain could potentially restore vision, and that SSDs might be useful for visual rehabilitation.

"SSDs might help blind or visually-impaired individuals learn to process complex images, as done in this study, or they might be used as sensory interpreters that provide high-resolution, supportive, synchronous input to a visual signal arriving from an external device such as bionic eyes" says Prof. Amedi.


Ver el vídeo: Congenitally Missing Teeth. Abnormalities in Tooth Quantity- 3 (Febrero 2023).