ERKELEY – Imagínese entrar en la mente de un paciente en coma o ver su propio sueño en YouTube. Con una mezcla de vanguardia de imágenes cerebrales y simulación por ordenador, los científicos de la Universidad de California, en Berkeley, están poniendo estos escenarios futuristas al alcance de la mano. Utilizando imágenes de resonancia magnética funcional (IRMf) y modelos computacionales, los investigadores de la UC Berkeley han conseguido descodificar y reconstruir las experiencias visuales dinámicas de las personas, en este caso, viendo trailers de películas de Hollywood.

Por el momento, la tecnología sólo puede reconstruir clips de películas que la gente ya ha visto. Sin embargo, este avance allana el camino para reproducir las películas que tenemos en la cabeza y que nadie ve, como los sueños y los recuerdos, según los investigadores.

«Se trata de un salto importante hacia la reconstrucción de las imágenes internas», dijo el profesor Jack Gallant, neurocientífico de la UC Berkeley y coautor del estudio publicado en línea hoy (22 de septiembre) en la revista Current Biology. «Estamos abriendo una ventana a las películas de nuestra mente». Con el tiempo, las aplicaciones prácticas de la tecnología podrían incluir una mejor comprensión de lo que sucede en la mente de las personas que no pueden comunicarse verbalmente, como las víctimas de accidentes cerebrovasculares, los pacientes en coma y las personas con enfermedades neurodegenerativas.

La reconstrucción aproximada (derecha) de un fragmento de película (izquierda) se consigue mediante imágenes cerebrales y simulación por ordenador.

También puede sentar las bases de una interfaz cerebro-máquina para que las personas con parálisis cerebral o parálisis, por ejemplo, puedan guiar los ordenadores con la mente.

Sin embargo, los investigadores señalan que la tecnología está a décadas de permitir a los usuarios leer los pensamientos y las intenciones de los demás, tal y como se retrata en clásicos de la ciencia ficción como «Brainstorm», en la que los científicos grababan las sensaciones de una persona para que otros pudieran experimentarlas.

Anteriormente, Gallant y otros investigadores registraron la actividad cerebral en la corteza visual mientras un sujeto veía fotografías en blanco y negro. A continuación, construyeron un modelo computacional que les permitió predecir con una precisión abrumadora qué imagen estaba mirando el sujeto.

En su último experimento, los investigadores afirman haber resuelto un problema mucho más difícil al descodificar realmente las señales cerebrales generadas por las imágenes en movimiento.

«Nuestra experiencia visual natural es como ver una película», afirma Shinji Nishimoto, autor principal del estudio e investigador posdoctoral en el laboratorio de Gallant. «Para que esta tecnología tenga una amplia aplicabilidad, debemos entender cómo procesa el cerebro estas experiencias visuales dinámicas».

Nishimoto y otros dos miembros del equipo de investigación sirvieron de sujetos para el experimento, ya que el procedimiento requiere que los voluntarios permanezcan inmóviles dentro del escáner de IRM durante horas.

Vieron dos conjuntos distintos de trailers de películas de Hollywood, mientras se utilizaba la IRMf para medir el flujo sanguíneo a través de la corteza visual, la parte del cerebro que procesa la información visual. En el ordenador, el cerebro se dividió en pequeños cubos tridimensionales conocidos como píxeles volumétricos, o «voxels».

«Construimos un modelo para cada vóxel que describe cómo la información sobre la forma y el movimiento de la película se traduce en actividad cerebral», explica Nishimoto.

La actividad cerebral registrada mientras los sujetos veían el primer conjunto de clips se introdujo en un programa informático que aprendió, segundo a segundo, a asociar los patrones visuales de la película con la actividad cerebral correspondiente.

La actividad cerebral evocada por el segundo conjunto de clips se utilizó para probar el algoritmo de reconstrucción de la película. Para ello, se introdujeron 18 millones de segundos de vídeos aleatorios de YouTube en el programa informático, de modo que éste pudiera predecir la actividad cerebral que cada clip de película evocaría con mayor probabilidad en cada sujeto.

Finalmente, los 100 clips que el programa informático decidió que eran más similares al clip que el sujeto probablemente había visto se fusionaron para producir una reconstrucción borrosa pero continua de la película original.

Reconstruir películas mediante escáneres cerebrales ha sido un reto porque las señales de flujo sanguíneo que se miden mediante fMRI cambian mucho más lentamente que las señales neuronales que codifican la información dinámica en las películas, señalan los investigadores. Por este motivo, la mayoría de los intentos anteriores de decodificar la actividad cerebral se han centrado en imágenes estáticas.

«Abordamos este problema desarrollando un modelo de dos etapas que describe por separado la población neuronal subyacente y las señales de flujo sanguíneo», dijo Nishimoto.

En última instancia, dijo Nishimoto, los científicos necesitan entender cómo el cerebro procesa los eventos visuales dinámicos que experimentamos en la vida cotidiana.

«Tenemos que saber cómo funciona el cerebro en condiciones naturales», dijo. «Para ello, primero tenemos que entender cómo funciona el cerebro mientras vemos películas».

Otros coautores del estudio son Thomas Naselaris, del Instituto de Neurociencia Helen Wills de la UC Berkeley; An T. Vu, del Grupo Conjunto de Postgrado en Bioingeniería de la UC Berkeley; y Yuval Benjamini y el profesor Bin Yu, del Departamento de Estadística de la UC Berkeley.

Fuente: newscenter.berkeley.edu

carta astral gratis online 2022


0 comentarios

Deja una respuesta

Marcador de posición del avatar

Tu dirección de correo electrónico no será publicada.