A través de un novedoso conjunto de herramientas es posible traducir a una neuroimagen del cerebro en un vídeo acompañado con música
Usando un novedoso conjunto de herramientas capaces de traducir los datos de una neuroimagen a un formato audiovisual, en un vídeo con música, se facilita la interpretación de la actividad cerebral
COLUMBIA- Poder interpretar la actividad del cerebro a través de una neuroimagen que genera enormes cantidades de datos hace que sea complicado de poder hacer, sin embargo, un grupo de científicos hicieron posible que esta labor resulta más sencilla, al traducir un formato audiovisual, en uno que está acompañado con un vídeo y de una banda sonora.
Esto es posible gracias al resultado de un novedoso conjunto de herramientas que son capaces de traducir los datos de neuroimagen a formatos audiovisuales para facilitar la interpretación de la actividad cerebral cuando una persona realizar determinados comportamientos.
TE PUEDE INTERESAR: En opinión de Rafael Yuste, el cerebro es el santuario de la mente; la esquina negra de la medicina
El equipo de investigadores responsable de este avance, encabezado por la Universidad de Columbia, presenta estas nuevas herramientas en un estudio que fue publicado en la revista científica Plos One.
Los últimos avances tecnológicos permitieron a los científicos poder registrar en tiempo real diversos componentes de la actividad del cerebro despierto, que posibilitan observar, por ejemplo, lo que sucede en el cerebro de un ratón cuando cuando realiza comportamientos específicos o cuando recibe un determinado estímulo.
“Los avances en las técnicas de imágenes cerebrales han ampliado significativamente el tamaño y la complejidad de las neuroimágenes y los datos de comportamiento en tiempo real. Sin embargo, identificar patrones, tendencias y sincronías dentro de estos conjuntos de datos presenta un desafío computacional importante” detalla Plos One.
El estudio demuestra, prosigue Plos One, cómo con este nuevo un enfoque es posible “traducir datos de neuroimagen que varían en el tiempo en audiovisualizaciones únicas que consisten en representaciones audibles de datos dinámicos fusionados con películas simplificadas codificadas por colores de componentes espaciales y grabaciones de comportamiento”.
TE PUEDE INTERESAR: Lo que el nuevo amor le hace a tu cerebro
A través de este nuevo metodo, explican los autores, “se pueden codificar múltiples variables como diferentes instrumentos musicales, lo que permite al observador diferenciar y rastrear múltiples parámetros dinámicos en paralelo. Esta representación permite la asimilación intuitiva de estos conjuntos de datos para correlatos de comportamiento y características espaciotemporales como patrones, ritmos y motivos que podrían ser difíciles de detectar mediante métodos convencionales de interrogación de datos. Estas representaciones audiovisuales proporcionan una percepción novedosa de la organización y los patrones de actividad en tiempo real en el cerebro y ofrecen un método intuitivo y convincente para la visualización de datos complejos para una gama más amplia de aplicaciones”.
TRADUCIR DATOS DE IMÁGENES EN REPRESENTACIONES AUDIOVISUALES
El equipo de investigadores, liderado por David Thibodeaux de la Universidad de Columbia logró desarrollar un conjunto de herramientas flexibles que permite poder traducir distintos tipos de datos de imágenes cerebrales, y las correspondientes grabaciones de vídeo del comportamiento de animales de laboratorio, en representaciones audiovisuales.
En el artículo “Audiovisualization of real-time neuroimaging data”, los autores señalan que “las técnicas actuales para obtener imágenes cerebrales in vivo, como la resonancia magnética funcional (fMRI), el mapeo óptico de campo amplio (WFOM), la microscopía de 2 fotones y de láminas de luz, proporcionan grandes cantidades de datos dinámicos multidimensionales”.
Y explican que gracias a “las mejoras recientes a estas técnicas permiten grabaciones en tiempo real, lo que permite la observación de eventos espontáneos, así como una actividad convincente en “estado de reposo””.
Los investigadores señalan que en “los experimentos de neurociencia modernos también incluyen registros de comportamientos, como batir y correr espontáneamente, presentaciones de estímulos, tareas como empujar palancas y parámetros como la velocidad y corrección de la ejecución de tareas. Estas grabaciones suelen comenzar como transmisiones de vídeo”.
Si bien, contínúan los investigadores, la “extracción de características de estas grabaciones de comportamiento se puede lograr y puede proporcionar una entrada para que los algoritmos de aprendizaje automático generen modelos predictivos. Sin embargo, puede resultar complicado determinar cuáles de las muchas características del vídeo son relevantes, y los parámetros de seguimiento espacial extraídos de los vídeos no necesariamente estarán relacionados linealmente con las representaciones neuronales”
En cambio, indican los investigadores en su arículo, que el cerebro “es muy bueno en la extracción de características de transmisiones de video”. Sin embargo, prosiguen, “el problema es que comparar dos o más representaciones de vídeo (datos de imágenes cerebrales y registros de comportamiento) al mismo tiempo es un gran desafío para el sistema visual humano”.
Los investigadores probaron la nueva técnica en tres escenarios experimentales diferentes, en las que estudió cómo pueden prepararse representaciones audiovisuales con datos provenientes de diversos enfoques de obtención de imágenes cerebrales.
Esto lo llevaron acabo usando las técnicas de mapeo óptico de campo amplio (WFOM) en 2D y la microscopía de excitación planar confocal alineada (SCAPE) en 3D.
Las nuevas herramientas, desarrolladas por los investigadores, se aplicaron a los datos de WFOM que fueron recopilados previamente, y que detectaban la actividad neuronal, así como los cambios en el flujo sanguíneo cerebral de ratones que realizan distintos comportamientos, tales como correr o acicalarse.
DATOS NEURONALES REPRESENTADOS MEDIANTE SONIDOS
Estos datos neuronalesque obtuvieron se representaron por medio de sonidos de piano que sonaban al mismo tiempo que los picos de actividad cerebral. Siendo así, que el volumen de cada nota indicaba la dimensión tanto de la actividad como su tono, en el lugar del cerebro en donde se producía dicha actividad.
Por otra parte, los datos del flujo sanguíneo fueron representaron con sonidos de violín.
De este modo, los sonidos de ambos instrumentos reproducidos en tiempo real, muestran la relación entre la actividad neuronal y el flujo sanguíneo. Vistos junto a un vídeo del ratón, “el espectador puede discernir qué patrones de actividad cerebral corresponden a los distintos comportamientos”, agrega el comunicado.
Los autores explican que su conjunto de herramientas no va a sustituir al análisis cuantitativo de los datos de neuroimagen, sin embargo, podría ayudar a poder examinar enormos conjuntos de datos en la búsqueda de patrones que, de otra manera, podrían haberse pasado desapercibidos cuando debería haberse hecho un análisis más detallado.
”Escuchar y ver representaciones de datos -de actividad cerebral- es una experiencia inmersiva que puede aprovechar nuestra capacidad de reconocer e interpretar patrones”, detallan los investigadores, quienes consideran que una representación auditiva de los datos hace que sea mucho más sencillo ver (y oír) cuando las cosas suceden exactamente al mismo tiempo”, concluyen.
Con información de la Agencia EFE y Plos One.