Skip to content
17 Ago 2015 / Fundación CIEN

Cuando se manejan gran cantidad de datos, como en la neuroimagen, los resultados pueden ser fruto del azar

Entrevistamos a Manuel Desco, investigador del Instituto de Investigación Sanitaria Gregorio Marañón, con motivo de su ponencia “Análisis cuantitativo de estudios de neuroimagen: posibilidades y dificultades” en el III Congreso Internacional sobre investigación e Innovación en Enfermedades Neurodegenerativas (CIIIEN) organizado por la Fundación CIEN, CIBERNED y la Fundación Reina Sofía, que se celebrará del 21 al 23 de septiembre en Málaga.

Los avances en neuroimagen permiten obtener una gran cantidad de datos, tanto morfológicos como de composición o de funcionamiento del cerebro ¿Por qué es tan complejo analizarlos?

Analizar los datos obtenidos a través de la neuroimagen es complejo por dos motivos: Hay muchas herramientas de captura y tratamiento de datos, en general muy avanzadas y complejas de usar, y simultáneamente estamos estudiando el órgano más complejo del cuerpo humano. No hay comparación entre lo que hace el hígado o el riñón y lo que hace el cerebro, que juega en otra liga. Es como comparar un reloj con un ordenador, el cerebro es nuestro  ordenador, donde además del plano biológico se sucede el plano de funcionamiento que en los ordenadores llamaríamos software, aunque en el cerebro es más complicado.

¿Qué se debe tener en cuenta a la hora de elegir un algoritmo o un software para analizar los datos de neuroimagen?

Actualmente hay una gran abundancia de herramientas que permiten analizar este tipo de datos, en general son complicadas y tienen una gran cantidad de ajustes intermedios, de tal manera que utilizarlas bien requiere un conocimiento de matemáticas y tratamiento de imagen que muchas veces los médicos o biólogos no tienen.

En la mayoría de las herramientas de investigación, como el microscopio, no es necesario conocer en detalle los principios de funcionamiento, simplemente seguir las instrucciones para su utilización. En el análisis de datos de neuroimagen, los paquetes de software tanto libres como comerciales ofrecen manuales de usuario muy complicados y no hay una homologación que permita saber elegir o utilizar el software necesario para realizar determinada medición.

Se suelen utilizar criterios de oportunidad para elegir el software a utilizar en un estudio, como escoger el que se tiene más a mano, es gratuito o se conoce como utilizarlo. Además estos paquetes de software tienen muchos ajustes que normalmente se dejan en sus valores por defecto, sin entrar a pensar en que con diferentes ajustes tus resultados pueden cambiar.

¿Qué se debería hacer para lograr resultados más consistentes?

Contar con un equipo multidisciplinar o recurrir a la colaboración de centros que puedan realizar estos análisis de forma profesional. En el Instituto de Investigación Sanitaria Gregorio Marañón uno de nuestros abordajes es repetir los análisis muchas veces, cambiando parámetros en los programas, para observar si los resultados obtenidos siguen siendo los mismos. Cuando los resultados son los mismos con independencia del método que se utilice, se tiene la tranquilidad de que es un resultado fiable y cuando dichos resultados cambian según se modifique el procesamiento, se crea una duda razonable sobre la verosimilitud de los datos, que el investigador debería tener en cuenta.

¿Qué se puede hacer para evitar la inconsistencia de los datos obtenidos?

Cuando hablamos de inconsistencia de los datos nos referimos al hecho de que estudios efectuados en las mismas condiciones no ofrezcan el mismo resultado, aunque deberían hacerlo.

La inconsistencia de los resultados publicados es un problema importante en neuroimagen, pero también en otros campos como la genómica. Cuando hay grandes cantidades de datos, la estadística se presta a generar resultados que aparentemente son reales, pero que luego se comprueba son fruto del azar.

La solución sería replicar los estudios en otros centros, lo que actualmente choca contra la política de publicaciones científicas, que prima la novedad en laspublicaciones.

Otra vía para aliviar el problema de la inconsistencia sería que las revistas fuesen muy estrictas a la hora de aceptar estudios donde haya gran número de datos implicados y que los autores fuesen más autocríticos e intenten validar el resultado hasta lo posible.

¿Por qué es la resonancia magnética una de las mejores técnicas para el estudio del funcionamiento del cerebro?

La resonancia es idónea porque se utiliza in vivo, algo necesario para entender el funcionamiento del cerebro. Es igual que intentar analizar el un ordenador cuando está parado o cuando está en funcionamiento. Además, no emite radiaciones ionizantes por lo que no tiene efectos adversos y ofrece imágenes muy detalladas. Además esta técnica puede utilizarse para valorar diferentes aspectos tales como medidas morfológicas y anatómicas para ver tamaños y estructuras, estudiar la trayectoria de las fibras nerviosas o la actividad cerebral.

¿Cómo se mide con la resonancia magnética la actividad cerebral?

La actividad eléctrica cerebral se puede observar directamente con técnicas como electroencefalografía o magnetoencefalografía, pero su resolución espacial es pobre. Con la resonancia magnética, la resolución espacial es muy buena, pero no medimos la actividad eléctrica sino que aprovechamos un fenómeno llamado acoplamiento neurovascular, ya que milisegundos después de producirse un aumento de actividad eléctrica se produce un aumento de flujo sanguíneo, que es lo que mide la resonancia.

¿Por qué sucede que cuanto mayor es la complejidad de la función mental a estudiar, mayor es el desafío para obtener datos consistentes?

Según se van estudiando funciones más complejas, pierde sentido el concepto de que las actividades cerebrales  tienen una localización concreta en el cerebro. Es una visión demasiado mecanicista del funcionamiento del cerebro humano. Actualmente se entiende que el cerebro funciona a través de circuitos. La neuroimagen se basa en la localización, por lo que si una función cerebral no tiene una ubicación concreta, puede no ser fácil valorarla mediante neuroimagen.

¿Cómo influye en la medición la plasticidad cerebral o capacidad del sistema nervioso central para reorganizarse, incluso cambiar su estructura para adaptarse al entorno?

El cerebro es capaz de recolocar las funciones cerebrales en distintas localizaciones, lo que de nuevo va en contra de la visión mecanicista de la que hablábamos anteriormente, y dificulta aún más la medición.

Una muestra de la plasticidad cerebral es cómo se recuperan las personas que sufren un ictus o un traumatismo. Al principio pierden muchas funciones, pero con rehabilitación recuperan muchas habilidades que antes estaban en la zona dañada. Otro ejemplo es cómo se activan zonas dedicadas a la información visual en cerebros de personas con ceguera.

¿Estás de acuerdo con el comentario “Si torturas tus resultados durante un tiempo suficiente, lograrás que muestren lo que quieres ver” del estudio “Data Torturing”? ¿Qué se debe hacer para evitar esta manipulación de resultados?

“Data Torturing” es una  publicación de lectura obligada para toda persona que quiere trabajar con estudios estadísticos. En ella se explica cómo algunos estudios pueden conducir a resultados equivocados, por error o por un intento “forzado” de demostrar una hipótesis. Es un terreno muy difuso donde influyen la ética del investigador y la presión de la publicación. De nuevo, es importante aplicar la autocrítica del autor y comprobar si con pequeñas modificaciones o eliminando algunos casos, siguen obteniéndose los mismos datos. Como dice el artículo, si la tortura se hace con habilidad no deja huella, lo cual es muy peligroso para la ciencia.

¿Crees que es importante que se realicen congresos como el que se va a llevar a cabo en septiembre en Málaga?

En este congreso destacaría la faceta multidisciplinar de las ponencias. Es muy importante que especialistas en ingeniería, como yo, puedan debatir con especialistas en biología o medicina sobre cómo mejorar la fiabilidad de los estudios.