(Lausana).- José del R. Millán es profesor en el Instituto Federal Suizo de Tecnología en Lausana (EPFL) donde explora el uso de señales cerebrales para la interacción multimodal y, en particular, el desarrollo de robots no invasivos controlados por el cerebro y neuroprótesis. Su trabajo ‘innovador’ ha recibido numerosos reconocimientos por sus contribuciones fundamentales y pioneras a las interfaces cerebrales no invasivas.

La revista Science se refirió a él como uno de los investigadores clave del mundo en el campo de las interfaces cerebro-computadora. Millán habló para ABC durante su participación en el encuentro SaludOnMe, celebrado en Madrid.

Hasta dónde vamos a poder controlar con nuestra mente?
Nuestra mente ya controla nuestro cuerpo, algo nada menospreciable. Pero en aquellas personas con discapacidades físicas, por qué no intentar darles la oportunidad de que, por segunda vez, puedan controlar su cuerpo a través de exoesqueletos y tecnologías que fusionen al hombre y la máquina. Una vez seamos capaces de entender correctamente los mecanismos de cómo nuestro cerebro genera un movimiento de la mano en armonía con el resto de nuestro sistema nervioso central y periférico, podremos, el día en el que una persona tenga paralizada esa mano, fabricar el exoesqueleto alrededor de la mano y tener la misma movilidad que tenía la mano. Ese es el sueño.

Cómo una persona con discapacidad puede volver a salir de su cuerpo?
Nosotros tratamos de ir más allá de nuestro cuerpo. ¿Cómo? En mi visión tenemos que emplear las mismas señales que empleamos cuando controlamos nuestro cuerpo. Es decir, cada vez que yo quiero hacer un movimiento tan simple como abrir la mano genero una actividad eléctrica en el cerebro, que es el lenguaje de las neuronas, que al final codifican la intención de abrir la mano. Esa información que implica una red muy compleja de nuestro cerebro, al final se trasmite a través de la espina dorsal que llega a los nervios periféricos que están conectados con los músculos y que nos hace abrir la mano. Una vez que sepamos cuál es el sistema de codificación de nuestro cerebro, de la espina dorsal y del sistema periférico, y tengamos la capacidad de medir la capacidad eléctrica que está circulando por esa vía, siempre podremos, sin importarnos dónde se localice la lesión, obtener información en las diferentes etapas de esa corriente. Y una con esa información podremos decodificar la intención de esa persona y enviársela a un robot, un exoesqueleto, que va a ejecutar los movimientos que nosotros querríamos que nuestra mano ejecutara. La diferencia está en que nosotros no pensamos en el robot, sino en nuestra mano, en moverla, y el robot ejecutará ese movimiento.

La intención se puede interpretar?
Sí, a través de las señales eléctricas. Toda intención tiene un patrón de actividad eléctrica especifico que, gracias a los algoritmos de aprendizaje automático, se pueden decodificar. Lo interesante, y lo más difícil, es que cada uno de nosotros vamos a tener un patrón diferente, debido a que nuestro cerebro, aunque tenga la misma forma, está codificando la conexión de neuronas o sinapsis y dichas sinapsis son individuales. Por ejemplo, aunque todos tengamos una representación de nuestras manos que es esencialmente la misma para todos, los detalles de esa codificación no van a ser los mismos para alguien que no es músico de cuerda que para el que sí lo es, cuyas manos tienen un detalle, una sensibilidad diferente.

El cerebro es el órgano más complejo del ser humano con millones de señales. ¿Cómo se pueden interpretar correctamente?
No hay dos veces la misma señal. Eso forma parte de nuestro bagaje; las neuronas no están codificando solo un evento, sino que una única neurona puede participar en múltiples intenciones. Cada vez que quiero mover la mano lo hago en un contexto. No es lo mismo coger una botella, que un boli, o que salude a una persona o coja una pelota que me está llegando. Es decir, no podemos pensar que vamos a poder codificar las señales de manera perfecta siempre y todo el tiempo. Nuestros algoritmos comenten errores, pero representan la variabilidad de nuestros movimientos. Si estamos apretando un botón durante mucho rato, nunca lo haremos de la misma manera. ¿Cómo compensamos esto? Gracias al contexto; el robot también tienen sensores, como nuestras manos, y sabe cómo tiene que coger una botella para que no se nos caiga. Tenemos resultados muy preliminares que muestran que podemos decodificar la imaginación del lenguaje

Y cómo aplica toda esta tecnología en lesionados medulares?
Personas que diferentes tipos de lesiones, también ictus, se pueden beneficiar de nuestro trabajo. Cuanto menos usamos nuestro cuerpo, menos actividad cerebral se detecta. Nosotros hemos observado que si una persona reactiva la red neuronal que controla la mano con el fin de, mediante un interfaz cerebral, controlar el movimiento con un exoesqueleto que le permite abrir y cerrar la mano de nuevo, esa red se va a amplificar. El cerebro no es más que músculo y, si se ejercita, crece.

Se puede combinar sus técnicas con la regeneración neuronal?
Pocas neuronas que nacen de forma espontánea. Lo que sí hay en el cerebro son fenómenos de plasticidad, que no es otra cosa que una recodificación de esa sinapsis. Es decir, nuestro cerebro está constantemente creando nuevas conexiones y eliminando otras que no usamos. En el ámbito de la rehabilitación tras ictus o tras un lesión de médula espinal, lo que se hace es reeducar el cerebro para que éste sea capaz de crear conexiones que puedan compensar la lesión. La lesión no se va a curar, a menos que usemos técnicas de regeneración neuronal. La terapia actual es intentar crear conexiones a alrededor de la lesión, una especie de bypass natural. Aquí las interfaces cerebrales sí que facilitan ese proceso de plasticidad.

Se podría aplicar en demencias Alzheimer, etc.?
Esta es un área de futuro. De la misma manera que ya parece demostrado que una interfaz cerebral puede decodificar la intención del cerebro de manera que, gracias una ayuda externa como un exoesqueleto pueda ejecutar un movimiento y devolver la movilidad, por qué no podemos pensar que podemos decodificar procesos más cognitivos ligados a la demencia. Tenemos resultados muy preliminares que muestran que podemos decodificar la imaginación del lenguaje. Por ejemplo, una persona con demencia que sufre de afasia, incapacidad de hablar, y que tiene todavía la capacidad de lenguaje en el cerebro, pero no puede comunicarlo.

También se puede obtener más información sobre estos deteriores cognitivo?
Sí desde luego, pero también como terapias, para prevenir que no se acelere. Aunque eso es un campo de futuro. Tenemos resultados muy preliminares que muestran que podemos decodificar la imaginación del lenguaje

Y en el cerebro de una persona en coma?
Hay estudios que muestran que se puede decodificar la intención de una persona que está en estado vegetativo, cuando en realidad no lo está, sino en un estado de vigilancia subconsciente, y no consigue comunicarse por las vías naturales del cuerpo, aunque tenga una actividad cerebral diferenciada para diferentes estados.

Le preocupa el maluso de sus ideas?
Me preocupan mucho los aspectos éticos, pero es preciso generar un debate ético en el que debemos estar los científicos.

Cómo ve el futuro en 10 o 15 años en cuanto al uso de robots para la salud?
En 15 0 20 años habrá una fusión tal entre el cerebro de una persona y la máquina que ésta esté al servicio de la persona, de la misma forma que nuestro cuerpo nos obedece y hace lo que nuestro cerebro le indica. Podemos delegar en nuestro cuerpo para que haga labores automáticas; lo mismo podremos hacer con los robots. Pero siempre tememos la capacidad de llevar el ‘caballo por la riendas’ y tomarlas cuando sea necesario.

fUENTE: