Implantes tecnológicos en el cuerpo de una persona

El Siguiente Paso de la Evolución: es hora de conectarse

«Mientras el cerebro sea un misterio, el universo continuará siendo un misterio».- Ramon y Cajal

El cerebro es un órgano que nos fascina a todos, a algunos les interesa y unos pocos estudian, y que, en realidad nadie entiende.

Sus conocimientos cada día son más accesibles e impresionantes. Todos formamos parte de un relato que escribe nuestro cerebro qué, paradójicamente, ni hablamos ni comprendemos: el lenguaje de las neuronas.

Lejos de los intentos del pasado por descifrar este lenguaje, hoy en día la ciencia utiliza herramientas para investigar en profundidad el laberinto funcional y estructural de las redes del cerebro que lo habla.

Aunque nuestro conocimiento anatómico sobre las partes del cerebro es enorme, la ausencia de una interpretación que lo unifique también lo es. Por ello, entender el cerebro requiere integrar diferentes escalas de análisis.

Para ello, la neurociencia debe tener una vocación por integrar sus conocimientos, y no solo analizarlos de forma aislada. La ciencia empieza con la admiración de la naturaleza y su evolución.

¿Qué aprenderás en este articulo? Verás el siguiente paso que hemos de dar para extender nuestra inteligencia a través del estado de las técnicas de neuroimagen, y qué tiene que ver la tecnología en nuestro proceso evolutivo para adaptarnos al mundo.

El enigma del cerebro y sus redes

Todo empieza en tu sistema nervioso. Formado por unos 100.000 millones de neuronas. Cada una con hasta 10.000 conexiones sinápticas con otras neuronas. Se estima que el neocortex evolucionó hace 100 millones de años, mientras que otras estructuras lo hicieron hace 500 millones de años. (estudio)

A grandes rasgos el cerebro consta de dos hemisferios con cuatro lóbulos cada uno (frontal, parietal, temporal y occipital) divididos en distintas áreas que procesan distintos estímulos. De esta manera, el cerebro informa, integra y analiza la información para traducirla en conductas.

Sin embargo, el modelo más extendido en la sociedad (y a la vez el mayor mito) es el del cerebro como tres sistemas que nace al comparar la anatomía de distintas especies (Modelo de MacLean) que divide el cerebro en troncoencéfalo (cerebro reptil), sistema límbico (cerebro mamífero) y neocortex (cerebro racional).

¿Qué hay de malo en este modelo?

Según esto, un pez salió del agua como anfibio, que evolucionó a reptil, que se convirtió en mamífero, que se convirtió en homínido y finalmente en humano. Y esto debería reflejarse en el sistema nervioso, pero no lo hace.

El cerebro triuno asume que con capa paso en la evolución, se añaden características que hacen más compleja las respuestas.

Es cierto que las estructuras neuronales más simples, que se encuentran en estructuras subcorticales compartidas por seres vivos, realizan funciones más básicas (lucha o huida, digestión, sexualidad, ritmos circadianos, emociones…). Pero es inexacto: es fruto de técnicas antiguas que analizaban la estructura del cerebro pero no la función.

¿Cómo estudiamos la función de las áreas del cerebro?

Por ejemplo, podemos estudiar áreas neuronales de forma precisa en animales, y activarlas experimentalmente. Si cambia la conducta concluimos que esas neuronas están implicadas de alguna manera. Y a menudo, las mismas estructuras conservan una función entre especies:

  • El tálamo evolucionó para monitorizar el medio externo.
  • El hipotálamo para monitorizar el medio interno.
  • La amígdala con los ganglios basales para dar información precognitiva sobre el valor para la supervivencia.

Ningún circuito cerebral realiza conducta, solo funciones. Mas que módulos encapsulados, hay un gradiente de codificación de la información a lo largo de las áreas cerebrales. (estudio)

Por ejemplo, leer implica diferentes grupos de neuronas que se comunican: movimiento de los ojos (lóbulo frontal), adaptaciones de la pupila a la luz (pares craneales), atención (corteza prefrontal), palabras y significados (lóbulo temporal entre otros), y muchos más. El cerebro opera integrando la función de distintos grupos neuronales. (estudio)

Por ello, desde que históricamente somos conscientes de que en nuestro cerebro residen los mecanismos que nos permiten interactuar, no solo con el mundo que nos rodea, sino con nosotros mismos, hemos tratado de estudiar cómo y por qué ocurren estos procesos.

¿Cómo se ha llevado a cabo esta tarea?

Tradicionalmente, los avances en el conocimiento del cerebro humano se han producido o bien de manera indirecta (observando el comportamiento de las personas a determinados estímulos) o directa (mediante la examinación anatómica del cerebro… de manera post-mortem).

Menos mal que la idea de una examinación forense para determinar la estructura del cerebro no entusiasmaba demasiado a los científicos e ingenieros del siglo XX. Porque gracias a ello comienzan a desarrollarse distintos métodos para obtener imágenes cerebrales de manera no invasiva. Comienza entonces la historia de la neuroimagen. 

¿Quieres conocerla en detalle?

Redes cerebrales de gran escala

Existen dos modalidades de imagen cerebral completamente distintas, en función de qué es lo que se quiere ver:

  • Si lo que queremos es una imagen de la estructura del cerebro, hablamos de una imagen «anatómica».
  • Mientras que si lo que queremos es ver cómo funciona, hablamos de una imagen «funcional».

Primero, la imagen anatómica ofrece una imagen estática del cerebro, una fotografía que nos permite visualizar la localización de las distintas estructuras. Es un tipo de imagen utilizado en el ámbito sanitario para diagnosticar la existencia de lesiones o estructuras malignas.

Segundo, la neuroimagen funcional permite observar, de manera fisiológica, las reacciones funcionales del cerebro ante operaciones cognitivas. Es decir, qué estructuras están implicadas en determinados procesos: aprendizaje, comportamiento humano, etc.

Cada una de estas técnicas nos permitirán medir con más precisión el cerebro, y con ello, construir mejor tecnología.

CT: Tomografía Axial Computarizada

La Tomografía Axial Computarizada (TAC) es una técnica tomográfica basada en la aplicación de rayos X (fotones) desde distintas direcciones, cuya posterior reconstrucción anatómica se consigue determinando cómo se han atenuado los fotones en cada dirección. Cada tejido y estructura atenúa los rayos X de forma distinta.

La invención del primer equipo de CT se la debemos al éxito de The Beatles, pues esta fue desarrollada por Sir Godfrey Newbold Hounsfield en 1973 dentro de la compañía EMI, Ltd. (Electrical and Musical Industries), discográfica de este grupo que le permitió realizar el primer prototipo gracias a las ganancias obtenidas.

De manera independiente, el físico Allan MacLeod Cormack desarrolló en 1963 los algoritmos matemáticos necesarios para la implementación del CT. Por este descubrimiento, Hounsfield y Cormack fueron galardonados con el Premio Nobel de Fisiología y Medicina de 1979 (cita)

Imagen: cartel de The Beatles y un prototipo del primer CT diseñado por Hounsfield.
Imagen: cartel de The Beatles y un prototipo del primer CT diseñado por Hounsfield. 

Una de las primeras imágenes cerebrales por un escáner de CT fue publicada por el neuroradiólogo J. Ambrose en 1973 (cita). Comparando ambas imágenes, es increíble pensar que se ha podido avanzar tanto en tan «poco» tiempo (1973 vs. 2020)

Imagen: Comparación de imagen TAC cerebral obtenida en 1973 por J. Ambrose y una reciente (2020).
Imagen: Comparación de imagen TAC cerebral obtenida en 1973 por J. Ambrose y una reciente (2020). 

PET/SPECT

Por otro lado, el cerebro es, a grandes rasgos, metabolismo del flujo sanguíneo y electricidad.

La técnica de imagen funcional de Tomografía por Emisión de Positrones (PET) se basa en detectar la actividad metabólica del cerebro in vivo a partir de radiotrazadores. Cuando un positrón (la antipartícula del electrón) se encuentra con un electrón (proceso que ocurre prácticamente de inmediato en cuanto se crea el positrón, porque electrones hay en todas partes), ambas partículas se aniquilan, emitiendo dos fotones de la misma energía (511 keV) colineares y en sentidos opuestos.

Una gammacámara circular (cámara que detecta rayos gamma, es decir, fotones) detecta ambos fotones, que llegan simultáneamente, de manera que puede reconstruirse la posición en la que se ha producido la aniquilación. Vendrán más fotones de donde haya más acumulación de positrones, y por tanto esa zona se verá más brillante en una imagen.

Por otro lado, la glucosa es la principal fuente de energía de las células que componen nuestro cuerpo y de nuestras neuronas. Cuando se realiza una determinada tarea cognitiva, la región cerebral implicada en el proceso requiere un aporte más alto de glucosa, y además aumenta el flujo sanguíneo en dicha región.

Cuando se inyecta uno de estos radiotrazadores en el cuerpo, este compuesto se acumula en las zonas de mayor consumo de glucosa (es decir, las zonas de mayor actividad cerebral), por lo que atendiendo a las regiones más brillantes del cerebro, se puede determinar qué partes tienen mayor actividad metabólica.

Además, se usa esta molécula para la detección de tumores (en todo el cuerpo) pues es bien sabido que estos indeseables consumen altas cantidades de glucosa, lo que (afortunadamente) los hace bastante localizables. 

Imagen: Distribución normal de FDG en el cerebro de un paciente normal.
Imagen: Distribución normal de FDG en el cerebro de un paciente normal. 

Por otro lado, la técnica SPECT (Single photon emission computed tomography) es también muy similar al PET, pero en este caso, los radioisótopos no emiten positrones, sino que emiten directamente un fotón como producto de la desintegración radioactiva, el cual se detecta también mediante una gammacámara. 

MRI o Resonancia Magnética Nuclear (RMN)

Poco después de la invención del CT y del escáner PET, los investigadores Peter Mansfield y Paul Lauterbur desarrollaron la técnica de resonancia magnética nuclear a principios de los 80, lo que también les proporciona el Premio Nobel de Fisiología y Medicina de 2003.

A diferencia del escáner CT, en el que se aplican rayos X, una resonancia magnética es una técnica de imagen no invasiva que no aplica radiación electromagnética al cuerpo, sino que utiliza campos magnéticos y ondas de radiofrecuencia para obtener una imagen del interior del cuerpo.

El funcionamiento de un escáner de RM es ingenioso y complicado, pero… in a nutshell: cuando se aplica un gran campo magnético (y cuando digo gran es alrededor de 100.000 veces más intenso que el campo magnético de la Tierra) a los protones de nuestros tejidos (en este caso, del cerebro) estos se alinean con las líneas de dicho campo, y oscilan en torno a estas a una determinada frecuencia (llamada frecuencia de Larmor). Cuando los protones se encuentran en este estado, se hace incidir una señal de radiofrecuencia a la frecuencia de Larmor que los saca de la alineación, provocando que absorban la energía de esta señal. Cuando se deja de aplicar, los protones vuelven a alinearse con el campo liberando esta energía en forma de otra señal de radiofrecuencia.

Esta señal es la que nos permite reconstruir la distribución de los protones que forman el tejido, y con ello reconstruir una imagen anatómica precisa. 

Imagen: distintos modos de imagen por RM (tres vistas axiales y una coronal).
Imagen: distintos modos de imagen por RM (tres vistas axiales y una coronal). 

fMRI (functional Magnetic Resonance Imaging)

La fMRI se desarrolló a principios de 1990 por el físico japonés Seiji Ogawa. A diferencia de otras técnicas como el EEG o la MEG (que ahora veremos), la fMRI no mide directamente la actividad cerebral, sino que mide la consecuencia indirecta de esta actividad: la respuesta hemodinámica. Cuando una región del cerebro se activa, los vasos sanguíneos circundantes se dilatan, para permitir que aumente el flujo sanguíneo, y con ello también el aporte de glucosa y oxígeno.

En otras palabras, puede decirse que aumenta la concentración relativa de oxihemoglobina (transporte de sangre oxigenada) con respecto a la desoxihemoglobina (transporte de sangre desoxigenada). Aquí es donde entra la física.

Las propiedades magnéticas de ambas moléculas (oxi y desoxihemoglobina) son distintas, no se comportan igual ante un campo magnético, por lo que será posible diferenciarlas en un escáner de resonancia magnética. La actividad, o aumento de flujo sanguíneo oxigenado, se representa en base a una escala de colores, que indica el nivel de actividad neuronal en cada región.

Imagen: ejemplo de un escáner fMRI. El área más activa es el surco intraparietal derecho (SIP).
Imagen: ejemplo de un escáner fMRI. El área más activa es el surco intraparietal derecho (SIP). 

EEG/MEG

Aunque no son estrictamente métodos de neuroimagen, la electroencefalografía (EEG) y la magnetoencefalografía (MEG) son las técnicas de monitorización cerebral más famosas que tenemos. Ambas tratan de cuantificar y localizar la actividad cerebral a partir de la medida de las señales eléctricas generadas en las conexiones neuronales (sinapsis).

Se diferencian en la forma en la que se miden estas señales, pues mientras que el EEG trata de medir directamente estas corrientes a partir de electrodos (midiendo diferencias de potencial eléctrico) situados en la cabeza, el MEG recopila actividad neuronal midiendo los campos magnéticos que generan estas corrientes eléctricas (o al menos eso nos dicen las Leyes de Maxwell del electromagnetismo… go Physics!).

Como estos campos magnéticos son extremadamente débiles, para poder detectarlos se necesitan cientos de bobinas sensibles de material superconductor, llamadas SQUID (no es porque se parezcan a un calamar, sino porque son Superconducting Quantum Unit Interference Devices).

Imagen: Dos tipos de SQUID (es más simpático el de la izquierda).
Imagen: Dos tipos de SQUID (es más simpático el de la izquierda). 

Sabiendo de dónde vienen las señales cerebrales, somos capaces de crear un mapa del cerebro, atendiendo a la actividad de cada zona en función de la tarea cognitiva o motora que se esté realizando.

No obstante, la MEG tiene mucha mejor resolución espacial que el EEG por dos razones: hay casi diez veces más bobinas SQUID en un casco de MEG que electrodos en un casco de EEG. Además, los campos magnéticos no se ven prácticamente afectadas por todas las capas de fluidos y tejidos que hay entre el electrodo y el origen de la señal, factor importante a tener en cuenta en un EEG. 

Imagen: MEG (izquierda) y EEG (derecha). Y no, aunque pueda parecerlo... ¡no están en un salón de belleza!
Imagen: MEG (izquierda) y EEG (derecha). Y no, aunque pueda parecerlo… ¡no están en un salón de belleza! 

¿Un poco de historia? En 1875 el físico Richard Caton experimentó por primera vez con las señales eléctricas del cerebro de conejos y monos, y en 1924 Hans Berger da el nombre de Encefalograma (EEG) y obtiene el primer EEG del cerebro humano. Fue una técnica revolucionaria, que permitió comenzar a detectar, por ejemplo, señales anómalas debidas a la epilepsia (1934 por Fisher y Lowenback). 

Imagen: Primer EEG del cerebro humano, realizado por Hans Berger en 1924.
Imagen: Primer EEG del cerebro humano, realizado por Hans Berger en 1924. 

Quizás algunos de los avances más interesantes en relación a la EEG son los que surgieron a partir de la carrera espacial, pues sin toda la investigación llevada a cabo para poner un pie en la Luna, probablemente no estaríamos familiarizados con conceptos como «Neurofeedback» o «QEEG» (Quantitative EEG) (cita).

La lista de investigaciones y descubrimientos realizados a partir de la técnica de la electroencefalografía continúa hasta nuestros días, y algunos incluso parecen de ciencia ficción, como poder conectar tres cerebros humanos a partir de las señales de EEG para crear una conciencia común (BrainNet).

Imagen: Fotografías de 1963 en las que se muestra el equipo telemétrico desarrollado por el Laboratorio de Biología del Espacio (liderado por Ross Adey y colaboradores) para medir la señal EEG de astronautas en el espacio. En la imagen de abajo a la derecha, se muestra el primer ordenador (IBM-7094) utilizado para procesar señales de EEG y obtener datos QEEG (brain mapping).
Imagen: Fotografías de 1963 en las que se muestra el equipo telemétrico desarrollado por el Laboratorio de Biología del Espacio (liderado por Ross Adey y colaboradores) para medir la señal EEG de astronautas en el espacio. En la imagen de abajo a la derecha, se muestra el primer ordenador (IBM-7094) utilizado para procesar señales de EEG y obtener datos QEEG (brain mapping). 

Por otro lado, las primeras señales de MEG se midieron en 1968 en la Universidad de Ilinois, a cargo del físico David Cohen. No utilizó bobinas SQUID, sino bobinas de cobre, y puesto que estas son mucho menos sensibles, la medida se llevó a cabo en el interior de una habitación blindada a campos magnéticos. Cuando James E. Zimmerman desarrolla los sensores SQUID, Cohen repite la medida utilizando esta nueva tecnología, y en una nueva estructura blindada (digna de aparecer en la saga de Alien), esta vez en el MIT. 

Imagen: Estructura blindada del MIT en la que David Cohen (en la imagen) obtuvo el primer MEG humano decente, el que aparece en la parte inferior.
Imagen: Estructura blindada del MIT en la que David Cohen (en la imagen) obtuvo el primer MEG humano decente, el que aparece en la parte inferior. 

Gracias a estas técnicas de neuroimagen, contamos con datos de cómo nuestro cerebro recluta regiones específicas que conforman redes dedicadas al procesamiento de información.

No obstante, la neuroimagen no se desarrolla únicamente para el tratamiento de enfermedades, sino también para abrir nuevas áreas de investigación, como las interfaces cerebro-ordenador (Brain-Computer Interfaces) las cuales nos permitan, en un futuro, establecer un vínculo entre las órdenes pensadas por nuestro cerebro, y las órdenes realizadas por una máquina o un ordenador.  (estudio) Coches conectados con la mente (estudio), implantes en el cerebro para curar el Alzheimer (estudio) o cartas que se escriben solo con pensarlo. (estudio, estudio, estudio)

> Elon Musk y la Tecnología que hay detrás de Neuralink.

Imagen: un poco excesivo tal vez... Pero, ¿por qué no?
Imagen: un poco excesivo tal vez… Pero, ¿por qué no?

¿Qué nos permite llegar a todas esas aplicaciones?

Más allá del craneo

El cerebro siempre se ha visto como una máquina, un ordenador de cables y procesadores que se reparten las tareas, almacenan información y solucionan problemas. Es la visión más generalizada del sistema nervioso en la cultura y varios sectores científicos.

A partir de la revolución tecnológica y del procesamiento de la información de los años 60’s se utilizó el símil del ordenador, sin embargo nuestro cerebro no funciona de forma modular, sino integrada: hay áreas que participan en funciones pero no las traducen de forma aislada. No todas las áreas están anatómicamente delimitadas, sino funcionalmente, necesitando integrarse para ejercer una función completa y adaptativa. Y además, el cerebro es independiente de los estímulos exteriores, por lo tanto, no es un receptor pasivo de los sentidos, sino que los construye activamente.

Es decir, el cerebro solo funciona dentro de un marco, que es el ambiente que lo rodea. El ambiente influye en su desarrollo, moldea tus neuronas, determina sus vínculos, capacidades y respuestas.

En muchos contextos se habla incluso de la mente, porque se interpreta como algo intangible, no bien definido, que se sale de las células y las moléculas. No es para tanto. La mente solo es el conjunto de procesos que subyacen en nuestro comportamiento y capacidades cognitivas. No es un producto, sino un proceso.

En este caso, el ambiente es algo más que un simple escenario pasivo del espectáculo cerebral. Ambiente también significa cultura. Ambiente también es cultura material, es decir, tecnología.

Neosensory

Por ello, los futuros cambios evolutivos se canalizarán en función de elementos introducidos por el ser humano y del efecto que estos elementos tienen en nuestro cerebro. (efecto Baldwin, estudio)

Tecnosapiens

La era moderna, en la que estamos conquistando el control de los dispositivos externos a través de las señales del cerebro, surgió desde los primeros experimentos en ratas y primates. (estudio, estudio, estudio, estudio, estudio)

Nuestra tecnología es un elemento estructural de nuestras capacidades cognitivas. Capturamos información con la tecnología y la integramos con ella. La tecnología realiza parte del proceso cognitivo (cálculos, memoria, sentidos…) que ahorra a nuestras neuronas: implantes sensoriales en el oido (estudio), en la retina (estudio), en la corteza motora (estudio, estudio), para recuperar la propiocepción (estudio), en pacientes con ELA (estudio, estudio), con Parkinson (estudio) o Internet. (estudio)

Nuestras neuronas adquieren un papel de coordinación al delegar sus responsabilidades. Ahora la tecnología es una extensión que, para muchos, a estas alturas es totalmente necesaria para mantener nuestros niveles cognitivos y culturales.

¿A caso el smartphone no es un apéndice de nosotros?

Nuestras adaptaciones evolutivas pasan a depender de ella. Bienvenido a la cognición extendida, nos hemos convertido en cyborgs.

Tecnología MoreGrasp desarrollada por una empresa española, Bitbrain
Tecnología MoreGrasp desarrollada por una empresa española, Bitbrain

Salvo interfaces cerebro-computador, es el cuerpo el que nos conecta al ambiente. De esta manera, cualquier sensación pasa por nuestro organismo, vivimos e interpretamos el mundo solo a través de lo que este nos cuenta, e interactuamos con el mundo solo a través de él.

El cerebro interpreta los objetos como una extensión del cuerpo, o tal vez el cuerpo mismo como un objeto. Este sistema piensa en conjunto, siente en conjunto y resuelve problemas en conjunto. Son zonas del cerebro que mapean esta cognición extendida desde que uno de nuestros antepasados decidió afilar una piedra y usarla en su mano.

Sabemos que la biología ha desempeñado su papel, pero es probable que la clave de todo haya sido encontrar una nueva forma de relacionar biología con ambiente, delegando capacidades cognitivas a extensiones tecnológicas.

Porque nuestro cerebro sigue procesando información, pero depende cada vez más de sus extensiones extraneuronales y extracorporales. Aunque tampoco es algo nuevo: las arañas sienten a través de sus telas o los pulpos hacen funcionar sus tentáculos como cerebros independientes. (estudio, estudio, estudio)

Además, en este momento de nuestra historia evolutiva, somos una especie con una limitada capacidad de cambio genético: somos demasiados, distribuidos por todo el planeta en condiciones muy diferentes. La variabilidad cultural, la complejidad tecnológica y la plasticidad cerebral son nuestro futuro y presente. (estudio, estudio)

Los humanos somos como neuronas, elementos de una red extensa y compleja que recibe, comparte y elabora información. Aunque no evolucionen nuestros genes, lo hará nuestra tecnología y, por ende, nuestras capacidades cognitivas. ¿A qué estás esperando?

El éxito dependerá de cómo y cuánto seamos capaces de integrar este proceso con nuestras propias raíces evolutivas. Es nuestra responsabilidad lidiar con una tecnología exponencial, unas administraciones medievales y unas emociones paleolíticas.

Artículo escrito en colaboración con Mercedes Riveira. Gracias por tu aportación Mercedes 😀


0 Comments

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *