Neurotecnología: qué es, dónde se aplica y qué implicaciones éticas supone

Tamara Montero
Tamara Montero SANTIAGO / LA VOZ

RED

iStock

La capacidad de influir sobre el cerebro abre dilemas éticos sobre la identidad, la privacidad y la gobernanza de una tecnología que se usa en el ámbito médico y empieza a expandirse a otras áreas

22 jul 2025 . Actualizado a las 17:50 h.

¿Se puede aplicar tecnología al sistema nervioso? Sí, se puede. Es lo que se conoce como neurotecnología, que agrupa técnicas capaces de medir, interpretar o intervenir sobre el cerebro humano y que hace tiempo que se aplica con éxito en medicina. La cuestión, sin embargo, se centra ahora en su capacidad para expandirse hacia el consumo de masas y las implicaciones que eso tiene en derechos humanos, privacidad y gobernanza.

«En el ámbito de la neurorehabilitación utilizamos neurotecnología». Lo explica Javier Solana Sánchez, ingeniero biomédico y director de investigación del Institut Guttmann que participó hace unas semanas en una jornada de la UOC centrada en abordar los desafíos de la neurotecnología. El Institut Guttman es un centro especializado en la rehabilitación de personas que sufren una discapacidad de origen neurológico, principalmente lesiones medulares y daño cerebral adquirido.

Hay diferentes modos de aplicar la neurotecnología en el ámbito médico, como por ejemplo el uso de ortesis, dispositivos robóticos que ayudan a las personas a caminar, como pueden ser por ejemplo los exoesqueletos. Pero la tecnología actual también permite leer señales cerebrales y también modularlas. Existen dos grandes tipos: las tecnologías invasivas, es decir, los chips o electrodos que se introducen a través del cráneo y se conecta con el cerebro (como por ejemplo el Neuralink de Elon Musk) y que tienen una mayor capacidad de leer señales, aunque entre sus desventajas está un posible rechazo y que se desconocen los efectos a largo plazo.

Por eso están avanzando mucho la neurotecnología no invasiva, centrada en la electroencefalografía y que cada vez tiene mejor calidad de lectura. Estos avances redundan en la conocida como Brain Computer Interface, o lo que es lo mismo, la capacidad de leer señales del cerebro y conectarlas con un dispositivo robótico y de este modo, permitirle a una persona con una lesión cervical coger un vaso.

Es decir, se hace un bypass sobre la conexión perdida, ya sea una parálisis o una amputación, se detectan las señales del cerebro y se envía esa instrucción a un dispositivo robótico. «Cada vez somos capaces de detectar mejor estas señales del cerebro, filtrarlas, procesarlas, traducirlas en comandos y además, está mejorando mucho la interconexión con el dispositivo robótico», explica Solana. 

Una de las líneas de investigación más punteras es también la neuromodulación, es decir, no solo la capacidad de leer la señales eléctricas del cerebro, sino la posibilidad de cambiarlas. En el Institut Gutmann utilizan esta neurotecnología en el tratamiento de la afasia tras sufrir un ictus. Antes de hacer la rehabilitación con los profesionales de la logopedia, se pone en marcha un protocolo de neuromodulación que vuelve el sistema nervioso mas receptivo a hacer las reconfiguraciones necesarias para volver a aprender a hablar.

Estos protocolos de neuromodulación también se utilizan para los pacientes que tienen espasticidad (un trastorno que causa rigidez muscular involuntaria) y dolores neuropáticos, presentes en el 50 % de las personas con lesión medular. 

Es más, en el Institut Guttman tienen un proyecto de investigación sobre cirugía del tumor cerebral. Uno de los peligros a la hora de extirparlos es el poder dañar tejido sano en el proceso, lo que puede dejar secuelas. En este proyecto, se aplica un protocolo de neuromodulación inhibitoria en el área que rodea el tumor, lo que la deja inactiva durante una ventana temporal y posteriormente un protocolo de rehabilitación intensiva. 

Por ejemplo, si lo que se inhibe es la zona del lenguaje, al aplicar un protocolo de rehabilitación, es decir, al paciente se le hace hablar, el cerebro, que es plástico, buscará otras zonas para hacer esa función. De ese modo, el neurocirujano tiene un margen mayor para extirpar el tumor con mayor seguridad y sin que le afecte al paciente.

En el caso de la neurorehabilitación los conflictos éticos no son evidentes, pero los avances tecnológicos siempre vienen acompañados de ciertas preguntas. Este tipo de tecnología ya empieza a extenderse también a contextos como el laboral o el del bienestar digital y desde el punto de vista jurídico la relevancia radica en que se está avanzando en la capacidad de acceder a información íntimamente vinculada a lo que nos hace humanos, como pensamientos, emociones o decisiones, y alterar directamente procesos cognitivos o conductuales a través de la estimulación cerebral.

«Lo más disruptivo de la neurotecnología se relaciona con lo que algunos describen como leer y escribir la mente: inferir aspectos subjetivos del pensamiento y, a su vez, alterar procesos neuronales con capacidad de modificar el comportamiento humano», explica Miguel Ángel Elizalde, director del máster universitario de Derechos Humanos, Democracia y Globalización de la UOC.

«El uso o la aplicación de estas neurotecnologías para ayudar en la rehabilitación nadie lo cuestionaría, pero estas neurotecnologías también se podrían utilizar en personas sanas para potenciar algún tipo de función», explica Javier Solana. Hay evidencia de que los protocolos de neuromodulación pueden favorecer la atención o incluso tener efectos positivos sobre la memoria, y aunque se trata de un campo científico todavía incipiente, «llegará un punto en el que seamos capaces, no tengo la menor duda, de descifrar concretamente cómo funcionan los circuitos de memoria en el cerebro. Llegaremos en un futuro a ser capaces de escribir cosas en la memoria de los cerebros», afirma el ingeniero biomédico.

Esos sistemas de potenciación en personas sanas abren dilemas éticos y morales importantes, como quién va a tener acceso a estas tecnologías, y cómo preservar la autonomía de la persona, es decir, «hasta qué punto las tecnologías te van a hacer hacer algo que tú no quieres» y, por supuesto, abre nuevos debates sobre la privacidad.

Según Milena Costas,relatora del Comité Asesor del Consejo de Derechos Humanos de la ONU sobre neurotecnología y derecho, la protección de datos confidenciales y la seguridad de los dispositivos digitales adquieren una importancia central. La posibilidad de que un dispositivo acceda a la mente sin consentimiento y con fines no autorizados —el llamado brainhacking— pone en riesgo tanto la privacidad como la integridad de nuestros pensamientos.

También preocupa la dependencia tecnológica y la capacidad de estos dispositivos para influir o manipular pensamientos, deseos o decisiones. Los riesgos ya son visibles: sin controles adecuados, gobiernos o empresas podrían utilizar estas tecnologías para interferir en procesos mentales. Además, el volumen de datos personales que acumulan unas pocas compañías plantea serias dudas sobre la concentración de poder. Todo ello podría, bajo usos aparentemente inocuos, socavar la autonomía individual.

También se plantean desafíos para el derecho en ámbitos como la autodeterminación, privacidad e identidad, por lo que los expertos advierten de que es urgente establecer límites regulatorios antes de que se generalice su uso en la vida cotidiana. «Ya se están desarrollando interfaces cerebro-computador que permitirán, por ejemplo, jugar a videojuegos sin usar las manos, solo con la mente. Si estas tecnologías se popularizan a través del entretenimiento o la productividad, el impacto social puede ser tan profundo como imprevisible», alerta Elizalde. «Lo que está en juego es precisamente la identidad de las personas. Imagina cómo afectaría que alguien pudiera saber tus pensamientos más íntimos y controlar tu comportamiento».

Según explican los participantes en la jornada de la UOC, en la actualidad no existen mecanismos democráticos suficientes para fomentar los usos beneficiosos de estas tecnologías y evitar su aplicación en objetivos indeseados, como el control gubernamental sobre las decisiones individuales o la explotación del big data con fines comerciales y de desinformación. Es más, el contexto político y económico actual tampoco favorece esta regulación.