Las noticias aparecidas en prensa sobre el primer implante neuronal de la empresa Neuralink, llamado Telepathy, usado en humanos ha sorprendido al mundo tan solo hace unos días.
Elon Musk, gerente de Neuralink, anunciaba sin rubor y con aire triunfante que este implante se había colocado con éxito en un paciente y que había obtenido la aprobación de la FDA (agencia de medicamentos estadounidense).
Pero no todo es positivo en este sorpresivo anuncio. La empresa Neuralink ha sido investigada por la muerte de monos en la fase de experimentación del implante, lo cual lleva a pensar que la aplicación en humanos no estará exenta de problemas en el futuro.
Además de posibles problemas sanitarios, existen cuestiones éticas que se deben analizar.
El problema ético que se deriva de este nuevo dispositivo médico es, como siempre, el uso que se hará del mismo y las consecuencias futuras en la salud de los pacientes y en la reconfiguración de la humanidad en su conjunto.
Desde un punto de vista ético, si su aplicación está destinada a tratar enfermedades neurológicas, como sería el caso de pacientes tetrapléjicos, para mejorar o incluso recuperar su movilidad, este nuevo avance científico sería un éxito sin precedentes, que se debería celebrar. Daría una segunda oportunidad a personas a las que la medicina, hasta el momento, no ha podido ayudar.
Si, por el contrario, su aplicación está destinada también a permitir la comunicación telepática entre dispositivos electrónicos (móviles, ordenadores) y el cerebro humano, a compartir o robar neurodatos, a “hackear” y manipular mentes o incluso a la denominada mejora humana, el debate ético no solo es necesario, sino imprescindible.
La mera posibilidad de que estos dispositivos implantables en el cerebro humano abran las puertas al control de las mentes, de los pensamientos, de los (neuro)datos o incluso de las emociones exige a una reflexión profunda por parte de todas las partes implicadas (sociedad, pacientes, empresa, gobiernos).
Las consecuencias a largo plazo de este nuevo implante son insospechadas, ni siquiera los científicos las conocen, pero, sin duda, no invitan al optimismo de Musk.
La cautela y el principio de precaución instan a adoptar un enfoque de gestión del riesgo en el uso y aplicación de cualquier acción que pueda causar daños a las personas o al medio ambiente. En este caso, la acción está directamente vinculada con la percepción del ser humano, con su intimidad y su privacidad. Toda cautela es poca ante un giro antropológico de esta magnitud.
No obstante, no parece que el anuncio de Elon Musk tenga en cuenta estas premisas de gestión del riesgo, sino que responde a estrategias empresariales de marketing para anunciar la cura de todos aquellos problemas que afligen a la humanidad, dando quizás demasiadas esperanzas y pocas certidumbres.
La vulnerabilidad humana, que es precisamente lo propiamente humano, lo que convierte a las personas en seres humanos frágiles dependientes de los demás y del entorno, no desaparecerá con nuevos dispositivos científicos implantables en el cerebro.
Por el contrario, este tipo de avances o, mejor dicho “inventos”, abocan al conjunto de la Humanidad a una suerte de vulnerabilidad poshumana íntimamente relacionada con el acceso a estas nuevas tecnologías, que serán muy rentables también económicamente.
Cabe recordar que estos nuevos dispositivos médicos son y serán objeto de derechos de patente y tendrán un coste elevado en el mercado para obtener beneficios económicos y recuperar la inversión realizada por parte de las empresas.
Por lo tanto, la vulnerabilidad poshumana está íntimamente relacionada con la bioprecariedad, es decir, con la falta de acceso a productos necesarios para la vida, ya sea en forma de fármacos en un primer momento y, ahora, de dispositivos médicos, para poder disfrutar de una mejor calidad de vida.
Por otra parte, las personas que efectivamente tengan la posibilidad de usar estos implantes neuronales en un futuro deberían plantearse cuestiones como las siguientes:
- ¿Estarán debidamente informados de los efectos secundarios, problemas futuros o incluso manipulación de sus mentes?
- ¿Existirá un consentimiento realmente informado para el uso de este implante?
- ¿Existirá una protección de los datos neuronales eficaz o real, o bien esos datos tan sensibles serán propiedad de la empresa?
En el caso de que estos implantes sean utilizados con otros fines, ya no de cura de enfermedades, sino de control telepático de dispositivos, ¿dónde se almacenarán esos Big data personales e intransferibles? Al respecto de la protección de los datos, en especial, los sanitarios, cabe recordar que la empresa de pruebas genéticas, 23andMe, vendió datos genéticos de sus clientes a la industria farmacéutica para el desarrollo de nuevos fármacos en el año 2020.
En el año 2023, esta misma empresa sufrió un ciberataque por parte de piratas informáticos, que robaron miles de perfiles genéticos y los pusieron a la venta.
En un escenario futuro, es posible aventurar que estos ciberataques serán mucho más habituales dado el gran valor económicos de estos Big Data, que se han convertido en el nuevo oro de la era actual no solo para la industria farmacéutica, sino para los seguros médicos o los departamentos de recursos humanos.
La consecuencia será que la privacidad, la intimidad y la confidencialidad de los datos de la mente de las personas que podrían caer en las manos equivocadas, con consecuencias insospechadas.
En el año 2019, el historiador y escritor Yuval Noah Harari se refirió explícitamente a este escenario al afirmar en un artículo que los “cerebros hackeados votan”, denunciando que ya se estaba investigando la posibilidad de piratear el cerebro humano para que las personas visitaran determinados anuncios o enlaces. De esta manera, se podría influir en la mente de una manera mucho más eficaz y directa para vender políticas o ideologías.
Además, el implante neuronal de Musk tiene otra vertiente destacable. Su filosofía empresarial entronca directamente con los presupuestos del transhumanismo, una corriente intelectual que concibe el ser humano como un producto imperfecto, una obra inacabada, que la ciencia puede perfeccionar.
No obstante, la mejora humana propuesta por el transhumanismo, ya sea mediante dispositivos físicos o farmacología, no eliminará la vulnerabilidad humana, sino que la transformará. En este sentido, el filósofo Mark Coecklebergh ya ha planteado que, en el futuro, la elección ética no estará entre humanos vulnerables y poshumanos invulnerables, sino entre diferentes formas de humanidad y de vulnerabilidad.
Hace unos días, la noticia del fallecimiento de un bebé de tan solo dos años por inanición volvía a situar en el centro del debate la vulnerabilidad y fragilidad humanas, y la necesidad de dar un giro radical a las condiciones de vida “inhumanas” de muchas personas.
Al tiempo que Musk anuncia sus avances hacia una humanidad mejor y mejorada mediante tecnología de última generación, gran parte del mundo sigue sufriendo los efectos colaterales de la bioprecariedad en todos los sentidos (digital o farmacológica). Y las enfermedades olvidadas de los países en vías de desarrollo como la malaria o el mal de Chagas siguen sin disponer de tratamientos nuevos, por no ser rentables.
De nuevo la ética, la bioética, en particular y la filosofía en general deben tender un más que necesario puente entre los avances científicos, el rendimiento económico de las empresas y las necesidades sanitarias.
El precio de la vulnerabilidad poshumana no lo deben marcar las leyes de mercado, sino las necesidades humanas. El giro antropológico sin precedentes al que se está asistiendo con el auge de la inteligencia artificial y los nuevos dispositivos médicos puede cambiar radicalmente la vida de los seres humanos, no siempre para mejor.
En ese camino hacia lo desconocido, la reflexión ética presagia que no existen atajos, sino solo la necesidad de ejercer la cautela y de establecer límites a la ciencia. Este es el único modo de proteger la identidad de los seres humanos y el futuro de la humanidad en su conjunto.