Los límites éticos del transhumanismo

El transhumanismo es una corriente de pensamiento y de acción que pretende mejorar la humanidad mediante una especie de evolución no natural, recurriendo a la tecnología. Su manifiesto proclama anular el envejecimiento, las limitaciones cognitivas, el sufrimiento, las enfermedades y el confinamiento en la tierra. También defiende la tecnología y sus aplicaciones a todo nivel, de uso personal o grupal. Propende por el bienestar de toda conciencia (humana o no humana) y no está vinculado a ningún partido o movimiento político.

El transhumanismo está sustentado en una cosmovisión antropocéntrica, que pretende fusionar al humano con las máquinas y crear un súper humano. Sus tesis han tenido gran acogida a medida que la tecnología avanza y se comprueba la validez de las mismas. A este movimiento está de algún modo integrada la biomedicina, que ayuda a los pacientes a mejorar sus condiciones de salud recurriendo desde pastillas para la depresión, hasta a electrodos implantados a personas parapléjicas. Así ocurrió hace unos días en Suiza.

¿Cuál es el límite ético de la tecnología y por ende del transhumanismo? En una entrevista de 2018 el filósofo Inglés Julián Baggini hablaba sobre su acelerado avance, en un escenario donde ya se prevén cambios significativos y deshumanizantes, si se piensa tan solo en que el uso de la tecnología puede estar vinculado a la eliminación de ciertas características de la especie humana.

En ese mismo 2018 Antonio Diéguez, especialista en transhumanismo, decía que ya somos poshumanistas, pues utilizamos la tecnología para extender nuestra vida. Sea como fuere, la humanidad no está del todo lista para dar ese gran paso en el que se tendrían que redefinir conceptos como biología, muerte y vida. Si es que antes no destruimos el planeta y nuestra propia existencia…

El uso de la tecnología siempre ha estado ligado a la carrera armamentista. Los líderes mundiales utilizan la mayoría de sus recursos en la guerra, armamentos cada vez más sofisticados, drones y robots automáticos dirigidos e incluso tripulados por soldados.

Los Ángeles Times publicó un artículo el 2 de febrero sobre Spots o “perros robots”, un arma militar que el gobierno de Estados Unidos empezará a implementar para vigilar la frontera con México. Este robot fue utilizado en el 2019 en Massachusetts por la policía, ajustados a una meta que contempla utilizar armas solo en casos excepcionales, aunque ha despertado inquietudes por parte de los grupos en defensa de los derechos humanos.

El caso de Spot no es el único en el mundo, Israel posee un robot llamado Jaguar, que vigila la franja de gaza. Rusia tiene una serie de robots de combate capaces de actuar de manera autónoma, mientras que los ingleses pretenden para el año 2030 desarrollar unos 30.000 robots como parte de su ejército. China, Japón y Corea también poseen su propio arsenal robótico.

En noviembre del año pasado la Convención de Ginebra pretendió sacar de circulación a los “robots asesinos”, prohibir su utilización por tratarse de armas inhumanas. Human Rights Watch y la Clínica Internacional de Derechos Humanos de la Escuela de Derecho de Harvard en un comunicado conjunto declararon que “los robots carecen de la compasión, la empatía, la misericordia y el juicio necesarios para tratar a los seres humanos con humanidad, no pueden entender el valor inherente a la vida humana”. Estados Unidos y Rusia se opusieron al veto robótico, afirmando que es una decisión apresurada y no unánime.

Pero el problema de transhumanismo no solo se ve en un tema tan delicado como la guerra. El 28 de octubre el dueño de Facebook, Mark Zuckerberg, anunciaba el Metaverso, un mundo virtual creado por él y al que todos los usuarios de Facebook pueden acceder, prácticamente para quedarse ahí a vivir de una realidad virtual, remplazando las interacciones reales. Una apuesta grande en lo económico, que de todos modos no ha tenido total acogida en la bolsa de valores, ni por sus usuarios.

Si ninguna guerra ha sido ética, ¿cómo grupos económicos y políticos pueden programar éticamente a un robot de guerra? ¿Hasta qué punto estamos dispuestos a vivir en un mundo plenamente virtual, transportándonos a otra realidad y asumiéndola como la vida normal de las futuras generaciones? ¿Vale la pena utilizar recursos y dinero en armas robóticas que pueden provocar nuestra autodestrucción? ¿Hasta qué punto los transhumanistas están dispuestos a evaluar sus comportamientos?

Por último, ¿es previsible concebir una futura humanidad que aprenda a convivir y a solucionar los conflictos de manera inteligente, hacia la construcción del anhelado “super yo” que los transhumanistas plantean y tanto defienden como algo posible…?

* Columna para El Unicornio

                                            imagen iaqua.com


Comentarios

Entradas populares