El escritor israelí Yuval Noah Harari alerta sobre el peligro de una humanidad sin empatía

Vida
/ 19 septiembre 2018

Los humanos tienen voluntad, solo que ésta no es libre. No puedes escoger lo que deseas tener. Los humanos toman ciertamente decisiones, pero estas decisiones nunca son independientes.

La fusión de la bioingeniería y la tecnología de la información brindará a los gobiernos y las empresas las herramientas necesarias para manipular más a la gente en el futuro, alertó el historiador y escritor israelí Yuval Noah Harari en una entrevista con dpa con motivo de la presentación en Alemania de su libro "21 Lecciones para el Siglo XXI”.

dpa: Usted señala en su libro "Homo Deus" que la ciencia ha demostrado que el hombre carece de libre albedrío. Al mismo tiempo escribe libros para que la gente piense sobre el futuro y tome mejores decisiones. ¿Cómo explica esto?

Harari: Los humanos tienen voluntad, solo que ésta no es libre. No puedes escoger lo que deseas tener. Los humanos toman ciertamente decisiones, pero estas decisiones nunca son independientes. Cada decisión depende de una cantidad de condiciones biológicas, sociales y personales que uno no puede escoger a voluntad. No elegiste tus genes, tu género, tus padres, tus vecinos, tu cultura. Intenta seguir a nivel consciente el curso del próximo pensamiento que se te viene a la cabeza. ¿De dónde provenía? ¿Decidiste libremente pensar esto en particular y entonces lo pensaste? Obviamente que no fue así.

dpa: ¿Qué se deduce de esto?

Harari: La idea de que los humanos son sujetos completamente independientes que escogen libremente sus propios pensamientos y deseos es ridícula desde el punto de vista científico y peligrosa desde el punto de vista político. En siglos anteriores, el peligro era reducido porque ningún Gobierno o corporación contaba con los conocimientos biológicos y el poder informático necesarios para controlar sus pensamientos y deseos. Pero ahora, algunos gobiernos y corporaciones están obteniendo el poder para hackear y manipular a la gente. Y lo más facil es manipular a la gente que cree que no puede ser manipulada porque tiene "libre albedrío".

dpa: ¿Cuál es su advertencia concreta?

Harari: Trato de alertar a la gente de que son animales susceptibles de ser hackeados. Precisamente por el hecho de que la gente no es completamente independiente puedo tratar de influir en sus decisiones. ¿Y por qué importa esto? Porque algunas decisiones causan un montón de sufrimiento mientras que otras decisiones ayudan a evitar sufrimiento. La gran cuestión para mí es cómo liberarnos del sufrimiento. Una condición muy importante para evitar el sufrimiento es librarnos de las ilusiones que tenemos en cuanto a nosotros mismos, incluida la ilusión de que nuestros deseos reflejan nuestra "voluntad libre".

dpa: ¿Qué ventajas traería esto?

Harari: Si los entendemos podemos reaccionar de forma menos obsesiva a nuestros deseos. Los seres humanos le dan tanta importancia a sus deseos que intentan controlar y formar el mundo entero de acuerdo a sus deseos. Si entienden que sus deseos no son productos del libre albedrío entonces ojalá se dejen dominar menos por ellos. Si nos comprendemos a nosotros mismos y comprendemos nuestros deseos, tal y como son verdaderamente, el mundo será un lugar mucho mejor que si tratamos constantemente de realizar todo deseo que se nos ocurra.

dpa: Usted argumenta que ni la identidad, la conciencia o la inteligencia elevan al hombre por encima del animal, sino las creencias en mitos comunes, las historias: la religión, la nación, el humanismo, el dinero. ¿Cuál será la próxima gran historia que dé estabilidad a un mundo cambiante?

Harari: No lo sabemos. Si lo supiésemos ya estaríamos creyendo en esto. Una historia ficticia funciona bien siempre y cuando se piense que es realidad.

dpa: Usted predijo que la fusión de biotecnología e inteligencia artificial daría a luz a una nueva forma de ser humano. Y que podría haber seres humanos que serían tratados por una pequeña élite como son tratados los animales. ¿Cómo se podría frenar esta evolución?

Harari: Tenemos que entender mucho mejor la mente humana. Los gobiernos, las corporaciones y los ejércitos emplearán probablemente una tecnología para mejorar las capacidades que necesitan y al mismo tiempo descuidarán otras necesidades humanas y partes desconocidas del potencial humano. Por ejemplo, los gobiernos y las corporaciones probablemente alentarán el desarrollo de la inteligencia y la disciplina mientras que tendrán escaso interés en desarrollar la empatía o la espiritualidad. El resultado serán humanos muy inteligentes y disciplinados que carecen de empatía y profundidad espiritual.

dpa: ¿Y eso qué quiere decir?

Harari: Se lo hemos hecho a vacas. Hemos criado vacas dóciles que producen enormes cantidades de leche pero son mucho menos ágiles y curiosas que sus antecesoras salvajes. Ahora estamos creando humanos que funcionan como chips eficientes en un gigantesco mecanismo de procesamiento de datos pero que a duras penas desarrollan el potencial humano. En efecto, podríamos perder una gran parte de nuestro potencial humano sin siquiera ser conscientes de que lo teníamos. Para impedir esto necesitamos invertir en la investigación y el desarrollo de la mente humana por lo menos tanto como en la investigación y el desarrollo de nuevas tecnologías.

YUVAL NOAH HARARI (Israel, 1976) es historiador y autor de dos libros de gran éxito sobre el pasado y el futuro de la humanidad, "Sapiens" y "Homo Deus". Harari es catedrático de historia de la Universidad Hebrea de Jerusalén y es invitado a dar charlas en todo el mundo. Habla maravillas de la meditación, a la que dedica dos horas al día, y evita comer carne y productos lácteos por el sufrimiento que padecen los animales.

COMENTARIOS

TEMAS
NUESTRO CONTENIDO PREMIUM