¿Pueden las neurotecnologías que se usan IA para curar enfermedades poner en riesgo nuestra privacidad mental?
COMPARTIR
Si bien, las neurotecnologías que usan la IA son capaces de curar enfermedades tales como el Parkinson y la depresión y favorecer el bienestar mental, también pueden alterar la mente y leer el pensamiento
Hasta ahora, si bien las neurotecnologías que hacen uso de la inteligencia artificial son capaces de lograr curar enfermedades tales como el Parkinson o la depresión, así como favorecer el bienestar mental, al mismo tiempo pueden alterar nuestra mente y leer nuestros pensamientos, explica Sara Ibrahim en su artículo titulado “Las neurotecnologías con IA pueden curar enfermedades crónicas, pero peligra la privacidad mental” publicado en swissinfo.
Ibrahim evoca que el primer electrodo que tenía la capacidad de poder hacer un registro de “la actividad cerebral” fue implantado en un cráneo humano en 1924. Un siglo después añade, la neurotecnología ha evolucionado a través del uso de la inteligencia IA, misma que consiguió devolver el habla, así como la movilidad a personas que padecían afasia y alguna discapacidad motora.
TE PUEDE INTERESAR: ¿Es capaz la Inteligencia Artificial de prevenir los problemas de salud mental?
Al incorporar el uso de la IA en los dispositivos que “interactúan con el cerebro” posibilitan poder “interpretar en tiempo real datos neuronales complejos y adaptar la respuesta a las necesidades individuales del paciente”; y es gracias a “innovación” que se abre una ventana para incrementar las “opciones de tratamiento de enfermedades como el Parkinson y el Alzheimer”, precisa Ibrahim
No obstante, si bien estos avances en la neurotecnología abren una ventana de posibilidades, también se eleva la preocupación debido al potencial que estas tecnologías poseen para modificar tanto la personalidad como la libertad del pensamiento en las personas.
“En su día, las neurotecnologías (dispositivos que interactúan directamente con el cerebro o el sistema nervioso) se consideraban ciencia ficción. Ya no. Varias empresas están desarrollando y algunas incluso están probando “interfaces cerebro-ordenador” (BCI, por sus siglas en inglés), de las cuales la más destacada es probablemente Neuralink de Elon Musk. El 29 de enero de 2024, Musk anunció que el primer humano en los ensayos clínicos de la empresa había recibido un implante cerebral”, explica Laura Y. Cabrera, profesora adjunta de Neuroética, en Penn State en su artículo “New neurotechnology is blurring the lines around mental privacy − but are new human rights the answer?“, publicado en The Conversation en 2023.
En opinión de Milena Costas Trascasas, quien es experta independiente en derechos humanos de la Organización de las Naciones Unidas (ONU) “Las neurotecnologías pueden socavar la privacidad, la autonomía y la integridad mental como nunca antes”.
NEUROTECTOLOGÍA Y BIENESTAR MENTAL
Con el apogeo de la neurotecnología de “consumo para el bienestar mental”, tales como “las bandas que monitorizan la actividad cerebral” usadas con el propósito de disminuir “el estrés o mejorar el sueño, entramos en una peligrosa zona gris”, añade Trascasas.
Por lo que las empresas privadas que tienen el control del desarrollo de estas tecnologías, también tendrían la capacidad de acceder a nuestros datos neuronales, por lo tanto analizarlos y podrían hacer uso de estos con propósitos comerciales, precisa Ibrahim.
“Estamos hablando de explotar el último refugio de la privacidad, que es la mente”, afirma la experta independiente en derechos humanos de la ONU.
TE PUEDE INTERESAR: Un análisis de sangre podría predecir el Parkinson siete años antes de los síntomas
Por otra parte, tanto la investigación como las patentes vinculadas a la neurotecnología “se han multiplicado por veinte en las últimas dos décadas”, según un informe de las Naciones Unidas citado por Y. Cabrera, y a su vez, prosigue la profesora adjunta de Neuroética, “los dispositivos son cada vez más potentes” que estos tienen la capacidad de recabar los datos de nuestro cerebro, así como de otras partes de nuestro sistema nervioso “de forma más directa, con mayor resolución, en mayor cantidad y de forma más generalizada”, concluye Y. Cabrera.
Así mismo, la profesora adjunta de Neuroética, señala que las inquietudes sobre la neurotecnología y la privacidad tienen como base “la idea de que un observador puede “leer” los pensamientos y sentimientos de una persona simplemente a partir de grabaciones de su actividad cerebral”.
En este sentido, Y. Cabrera precisa que “es cierto que algunas neurotecnologías pueden registrar la actividad cerebral con gran especificidad” y pone como ejemplo, la evolución en “conjuntos de electrodos de alta densidad” que tienen la capacidad de realizar una “grabación de alta resolución de múltiples partes del cerebro”.
No obstante, Y. Cabrera explica que si bien los investigadores pueden hacer deducciones acerca de “los fenómenos mentales e interpretar el comportamiento basándose en este tipo de información”; poder hacer una lectura de “la actividad cerebral registrada no es sencillo. Los datos ya han pasado por filtros y algoritmos antes de que el ojo humano obtenga el resultado”.
Siendo así que “si bien las neurotecnologías plantean importantes preocupaciones sobre la privacidad, sostenemos que los riesgos son similares a los de las tecnologías de recopilación de datos más conocidas, como la vigilancia en línea cotidiana: el tipo que la mayoría de las personas experimentan a través de los navegadores de Internet y la publicidad, o los dispositivos portátiles. Incluso los historiales de navegación de los ordenadores personales pueden revelar información muy sensible”, concluye la profesora adjunta de Neuroética.
EL CONSEJO DE DERECHOS HUMANOS DE LA ONU Y LA UNIÓN EUROPEA BUSCAN UNA REGULACIÓN
Y. Cabrera resalta que debido a la evolución de las neurotecnologías estas mejoras han provocado nerviosismo en relación con “la privacidad mental y la autonomía humana”; se cuestiona, “¿quién es el propietario de los datos generados y quién debería tener acceso a ellos? ¿Podría este tipo de dispositivos amenazar la capacidad de las personas para tomar decisiones independientes?”
En respuesta al avance de las neurotecnologías que hacen uso de la inteligencia artificial el Consejo de Derechos Humanos de la ONU, encargó a su comité asesor, del que es parte Trascasas, se elabora un un informe en relación con su impacto.
Por su parte, la UNESCO debido a las posibles amenazas a la privacidad mental esta elaborando una serie de recomendaciones globales. Además del “neuromarketing“, el reporte de la ONU hace referencia a otras posibles aplicaciones comerciales que también le preocupa, tal como el “neurojuego”, sobre todo el probable impacto en los niños y jóvenes, que podrían estar en riesgo de ser incitados tanto al “consumo compulsivo y a la adicción”, describe Ibrahim.
Y. Cabrera, hace mención en su artículo la conferencia sobre la ética de la neurotecnología que se llevó acabo en julio de 2023, convocada por la UNESCO en la que solicitó la creación de un marco legar con el objetivo de proteger los derechos humanos.
“Algunos críticos incluso han argumentado que las sociedades deberían reconocer una nueva categoría de derechos humanos, los “neuroderechos”. En 2021, Chile se convirtió en el primer país cuya constitución aborda las preocupaciones sobre la neurotecnología”, apunta Y. Cabrera y prosigue diciendo que “los avances en neurotecnología plantean importantes preocupaciones sobre la privacidad. Sin embargo, creo que estos debates pueden pasar por alto amenazas más fundamentales a la privacidad”.
De este modo, las tecnologías que usadas con el fin de mejorar el rendimiento laboral y la concentración, también ponen sobre la mesa varias cuestiones éticas y jurídicas, lo mismo sucede con aquellas que son utilizadas para “potenciar las capacidades humanas y la resistencia al estrés y las emociones, sobre todo en contextos militares”, señala Trascasas
Por lo que Trascasas concluye “muchos de estos usos promovidos son preocupantes porque desconocemos los efectos que pueden tener sobre la salud mental y la integridad personal”.
Con información de Swissinfo, The Conversation.