Un accidente cerebrovascular privó a una mujer de la capacidad de hablar, 20 años después gracias a la IA vuelve a expresarse
COMPARTIR
Hace 20 años Ann Johnson sufrió un accidente cerebro vascular que la dejó paralizada y sin poder hablar; ahora gracias a la inteligencia artificial recuperó la voz, para los científicos este es un hito de la neurociencia y la IA
San Francisco- En la recepción de bodas de Ann Johnson hace 20 años, su talento para hablar en público fue de lo más evidente. En un vivaz brindis de 15 minutos, dijo en broma que había corrido hacia el altar, se preguntó si el programa de la ceremonia debería haber dicho “flutista” o “flautista” y reconoció que había “acaparado el micrófono”.
Tan solo dos años después, Johnson, que entonces tenía 30 años, era maestra, entrenadora de voleibol y acababa de tener un bebé, sufrió un devastador ataque cerebral que la dejó paralizada y sin poder hablar.
TE PUEDE INTERESAR: ¿Cómo ayuda el traje háptico ayuda a una persona con discapacidad auditiva a sentir la música a través de la piel?
El 23 de agosto, algunos científicos dieron a conocer un avance impresionante para ayudar a Johnson y a otros pacientes a volver a hablar. Se trata de un hito de la neurociencia y la inteligencia artificial. Una serie de electrodos implantados en el cerebro de Johnson descifraron las señales cuando intentó decir oraciones sin emitir un solo sonido. La tecnología convirtió esas señales cerebrales en lenguaje escrito y verbal, además de mostrar en una pantalla de computadora un avatar que pronunció las palabras e hizo gestos como sonreír y fruncir los labios.
La investigación, publicada en la revista científica Nature, hace constar la primera ocasión en que se han sintetizado directamente palabras habladas y expresiones faciales de señales cerebrales, afirman los expertos. Johnson eligió el avatar, con un rostro similar al suyo, y los investigadores utilizaron el brindis de su boda para desarrollar la voz del avatar.
“Solo intentamos restablecer a las personas a su propio ser”, explicó el líder del equipo, Edward Chang, director de cirugía neurológica en la Universidad de California, campus San Francisco.
“Me hizo sentir completa de nuevo”, me escribió Johnson, quien ahora tiene 48 años.
El objetivo es ayudar a personas que no pueden hablar como consecuencia de embolias o padecimientos como parálisis cerebral y la enfermedad de Lou Gehrig (también llamada esclerosis lateral amiotrófica, o ELA). Para que funcione, el implante de Johnson debe conectarse con un cable de su cabeza a una computadora, pero su equipo y otros más ya están desarrollando versiones inalámbricas. Los investigadores esperan conseguir que las personas que han perdido el habla puedan conversar en tiempo real a través de imágenes computarizadas de sí mismas que también comuniquen tonos, inflexiones y emociones como la alegría y el enojo.
“Algo muy emocionante es que, con solo estudiar la superficie del cerebro, los investigadores pudieron obtener muy buena información sobre estas distintas características de la comunicación”, comentó Parag Patil, neurocirujano e ingeniero biomédico de la Universidad de Míchigan, a quien Nature le encomendó la revisión del estudio antes de su publicación.
La experiencia de Johnson refleja los avances acelerados en este campo. Apenas hace dos años, el mismo equipo publicó un estudio sobre un hombre paralizado, al que llamaron Pancho, que utilizó un implante más sencillo y un algoritmo para producir 50 palabras básicas como “hola” y “hambre” que se desplegaban en forma de texto en una computadora cuando intentaba decirlas.
TE PUEDE INTERESAR: Parapléjico volvió a caminar gracias a una interfaz cerebro-ordenador con Inteligencia Artificial
El implante de Johnson tiene casi el doble de electrodos, por lo que detecta mejor las señales cerebrales de procesos sensoriales y motores relacionados con el habla en los que intervienen la boca, los labios, la quijada, la lengua y la laringe. Los investigadores entrenaron a la sofisticada IA para que pudiera reconocer, en vez de palabras individuales, fonemas (unidades de sonido) como “au” y “ah” que forman distintas palabras.
“Es como un alfabeto de sonidos hablados”, explicó David Moses, el director del proyecto.
El sistema de Pancho producía entre 15 y 18 palabras por minuto; ahora, Johnson produce 78 y emplea un vocabulario mucho más extenso. En una conversación típica, se verbalizan unas 160 palabras por minuto.
Cuando los investigadores comenzaron a trabajar con ella, no esperaban probar el avatar ni el audio. Pero los prometedores resultados fueron “una enorme luz verde para animarnos a intentar algo más difícil, para poner manos a la obra”, relató Moses.
Programaron un algoritmo capaz de expresar la actividad cerebral en ondas de audio, para así producir el sonido del habla, explicó Kaylo Littlejohn, estudiante de posgrado en la Universidad de California, campus Berkeley, y uno de los principales autores del estudio, junto con Moses, Sean Metzger, Alex Silva y Margaret Seaton.
“El habla contiene muchísima información que no se preserva bien solo con texto, como la entonación, el tono o la expresión”, señaló Littlejohn.
En colaboración con una empresa que produce animación facial, los investigadores programaron el avatar con datos sobre movimientos musculares. Luego, Johnson intentó hacer las expresiones faciales para mostrar que estaba feliz, triste y sorprendida, cada una a intensidad alta, media y baja. También intentó hacer varios movimientos de quijada, lengua y labios. Sus señales cerebrales transformadas se comunicaron mediante el rostro del avatar.
Con el avatar, dijo: “Creo que son maravillosos” y “¿Qué les parece mi voz artificial?”.
“Es muy emotivo escuchar una voz similar a la tuya”, les dijo Johnson a los investigadores.
Incluso conversó con su esposo, William Johnson, quien es empleado postal. A través del avatar le dijo: “No me hagas reír”. Su esposo le preguntó qué posibilidades les veía a los Azulejos de Toronto. “Todo es posible”, respondió.
Este campo avanza a tal velocidad que los expertos creen que quizás en la próxima década estén disponibles versiones inalámbricas con aprobación federal. Es posible que para algunos pacientes sea mejor emplear métodos distintos.
El 23 de agosto, Nature también publicó un estudio de otro equipo en el que se implantaron electrodos a mayor profundidad en el cerebro y se detectó la actividad de neuronas individuales, indicó Jaimie Henderson, profesor de neurocirugía en la Universidad de Stanford y director del equipo, cuya motivación fue la experiencia durante su infancia de observar a su padre perder el habla tras un accidente. Afirmó que su método podría ser más preciso pero menos estable, pues los patrones de activación de neuronas específicas pueden cambiar.
Su sistema decodificó oraciones, a un ritmo de 62 palabras por minuto, que la participante, Pat Bennett, de 68 años, quien sufre ELA, intentó decir con un vocabulario amplio. Ese estudio no incluyó un avatar ni decodificó sonido.
Ambos estudios utilizaron modelos de lenguaje predictivo para ayudar a adivinar las palabras de una oración. Los sistemas no solo asocian las palabras, sino que “intentan descubrir nuevos patrones de lenguaje” a medida que van reconociendo mejor la actividad neuronal de los participantes, aseveró Melanie Fried-Oken, experta en tecnología de apoyo para el habla y el lenguaje de la Universidad de Salud y Ciencia de Oregón y consultora que colaboró con el estudio de Stanford.
Ninguno de los métodos fue totalmente preciso. Cuando se utilizaron listas largas de vocabulario, la decodificación de palabras individuales fue incorrecta casi en la cuarta parte de las oraciones.
Por ejemplo, cuando Johnson intentó decir “Maybe we lost them” (quizá los perdimos), el sistema decodificó la frase “Maybe we that name” (quizá nosotros ese nombre). Pero en casi la mitad de sus oraciones descifró correctamente todas las palabras.
Los investigadores descubrieron en una plataforma de colaboración masiva que las personas podían interpretar de manera correcta las expresiones faciales del avatar la mayoría de las veces. Interpretar lo que decía la voz era más complicado, por lo que el equipo está desarrollando un algoritmo predictivo para mejorarla. “Nuestro avatar hablante es solo el principio”, enfatizó Chang.
Johnson se puso en contacto con Chang en 2021, al día siguiente de que su esposo le mostró mi artículo sobre Pancho, el hombre paralizado al que habían ayudado los investigadores. Chang relató que, en un principio, la desalentó porque vivía en Saskatchewan, Canadá, lejos de su laboratorio en San Francisco, pero “fue persistente”.
William Johnson, de 48 años, hizo arreglos para trabajar medio tiempo. “Ann siempre me ha apoyado para hacer lo que he querido”, incluso ser dirigente local de su sindicato postal, comentó. “Así que me pareció importante poder apoyarla en esta ocasión”.
Comenzó a participar en septiembre pasado. Tardan tres días en viajar a California en una camioneta repleta de equipo, incluido un elevador para trasladarla de la silla de ruedas a la cama y de regreso. Ahí, rentan un apartamento, donde los investigadores realizan los experimentos para que sea más fácil para ella. La pareja Johnson, que ha recaudado dinero en línea y en su comunidad para poder pagar los viajes y la renta en los años que ha durado el estudio, pasa varias semanas en California y regresa a casa en los intervalos entre las distintas fases de la investigación.
Ann Johnson se comunicó conmigo a través de correos electrónicos escritos con el sistema de apoyo más rudimentario que emplea en casa. Usa unos anteojos con un punto brillante que apunta a distintas letras y palabras en una pantalla de computadora.
Es lento, solo le permite generar 14 palabras por minuto. Pero es más rápido que la otra opción que tiene para comunicarse en casa con un tablero de letras de plástico y un método que William Johnson describe como “su intento de mostrarme qué letra trata de ver y luego el mío de adivinar qué quiere decir”.
Ann Johnson daba clases de matemáticas, salud y educación física a nivel preparatoria, además de que entrenaba a equipos de voleibol y basquetbol, cuando sufrió la embolia cerebral mientras calentaba para jugar voleibol. Después de un año en el hospital y en un centro de rehabilitación, regresó a vivir con su hijastro de 10 años y su hija de 23 meses, que ha crecido sin ningún recuerdo de haber escuchado hablar a su mamá, relató William Johnson.
“No poder abrazar y besar a mis hijos es muy doloroso, pero es mi realidad”, escribió Ann Johnson. “Lo más terrible fue saber que no podría tener más hijos”.
Durante cinco años después de la embolia, vivió aterrada. “Creía que me iba a morir de un momento a otro”, escribió, y añadió: “La parte de mi cerebro que no estaba congelada sabía que necesitaba ayuda, pero no sabía cómo comunicarme”.
Poco a poco, recuperó su determinación. En un principio, “mis músculos faciales no hacían nada”, escribió, pero después de unos cinco años logró sonreír a voluntad.
Al principio, cuando empezó a expresar emociones con el avatar, “me sentía boba, pero me gusta sentir que tengo un rostro expresivo de nuevo”, escribió, y añadió que los ejercicios también le permitieron mover el lado izquierdo de su frente por primera vez.
También ha conseguido algo más. Después de la embolia, “me dolió tanto perderlo todo”, escribió. “Me dije a mí misma que nunca más iba a arriesgarme a sufrir de nuevo una decepción así”.
Ahora “siento que tengo trabajo otra vez”, escribió.
Además, la tecnología le permite imaginar que está en “Star Wars”: “Como que se me ha hecho costumbre estar maravillada”. c.2023 The New York Times Company.
Por Pam Belluck, The New York Times.