Estafadores usaron IA para clonar voz de adolescente para armar un secuestro falso

Noticias
/ 14 junio 2023

Su mamá describió la desgarradora llamada que creía que hizo su hija Brianna, de 15 años, el 20 de enero

Una madre de Arizona traumatizada por estafadores enfermos que usaron inteligencia artificial para clonar la voz de su hija adolescente en un complot de secuestro falso, describió en un testimonio apasionante ante el Congreso cómo los estafadores despiadados amenazaron con bombear el estómago de su hija “tan lleno de drogas” si no pagaba su rescate.

Jennifer DeStefano, madre de dos hijos de Scottsdale, se sentó ante el Comité Judicial del Senado el martes y describió la desgarradora llamada que creía que hizo su hija Brianna, de 15 años, el 20 de enero.

TE PUEDE INTERESAR: Inteligencia artificial cambiará por completo el aprendizaje en la educación básica

La madre está pidiendo que los legisladores tomen medidas urgentes para abordar las amenazas de AI después de que dijo que las autoridades desestimaron su denuncia.

DeStefano les dijo a los miembros del subcomité de derechos humanos y la ley que estaba recogiendo a su hija menor, Aubrey, del ensayo de baile cuando recibió una llamada de un número desconocido.

“En el timbre final, elegí contestar, ya que las llamadas desconocidas a menudo pueden ser un hospital o un médico”, recordó.

“Era Briana sollozando y llorando, diciendo: ‘Mamá’. Al principio, no pensé en eso y casualmente le pregunté: ‘¿Qué pasó?’ Tenía el teléfono en el altavoz al entrar al estacionamiento para encontrarme con su hermana”, le dijo al panel.

Se suponía que Brianna estaría con su padre entrenando para una carrera de esquí.

“’¡Mamá, me equivoqué!’”, Dijo la persona que ella pensó que era su hija entre sollozos incontrolables, relató la madre traumatizada. “’Mamá, estos hombres malos me tienen. ¡Ayúdame! ¡Ayúdame!’”.

Ella describió cuán realista era el clon porque “no era solo su voz, eran sus gritos, eran sus sollozos”.

De repente, una escalofriante voz masculina se interpuso en la línea y exigió un rescate de 1 millón de dólares.

“Un hombre amenazante y vulgar atendió la llamada. ‘Escucha aquí tengo a tu hija, llamas a cualquiera, llamas a la policía, voy a bombear su estómago tan lleno de drogas. Me saldré con la mía, con ella. La dejaré en México. Nunca volverás a ver a tu hija’”, recordó emocionado DeStefano, luchando por contener las lágrimas.

“Comenzó en $ 1 millón. Se redujo a $50,000 porque eso no era posible. Le pedí instrucciones de cableado”, dijo, y agregó que él se negó y le exigió que se subiera a una camioneta con una bolsa en la cabeza y el dinero en efectivo en la mano.

Otra mamá pronto le dijo que se había comunicado con su esposo, quien encontró a Brianna “descansando segura en la cama”.

“Ella vino a mí y me dijo que Brianna estaba a salvo, pero no le creí porque acababa de hablar con mi hija y estaba muy segura de su voz y estaba muy segura de sus llantos”, dijo.

“Nunca podré quitarme esa voz y los gritos desesperados de ayuda de mi mente”, agregó.

“Es la peor pesadilla de todos los padres, escuchar a sus hijos, suplicar con miedo y dolor, sabiendo que están siendo dañados y están indefensos”.

DeStefano dijo que más tarde descubrió que las estafas de inteligencia artificial son comunes.

“Pueden usar no solo la voz, sino también la inflexión, la emoción. Todavía no lo creía, porque escuché, hablé con mi hija. Era mi hija”, dijo.

Cuando la angustiada madre denunció la cruel y profunda estafa falsa a la policía, dijo que lo llamaron una “llamada de broma” y le dijeron que no se podía hacer nada, ya que no se había producido ningún secuestro y no se había enviado dinero.

El senador demócrata de Georgia, Jon Ossoff, dijo que celebró la reunión para que el Senado “pudiera investigar y comprender la naturaleza de las amenazas del abuso del uso de la inteligencia artificial”.

Dijo que los legisladores han “identificado algunas áreas importantes en las que puede ser necesaria una nueva legislación, o presionar a las agencias federales de aplicación de la ley para proteger mejor a las familias en Georgia y en todo el país de estas amenazas”.

Varios expertos también se dirigieron al panel del Senado el martes, incluido Aleksander Madry, profesor de ciencias de la computación en el Instituto de Tecnología de Massachusetts y director del Centro de Aprendizaje Automático Implementable del MIT.

“La ola más nueva de IA generativa está lista para transformar fundamentalmente nuestro sentido colectivo”, dijo Madry, según Courthouse News.

“Creo que pase lo que pase, el público necesita entender cómo interactuar con los sistemas de IA y estar atento a cuándo interactúan realmente con la IA en primer lugar. No queremos aprender esto de la manera difícil”, dijo.

Alexandra Reeve Givens, directora ejecutiva del Centro para la Democracia y la Tecnología con sede en DC, dijo que los modelos generativos de IA también podrían usarse para difundir desinformación durante las elecciones.

“En elecciones pasadas, los agentes utilizaron llamadas automáticas y mensajes de texto para difundir información engañosa”, dijo Givens. “Pero ahora, los malos actores pueden usar fácilmente la IA para crecer exponencialmente y personalizar la supresión de votantes u otros objetivos”.

DeStefano pidió acción inmediata antes de que el abuso de la IA sea aún mayor.“Mi mayor temor es cómo se va a manifestar eso en otras áreas como la trata de personas y el secuestro de niños”, dijo. “Porque afortunadamente yo era un adulto que tenía otros adultos a mi alrededor. Pero, ¿y si fuera un niño? ‘Oye, es mamá. Ven a verme aquí. Ese es mi mayor miedo”.

La madre advirtió que si esta amenaza de la IA “se deja sin control, sin regulación y sin protección”, “reescribirá nuestra comprensión y percepción de lo que es, y lo que no es, la verdad”

COMENTARIOS

Selección de los editores