La inteligencia artificial solo necesita tres segundos para suplantarte; cómo lo hace

Tech
/ 27 junio 2023

COMPARTIR

TEMAS

“Esta tecnología ahora es más accesible que nunca: una búsqueda rápida arroja docenas de proveedores gratuitos o de bajo costo”, señala experto

Cualquier avance tecnológico nace para hacernos la vida más fácil, pero del mismo modo, se suelen desarrollar también acciones delictivas de manera paralela. Y la inteligencia artificial (IA) no es una excepción.

Los estafadores están usando IA para replicar las voces de las personas con el fin de estafar a sus seres queridos, en un proceso conocido como ‘clonación de IA’.

TE PUEDE INTERESAR: ONU pide a países y empresas que avancen en regulación de la IA

Tal y como recoge en un reportaje el Mirror, Wasim Khaled, cofundador y director ejecutivo de la empresa Blackbird.AI, dice que la clonación de voz es “indistinguible del habla humana”.

“La clonación de voz con IA permite la creación de falsificaciones profundas muy convincentes, y una avalancha de muestras de voz de figuras públicas como políticos y celebridades produce resultados de alta fidelidad”, dice Khaled.

“Esta tecnología ahora es más accesible que nunca: una búsqueda rápida arroja docenas de proveedores gratuitos o de bajo costo”, prosigue el experto.

La investigación realizada por la compañía de protección cibernética McAfee muestra que los delincuentes necesitan solo tres segundos de la voz de alguien para clonarla.

TE PUEDE INTERESAR: Inteligencia artificial provoca soledad e insomnio entre los trabajadores, según un nuevo estudio

Wasim Khaled argumenta que el “mayor peligro” de la IA generativa es su capacidad para confundir a las personas y su comprensión de lo que es real y lo que es falso.

“La clonación de voz, junto con otras capacidades de IA generativa comercialmente disponibles en rápida expansión, es otro factor de riesgo que confunde el entorno de la información”, agregó.

Por eso, este experto en seguridad cibernética dice que pronto se debe desarrollar una tecnología que advierta a las personas que un mensaje de voz podría ser una estafa.

Con información de medios

Temas

13 años de experiencia con el departamento Web de VANGUARDIA MX. Cubre temas locales, nacionales e internacionales, virales, de tecnología, salud, economía y sociedad.

Licenciado en Diseño Gráfico por la Universidad Autónoma de Coahuila. Apasionado y practicante del básquetbol, fútbol americano y el gimnasio.

41 años llenos de dudas, pero siempre buscando la verdad allá afuera.

COMENTARIOS

Selección de los editores