¡Cuidado!, a través de la Inteligencia Artificial, crean ‘deepfakes’ de voz que imitan la de personas reales para estafar

Internacional
/ 2 septiembre 2023

Este tipo de estafa es aún tan nuevo, por lo que todavía no existe un recuento exhaustivo sobre la frecuencia con que se produce; la empresa Pindrop registró un incremento de este delito en este año

Nueva York- Esta primavera, Clive Kabatznik, un inversor de Florida, llamó a su representante local de Bank of America para hablar de una gran transferencia de dinero que pensaba hacer. Luego volvió a llamar.

Pero la segunda llamada no era de Kabatznik. En su lugar, un programa informático había generado de manera artificial su voz e intentó engañar a la empleada del banco para que transfiriera el dinero a otro lugar.

TE PUEDE INTERESAR: Expertos temen que a través de IA las mujeres puedan ser presas de la pornografía deepfake

Kabatznik y su banquera fueron objeto de un intento de estafa de última generación que ha captado la atención de los expertos en ciberseguridad: el uso de la inteligencia artificial para generar “deepfakes”, o ultrafalsos, de voz, interpretaciones vocales que imitan la voz de personas reales.

El problema es aún tan nuevo que no existe un recuento exhaustivo de la frecuencia con que se produce. Pero un experto cuya empresa, Pindrop, supervisa el tráfico de audio para muchos de los más grandes bancos de Estados Unidos, dijo que había visto un aumento de su prevalencia este año, y en la sofisticación de los intentos de fraude con voz por parte de los estafadores. Otro gran proveedor de autenticación de voz, Nuance, sufrió su primer ataque exitoso con ultrafalsos contra un cliente de servicios financieros a finales del año pasado.

$!Imagen representativa de un ciberdelincuente.

En el caso de Kabatznik, el fraude fue detectable. Sin embargo, la velocidad del desarrollo tecnológico, la caída de los costos de los programas de inteligencia artificial generativa y la amplia disponibilidad de grabaciones de voces de personas en internet han creado las condiciones perfectas para las estafas ayudadas por programas de IA relacionados con la voz.

Los datos de clientes, como las cuentas bancarias, que roban los piratas informáticos, y están disponibles en los mercados clandestinos, ayudan a los estafadores a llevar a cabo estos ataques. Resultan aún más fáciles con clientes adinerados, cuyas apariciones públicas, incluyendo discursos, suelen estar ampliamente disponibles en internet. Encontrar muestras de audio de clientes cotidianos también puede ser tan fácil como realizar una búsqueda en línea, por ejemplo, en aplicaciones de redes sociales como TikTok e Instagram, del nombre de alguien cuyos datos bancarios ya tienen los estafadores.

$!Los ciberdelincuentes lanzan ataques en todos los frentes. Foto de Kaspersky

Hay mucho contenido de audio por ahí”, afirmó Vijay Balasubramaniyan, consejero delegado y fundador de Pindrop, que revisa los sistemas automáticos de verificación por voz de ocho de las diez mayores entidades crediticias de Estados Unidos.

En la última década, Pindrop ha revisado las grabaciones de más de 5,000 millones de llamadas recibidas en los centros de atención telefónica de las empresas financieras a las que presta servicios. Los centros gestionan productos como cuentas bancarias, tarjetas de crédito y otros servicios ofrecidos por grandes bancos minoristas. Todos los centros de atención telefónica reciben llamadas de estafadores, normalmente entre 1,000 y 10,000 al año. Es habitual que se reciban veinte llamadas de estafadores a la semana, según Balasubramaniyan.

TE PUEDE INTERESAR: Las estafas más comunes con inteligencia artificial, según ChatGPT

Hasta ahora, las voces falsas creadas por programas informáticos solo representan “un puñado” de estas llamadas, según Balasubramaniyan, y no habían empezado a producirse sino hasta el año pasado.

La mayoría de los ataques con voces falsas que ha visto Pindrop se han producido en centros de atención telefónica de tarjetas de crédito, donde representantes humanos atienden a clientes que necesitan ayuda con sus tarjetas.

Balasubramaniyan le mostró a un periodista una grabación anónima de una de estas llamadas, que tuvo lugar en marzo. Aunque se trata de un ejemplo muy rudimentario, la voz en este caso suena robótica, más parecida a la de un lector electrónico que a la de una persona, la llamada ilustra cómo podrían producirse estafas a medida que la IA facilite más la imitación de voces humanas.

$!Los métodos de pirateo informático se perfeccionan continuamente.

Se oye a un banquero saludar al cliente. Luego la voz, similar a una automatizada, dice: “Mi tarjeta ha sido rechazada”.

¿Puedo preguntar con quién tengo el gusto?”, responde el banquero.

Mi tarjeta ha sido rechazada”, vuelve a decir la voz.

El banquero vuelve a preguntar el nombre del cliente. Se hace un silencio durante el cual se oye el débil sonido de unas teclas. Según Balasubramaniyan, el número de pulsaciones corresponde al número de letras en el nombre del cliente. El estafador teclea palabras en un programa que luego las lee.

En este caso, el habla sintética del interlocutor llevó al empleado a transferir la llamada a otro departamento y marcarla como potencialmente fraudulenta, explicó Balasubramaniyan.

Llamadas como la que compartió, que utilizan tecnología de texto a voz, son algunos de los ataques más fáciles de combatir: los centros de atención telefónica pueden utilizar software de detección para identificar indicios técnicos de que el discurso ha sido generado por una máquina.

El habla sintética deja rastros, y muchos algoritmos antifalsificación los detectan”, explicó Peter Soufleris, director general de IngenID, un proveedor de tecnología de biometría de voz.

No obstante, como ocurre con muchas medidas de seguridad, se trata de una carrera armamentística entre atacantes y defensores, y esta ha evolucionado en últimas fechas. Ahora, un estafador puede solo hablar por un micrófono o teclear un mensaje y traducirlo rápidamente a la voz del objetivo.

Balasubramaniyan señaló que un sistema de inteligencia artificial generativa, VALL-E de Microsoft, podía crear una imitación de voz que dijera lo que el usuario deseara a partir de una muestra de audio de solo tres segundos.

Brett Beranek, director general de seguridad y biometría en Nuance, un proveedor de tecnología de voz que Microsoft adquirió en 2021, afirma que, aunque las demostraciones de ultrafalsos son habituales en las conferencias de seguridad, los ataques reales siguen siendo muy poco frecuentes. El único ataque exitoso contra un cliente de Nuance, en octubre, le llevó al atacante más de una decena de intentos.

La mayor preocupación de Beranek no son los ataques a centros de atención telefónica o sistemas automatizados, como los sistemas biométricos de voz que muchos bancos han desplegado. Le preocupan las estafas en las que la persona que llama llega directamente a un individuo.

Eso es lo que ocurrió en el caso de Kabatznik. Según la descripción de la banquera, parecía que el estafador intentaba convencerla de transferir el dinero a un nuevo destino, pero la voz era repetitiva, hablaba por encima de ella y utilizaba frases confusas. La banquera colgó.

Kabatznik explica que, tras recibir otras dos llamadas seguidas, la banquera informó al equipo de seguridad de Bank of America. Preocupada por la seguridad de la cuenta de Kabatznik, dejó de responder a sus llamadas y correos electrónicos, incluso a los que procedían del verdadero Kabatznik. Tardaron unos diez días en restablecer la conexión, cuando Kabatznik quedó de visitarla en su oficina.

Capacitamos de manera constante a nuestro equipo para que identifique y reconozca las estafas y ayude a nuestros clientes a evitarlas”, comentó William Halldin, portavoz de Bank of America, quien agregó que no podía hacer comentarios sobre clientes concretos ni sus experiencias.

Aunque los ataques son cada vez más sofisticados, se derivan de una amenaza básica de ciberseguridad que ha existido durante décadas: una filtración de datos que revela la información personal de los clientes bancarios. Entre 2020 y 2022, datos personales de más de 300 millones de personas cayeron en manos de piratas informáticos, lo que provocó pérdidas de 8,800 millones de dólares, según la Comisión Federal de Comercio.

Una vez que han recopilado un lote de números, los piratas informáticos examinan la información y la relacionan con personas reales. Los que roban la información casi nunca son las mismas personas que acaban teniéndola. En su lugar, los ladrones la ponen a la venta. Los especialistas pueden utilizar cualquiera de un puñado de programas de fácil acceso para falsificar los números de teléfono de los clientes que pretenden estafar, y eso es lo que quizá ocurrió en el caso de Kabatznik.

Es fácil encontrar grabaciones de su voz. En internet hay videos de él hablando en una conferencia y participando en una recaudación de fondos.

Creo que da bastante miedo”, concluyó Kabatznik. “El problema es que no sé qué hacer al respecto. ¿Te metes bajo tierra y desapareces?”. c.2023 The New York Times Company.

Por Emily Flitter y Stacy Cowley, The New York Times.

COMENTARIOS

Selección de los editores