Coahuila: la clonación de voz, un nuevo reto de seguridad en la era de la inteligencia artificial
COMPARTIR
La inteligencia artificial (IA) ha revolucionado numerosos campos, desde la tecnología médica hasta el entretenimiento, pero en esta nueva era también abre puertas a desafíos de seguridad que pueden poner en riesgo a la ciudadanía.
Entre ellos, la clonación de voz mediante IA se ha convertido en una herramienta potencial para la comisión de fraudes y suplantaciones de identidad, una tendencia en crecimiento que ya ha comenzado a alarmar a las autoridades.
TE PUEDE INTERESAR: Convocan a recordar a las víctimas de accidentes viales este domingo en el Centro de Saltillo
La clonación de voz es una técnica avanzada que utiliza modelos de aprendizaje profundo para reproducir la voz de una persona con una precisión que hasta hace pocos años era inalcanzable.
A través del entrenamiento de modelos de IA con muestras de audio, esta tecnología puede capturar características únicas de una voz específica, como el tono, el timbre, la cadencia y los patrones de entonación. Con esto, se generan audios que imitan la voz de una persona hasta un nivel en que resulta indistinguible para el oído humano promedio.
Si bien esta tecnología tiene aplicaciones benéficas, como la creación de asistentes de voz personalizados, la conservación de voces de personas con enfermedades degenerativas y la mejora de doblajes en producciones audiovisuales, también trae consigo riesgos éticos y de seguridad. Las implicaciones de su uso indebido incluyen la posibilidad de manipular audios para fabricar discursos falsos o suplantar la identidad de personas, lo que puede derivar en engaños financieros y daño emocional a las víctimas.
Aprovechando el alcance de las redes sociales y el fácil acceso a información personal, los estafadores han comenzado a emplear la clonación de voz para hacerse pasar por familiares o amigos, buscando ganar la confianza de sus víctimas y, en última instancia, obtener beneficios económicos de manera fraudulenta.
COMISARÍA ALERTA POR FRAUDES MEDIANTE IA
Ante el aumento de estos casos, la Comisaría de Seguridad y Protección Ciudadana de Saltillo ha lanzado un comunicado a través de redes sociales, alertando a la ciudadanía sobre esta nueva modalidad de fraude. “Cuídate de esta forma de estafa, denominada: uso de la inteligencia artificial para duplicar la voz”, reza la advertencia en el video difundido, que busca sensibilizar a la población sobre esta amenaza.
En el video, las autoridades explican cómo los delincuentes obtienen acceso a dispositivos o cuentas de conocidos de sus víctimas y, utilizando la clonación de voz, envían mensajes de audio en los que solicitan ayuda económica, argumentando que se encuentran en alguna situación de emergencia. El objetivo es generar una respuesta rápida y emocional que lleve a la persona a realizar una transferencia bancaria sin cuestionar la veracidad de la situación.
La Comisaría de Saltillo exhorta a la población a mantenerse alerta y a tomar medidas para evitar caer en este tipo de engaños. Entre las recomendaciones se destaca el evitar realizar transferencias de dinero sin antes verificar la identidad del solicitante mediante otro medio, como una llamada directa, y no confiar ciegamente en mensajes o audios que provengan de familiares o amigos si parecen inusuales o urgentes.
Mientras la IA sigue evolucionando, resulta crucial que las autoridades, los expertos en tecnología y la ciudadanía en general trabajen en conjunto para implementar medidas de protección, asegurando que estas innovaciones sean utilizadas de forma ética y segura.
Aunque las aplicaciones positivas de la clonación de voz son muchas, el uso indebido de esta tecnología debe ser prevenido, monitoreado y sancionado para proteger a la ciudadanía de posibles fraudes y abusos.
Para protegerse de estafas por clonación de voz, es fundamental aplicar una combinación de medidas preventivas y adoptar hábitos de seguridad que dificulten la suplantación. Aquí te comparto algunas estrategias útiles para evitar ser víctima de estos fraudes:
1. VERIFICAR LA IDENTIDAD DEL LLAMANTE
Si recibes una llamada sospechosa o fuera de lo habitual (solicitando dinero, información personal o bancaria), corta la comunicación y llama de vuelta a la persona a través de un número de contacto conocido. Evita continuar la conversación sin confirmar la identidad.Usa preguntas o palabras clave que solo la persona real conozca, lo cual puede desenmascarar a un impostor.
2. LIMITAR EL ACCESO A TU VOZ PÚBLICA
Evita publicar audios o videos innecesarios en redes sociales y plataformas públicas, ya que los estafadores pueden usarlos como material de entrenamiento para clonar tu voz.Si es posible, ajusta la configuración de privacidad de tus redes para que solo contactos cercanos puedan acceder a tus publicaciones de audio o video.
3. UTILIZAR MÉTODOS DE AUTENTICACIÓN ADICIONALES
Para empresas y familiares, establece un sistema de palabras clave o frases de verificación para identificar a personas de confianza, especialmente en casos de emergencia.Usa múltiples factores de autenticación en cuentas importantes (como un código de verificación) que añadan una capa de seguridad que un clon de voz no pueda evadir.
4. ESTAR ALERTA ANTE SOLICITUDES DE DINERO
La mayoría de los fraudes de clonación de voz están dirigidos a obtener dinero de las víctimas. Ante cualquier solicitud inesperada de transferencias o pagos urgentes, mantente escéptico y verifica siempre a través de otros canales.
TE PUEDE INTERESAR: ¡Pon atención! Estos son los cambios de circulación en V. Carranza a partir de mañana
5. INFORMAR A TUS SERES QUERIDOS
Habla con familiares y amigos sobre el riesgo de clonación de voz para que también se mantengan en alerta. Es importante que comprendan que pueden recibir llamadas en las que aparentemente “escuchen tu voz” solicitando ayuda, y sepan cómo responder.
6. UTILIZAR TECNOLOGÍAS DE SEGURIDAD Y DETECCIÓN
Las empresas están desarrollando herramientas que ayudan a identificar y bloquear grabaciones de voz clonadas. Infórmate sobre estas opciones de software, que pueden usarse en entornos de alta seguridad, y que ayudan a reconocer patrones de IA en audios sospechosos.
7. MANTENERTE INFORMADO SOBRE NUEVAS TÁCTICAS
Los estafadores suelen evolucionar sus métodos; por ello, mantente al tanto de las últimas noticias y estafas conocidas. Puedes suscribirte a boletines de seguridad de instituciones financieras o de agencias de ciberseguridad para recibir alertas sobre nuevos tipos de fraude.
FRAUDE USANDO CÓDIGOS QR
La comisaría alerta ademas por fraudes que se han detectado en la capital del estado, el primero tenía que ver con el robo de identidad a través de la lectura de códigos QR, en el cual mediante engaños los maleantes buscan que escanees un código QR para robar los datos de tu celular.
Es importante alertar a las autoridades para que se investiguen los números a través de los cuales se cometen estos fraudes, y así poder deslindar responsabilidades con los delincuentes.
* En ningún caso hagas depósitos de dinero.
* Ponte en contacto con la comisaría a través de los grupos de Whatsapp o al 414-11-14
SEÑALES DE ADVERTENCIA QUE SUGIEREN UNA CLONACIÓN DE VOZ
Si recibes una llamada inusual, estos signos pueden ser indicativos de un intento de clonación:
La voz suena robótica o artificial.
Hay pausas o interferencias inusuales en la llamada.
La llamada insiste en actuar de inmediato o suena emocionalmente manipuladora.
La concientización y la verificación cuidadosa son claves para minimizar los riesgos de este tipo de estafas.