Las estafas más comunes con inteligencia artificial, según ChatGPT

Tech
/ 22 marzo 2023

En una charla con el innovador modelo de lenguaje artificial, reveló los fraudes más comunes con el uso de su plataforma, además, las políticas de seguridad en las que se rige

Mejorar los parámetros de la inteligencia artificial (IA), se ha vuelto una tarea persistente. Los operadores que ofrecen este servicio, se enfrentan a un reto que ha ponderado en el internet desde sus inicios: fraudes y estafas.

Existen eslabones que logran encontrar la manera de beneficiarse con los avanzados usos de la tecnología. Por ello, hay usuarios que logran aprovechar la inteligencia artificial para cometer diversas ilegalidades.

ChatGPT tiene con claridad que está diseñado para responder preguntas, generar texto y mantener conversaciones “naturales” con usuarios en una amplia gama de temas, y que cada persona que interactúe con ella se asegura de “cumplir con todas las leyes y regulaciones aplicables a su país”.

TE PUEDE INTERESAR: ¿Qué tan inteligentes se están volviendo los robots?

En una conversación con ChatGPT, quien se define como un modelo de lenguaje basado en inteligencia artificial, diseñado por OpenAI, indagó sobre las estafas más comunes haciendo uso de este recurso.

“Con la creciente popularidad de la inteligencia artificial y la automatización, han surgido diversas estafas que buscan aprovecharse de la confianza de las personas en estas tecnologías”, aseveró el bot.

▪ Phishing: Con la ayuda de inteligencia artificial, estafadores crean correos electrónicos y mensajes de texto falsos que aparentan ser legítimos, coerciendo a los usuarios de revelar información personal, usualmente de índole financiera.

▪ Bots fraudulentos: Promocionando productos falsos o servicios inexistentes, hay diversos bots de chat que están programados para enviar mensajes engañosos, además, para difundir malwares y spam.

▪ Fraude en línea: Sitios web falsos generados por inteligencia artificial, que tiene la capacidad de codificar hasta videojuegos, escribir guiones, etcétera, son utilizados para que exhorten a las personas a comprar productos que no existen, así como servicios que nunca se entregarán.

▪ Deepfakes: Se trata de videos o imágenes generados por inteligencia artificial, que aparentan ser reales, sin embargo, han sido manipulados para engañar a los usuarios, y se emplean para esparcir noticias falsas o lograr extorsiones, o material sexualmente explícito.

TE PUEDE INTERESAR: ¿Los presentadores de noticias son ficticios?, deepfakes la desinformación es de verdad

▪ Robocalls: Inteligencia artificial programada para hacer llamadas automáticas, es un método común de estafa. Con él, logran obtener información personal o financiera, luego de ofrecer productos y servicios inexistentes.

$!El bot recuerda que se deben tomar medidas de seguridad para la protección de datos de cada usuario, y evitar caer en ligas fraudulentas.

ALERTA

En una serie de preguntas sobre seguridad, ChatGPT logró reconocer que su servicio no puede hacer nada para proporcionar seguridad cibernética por el usuario, y toda acción dependerá del mismo y de la precaución que éste tome.

¿ChatGPT tiene la certeza de que sus servicios serán usados para bien?

Como modelo de lenguaje, mi función principal es proporcionar respuestas precisas y útiles a las preguntas que se me hacen. No tengo control sobre cómo se utilizan las respuestas que proporciono, ya que depende de la persona que las recibe.

Sin embargo, como modelo de lenguaje entrenado por OpenAI, mi programación se rige por una serie de principios éticos, como la promoción del bienestar humano, la protección de los derechos humanos y la prevención del daño. Además, mi uso está restringido a una variedad de casos de uso éticos, como la educación, la investigación y la creación de aplicaciones beneficiosas para la sociedad.

TE PUEDE INTERESAR: ChatGPT nos marca sus propios límites para usarlo en periodismo

En última instancia, la responsabilidad del uso que se hace de las respuestas que proporciono recae en los usuarios y desarrolladores que interactúan conmigo.

De notar actividad sospechosa, que podría culminar en fraudes, extorsiones, mal uso de información o peticiones que rocen a un delito, ¿ChatGPT puede hacer algo al respecto?

No tengo la capacidad de tomar medidas concretas para prevenir o detener actividades sospechosas que puedan culminar en fraudes, extorsiones o delitos. No tengo acceso a información fuera de las preguntas que se me hacen y no puedo controlar cómo se utilizan mis respuestas.

Sin embargo, si se sospecha que se está llevando a cabo una actividad ilegal o sospechosa, lo mejor es comunicarse con las autoridades correspondientes.

Es importante tener en cuenta que cualquier uso ilegal o inapropiado de la inteligencia artificial es una preocupación seria y debe ser tomado en serio.

¿Qué temas están prohibidos en el uso de ChatGPT?

Contenido ilegal: No se me permite proporcionar respuestas que promuevan la actividad ilegal, incluyendo la incitación a la violencia, el acoso, la discriminación, la pornografía infantil y otros contenidos ilegales.
Desinformación: No se me permite proporcionar respuestas que difundan información falsa o engañosa, especialmente en lo que respecta a la salud, la seguridad pública y las noticias.
Contenido ofensivo: No se me permite proporcionar respuestas que sean ofensivas o dañinas para grupos específicos de personas en función de su raza, género, orientación sexual, religión u otros aspectos de su identidad.
Promoción de productos y servicios: No se me permite proporcionar respuestas que promuevan productos o servicios con fines publicitarios.
Otros temas restringidos: También se me restringe de proporcionar respuestas sobre ciertos temas sensibles o controvertidos, como el suicidio o la violencia extrema.

$!El bot recuerda que el uso de sus servicios dependerá estrictamente de la persona que los requiera, y protegerse de cualquier estafa o fraude recaerá en cada usuario.

Por último, el bot recuerda que “es importante que las personas que interactúan conmigo utilicen mi capacidad para el bien y se aseguren de cumplir con todas las leyes y regulaciones aplicables en su país o región”.

TE PUEDE INTERESAR: Estudiantes usan ChatGPT para escribir sus tareas, ¿cómo no entrar en pánico y usarlo para enseñar?

COMENTARIOS

Selección de los editores