Blog

¿Son efectivos los fraudes perpetrados mediante ChatGPT?

¿Son efectivos los fraudes perpetrados mediante ChatGPT?

A estas alturas todos sabemos que los correos electrónicos con contenido del tipo «soy el hijo del difunto rey de Nigeria y necesito su ayuda para cobrar una herencia» son una estafa. De hecho, insultan la inteligencia del destinatario. Pero aun así, algunos engañabobos continúan enviando correos de este tipo con la esperanza de que alguien pique en el anzuelo.

Actualmente, las llamadas estafas nigerianas pueden tener distintas variantes, e incluir diferentes escenarios adaptados a los sucesos mundiales.

Pero casi todas van de lo mismo: para poder mover una gran suma de dinero, solicitan urgentemente la ayuda de algún incauto, al que prometen una buena comisión.

La ayuda acostumbra a ser un anticipo relativamente pequeño, para cubrir impuestos, tarifas bancarias, sobornos, etc.

Sin duda, la avaricia y la codicia de algunos, continúa siendo una fuente de ingresos para otros.

Pero por suerte, el nivel de concienciación de los usuarios es cada vez mayor, y, por lo tanto, intentar perpetrar una estafa con ciertas garantías, requiere una preparación más concienzuda.

En algunos casos, el tema puede llevar semanas o incluso meses, de interacción con el objetivo, ya que hay que presentarle documentos «oficiales», comprobantes bancarios, etc.

La historia tiene que ser convincente.

Aquí es donde los modelos de lenguaje extenso (LLM, por sus siglas en inglés) pueden marcar la diferencia

La IA puede generar rápidamente documentos que parecen reales.

También texto para publicaciones en redes sociales, contenido para sitios web, comunicados de prensa, y cualquier otra cosa que un delincuente pueda necesitar, como identidades falsas, o suplantar a personas existentes.

Y todo ello en alrededor de 20 idiomas, incluidos ruso, chino estándar y coreano.

Además, un solo villano, ahora puede llevar a cabo cientos o miles de estafas en paralelo, las 24 horas del día.

Los chatbots de IA nunca duermen, con unos cuantos toques pueden adaptarse a sus objetivos, y permitir a los LLM interactuar en Internet casi como lo hacen los humanos.

Por otro lado, a los ciberdelincuentes no les gusta complicarse mucho la vida, y buscan herramientas gratuitas o de bajo coste, junto a técnicas simples, fáciles y efectivas, y la IA es todas esas cosas.

Y tales estafas ya no serán solo príncipes nigerianos que ofrecen las riquezas de su país a cambio de una gestión

Podrán ser falsos corredores de valores que promocionan nuevas criptomonedas que pronto se dispararán en valor, o agentes de bolsa que veden supuestos productos financieros aparentemente sólidos que prometen increíbles rendimientos de los depósitos.

Otra opción sería usar ChatGPT para generar chatbots falsos, con la intención de hacerse pasar por humanos, o incluso por entidades legítimas como un banco.

En este sentido, no es demasiado difícil «alimentar» a ChatGPT con mensajes de las compañías que desean suplantar y ordenar a la IA que cree otros nuevos basados en el mismo patrón.

Empresas como OpenAI intentan evitar que sus modelos hagan cosas malas.

Seguramente, una solicitud para escribir una carta pidiendo ayuda financiera para huir de Ucrania puede ser marcada como una estafa y denegada.

Pero con el lanzamiento de cada nuevo LLM, van apareciendo nuevos « jailbreaks» que evaden las restricciones establecidas por los diseñadores.

Incluso circulan tutoriales por YouTube.

Aunque la gran mayoría de ellos son una gran perdida de tiempo.

Esta gente incluso haría un tutorial sobre como hackear un satélite chino con dos clics del ratón.

En cualquier caso, la gente de OpenAI sabe que estas cosas están apareciendo, y parchean ChatGPT para cortar el rollo a quienes tratan de saltarse las salvaguardas de la aplicación mediante la reformulación de preguntas o, utilizando un contexto menos agresivo.

También existen scripts que prometen sortear las restricciones de ChatGPT para que haga lo que queramos.

Pero si bien es probable que OpenAI vaya reparando los agujeros en ChatGPT, difícilmente va a poder solucionar el problema subyacente.

Nuestra recomendación es permanecer muy atentos y tener cuidado antes de tomar una decisión

Los burdos intentos de phishing, con errores gramaticales y faltas de ortografía sacados del traductor de Google, van a pasar a la historia.

Las nuevas estafas pueden estar diseñadas de una manera bastante más convincente.

Por lo que nunca hay que actuar antes de pensar.

Por ejemplo, si dicen ser del banco, antes de reaccionar, lo mejor es verificarlo a través de los canales oficiales: llamando al número de atención al cliente, acudiendo en persona, o entrando en el sitio web de la entidad.

En el caso de las ofertas que no podemos rechazar, tenemos que recordar lo que decían nuestros abuelos: nadie da duros a cuatro pesetas.

ChatGPT, por sí mismo, no es una amenaza

Se trata de una herramienta impresionante que tiene el potencial de hacer mucho bien, por ejemplo, en el campo de la investigación o de la ciberseguridad.

Pero como sucede con cualquier tecnología, es importante tener en cuenta sus posibles usos malintencionados.

En cualquier caso, no importa como se haya diseñado, ni con qué herramientas: un exploit es un exploit, el malware es el malware, y una estafa es una estafa.

Si bien conocer las técnicas empleadas por los villanos, puede ser muy importante para mejorar nuestras defensas contra futuros ataques, esto no es una excusa para que nos pillen desprevenidos.

No pulsar en todos los enlaces que nos pongan por delante, no abrir cualquier archivo adjunto a los correos electrónicos, y mantener el sistema operativo y las aplicaciones actualizadas, tiene más que ver con la inteligencia humana que con la artificial.

Temas:

Avisos de seguridad

Air VPN - The air to breathe the real Internet

Otros artículos

Como mantener a los niños seguros en línea
DarkTortilla: malware distribuido a través de sitios de phishing
Qué es Typosquatting y cómo lo utilizan los estafadores
Manténte en alerta cuando revises tus correos de Gmail
Qué son los deepfakes y cómo detectarlos
Facebook demandado por violar las reglas de privacidad de Apple
gestionar de forma segura nuestros archivos en la nube