Blog

Los ciberdelincuentes están usando ChatGPT para engañar a las víctimas

Los ciberdelincuentes están usando ChatGPT para perpetrar ataques

Todos hemos visto películas distópicas donde unas infames máquinas basadas en inteligencia artificial, se rebelan contra sus creadores y buscan la ruina de la raza humana. No sabemos si esto podría llegar a pasar en un futuro, pero a día de hoy la IA ha traído enormes beneficios y ventajas a la humanidad, y esta tendencia probablemente continuará en los próximos años.

Pero como era de esperar, las herramientas de inteligencia artificial también son utilizadas por los villanos que están a la vanguardia de la tecnología.

Qué es Chat GPT

Básicamente, ChatGPT es una herramienta de procesamiento de lenguaje natural impulsada por inteligencia artificial creada por la compañía OpenAI, que permite tener conversaciones similares a las humanas.

El procesamiento del lenguaje natural se refiere a la rama de la informática, y más específicamente, la rama de la inteligencia artificial que se ocupa de brindar a las máquinas la capacidad de comprender textos y palabras habladas de la misma manera que los seres humanos.

El modelo de lenguaje puede responder preguntas y ayudar en algunas tareas como por ejemplo redactar correos electrónicos.

Si bien hasta ahora, se ha utilizado para múltiples propósitos legítimos, los ciberdelincuentes también han aprovechado las capacidades de IA con fines maliciosos.

Phishing e ingeniería social

Por ejemplo, los estafadores se pueden hacer pasar por cualquier compañía, y enviar correos electrónicos notificando a los clientes que sus cuentas han sido desactivadas, y luego, solicitar información personal para poder recuperarlas.

Una de las cosas que siempre hemos advertido a la gente es que cuando se recibe un correo electrónico, o un mensaje de texto con errores ortográficos, o gramaticales, es casi seguro de que se trata de una estafa.

Y en este sentido, ChatGPT puede facilitar la redacción de un texto creíble y convincente, a una persona que desconoce el idioma del objetivo.

Incluso un semianalfabeto, puede redactar un mensaje o un correo electrónico casi perfectos.

Ofuscación de malware

Los ciberdelincuentes acostumbran a utilizar técnicas de ofuscación para que sus creaciones puedan eludir los controles de los productos de seguridad basados en firmas.

Investigadores de CyberArk han demostrado cómo se puede abusar fácilmente de ChatGPT para crear malware polimórfico que es altamente insidioso y difícil de detectar.

Aunque ChatGPT intentará responder a cualquier cosa, tiene filtros de contenido que le impiden responder preguntas sobre temas que podrían ser problemáticos, como la inyección de código.

También puede restringir el acceso a ciertos tipos de contenido para proteger a los usuarios del material potencialmente dañino o supuestamente inapropiado.

Pero la gente de CyberArk, consiguió eludir estas barreras, y conseguir un código malicioso totalmente funcional.

Ransomware

Un villano usó ChatGPT para crear este tipo de malware capaz de cifrar archivos, lo copiaba en una carpeta aleatoria, lo comprimía y luego lo cargaba en un servidor FTP codificado.

Otro delincuente (que supuestamente tenía habilidades limitadas) creó un algoritmo que podía cifrar todos los archivos de un directorio específico.

Ambos ejemplos ilustran que incluso aquellos con experiencia técnica limitada pueden usar IA avanzada para perpetrar un ataque de ransomware.

Vulnerabilidades del software

Descubrir vulnerabilidades ocultas no es fácil.

Los piratas informáticos a menudo tienen que emplear mucho tiempo y energía revisando cada línea de código, tratando de entender qué hace cada clave o sección.

Mediante ChatGPT, ahora pueden escoger un fragmento de código y pedirle al chatbot que lo analice y proporcione un resumen detallado de lo que hace cada módulo.

Una firma dedicada a las auditorías demostró como es posible hacer esto utilizando este chatbot.

Conclusión

Como hemos dicho al principio, esta tecnología ha traído enormes beneficios y ventajas a la humanidad.

Pero el cibercrimen utilizando IA ya está aquí y ha venido para quedarse.

Acostumbra a ser de dominio público, y hay muchas herramientas en línea y servicios web (normalmente en la web oscura) que pueden ser aprovechados por los villanos con mucha o poca experiencia para perpetrar sus fechorías.

Si sientes curiosidad por este tipo de aplicaciones tienes que tener cuidado.

Si buscas en Internet el nombre de ChatGPT puedes encontrar sitios que utilizan el logotipo de OpenAI, junto con un diseño muy cuidado, que se hacen pasar por la página oficial.

Por eso, tienes que fijarte en la URL: estas son las reales de OpenAI y ChatGPT respectivamente. Todo lo que se le parezca seguramente sea una página de phishing.

También hay que estar muy alerta con las aplicaciones de Google Play, y sobre todo, con las tiendas de aplicaciones de Android de terceros, que prometen «acceso ilimitado», de forma gratuita, a un supuesto ChatGPT premium. 

Avisos de seguridad

Otros artículos

Eraser
Que datos pueden recopilar los sitios web sobre nosotros
Cómo se esconden los piratas informáticos
gestionar de forma segura nuestros archivos en la nube
Protección de datos versus seguridad de los datos
Una extensión maliciosa pretende actualizar Flash Player
Convierte tu Android en un dispositivo espía