Blog

GhostGPT: Un chatbot de IA sin censura que empodera a los ciberdelincuentes

GhostGPT: Un chatbot de IA sin censura que empodera a los ciberdelincuentes

GhostGPT es un chatbot basado en IA específicamente diseñado para eliminar las barreras éticas y las restricciones de seguridad que suelen encontrarse en los modelos de IA convencionales.

Si bien proporciona libertad total a sus usuarios, también significa que puede generar respuestas sin filtros a consultas que otros sistemas de IA bloquearían o marcarían como inadecuadas.

Por ejemplo:

  • Generación de código malicioso.
  • Creación de correos electrónicos de phishing.
  • Explotación de vulnerabilidades de software.

GhostGPT se promociona en diversos foros de ciberdelincuentes, y se distribuye a través de Telegram, una plataforma de mensajería conocida por su privacidad y sus comunicaciones cifradas.

Además, tiene un precio relativamente bajo. Los clientes pueden contratar 30 días de acceso por unos 150 euros.

La herramienta no mantiene registros de sus usuarios, ni almacena ningun tipo de datos, lo que la convierte en ideal para aquellos que aman la privacidad o quieren ocultar sus actividades.

Debido a su creciente popularidad y las posibles implicaciones legales, los creadores de GhostGPT han optado por la venta privada, lo que dificulta en gran medida el seguimiento y análisis de la herramienta por parte de los investigadores de seguridad.

También se han cerrado los hilos de venta en varios foros de cibercriminales, haciendo mas dificil saber quien esta detras de la aplicación.

Aun asi,  algunos expertos sugieren que probablemente utiliza una versión «jailbreakeada» de un modelo de lenguaje (LLM) existente, o un modelo de código abierto.

¿Qué pueden hacer los villanos mediante GhostGPT?

Creación de malware: GhostGPT puede generar código malicioso, como por ejemplo ransomware, puertas traseras y exploits, con una velocidad y eficiencia excepcionales.

Correos electrónicos de phishing: Es capaz de crear correos electrónicos de phishing altamente personalizados que imitan fielmente las comunicaciones legítimas de marcas conocidas y de confianza.

Desarrollo de exploits: se puede utilizar para identificar y explotar vulnerabilidades de software, agilizando el proceso de desarrollo de herramientas que pueden comprometer sistemas tanto individuales como corporativos.

Ingeniería social: GhostGPT puede automatizar ataques de ingeniería social, como el phishing selectivo o el fraude basado en deepfakes, generando diálogos realistas y manipulando a las víctimas para que revelen información confidencial.

Y por si fuera poco, su interfaz intuitiva y sus funciones automatizadas permiten a los atacantes novatos perpetrar sin grandes conocimientos, y con un mínimo esfuerzo. 

En este sentido, no hace falta decir que el número de personas capaces de lanzar ataques, conlleva un aumento de las ciberamenazas.

Por lo tanto, las personas debemos ser conscientes de ello y tomar medidas para protegernos.

En cualquier caso, independientemente de la herramienta usada por los delincuentes, el malware continua siendo malware, y los intentos de phishing, continúan siendo intentos de phishing.

© 2019 - 2025 Infosegur.net

Contenido bajo una licencia de Creative Commons 4.0