Blog

Usos maliciosos de ChatGPT para perpetrar ataques

Usos maliciosos de la inteligencia artificial para perpetrar ataques

Todos hemos visto películas distópicas donde unas infames máquinas basadas en inteligencia artificial, se rebelan contra sus creadores y buscan la ruina de la raza humana. No sabemos si esto podría llegar a pasar en un futuro.

Pero la capacidad de la  IA para analizar grandes cantidades de datos, y generar respuestas similares a las humanas, ha llevado a su uso indebido por parte de ciberdelincuentes, incluso los patrocinados por estados.

Por ejemplo, después de que OpenAI prohibiera cuentas vinculadas a Corea del Norte y China por hacer un uso indebido de ChatGPT, los norcoreanos, utilizaron el chatbot para crear currículums falsos, y cartas de presentación.

Se ha acusado a Pyongyang de colocar a trabajadores de TI con identidades falsas en empresas occidentales para llevar a cabo trabajos remotos.

Se supone, que el objetivo que era canalizar los salarios de estos esclavos, hacia su programa de armas nucleares (o directamente a la cuenta del «amado líder» Kim Jong Un).

OpenAI también desmanteló una red china, asociada con una campaña que generaba contenido en inglés para redes sociales, y artículos en español, que atacaban a los Estados Unidos.

Los ciberdelincuentes pueden utilizar la Inteligencia artificial para múltiples fines maliciosos

Por solo unos 150 euros, cualquier villano puede acceder a capacidades que antes estaban reservadas a los piratas informáticos de élite.

Los ataques de phishing tradicionales, que suelen caracterizarse por plantillas genéricas y errores ortográficos y gramaticales fácilmente detectables, se están volviendo cada vez más obsoletos.

La IA generativa permite a  cualquier delincuente semianalfabeto crear correos electrónicos altamente personalizados y muy convincentes, aprovechando datos disponibles públicamente.

Esto ayuda a adaptar los mensajes a personas específicas.

La capacidad de esta tecnología para crear videos y audios realistas supone una profunda amenaza a la confianza y la autenticación.

El realismo de estos deepfakes puede hacer que sean increíblemente difíciles de detectar, incluso para profesionales capacitados.

Sus implicaciones se extienden más allá del  fraude financiero; también se pueden utilizar para difundir desinformación, manipular a la opinión pública, o dañar la reputación de una persona.

Más allá de la ingeniería social, la IA generativa también se puede utilizar para automatizar la creación de malware sofisticado.

Un ejemplo es GhostGPT.

Esta aplicación que se comercializa en varios foros de ciberdelincuentes y se distribuye a través de  canales de Telegram, está revolucionando el cibercrimen al ofrecer a los piratas informáticos una herramienta de inteligencia artificial que elude las barreras éticas que se encuentran en los modelos convencionales.

GhostGPT

Esta capacidad permite a los delincuentes desarrollar e implementar código malicioso a una escala y velocidad sin precedentes.

La posibilidad de un aumento repentino del malware polimórfico, capaz de mutar constantemente para evadir la detección, es una preocupación grave

También se puede aprovechar la IA para fabricar identidades completamente nuevas

Estas credenciales, aparentemente legítimas, pueden servir para abrir cuentas en redes sociales, solicitar préstamos, o realizar todo tipo de actividades ilícitas.

Las «identidades sintéticas», que combinan datos reales y falsos, son bastante difíciles de detectar, lo que plantea una amenaza significativa.

Por otro lado, la capacidad de generar documentación de apariencia realista, como pasaportes o licencias de conducir falsos, complica aún más el tema.

Si sientes curiosidad por este tipo de aplicaciones tienes que tener cuidado.

Si buscas en Internet puedes encontrar sitios que se hacen pasar por las distintas páginas oficiales.

Por eso, tienes que fijarte en la URL de la página web.

También hay que estar muy alerta con las aplicaciones de Google Play, y sobre todo, con las tiendas de aplicaciones de Android de terceros, que prometen «acceso ilimitado», de forma totalmente gratuita, a supuestas apps premium.

© 2019 - 2025 Infosegur.net

Contenido bajo una licencia de Creative Commons 4.0