Blog

Las estafas perpetradas mediante deepfakes amenazan nuestra vida digital

Las estafas perpetradas mediante deepfakes amenazan nuestra vida digital

Imaginemos este escenario. El gerente de una empresa recibe una videollamada urgente. En la pantalla aparece la persona que tiene la máxima responsabilidad en la gestión y dirección de la compañía ordenando una transferencia bancaria.

Si tanto el rostro como la voz del CEO son inconfundibles, ¿Quién va a negarse?

En cuestión de minutos desaparecen unos cuantos millones que acaban en manos de delincuentes.

Bienvenidos a la nueva y escalofriante era del cibercrimen

Las estafas continúan siendo básicamente las mismas: avisos de herencias, falsas ofertas de trabajo, estafadores del amor, phishing bancario, el tradicional  engaño del hijo en apuros etc.

Pero gracias a los avances en inteligencia artificial, los perpetradores ahora disponen de herramientas que hasta no hace mucho parecían casi de ciencia ficción.

Esta tecnología es accesible a cualquier persona: unos minutos de audio o video son suficientes para que el software clone la imagen y la voz de un individuo.

Las imágenes subidas a redes sociales, las entrevistas en video y las reuniones en línea transmitidas a través de alguna plataforma, se han convertido en minas de oro para los estafadores que entrenan sus infames algoritmos.

Pero no solo supone un riesgo para las empresas

La estafas en línea mediante deepfakes ahora también se dirigen a las familias.

Ya no son una curiosidad técnica: se están convirtiendo en una  herramienta cada vez más habitual para los perpetradores.

La IA  es capaz de generar clips de video y voces sintéticas con precisión que pueden engañar incluso a las mentes más escépticas.

¿Quién no se preocuparía si recibiese una llamada de emergencia procedente de un número desconocido, que supuestamente nos ha hecho un hijo que se encuentra de viaje?

Seguramente la mayoría de nosotros reaccionaríamos sin pararnos a pensar si se trata de una voz clonada.

Si viésemos un video publicitario en el que una persona de integridad contrastada promueve un producto que nos interesa ¿Lo compraríamos?

Esto significa que cada llamada, notificación o mensaje puede ser una puerta de entrada a un fraude digital bien orquestado.

Las familias son objetivos golosos porque los ingenieros sociales juegan con los lazos emocionales y la confianza que nos une a nuestros seres queridos.

Las consecuencias de estas estafas impulsadas por la IA son graves y muy reales.

Las víctimas pueden sufrir pérdidas financieras. También ser víctimas de robo de información personal.

Y con esta información se puede llevar a cabo una estafa mediante suplantación de identidad para vaciar cuentas bancarias, pedir préstamos, o piratear cuentas sensibles antes de que la víctima se dé cuenta.

Cómo reconocer y prevenir las estafas relacionadas con los deepfakes  generados por IA

Aunque las estafas de IA se están volviendo cada vez más sofisticadas, todavía hay señales de alarma y medidas de protección para frustrarlas. 

Tenemos que confiar en nuestros instintos. Incluso las mejores tecnologías deepfake a veces presentan defectos sutiles.

Una voz clonada puede parecer anormalmente plana o robótica, y un video sintetizado por IA puede tener una ligera falta de sincronización entre la reproducción, la iluminación o los movimientos oculares normales de un ser humano.

Del mismo modo, presta atención a los correos electrónicos o mensajes de texto que parezcan demasiado perfectos.

Muchos mensajes de phishing generados por IA tienen un formato impecable y son muy correctos, a veces incluso están mucho mejor escritos que los correos electrónicos redactados por humanos.

También acostumbran a ser extrañamente genéricos y carecen de los detalles personales que un conocido o un colega real incluiría en el mensaje.

En el caso de llamadas de familiares en apuros procedentes de un número que desconocemos, lo más sensato es finalizar la comunicación y llamar a esta persona a su número de teléfono.

Seguramente nos diga que se encuentra perfectamente, y que no nos ha llamado para nada.

Otra solución es pactar una palabra clave con nuestros familiares.

De esta manera, si alguna vez recibimos una llamada pidiendo ayuda, podemos pedirles que la digan: si lo hacen, sabremos que es cierto, y si no, estará bastante claro que algún hijoputa nos quiere engañar.

Sin duda, el paisaje de las estafas está evolucionando a una velocidad acojonante.

Las medidas tradicionales de ciberseguridad que una vez proporcionaron una apariencia de protección están demostrando ser inadecuadas para combatir el panorama en evolución de los ataques impulsados por la IA.

Cada vez veremos más clones vocales, identidades sintéticas y otro tipo de amenazas generadas mediante inteligencia artificial.

Para combatir esta lacra, las empresas de seguridad están desarrollando herramientas de detección basadas en Inteligencia artificial.

Por lo tanto, estar al día puede inclinar la balanza a nuestro favor.