La IA aliada con los delincuentes
La IA no “crea” delincuentes… pero sí les da superpoderes. Antes, suplantar a alguien requería tiempo, oficio y una buena excusa. Hoy, con unos segundos de audio, un par de fotos y un guion bien escrito, un estafador puede sonar (y hasta “parecer”) tu hijo, tu CEO, tu gestor del banco o un cargo público. Y lo peor: la mayoría de ataques no van de “hackear sistemas”, sino de hackear personas.
En el mundo real, esto se traduce en una subida clara de fraudes por suplantación de identidad: llamadas con voces clonadas, videollamadas con deepfakes, mensajes “urgentes” por WhatsApp, y campañas de smishing/vishing cada vez más creíbles. Y aquí es donde conviene decirlo sin rodeos: el eslabón débil sigue siendo el mismo… la confianza.
Por qué la IA lo facilita tanto
-
Clonación de voz barata y rápida
Ya no hace falta un estudio ni un experto: con muy poco material (audios en redes, notas de voz, entrevistas) se puede imitar timbre, ritmo y muletillas. En España, el propio INCIBE está documentando casos reales donde se intenta desviar pagos usando voz clonada con IA. -
Deepfake en videollamadas = “prueba visual” falsa
El salto grande es psicológico: cuando “lo ves”, bajas la guardia. Esto ya se está usando en ataques a empresas, especialmente en sectores con dinero rápido (cripto/fintech), con reuniones falsas y ejecutivos “clonados” para colar malware o forzar transferencias. -
Textos perfectos (sin faltas, sin acento raro, sin contradicciones)
La IA generativa ha quitado el “olor a timo” de muchos mensajes. Las campañas de phishing, smishing y vishing ganan calidad y personalización. El FBI/IC3 viene avisando de campañas activas con mensajes y notas de voz que imitan a autoridades y contactos de confianza. -
Escala: un estafador ya no estafa a 5… estafa a 5.000
Automatización + IA = ataques masivos con apariencia “artesanal”. Europol lo resume de forma clara: la IA baja la barrera de entrada y abre oportunidades a fraudes online y suplantaciones.
Hemeroteca del último año: casos destacados de suplantación con IA (feb 2025 – feb 2026)
Aquí tienes una selección de los más relevantes (por impacto, tendencia y aprendizaje práctico):
-
Campaña de suplantación a altos cargos en EE. UU. (mensajes + voz) — abril 2025 en adelante
El IC3 alertó de actores maliciosos que suplantaban a altos funcionarios mediante textos y mensajes de voz para engañar a objetivos y a sus contactos. No es “ciencia ficción”: es ingeniería social con esteroides. -
Deepfake de un alto cargo para contactar con ministros y autoridades — verano 2025
Medios de referencia recogieron un caso en el que se usó IA para hacerse pasar por el secretario de Estado Marco Rubio y tratar de contactar con ministros, un senador y un gobernador (voz, mensajes y apps). Señal de alerta: si esto le pasa a gente entrenada, imagina a un ciudadano en un mal día. -
Ataques a empresas cripto con “reuniones Zoom” y ejecutivos deepfake — 2025/2026 (pico reciente)
Google/Mandiant publicó investigación sobre UNC1069: acceso a cuentas, invitaciones a reuniones, videollamadas falsas con deepfakes y la típica trampa de “tu audio no funciona, ejecuta esto”. Resultado: malware y robo de credenciales/datos. Es suplantación + presión + técnica, todo en uno. -
BlueNoroff y el uso de deepfakes en videollamadas para colar malware — junio 2025
Otra pieza del mismo patrón: engaño mediante videollamada y supuesta verificación “humana”. La diferencia es que el deepfake ya no busca solo dinero directo: busca acceso persistente para robar más y durante más tiempo. -
España: plan contra la suplantación telefónica y bloqueo masivo de llamadas — desde marzo 2025
En España se implantaron medidas para reducir fraudes por suplantación (bloqueo de numeración no asignada, límites a llamadas comerciales, freno a internacionales camufladas). Se reportó el bloqueo de millones de intentos en pocos meses. Es un recordatorio: parte de la defensa es regulación + telecomunicaciones, no solo “sentido común”. -
“Hijo en apuros” por WhatsApp — casos investigados y recientes (2025–2026)
Aunque no siempre llevan deepfake, cada vez se mezcla más con audios “realistas” y guiones emocionales. Ejemplo: investigación cerrada por Policía Nacional en Valladolid tras denuncia (agosto 2025) por suplantación del hijo y solicitud de transferencia urgente.
Y Guardia Civil también ha informado de casos similares con transferencias múltiples y trazas a cuentas receptoras/mulas. -
España: intento real de desvío de pagos con clonación de voz IA — febrero 2026 (INCIBE)
Caso didáctico: clientes llaman para verificar unas llamadas “en nombre” del empresario, pero desde otro número. La verificación humana corta el fraude. Moraleja: el protocolo gana a la urgencia. -
Suplantación de cuerpos oficiales en redes con deepfake — febrero 2026
Se alertó de cuentas fraudulentas que se hacían pasar por agentes usando deepfake/IA para engañar a usuarios. Esto alimenta estafas secundarias: falsas denuncias, cobros, “multas”, supuestos trámites, etc. -
Avisos de supervisores financieros europeos sobre fraudes con IA — febrero 2026
Los reguladores europeos han advertido sobre el aumento de fraudes financieros en la era de la IA (sitios falsos, perfiles “famosos” trampa, voces e imágenes generadas). Es importante porque confirma la tendencia: no son “casos sueltos”, es un modelo criminal.
¿Qué pinta aquí una empresa de seguridad y los vigilantes de seguridad si el ataque es digital?
Mucho. Porque el fraude de suplantación rara vez se queda “solo” en la pantalla. Termina en:
-
recogidas de dinero,
-
accesos a instalaciones (alguien que “viene de parte de…”),
-
manipulación de personal en recepciones,
-
cambios de instrucciones por teléfono,
-
ingeniería social para saltarse controles físicos.
Por eso, una empresa de seguridad con cultura de procedimiento (verificación, doble control, cadena de custodia, control de accesos) es una barrera brutal contra la estafa híbrida. Y aquí el factor humano cuenta: vigilantes de seguridad bien entrenados detectan incoherencias en acreditaciones, llamadas “urgentes”, mensajeros fuera de protocolo y visitas “raras”. Si además se integra con protocolos internos, la tasa de éxito del delincuente cae en picado.
En Levantina trabajamos precisamente esa capa: el “sentido” del control, no solo el control.
Tres reglas anti-suplantación que funcionan (aunque el deepfake sea bueno)
-
Regla del canal alternativo: si te piden dinero/datos por un canal, verifica por otro (llamada al número guardado, no al que te escriben).
-
Regla del “no a la urgencia”: la prisa es la herramienta favorita del estafador. Si hay urgencia, hay protocolo.
-
Regla de la frase clave (familia y empresa): acordad una palabra o pregunta que solo vosotros sepáis. La IA clona voz; no clona secretos.
La IA seguirá mejorando. Perfecto. Nosotros también: con procedimientos, formación y coordinación entre tecnología, personas y seguridad privada.