Artículo de fraude
Principales conclusiones del Informe Deepfake en detalle de Veriff
Descubra la verdadera amenaza de la IA generativa y cómo cultivar un ecosistema de prevención del fraude es la única forma de mantener seguros sus negocios

1. La amenaza de la IA se está volviendo más sofisticada
La inteligencia artificial (IA) está transformando la economía digital y presentando nuevas oportunidades para los estafadores. ¿Cómo pueden los expertos en fraude contraatacar y proteger sus negocios del peligro evolutivo?
El Informe Deepfake en detalle de Veriff explora este tema en detalle: describiendo la verdadera magnitud de la amenaza de la IA para los negocios y, crucialmente, lo que se puede hacer para contraatacar.
Aquí tienes los puntos clave:
La amenaza de la IA se está volviendo más sofisticada.
Los documentos falsificados han sido un desafío de seguridad de larga data para las plataformas en línea. Sin embargo, la IA generativa ha potenciado la amenaza, permitiendo a los criminales crear documentos falsos y deepfakes, así como contenido de video y audio que es mucho más convincente que nunca, con alrededor de 500,000 deepfakes de voz y video compartidos alrededor del mundo en 2023.
La calidad y sofisticación de la amenaza están impulsadas por la IA generativa. Estos modelos agrupan algoritmos en redes neuronales artificiales que imitan la estructura del cerebro humano. Luego se pueden entrenar a un nivel «más profundo» para hacer correlaciones complejas y no lineales entre grandes cantidades de datos diversos y no estructurados.
Como resultado, los modelos de aprendizaje profundo pueden aprender de manera independiente de su entorno y de errores pasados para realizar tareas a un nivel extremadamente alto, incluido crear audio y video falsos. Por ejemplo, existen modelos que imitan la generación de nuevas imágenes y textos que parecen reales. Aprenden de imágenes y textos del mundo real y generan algo que los humanos no pueden distinguir como real o generado por IA.
2. Las amenazas de IA más comunes que necesita conocer
Hemos identificado cinco técnicas comunes adoptadas por los defraudadores a medida que despliegan IA y aprendizaje profundo en sus actividades. Estas son:
- Intercambios de rostro, cuando se superpone el rostro de una persona en una foto de otra persona.
- Sincronización labial, donde los algoritmos mapean una grabación de audio a un video de alguien diciendo algo diferente.
- Títeres, donde los movimientos deseados de un actor se superponen al sujeto objetivo, haciendo que el “títere” parezca moverse como el “maestro”.
- GANS y Autoencoders: Los GAN son entrenados con datos de internet y redes sociales en expresiones y movimientos faciales. Luego se combinan con un autoencoder para crear un avatar digital ficticio
- Aunque técnicamente no utilizan IA generativa, los documentos falsos pueden generarse utilizando plantillas, herramientas de edición fotográfica y guiones para crear documentos que parecen reales.
Examinaremos estas técnicas en más detalle en el Informe de Profundidad sobre Deepfake de Veriff.
3. El impacto de los deepfakes
Los deepfakes son especialmente efectivos cuando se utilizan contra empresas con procesos de gestión de identidad disjuntos e inconsistentes y poca ciberseguridad. Pueden usarse tanto para atacar cuentas existentes como para abrir nuevas de manera fraudulenta.
Los resultados más comunes que estamos viendo incluyen:
- Apertura de cuentas fraudulentas: Las identidades sintéticas y los documentos falsificados se utilizan cada vez más para pasar los controles biométricos durante la fase de Conozca a su Cliente (KYC) del proceso de incorporación.
- Toma de cuentas (ATO): Los sofisticados deepfakes se combinan con otras técnicas de hacking para obtener acceso a cuentas existentes.
En este informe examinaremos en detalle cómo está evolucionando la amenaza de IA y deepfake y qué pueden hacer las empresas para asegurarse de que ellas y sus usuarios estén protegidos.
4. No hay una solución mágica
Para mantenerse un paso adelante de los defraudadores, necesita un enfoque de múltiples capas en constante evolución que combine una variedad de herramientas de mitigación de amenazas. Desafortunadamente, no hay una solución única para combatir el fraude de identidad, especialmente cuando los actores maliciosos emplean el tipo de tecnología de deepfake sofisticada que está cada vez más disponible.
En su lugar, necesita emplear un enfoque coordinado y multifacético que combine controles rigurosos sobre la información suministrada con una variedad de información contextual.
Esto debería incluir:
- Controles robustos y completos sobre documentos de identidad afirmados
- Examinación de atributos clave del dispositivo
- Tratar la ausencia de datos como un factor de riesgo en ciertas circunstancias
- Contra IA para identificar la manipulación de imágenes entrantes
- Buscar activamente patrones a través de múltiples sesiones y clientes
- Análisis biométrico de imágenes fotográficas y de video suministradas
Para Veriff, la primera línea de defensa son nuestras tecnologías automatizadas. Si la IA no puede determinar si un documento es real o no, lo enviamos a expertos humanos para su análisis.
N nuestras defensas en capas analizan a la persona, su documento de identidad afirmado, red y dispositivo, minimizando el riesgo de manipulación y asegurando que solo personas confiables y genuinas tengan acceso a sus servicios. Además, los mecanismos que utilizamos para detectar el fraude (incluidos los deepfakes) no son visibles para el usuario y, como tal, son más difíciles de revertir.

Obtenga el Informe Deepfakes en detalle 2024
Todo lo que necesita saber para proteger su negocio del fraude deepfake, obtenga el Informe Deepfakes en detalle 2024