Una máscara puede ser divertida, aterradora, fantástica o sorprendentemente precisa. En Halloween, cualquiera de estas máscaras es aceptable - y divertida, pero cuando se trata de saber con quién estás interactuando en el mundo digital - donde las máscaras pueden ser cambiadas o alteradas en un instante - y a qué tienen acceso, todas las máscaras deben ser removidas
Se está volviendo cada vez más difícil saber quién es o no es un actor malicioso. Los personajes sospechosos ya no pueden ser identificados solo como aquellos que envían correos electrónicos con enlaces falsos y malas intenciones. Son individuos que pueden, con gran habilidad, ocultar su verdadera identidad bajo la apariencia de otra persona. Los hackers están utilizando cada vez más los deepfakes, o manipulaciones realistas de una similitud o voz asumida, para acceder a sistemas y información protegidos
Los deepfakes como servicio permiten incluso a actores de fraude menos avanzados suplantar a un objetivo de manera casi perfecta. Esta evolución hace que todo tipo de fraude, desde chantaje individual hasta el fraude a corporaciones enteras, sea significativamente más difícil de detectar y defender. Con la ayuda de Redes Generativas Antagónicas (GANs), incluso una sola imagen de un individuo puede ser suficiente para que los estafadores produzcan un convincente deepfake de esa persona.
Aunque nos gustaría pensar que las herramientas de autenticación de usuarios pueden detectar un deepfake al instante, no siempre es el caso. Dada su creciente sofisticación, ciertas formas de autenticación de usuarios pueden ser engañadas por un estafador de deepfake competente. Para defenderse mejor contra los deepfakes, las organizaciones necesitan emplear herramientas de IA especializadas para identificar las sutiles pero reveladoras señales de una imagen o voz manipulada
Es hora de desenmascarar a los estafadores y recuperar nuestra confianza en nuestras herramientas de autenticación de usuarios y protocolos de seguridad. A medida que los estafadores mejoran sus tácticas con deepfakes, es hora de que los buenos hagan lo mismo