Santander está haciendo frente al aumento de las deepfakes, contenidos creados por delincuentes digitales para engañar a los clientes y hacerles entregar datos privados o incluso transferir dinero a cuentas falsas. También se utilizan para desinformar, suplantar la identidad o dañar la reputación de personas y empresas.

Las deepfake son contenidos manipulados de vídeo, audio o imagen, que parecen reales y que son creados para suplantar la identidad de otras personas o incluso crear el físico de personajes inexistentes.

Los criminales utilizan un tipo de inteligencia artificial (IA), conocida como aprendizaje profundo, para superponer el rostro de una persona en el cuerpo de otra y hacer que parezca que una persona está diciendo o haciendo algo que, en realidad, no dijo o hizo. 

Hasta ahora, las deepfake se utilizaban sobre todo como entretenimiento, pero hoy en día uno de los usos más frecuentes tiene como objetivo el engaño y la manipulación.

El acceso a las deepfake por parte de ciberdelincuentes tiene un efecto directo sobre la ciberseguridad, ya que cualquier organización o persona puede ser víctima de ellas. Además, si se crean para lanzar fake news (noticias falsas), implican un riesgo que puede dañar su reputación.

Escucha el pódcast sobre deepfake con Lisette Guittard, Global Head of Cyber Secure User Experience, y José Palacio, Global Head of Threat Detection and Cyber Security Operations.
Escucha el pódcast sobre deepfake con Lisette Guittard, Global Head of Cyber Secure User Experience, y José Palacio, Global Head of Threat Detection and Cyber Security Operations.

La detección y la implementación de medidas para luchar contra las deepfake es una prioridad de Santander. Según José Palacio, global head of threat detection and security operations de Grupo Santander, hay tres tipos de deepfake:

  • Modulación de la voz: la IA simula la voz de una persona para, por ejemplo, se utilice para suplantar la identidad de un familiar, o un representante de tu banco, en una llamada de teléfono. “Con un vídeo de quince minutos somos capaces de replicar cualquier persona”, asegura Palacio.
  • Lip-sync: se puede alterar el movimiento de los labios de una persona y cambiar el audio para que parezca que lo que está diciendo es real y así transmitir un mensaje falso en un vídeo real. Por ejemplo, en un vídeo falso puede parecer que un político o un dirigente empresarial está recomendando o advirtiendo sobre algo que nunca se ha dicho.
  • Face-swap: es la técnica más compleja de todas. Los algoritmos pueden intercambiar caras en una imagen o vídeo a la persona que se quiere suplantar, se le añade la voz, para que la "persona" que se ve se parezca a alguien que conoce y en quien confía.

¿Cómo afronta Santander este tipo de retos?

Ponemos a disposición de nuestros clientes herramientas para protegerlos frente a este tipo de riesgos en el día a día. Contamos con avanzados mecanismos de monitorización y detección para evitar estafas y fraudes.

Desarrollamos una labor constante de concienciación con nuestros clientes a través de consejos y recomendaciones para que nuestros clientes protejan sus datos de acceso a la banca digital y otros elementos. 

Si sospechas, repórtalo

Reportar una campaña de deepfake es fundamental para frenarla lo antes posible y evitar que llegue a más personas. Si recibes una comunicación sospechosa procedente de Santander, haz captura de la pantalla y compártela con el banco en el correo reportphishing@gruposantander.com o a través de los canales en el resto de los mercados en los que operamos. 

Si ves una publicación o anuncio en una red social, ya sea de Santander u otra empresa, puedes reportarlo también en el enlace “denunciar” que encontrarás junto al contenido en la propia red.  

Te puede interesar