Experto advierte que ciberdelincuentes están cada vez más interesados en la tecnología Deep Fake

Un especialista en análisis cibernético con sede en San Francisco advirtió la semana pasada que el uso de tecnologías de audio y video falsas profundas podría convertirse en una gran amenaza cibernética para las empresas en los próximos dos años.

Según occrp.org, la tecnología deep fake crea contenido de audio o video ficticio convincente que puede usarse fácilmente para difundir información errónea. En su mayoría, estos videos muestran a personas conocidas falsas creadas digitalmente que dicen o hacen lo que en realidad nunca han dicho o hecho.

CyberCube subrayó en su último informe Ingeniería social: Realidad borrosa y falsificación , que la «capacidad de crear falsificaciones de audio y video realistas utilizando IA (inteligencia artificial) y aprendizaje automático ha crecido constantemente».

Recordó que los avances tecnológicos recientes y la creciente dependencia de las empresas de las comunicaciones basadas en video han acelerado los desarrollos, lo que ha llevado a los delincuentes a invertir en tecnología para aprovechar esta tendencia.

«Las técnicas de ingeniería social nuevas y emergentes, como el video y el audio falsos profundos, cambiarán fundamentalmente el panorama de las amenazas cibernéticas y se están volviendo técnicamente viables y económicamente viables para las organizaciones criminales de todos los tamaños», el autor del informe, jefe de estrategia de seguridad cibernética de CyberCube, Darren Thomson, advirtió.

Debido a tal desarrollo técnico y un mayor uso de la tecnología, impulsado por la pandemia COVID-19, ha habido más y más muestras de video y audio de empresarios ahora accesibles en línea. Por lo tanto, los ciberdelincuentes «tienen una gran cantidad de datos a partir de los cuales construir simulaciones fotorrealistas de individuos, que luego pueden usarse para influir y manipular a las personas», según CyberCube.

La plataforma de datos y análisis también señaló una tecnología creada por la Universidad de Washington, el mapeo de la boca, que se puede usar para «imitar el movimiento de la boca humana durante el habla con extrema precisión».

“Imagine un escenario en el que un video de Elon Musk dando consejos sobre el uso de información privilegiada se vuelve viral, solo que no es el verdadero Elon Musk. O un político anuncia una nueva política en un videoclip, pero una vez más, no es real ”, dijo Darren Thomson de CyberCube.

Afirmó que ya se habían visto videos falsos tan profundos, utilizados en campañas políticas.

«Es sólo cuestión de tiempo antes de que los delincuentes apliquen la misma técnica a las empresas y a los particulares ricos», advirtió Thomson.

Añadió que podría ser «tan simple como un mensaje de voz falso de un gerente senior que instruye al personal para que realice un pago fraudulento o transfiera fondos a una cuenta creada por un pirata informático».

Además de la tecnología de audio y video profundamente falso, CyberCube dijo que también examina el «uso creciente de técnicas tradicionales de ingeniería social, explotando las vulnerabilidades humanas para obtener acceso a información personal y sistemas de protección».

«Una faceta de esto es la elaboración de perfiles sociales, la técnica de recopilar la información necesaria para crear una identidad falsa para un individuo objetivo basada en información disponible en línea o de fuentes físicas como basura o registros médicos robados», se lee en el informe.

Hizo hincapié en que «la difuminación de los sistemas de TI nacionales y comerciales creados por la pandemia, combinada con el uso creciente de plataformas en línea, está facilitando la ingeniería social para los delincuentes».

Por lo tanto, CyberCube advirtió a las aseguradoras que es poco lo que pueden hacer para combatir el desarrollo de tecnologías falsas profundas, pero enfatizó que la selección de riesgos será cada vez más importante para los suscriptores cibernéticos.

“No existe una fórmula mágica que se traduzca en cero pérdidas. Sin embargo, los suscriptores deberían tratar de entender cómo un riesgo dado se compara con los marcos de seguridad de la información ”, dijo el autor del informe, Darren Thomson.

Un remedio, al menos al principio, como dijo, podría ser que las empresas capaciten a los empleados para que estén preparados para ataques falsos profundos.

CyberCube enfatizó que la tecnología deep fake tiene el potencial de generar grandes pérdidas, ya que podría usarse para desestabilizar los sistemas políticos o los mercados financieros.

Tal caso ya se registró en 2019, cuando “los ciberdelincuentes utilizaron software basado en inteligencia artificial para hacerse pasar por la voz de un director ejecutivo y exigir la transferencia fraudulenta de 243.000 dólares”, según CyberCube.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *