Defensa contra ataques de IA adversarial y deepfake
Imagínese unirse a una videollamada con su CEO, solo para descubrir más tarde que el participante del CEO era en realidad una falsificación generada por IA. Bienvenido al nuevo campo de batalla digital.
La IA adversaria y los deepfakes han creado una superficie de ataque de identidad que no solo es digital, sino que también se basa en la realidad misma. Estas tecnologías ya no son ciencia ficción ni teóricas. Se están utilizando activamente para falsificar identidades, manipular percepciones políticas y eludir incluso las mejores iniciativas de capacitación en ciberseguridad. , y eludir incluso las mejores iniciativas de formación en ciberseguridad.
Si sus defensas de ciberseguridad se basan únicamente en la percepción humana, el reconocimiento de voz o incluso la evidencia visual, es vulnerable a un ataque.
Del gato y el ratón a la máquina contra la máquina#
La ciberseguridad siempre ha sido un juego del gato y el ratón. Como defensores (ratones), históricamente hemos podido adaptar nuestras defensas contra el phishing, el malware, el ransomware y las amenazas internas. Hoy, también estamos elaborando estrategias contra amenazas emergentes, desde la inteligencia artificial (IA) hasta el descifrado cuántico. Sin embargo, el gato en este caso ya no es solo inteligente. Los actores de amenazas de hoy pueden ser sintéticos, autodidactas, diabólicos y manipuladores de formas que nunca imaginamos.
Imagine recibir un mensaje de voz de su CEO autorizando una transferencia bancaria, o una videollamada en vivo de su administrador de TI pidiéndole que deshabilite la autenticación multifactor (MFA). Cuando los actores de amenazas aprovechan los deepfakes de un empleado real como parte de un ataque de ingeniería social, no solo está siendo engañado, sino que es un accesorio. Un error aquí significa que está permitiendo que ocurra una transacción o autenticación no autorizada dentro de su propia organización.
Qué significan la IA adversaria y los deepfakes para la seguridad#
Para medir el alcance de esta amenaza, analicemos algunos conceptos clave.
IA adversaria#
La IA adversaria se refiere a técnicas que manipulan deliberadamente los modelos de IA, como la generación de imágenes / videos o el procesamiento del lenguaje, para crear contenido con una intención o resultado malicioso. Como ejemplo, considere el software de reconocimiento de imágenes que es engañado para ver una tortuga como un arma en función de la forma en que se construye la imagen. Como humanos, vemos una tortuga, pero para el software de IA, ve un arma basada en los colores, el estilo, la pixelación y el diseño de la imagen.
En ciberseguridad, el contenido de IA adversario puede eludir los filtros de spam, confundir los motores de detección de malware o evadir la detección de fraude alimentando las entradas manipuladoras precisas para confundir a los sistemas de IA.
Ataques de deepfake#
A continuación, considere los deepfakes. Los deepfakes son grabaciones de audio o video alteradas de humanos generadas por modelos de aprendizaje automático (generalmente GAN, redes generativas antagónicas), que a menudo se utilizan con intenciones maliciosas. Un deepfake puede hacer que alguien parezca decir o hacer algo que no es real. Lo que alguna vez fue una novedad en las redes sociales usando filtros ahora se convierte en un arma para la ingeniería social, el fraude, el soborno, la sextorsión y el chantaje.
Cinco ataques de deepfake en el mundo real#
Considere los siguientes vectores de ataque deepfake bien documentados:
1. Hacerse pasar por ejecutivos#
Los actores de amenazas utilizan tecnología deepfake para clonar la voz de un ejecutivo o líder político utilizando muestras de audio cortas obtenidas de fuentes públicas. Luego usan el deepfake para llamar a los empleados solicitando transferencias de fondos urgentes o tarjetas de regalo. También pueden dar instrucciones inapropiadas o pedirles que transmitan información confidencial. Estos ataques son una extensión del phishing de voz (vishing) y tienen una mayor probabilidad de éxito a través del ancho de banda limitado de un teléfono, suenan auténticos.
2. Fingir videollamadas en vivo#
El renderizado en tiempo real ahora es posible en los sistemas modernos. Los actores de amenazas están aplicando esta capacidad para hacerse pasar por colegas o contratistas de confianza a través de Zoom, Teams, FaceTime o video de Slack. Los deepfakes generados de esta manera se ven convincentemente reales e imitan los gestos humanos, incluidos los ojos parpadeantes, los labios en movimiento, las cejas levantadas e incluso algunos movimientos de las manos. Los resultados parecen aterradoramente reales, especialmente con poco ancho de banda o en dispositivos con pantallas pequeñas.
Esta técnica de ataque estuvo detrás de la notoria estafa del director financiero deepfake de Hong Kong, donde los actores de amenazas falsificaron una videoconferencia web completa, haciéndose pasar por un destacado director financiero y otros participantes de la reunión para realizar ingeniería social de la víctima para que transfiriera $ 25.6 millones de dólares a cinco cuentas bancarias diferentes de Hong Kong.
3. Incrustación de malware en los medios#
El malware se puede incrustar en imágenes, archivos PDF, páginas web y otro contenido deepfake, lo que le permite evitar las herramientas antivirus y evadir los sistemas de detección de anomalías. Los actores de amenazas no necesitan entrar por la fuerza bruta, solo explotan la curiosidad humana para abrir la puerta a los ladrones de información y otros ataques. Estos ataques generalmente explotan vulnerabilidades en las soluciones utilizadas para mostrar contenido o tienen nombres de archivo falsificados que realmente pueden iniciar ejecutables.
4. Implementación de chatbots de IA para phishing#
Los atacantes implementan bots de phishing basados en IA que simulan representantes de atención al cliente en sitios web basados en abrevaderos (sitios web que parecen representar a una empresa real, pero son fraudulentos). El objetivo es manipular a los usuarios para que entreguen credenciales de inicio de sesión (incluida MFA) o deshabiliten la configuración de seguridad cuando interactúan con el sitio web falso.
5. Forjar la biometría digital#
Las huellas dactilares sintéticas, los modelos faciales en 3D y los escaneos de iris replicados por IA se pueden duplicar digitalmente si la tecnología original que aloja la biometría se ha visto comprometida. Esto sirve como una advertencia para todos. Aunque el escáner biométrico puede ser seguro, si la representación digital de los datos biométricos se almacena de forma insegura, ya sea en otro lugar o localmente, puede ser atacada, extraída y utilizada para un ataque futuro. Recuerde, puede cambiar su contraseña, pero no sus datos biométricos. Comprender cómo se almacenan sus datos biométricos es clave para garantizar si existe un riesgo que podría aprovecharse en su contra en el futuro utilizando deepfakes.
Pasos prácticos para defenderse de los adversarios digitales de hoy#
Entonces, ¿cómo nos protegemos en un mundo donde la realidad percibida puede ser falsificada?
1. Implementar la verificación multimodal#
Los deepfakes a menudo se centran en una sola modalidad sensorial: voz o video como componente principal generado por la IA. Los humanos, sin embargo, pueden interactuar a través de múltiples canales.
Por lo tanto, preste atención a todas las colas sensoriales. Inspeccione la voz, la cara, las señales de comportamiento, las manos, las inflexiones tonales, el fondo, los gestos, etc. para determinar si el contenido es falso. Si una solicitud llega a través de video, valídela a través de una comunicación secundaria y bien conocida, como un mensaje de Teams o Slack, o incluso una palabra clave. Confíe, pero siempre verifique si la conexión se recibe mediante comunicaciones fuera de banda, especialmente si la solicitud es cuestionable, como una transferencia bancaria.
2. Adopte IA para detectar IA #
Las herramientas de IA defensivas se pueden entrenar para detectar deepfakes a través del análisis de la velocidad de fotogramas, las inconsistencias de píxeles y el parpadeo o la modulación de voz antinaturales. Esto incluye la detección de vida, que busca patrones no naturales, o la falta de patrones naturales, en la forma en que el sujeto se mueve, habla o parpadea. Estas herramientas evolucionan continuamente como lo hacen los generadores de deepfakes, y están disponibles como complementos para la mayoría de las principales plataformas de comunicación unificada. Al final, no se trata de una defensa de bloqueo y placaje, sino de detección y respuesta activas.
3. Incorpore escenarios de deepfake en la educación de los empleados#
La capacitación periódica en ciberseguridad debe incluir escenarios que requieran que los empleados cuestionen las interacciones "auténticas". Esto implica que sus campañas de phishing simuladas ahora deben incluir video y audio en canales de comunicación corporativos y privados. Los mejores escenarios incluyen videollamadas falsas y correos de voz deepfake.
Finalmente, fomente una cultura de desafío, donde incluso el personal superior comprenda y acepte los obstáculos de seguridad, como devoluciones de llamadas, verificación de voz a texto o autenticación de múltiples aprobadores para evitar el fraude.
4. Firma digitalmente comunicaciones confidenciales#
Utilice firmas criptográficas para video, audio y documentos, especialmente en industrias reguladas o donde se produce una comunicación confidencial de nivel C. Los procesos de verificación confiables son importantes y también se pueden capacitar. Si un CEO envía un video, debe estar firmado y verificable, como cualquier pieza de software firmado digitalmente y solo provenir de canales de comunicación comercial autorizados.
5. Limite su huella en los medios públicos#
Cuantos menos datos de entrenamiento de IA deepfake pueda consumir un actor de amenazas, más difícil será crear falsificaciones convincentes. Limite la disponibilidad de imágenes, videos y muestras de voz de alta calidad, especialmente si es una figura pública o tiene una persona pública. Evite cargar medios innecesarios, elimine metadatos cuando sea posible y restrinja el acceso al contenido de video descargable.
Además, considere agregar marcas de agua variables ocultas y visibles a cualquier contenido para obstaculizar los esfuerzos de capacitación malintencionados.
Mirar hacia el futuro cuando la "realidad" es incierta
La IA adversaria y los deepfakes han alterado fundamentalmente el panorama de amenazas. Estas no son solo herramientas para divertirse; Pueden automatizar, amplificar y disfrazar los ataques, lo que los hace extremadamente difíciles de detectar.
Confíe, pero verifique todo. Esa esencia central de la confianza cero ya no solo se aplica a las redes y dispositivos, sino también a las interacciones, las comunicaciones e incluso las identidades. Los profesionales de la ciberseguridad deben adoptar la IA no solo para detectar y responder, sino también para anticiparse y superar. Es una nueva era del viejo juego del gato y el ratón para la seguridad de nuestras organizaciones.
La defensa de hoy ya no se trata de detener una dirección IP externa o un paquete malicioso; también implica cuestionar la realidad de lo que estamos viviendo. Por lo tanto, no crea todo lo que ve o escucha, especialmente sin pruebas. El escepticismo ya no es cinismo; es la mentalidad que necesitas para navegar cuando la realidad misma puede ser falsificada.
Fuente: TheHackernews
Comentarios
Publicar un comentario