Recientemente, actores maliciosos utilizaron deepfakes del CFO de una empresa y otros empleados en una videollamada para convencer exitosamente a un trabajador de realizar una transferencia bancaria de $25.6 millones. Este incidente destaca cómo los delincuentes están aprovechando el poder de la IA para desarrollar y utilizar nuevas amenazas más capaces y convincentes.
Hace unos años, gran parte de la discusión sobre inteligencia artificial (IA) se centraba más en el ruido que en los beneficios reales. Sin embargo, el ritmo de la innovación en IA y los impactos tanto positivos como negativos en las organizaciones están cambiando a una escala sin precedentes.
En el ámbito de la ciberseguridad, la aparición de herramientas de IA significativas y disruptivas y su uso por parte de ciberdelincuentes amplifica la complejidad y urgencia de proteger a las organizaciones y sus infraestructuras digitales de las nuevas amenazas cibernéticas basadas en IA. La buena noticia es que los proveedores de ciberseguridad han estado aplicando diversas tecnologías de IA durante años. Sin embargo, frente a un futuro lleno de actores maliciosos que utilizan tácticas basadas en IA, es crítico que los líderes de seguridad y TI y sus equipos evolucionen sus estrategias de seguridad para abordar estas sofisticadas amenazas potenciadas por IA.
Innovar para Fortalecer
A medida que las organizaciones continúan con sus iniciativas de digitalización, sus superficies de ataque inevitablemente se expanden. Ya sea la adopción de la nube, la eliminación de brechas entre la tecnología de la información (TI) y la tecnología operativa (OT), la proliferación de dispositivos de Internet de las Cosas (IoT) conectados a la red, o la realidad de las fuerzas de trabajo híbridas, muchas organizaciones están llevando al límite los recursos de sus equipos de seguridad y TI. Ahora, el uso de herramientas de IA por parte de actores maliciosos agrava una situación ya desafiante y dinámica.

Cómo los Malos Usan la IA
Los actores maliciosos han aprovechado el poder de la IA para desarrollar y utilizar amenazas nuevas, más capaces y convincentes, incluyendo amenazas de día cero. Con la IA, los ataques pueden ser más dirigidos y lanzados más rápidamente que nunca. En manos de actores maliciosos, la IA está teniendo múltiples efectos:
- Reducción de Barreras: Las tecnologías de IA, como los transformadores preentrenados generativos (GPT) o la IA generativa (GenAI), están reduciendo las barreras de entrada para nuevos actores maliciosos. Hoy en día, un hablante no nativo de inglés en cualquier parte del mundo puede crear ataques de phishing y de ingeniería social en correo electrónico con sintaxis en inglés nativo.
- Desarrollo de Malware: La IA puede usarse para crear nuevo código malicioso y simplificar enormemente los esfuerzos para desarrollar nuevo malware.
- Uso de Deepfakes: El uso de tecnología de deepfake por actores maliciosos ya ha inflado la clase política y el electorado y ha hecho factible cometer delitos cibernéticos a gran escala.
- Explotación de Vulnerabilidades: La IA podría utilizarse para detectar y explotar vulnerabilidades de aplicaciones más rápidamente, lo que abre la puerta a un mayor riesgo en la cadena de suministro para las organizaciones de todo el mundo.
- Ataques Coordinados: La IA puede usarse para crear variantes adaptativas de malware y lanzar ataques coordinados multivectoriales.
Cómo los Buenos Usan la IA
La convergencia de la IA y la ciberseguridad no es solo una mejora tecnológica. Es una evolución necesaria y cada vez más urgente que puede ayudar a las organizaciones a elevar sus defensas contra las amenazas emergentes a sus superficies de ataque modernas. Muchos proveedores de ciberseguridad han estado aplicando diversas tecnologías de IA durante años. Por ejemplo, Fortinet ha estado investigando y utilizando tecnologías de IA durante más de 10 años y continúa adaptándose y respondiendo a los desafíos de la superficie de ataque moderna con sus defensas impulsadas por IA.
Soluciones para Protegerse de Ataques de Deepfake: Para mitigar el riesgo de ataques de deepfake, las organizaciones deben considerar las siguientes estrategias:
- Autenticación de Identidad: Utilizar métodos de autenticación multifactor (MFA) para verificar la identidad de los usuarios, especialmente en situaciones de videollamada y transacciones financieras. DigitiWorld ofrece una integración avanzada de MFA para asegurar que solo usuarios verificados accedan a información crítica.
- Formación y Concienciación: Capacitar a los empleados sobre los riesgos de los deepfakes y cómo identificarlos. Fomentar la verificación adicional de solicitudes inusuales o sospechosas. En DigitiWorld, ofrecemos programas de capacitación personalizada para preparar a tu equipo contra este tipo de amenazas.
- Tecnologías de Detección de Deepfake: Implementar soluciones tecnológicas que analicen el contenido de video y audio en busca de señales de manipulación propias de los deepfakes. Nuestras herramientas avanzadas de análisis de medios están diseñadas para detectar y neutralizar contenido falso antes de que cause daño.
- Políticas de Verificación: Establecer políticas estrictas para la verificación de solicitudes financieras y otras acciones críticas a través de canales de comunicación secundarios. Contamos con servicios de consultoría para ayudarte a diseñar e implementar estas políticas eficientemente.
Haz de la IA una Prioridad: Pon la IA en el radar de tu equipo.
Recuperado de repositorio artículos de Fortinet