La Inteligencia Artificial Generativa es un concepto que cada vez se escucha con más frecuencia. Ya está inmersa en diversos ámbitos y aunque ofrece muchas ventajas también implica varios riesgos.
Con esto en mente, ESET advierte que mientras la tecnología ayuda a los defensores a mejorar la seguridad, los actores maliciosos no pierden el tiempo en aprovechar las nuevas herramientas. Debido a lo anterior se espera un aumento de las estafas, la ingeniería social, el fraude de cuentas, la desinformación y otras amenazas.
Principales riesgos del avance tecnológico
A principios de 2024, el Centro Nacional de Ciberseguridad del Reino Unido (NCSC) advirtió que la Inteligencia Artificial ya está siendo utilizada por todo tipo de actores de amenazas y que “casi con toda seguridad aumentará el volumen y el impacto de los ciberataques en los próximos dos años”.
La amenaza es más grave en el contexto de la ingeniería social, donde la Inteligencia Artificial Generativa puede ayudar a los actores maliciosos a elaborar campañas muy convincentes en idiomas locales impecables.
Principales tendencias de Inteligencia Artificial Generativa
- Eludir la autenticación: la tecnología Deepfake se utiliza para ayudar a los estafadores a hacerse pasar por clientes en selfies y comprobaciones basadas en video para la creación de nuevas cuentas y el acceso a cuentas.
- Compromiso del correo electrónico comercial (BEC): la IA utilizada para la ingeniería social, pero esta vez para engañar a un destinatario corporativo para transferir fondos a una cuenta bajo el control del estafador. El audio y el video falsos también pueden utilizarse para hacerse pasar por directores generales y otros altos cargos en llamadas telefónicas y reuniones virtuales.
- Estafas de suplantación de identidad: los grandes modelos lingüísticos (LLM) de código abierto ofrecerán nuevas oportunidades a los estafadores. Al entrenarlos con datos extraídos de cuentas de redes sociales pirateadas o de acceso público, los estafadores podrían suplantar la identidad de las víctimas en secuestros virtuales y otras estafas diseñadas para engañar a amigos y familiares.
- Estafas de personas influyentes: de forma similar, es de esperar que en 2025 los estafadores continúan utilizando GenAI para crear cuentas de redes sociales falsas o duplicadas imitando a celebridades, personas influyentes y otras figuras conocidas. Se publicarán videos deepfake para atraer a los seguidores y hacerles entregar información personal y dinero, por ejemplo en estafas de inversión y criptomonedas, incluyendo los tipos de estratagemas destacadas en el último Informe de Amenazas de ESET. Esto aumentará la presión sobre las plataformas de redes sociales para que ofrezcan herramientas eficaces de verificación de cuentas e insignias, así como para mantenerse alerta.
- Desinformación: GenAI se aprovechará para generar de forma fácil contenido falso, con el fin de engañar a usuarios a seguir cuentas falsas en redes sociales. Estos usuarios podrían convertirse entonces en amplificadores en línea para operaciones de influencia, de una manera eficaz y más difícil de detectar que las granjas de contenidos/trolls.
- Descifrado de contraseñas: las herramientas impulsadas por la IA son capaces de desenmascarar credenciales de usuario en masa en cuestión de segundos para permitir el acceso a redes y datos corporativos, así como a cuentas de clientes.
En cuanto a la privacidad, requiere enormes volúmenes de texto, imágenes y video para entrenarse. A menudo, por accidente, algunos de esos datos serán sensibles. En algunos casos, las redes sociales y otras empresas pueden cambiar los términos y condiciones para utilizar los datos de los clientes para entrenar modelos.
Por otro lado, se espera que la Inteligencia Artificial Generativa desempeñe un papel cada vez más importante en el trabajo de los equipos de ciberseguridad durante el próximo año, a medida que se incorpore a nuevos productos y servicios.
Además, permitirá analizar grandes volúmenes de datos en busca de indicios de comportamiento sospechoso y mejorar la capacitación de los equipos de TI mediante funciones de “copiloto” integradas en varios productos para ayudar a reducir la probabilidad de errores de configuración.