Breve breve:
- AI aún no está transformando cómo los piratas informáticos lanzan ataques de phishing, aunque les está ayudando a limpiar sus señuelos, La firma de seguridad Intel 471 dijo En un informe publicado el miércoles.
- Varios factores se han combinado para mantener la IA en un papel evolutivo en lugar de revolucionario, según el informe.
- Aún así, los líderes empresariales y gubernamentales deben prestar atención a varias estrategias de ataque asistidas por AI-AI-más comunes.
Dive Insight:
Líderes de seguridad en los sectores público y privado se ha preocupado durante años sobre El impacto de la IA En el delito cibernético, pero el informe de Intel 471 concluyó que los piratas informáticos no se apresuran a revisar completamente sus técnicas para incorporar la IA.
«Aunque la IA a menudo se promociona como un cambio de juego para el panorama de la ingeniería social, en el contexto del phishing, la mayoría de los actores de amenaza aún se apoyan [phishing-as-a-service] Plataformas y kits de olor y uso de IA principalmente para la redacción de contenido y localización, no para la verdadera automatización o innovación «, escribieron los investigadores.
El informe citó tres razones para este fenómeno: limitaciones computacionales, la dificultad de integrar la IA en las herramientas de piratería y la efectividad continua de las tácticas existentes.
La incorporación de la IA en los ataques cibernéticos «implica capacitar o configurar modelos, automatizarlos dentro de una infraestructura de ataque, integrarlos con los sistemas de entrega y diseñar métodos para evadir la detección», dijo Intel 471, todo lo cual le quita tiempo al trabajo rentable de los piratas informáticos. Como resultado, escribieron los investigadores, los cibercriminales favorecen los «kits de phishing plug-and-play» que «son más fáciles de implementar, [are] Más rápido para implementar y tener un historial probado de éxito «.
Aún así, los piratas informáticos están encontrando útil la IA generativa de múltiples maneras, incluidos los defectos de audio que pueden hacerse pasar por ejecutivos, centros de llamadas a IA que pueden automatizar estafas, videos profundos que pueden engañar a los entrevistadores de empleo y los bots de voz con IA que pueden solicitar los códigos de autenticación multifactoriales de las víctimas y los números de tarjetas de crédito. El informe de Intel 471 menciona un centro de llamadas que utilizó tres modelos de IA, incluido uno de Google y otro de OpenAI. El informe también describe una publicidad cibercriminal de un servicio de bote de Vo-Voice que se jacta de robar con éxito los datos del 10% de las víctimas.
En este momento, sin embargo, «hay evidencia limitada de herramientas impulsadas por la IA que circulan en los mercados subterráneos», dijo Intel 471, «y las discusiones entre los actores de amenazas rara vez hacen referencia al uso operativo de la IA generativa».
La compañía concluyó que la «adopción práctica» de la tecnología por ciberdelincuentes «todavía está en su infancia», con un uso generalizado dependiendo de «una disminución en los costos del alojamiento de modelos y la aparición de kits de IA» de vanguardia «comparables a las ofertas de faas populares de hoy». Aún así, también predijo «más llamadas de suplantación de profunda de Deepfake» dirigida a líderes empresariales y un aumento de desinformación alimentado por IA «durante las elecciones, puntos de inflamación geopolítica y debates de justicia social».
Fuente