EDR NEWS te informa: Fraud attacks expected to ramp up in AI ‘perfect storm’

EDR NEWS te informa: Fraud attacks expected to ramp up in AI ‘perfect storm’

Resumen de buceo:

  • Los líderes de la alta dirección deberían prepararse para un aumento de las estafas de suplantación de identidad basadas en inteligencia artificial dirigidas a empresas durante el próximo año, según un informe de la firma de prevención de fraude Nametag.
  • Es probable que tendencias como la mayor accesibilidad a tecnologías “deepfake” se aceleren este año, lo que permitirá Los malos actores intensificarán los ataques. como el fraude en la contratación, donde los estafadores hacerse pasar por candidatos legítimos para un puesto de trabajosegún el Informe sobre suplantación de la fuerza laboral 2026 de Nametag publicado el mes pasado.
  • «Es una tormenta perfecta que nos lleva a sentir realmente que 2026 será el año de los ataques de suplantación de identidad», dijo en una entrevista el director ejecutivo de Nametag, Aaron Painter. Las tecnologías de inteligencia artificial “han otorgado nuevos superpoderes a los malos actores y ellos están aprovechando esas herramientas”, afirmó.

Información de buceo:

Se han presentado más de 4,2 millones de informes de fraude ante el FBI desde 2020, lo que ha resultado en pérdidas de más de 50.500 millones de dólares, y una parte cada vez mayor de Este tipo de estafas están vinculadas a deepfakes.que son imágenes, videos o grabaciones de audio alterados por IA, informaron en septiembre el FBI y la Fundación de la Asociación Estadounidense de Banqueros.

La tecnología deepfake ha cambiado las reglas del juego para los estafadores, haciéndoles mucho más fácil robar la voz o la imagen de cualquier persona y llevar a cabo ataques de suplantación de identidad, según Nametag.

En 2024, el grupo de ingeniería británico Arup estuvo en el centro de atención después de informes de que Los estafadores desviaron con éxito 25 millones de dólares. de la empresa mediante el uso de tecnología deepfake para hacerse pasar por el director financiero de la organización.

Fabricante de coches deportivos de lujo Ferrari fue atacado sin éxito en un intento de deepfake de 2024. Como parte de la estafa, el estafador intentó engañar a un ejecutivo de la empresa para que firmara una transacción utilizando mensajes de WhatsApp que parecían enviados por el director ejecutivo Benedetto Vigna.

En un tercer ejemplo, la empresa de detección de fraude Pindrop dijo el año pasado que fue atacada sin éxito en un Noviembre 2024 Estafa de contratación que involucró tecnología deepfake.

el número de Los deepfakes en línea explotaron de aproximadamente 500.000 en 2023 a unos ocho millones en 2025, según una estimación de la empresa de ciberseguridad DeepStrike.

Painter dijo que los ataques de suplantación de identidad están a punto de acelerarse aún más este año, con departamentos como el de tecnología de la información, recursos humanos y finanzas como objetivos principales.

«Veremos un aumento de los ataques de suplantación de identidad en los distintos roles de la empresa», afirmó.

En las estafas dirigidas a TI, los estafadores pueden hacerse pasar por empleados o contratistas en un intento de engañar al personal de la mesa de ayuda para que restablezca la contraseña de la víctima o la autenticación multifactor, según Nametag. La suplantación de identidad deepfake se convertirá este año en una “táctica estándar en los manuales de ingeniería social del servicio de asistencia técnica”, predijo la empresa.

Las empresas también enfrentan crecientes riesgos de fraude y ciberseguridad cuando se trata del proceso de contratación, dijo Nametag. Según la investigación, la responsabilidad de verificar las identidades de los candidatos a un puesto de trabajo se distribuye entre varios equipos, lo que proporciona «aperturas predecibles» para los estafadores.

Para 2028, uno de cada cuatro perfiles de candidatos a un puesto de trabajo en todo el mundo será falso, según una predicción de Gartner.

La aparición de la IA agente ha elevado el nivel de amenaza, advirtió Nametag. “Una vez [AI] «El agente tiene acceso y autonomía, puede ser secuestrado o utilizado indebidamente como cualquier otra cuenta de usuario», dice el informe. Con un agente secuestrado, los estafadores pueden «iniciar acciones aparentemente legítimas, desde exportaciones de datos hasta implementaciones de software, que eluden la supervisión humana».

Se recomendó a las organizaciones que hicieran un “cambio fundamental” en su forma de pensar sobre la identidad de la fuerza laboral. «Eso significa verificar que detrás del teclado, el teléfono o el agente de inteligencia artificial esté la persona adecuada, no confiar ciegamente en que quien pueda hacer clic en un enlace, presionar un botón o unirse a una llamada sea quien dice ser», dice el informe.


Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *