Este audio se genera automáticamente. Por favor háganos saber si tiene comentario.
Resumen de buceo:
- La mitad de todas las organizaciones se han visto «impactadas negativamente» por vulnerabilidades de seguridad en sus sistemas de inteligencia artificial, según datos recientes de EY.
- Sólo el 14% de los directores ejecutivos cree que sus sistemas de inteligencia artificial protegen adecuadamente los datos confidenciales.
- Los nuevos riesgos de la IA están agravando la dificultad de proteger las redes con un mosaico de defensas de ciberseguridad, ya que las organizaciones utilizan un promedio de 47 herramientas de seguridad, descubrió EY.
Información de buceo:
El nuevo informe de EY reúne una variedad de conocimientos sobre la IA, desde su papel en el panorama de ataques hasta su integración en entornos corporativos. La consultora se hizo eco de otros expertos al advertir que la automatización impulsada por la IA está facilitando a los piratas informáticos realizar intrusiones potencialmente costosas.
«La IA reduce el listón necesario para que los ciberdelincuentes lleven a cabo ataques sofisticados», dijo en el informe Rick Hemsley, líder de ciberseguridad de EY en el Reino Unido e Irlanda. «Las habilidades de ciberataque que solían requerir tiempo y experiencia para desarrollarse ahora son más fácilmente accesibles, de forma gratuita, para un mayor número de ciberdelincuentes que nunca».
Ingeniería social se ha beneficiado inmensamente de la IA. EY señaló datos recientes de CrowdStrike que muestran que los ataques de phishing de voz, o vishing, se dispararon un 442% en la segunda mitad de 2024. El tiempo de fuga de los ciberdelincuentes (la medida de cuánto tiempo tardan los intrusos en comenzar a moverse lateralmente después de obtener el acceso inicial) se redujo de aproximadamente una hora en 2023 a 48 minutos en 2024, según datos de CrowdStrike. La empresa de seguridad ReliaQuest descubrió recientemente que se había caído a solo 18 minutos a mediados de 2025.
Estas cifras deberían alarmar a los defensores, dijo EY. «Acelerar los tiempos de fuga es peligroso. Cuando los atacantes se establecen en una red, pueden obtener un control más profundo y son más difíciles de extraer».
Dado que los modelos de IA introducen nuevos riesgos en las redes de las empresas, las organizaciones deberían centrarse en capacitar a sus empleados para evitar errores costosos, dijo EY. La compañía descubrió recientemente que el 68% de las organizaciones permiten a los empleados desarrollar o implementar agentes de IA sin una aprobación de alto nivel, y solo el 60% de las organizaciones emiten directrices para ese trabajo.
Las empresas también deberían tomar medidas para proteger la integridad de sus datos, dijo EY, dada la importancia de esos datos tanto para las funciones comerciales tradicionales como para la capacitación del modelo de IA. El informe señaló múltiples riesgos de datos relacionados con la IA, incluidos los modelos que filtran información confidencial y las empresas que accidentalmente permiten que los modelos se entrenen con información de identificación personal.
Otras recomendaciones en el informe de EY incluyen mantener la integridad en la cadena de suministro de herramientas de IA, incorporar consideraciones de seguridad en cada etapa del proceso de desarrollo de IA y rediseñar los programas de detección de amenazas para detectar y bloquear más rápidamente posibles abusos de las herramientas de IA.
Los CISO deberían centrar sus inversiones en seguridad en “áreas claras que generan valor”, dijo EY.
Fuente


