Resumen de buceo:
- Las empresas que utilizan IA para escribir código están creando graves riesgos de seguridad que no todas las organizaciones se sienten preparadas para manejar. según un informe publicado el miércoles por la firma de pruebas de seguridad ProjectDiscovery.
- ProjectDiscovery descubrió que el personal de seguridad quiere pistas de auditoría y limitaciones de acceso antes de integrar la IA en sus procesos. «No se oponen a la tecnología, pero la necesitan para ganarse su lugar».
- El informe destaca uno de los aspectos más tensos de la revolución de la IA en el mundo empresarial: la tensión entre los codificadores asistidos por IA y las personas responsables de proteger su trabajo.
Información de buceo:
«Una avalancha de código generado por IA está afectando a los equipos de seguridad, y la ola se está acumulando más rápido de lo que la mayoría de las organizaciones pueden absorber», dijo ProjectDiscovery en su informe. «Los equipos de ingeniería están navegando a una velocidad sin precedentes y los equipos de seguridad se interponen en el camino de esa marea creciente».
Sólo el 38% de los profesionales de la ciberseguridad dijeron que se mantienen al día con el creciente volumen de código que tienen que revisar debido a la IA, y casi el 60% dijo que la tarea se está volviendo más difícil, según el informe. El personal de seguridad de las empresas medianas sintió esta presión más que sus homólogos de las empresas grandes, lo que quizás refleja la cantidad de recursos que las empresas más grandes tienen que dedicar al trabajo.
El informe se basa en una encuesta realizada a 200 profesionales de la ciberseguridad en empresas medianas y grandes de América del Norte y Europa Occidental. Casi la mitad de los encuestados trabajan en arquitectura de seguridad, dijo ProjectDiscovery, y más de la mitad desempeña un papel en «seleccionar o aprobar productos de seguridad».
Los defensores están preocupados varios riesgos derivados del uso de IA para escribir código, incluida la exposición de secretos corporativos (el 78% de los encuestados citó esto como una de las principales preocupaciones), los riesgos de la cadena de suministro derivados de dependencias poco confiables (73%) y las «vulnerabilidades de la lógica empresarial», fallas en el diseño de aplicaciones que podrían permitir a un hacker abusar de funciones legítimas (72%).
En su discusión sobre la filtración de secretos, ProjectDiscovery citó un informe de la Alianza Nacional de Ciberseguridad de 2025 que encontró que el 43% de los empleados admitieron haber ingresado datos confidenciales de la empresa en herramientas de inteligencia artificial.
Los encuestados europeos eran más propensos que sus homólogos estadounidenses a citar la filtración de secretos como una preocupación importante (87% versus 72%), tal vez reflejando los estrictos requisitos de privacidad del Reglamento General de Protección de Datos (GDPR) de la Unión Europea.
Fuente


