EDR NEWS te informa: NIST asks public for help securing AI agents

EDR NEWS te informa: NIST asks public for help securing AI agents

Este audio se genera automáticamente. Por favor háganos saber si tiene comentario.

El Instituto Nacional de Estándares y Tecnología solicita al público sugerencias de enfoques para gestionar los riesgos de seguridad de los agentes de IA.

En un aviso del Registro Federal programado para su publicación el jueves, el NIST Centro de innovación y estándares de IA (CAISI) solicitó “información y conocimientos de las partes interesadas sobre prácticas y metodologías para medir y mejorar el desarrollo y despliegue seguros de sistemas de agentes de inteligencia artificial (IA)”.

La participación pública refleja preocupaciones persistentes sobre las debilidades de seguridad en agentes de IA cada vez más ubicuos. Muchas empresas han adoptado estos agentes sin comprender completamente ni desarrollar planes para mitigar sus fallas, creando sin darse cuenta nuevas vías para que los piratas informáticos penetren en sus redes informáticas. La amplia libertad otorgada a agentes de IA mal protegidos podría ser especialmente peligrosa en redes de infraestructura crítica, que a veces controlan maquinaria industrial que es esencial para la salud y la seguridad.

«Si no se controlan, estos riesgos de seguridad pueden afectar la seguridad pública, socavar la confianza del consumidor y frenar la adopción de las últimas innovaciones en inteligencia artificial», dijo el NIST en su solicitud.

La agencia está dando a las empresas de tecnología, investigadores académicos y otros miembros del público 60 días para proporcionar «ejemplos concretos, mejores prácticas, estudios de casos y recomendaciones prácticas basadas en su experiencia en el desarrollo e implementación de sistemas de agentes de IA y en la gestión y anticipación de los riesgos que conllevan».

Buscando orientación

CAISI, creada durante la administración de Biden y revisada en 2025 bajo la presidencia de Donald Trump, es responsable de desarrollar métodos de evaluación de la seguridad de la IA, probar modelos de IA para detectar debilidades y asociarse con la industria para crear estándares de seguridad voluntarios. El NIST dijo que los comentarios del público ayudarían a CAISI a evaluar los riesgos de seguridad de la IA y producir «directrices técnicas y mejores prácticas para medir y mejorar la seguridad de los sistemas de IA».

La solicitud solicita al público que responda a una serie de preguntas específicas, incluidas varias sobre los riesgos de seguridad exclusivos de los agentes de IA, los controles técnicos disponibles para proteger a los agentes y el nivel actual de madurez de los métodos para detectar incidentes cibernéticos que involucran a agentes.

CAISI también quiere saber cómo las capacidades específicas de los agentes y los métodos de implementación pueden influir en la eficacia de sus controles de seguridad y qué áreas de investigación de seguridad de los agentes merecen la atención más urgente, entre otras cuestiones.


Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *