EDR NEWS te informa: NIST and MITRE partner to test AI defense technology for critical infrastructure

EDR NEWS te informa: NIST and MITRE partner to test AI defense technology for critical infrastructure

Este audio se genera automáticamente. Por favor háganos saber si tiene comentario.

El Instituto Nacional de Estándares y Tecnología se está asociando con una organización de investigación sin fines de lucro para estudiar cómo la IA puede aumentar la seguridad de la infraestructura crítica.

NIST anunció el lunes que la agencia y MITRE están creación de un centro de seguridad económica de IA para proteger la infraestructura crítica de EE. UU. frente a las ciberamenazas para «impulsar el desarrollo y la adopción de herramientas impulsadas por IA» que puedan ayudar al personal de seguridad a defenderse de los piratas informáticos que intentan dañar o desactivar plantas de energía, hospitales y otros sistemas de infraestructura.

«El NIST trabajará estrechamente con MITRE centrándose en áreas donde el desarrollo colaborativo y las pruebas piloto tienen el potencial de demostrar impactos significativos en la adopción de tecnología al rápido ritmo de la innovación», dijo un portavoz del NIST a Cybersecurity Dive. «El objetivo de los aceleradores de IA es ayudar a la industria estadounidense a tomar decisiones inteligentes sobre la implementación de la IA».

La agencia dijo en su anuncio que el centro de seguridad económica, junto con un esfuerzo paralelo centrado en la productividad manufacturera, «desarrollará las evaluaciones y avances tecnológicos que son necesarios para proteger eficazmente el dominio estadounidense en la innovación de la IA, abordar las amenazas del uso de la IA por parte de los adversarios y reducir los riesgos derivados de la dependencia de la IA insegura».

Los dos nuevos centros de IA son parte de la estrategia de la administración Trump para mantener la ventaja competitiva de Estados Unidos en la investigación y el despliegue de IA en un momento en que China está afirmándose cada vez más en el campo. NIST dijo que las nuevas operaciones de investigación ayudarían a implementar el Plan de Acción de IA de la Casa Blanca, cuyo componente de seguridad centrado en la protección de infraestructuras críticas.

El NIST dijo que «espera que los centros de inteligencia artificial permitan avances en ciencia aplicada y tecnología avanzada y brinden soluciones innovadoras y disruptivas para abordar los desafíos más apremiantes que enfrenta la nación».

Garantizar una automatización confiable

El NIST no dio ejemplos de proyectos específicos en los que trabajaría el nuevo centro de seguridad de IA, pero los expertos ofrecieron varias ideas para la asociación público-privada.

Nick Reese, director de operaciones de la empresa de pruebas de estrés de IA Optica Labs, dijo que el centro debería explorar formas de garantizar la confiabilidad de los sistemas de misión crítica que dependen de modelos de IA. Las empresas adoptan la IA para simplificar el análisis de datos y la prestación de servicios, dijo, pero «es igualmente importante asegurarnos de que no sólo estemos tomando decisiones más rápido, sino también más precisas».

Otras investigaciones ya se están centrando en formas de proteger los conjuntos de datos y modelos de IA de los piratas informáticos, dijo Reese, por lo que el nuevo centro del NIST debería ir más allá de esos esfuerzos. «El trabajo de verdadero impacto será crear una verdadera seguridad de la IA en el punto donde los humanos interactúan con los sistemas».

«En este momento, hay una verdadera escasez de pruebas y evaluaciones comparativas de seguridad y garantía de la IA porque la mayoría de las pruebas se realizan en relación con el rendimiento del modelo», dijo Reese, exdirector de políticas de tecnología emergente en el Departamento de Seguridad Nacional. «NIST y MITRE tienen una oportunidad real de ampliar el espacio de garantía de IA en beneficio de la prestación de servicios críticos».

Andrew Lohn, investigador principal del Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown, estuvo de acuerdo en que aumentar la confiabilidad debería ser una prioridad para la investigación de seguridad de la IA, especialmente los proyectos centrados en mejorar la infraestructura crítica.

«La IA puede hacer cosas impresionantes, pero… es mucho menos confiable de lo que estamos acostumbrados a exigir de nuestros sistemas y componentes», dijo Lohn, quien escribió un artículo sobre el tema en 2020.

Los problemas de confiabilidad no deberían descalificar a la IA para su uso en infraestructura crítica, dijo Lohn, pero deberían estimular la investigación sobre formas de mitigar esos problemas. Hizo una analogía con las medidas de seguridad que mitigan las fallas humanas, como los badenes y las alarmas en la cabina de los aviones.

«Hoy en día, nuestros procesos y estándares están diseñados para componentes mecánicos y eléctricos infalibles combinados con operadores humanos falibles», dijo Lohn, ex director de política de tecnología emergente en el Consejo de Seguridad Nacional de la Casa Blanca. «Para que la IA sea útil, debemos entender cómo diseñar sistemas y estándares en torno a sistemas electromecánicos falibles que no siempre fallan como lo hacen los humanos».

Las instalaciones de infraestructura crítica tienen una menor tolerancia a los fallos de la IA que otras empresas, por lo que el centro deberá ayudar a desarrollar tecnologías que reduzcan o mitiguen esos fallos.


Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *