OpenAI ha anunciado el lanzamiento de un «investigador de seguridad agente» que funciona con su modelo de lenguaje grande (LLM) GPT-5 y está programado para emular a un experto humano capaz de escanear, comprender y parchear código.
Llamado Cerdo hormiguerola compañía de inteligencia artificial (IA) dijo que el agente autónomo está diseñado para ayudar a los desarrolladores y equipos de seguridad a identificar y corregir vulnerabilidades de seguridad a escala. Actualmente está disponible en versión beta privada.
«Aardvark analiza continuamente los repositorios de código fuente para identificar vulnerabilidades, evaluar la explotabilidad, priorizar la gravedad y proponer parches específicos», OpenAI anotado.
Funciona integrándose en el proceso de desarrollo de software, monitoreando confirmaciones y cambios en las bases de código, detectando problemas de seguridad y cómo podrían explotarse, y proponiendo soluciones para abordarlos utilizando el razonamiento y el uso de herramientas basados en LLM.
Alimentar al agente es GPT-5que OpenAI presentó en agosto de 2025. La compañía lo describe como un «modelo inteligente y eficiente» que presenta capacidades de razonamiento más profundas, cortesía del pensamiento GPT-5, y un «enrutador en tiempo real» para decidir el modelo correcto a usar según el tipo de conversación, la complejidad y la intención del usuario.
Aardvark, agregó OpenAI, analiza la base de código de un proyecto para producir un modelo de amenaza que cree que representa mejor sus objetivos y diseño de seguridad. Con esta base contextual, el agente escanea su historial para identificar problemas existentes, así como detectar otros nuevos examinando los cambios entrantes en el repositorio.
Una vez que se encuentra un posible defecto de seguridad, intenta activarlo en un entorno aislado y protegido para confirmar su explotabilidad y sus ventajas. Códice OpenAIsu agente codificador, para producir un parche que pueda ser revisado por un analista humano.
OpenAI dijo que ha estado ejecutando el agente en las bases de código internas de OpenAI y en algunos de sus socios alfa externos, y que ha ayudado a identificar al menos 10 CVE en proyectos de código abierto.
La empresa emergente de IA está lejos de ser la única empresa que prueba agentes de IA para abordar el descubrimiento y parcheo automatizados de vulnerabilidades. A principios de este mes, Google anunció CodeMender que, según decía, detecta, parchea y reescribe código vulnerable para evitar futuras vulnerabilidades. El gigante tecnológico también señaló que tiene la intención de trabajar con los mantenedores de proyectos críticos de código abierto para integrar parches generados por CodeMender para ayudar a mantener los proyectos seguros.
Visto desde esa perspectiva, Aardvark, CodeMender y ARCO se están posicionando como herramientas para el análisis continuo de código, la validación de exploits y la generación de parches. También viene inmediatamente después del lanzamiento de OpenAI del modelos gpt-oss-safeguard que están ajustados para tareas de clasificación de seguridad.
«Aardvark representa un nuevo modelo en el que el defensor es lo primero: un investigador de seguridad agente que se asocia con equipos brindando protección continua a medida que el código evoluciona», dijo OpenAI. «Al detectar vulnerabilidades tempranamente, validar la explotabilidad en el mundo real y ofrecer soluciones claras, Aardvark puede fortalecer la seguridad sin frenar la innovación. Creemos en ampliar el acceso a la experiencia en seguridad».
Fuente





