EDR NEWS te informa: It Takes Only 250 Documents to Poison Any AI Model


Los investigadores descubren que se necesita mucho menos para manipular el comportamiento de un modelo de lenguaje grande (LLM) de lo que se suponía anteriormente.

Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *