Esta es una nueva herramienta que busca facilitar el trabajo diario de los usuarios. Sin embargo, esto también puede llevar riesgos de seguridad y te decimos qué no debes revelarle a la IA.
Hasta ahora, hablar con ChatGPT era una experiencia con una tecnología que no recuerda ni sabe nada de ti. Por ejemplo, podías pedirle que te escriba un correo electrónico con ciertas características un día, y al siguiente día pides lo mismo exactamente de la misma manera, y así decenas de veces. Esto es algo que OpenAI está tratando de solucionar eso y por ello, implementó «memoria» para ChatGPT, lo que permitirá al bot recordar información sobre ti y tus conversaciones con el tiempo.
De acuerdo con su publicación en el blog oficial , la memoria funciona de dos maneras: puedes decirle a ChatGPT que recuerde algo específico sobre ti, por ejemplo, que eres una maestra de kinder que hace planeaciones semanales, que tu mejor amiga se llama Carolina o que tu hijo es alérgico a las fresas.
O ChatGPT puede simplemente intentar recopilar esos detalles con el tiempo, almacenando información sobre ti mientras haces preguntas y obtienes respuestas. En ambos casos, el objetivo es que ChatGPT se sienta un poco más personal y un poco más inteligente, sin necesidad de que se le recuerde cada vez.
Cada GPT personalizado que uses tendrá su propia memoria, también. OpenAI utiliza el ejemplo de Books GPT: con la memoria activada, puede recordar automáticamente qué libros has leído y qué géneros te gustan más
OpenAI dice que mantiene a los usuarios en control de la memoria de ChatGPT y ha entrenado al sistema para que no recuerde cosas sensibles como información sobre tu salud. Además, siempre puedes preguntarle a ChatGPT qué sabe sobre ti, y decirle al bot que olvide algo o eliminarlo en la nueva sección de Gestión de Memoria de la configuración.
Sin embargo, la memoria estará activada por defecto y OpenAI dice que los recuerdos se utilizarán para entrenar sus modelos en el futuro. Si lo quieres desactivar lo tienes que hacer manualmente en “ajustes”, “personalización” y “memoria”.
Los riesgos de la “memoria” de ChatGPT
TechCrunch escribió que la estrategia de OpenAI es similar a la de otras plataformas: te observan mientras operas sus servicios, aprenden sobre lo que buscas, haces clic en, te gusta o cualquier otra cosa, y desarrollan un perfil tuyo con el tiempo. Pero este enfoque también conlleva riesgos de ciberseguridad.
“Esto es sólo otro punto de riesgo y creo que si no mejoran el cómo hacen algunas cosas, es proclive a sufrir riesgos de ciberseguridad”, mencionó Agustín Huerta, vicepresidente de innovación digital de Globant
La preocupación del especialista no es para menos, pues la cuestión de la privacidad de datos siempre ha sido un elemento cuestionable en las funciones de ChatGPT. No hace mucho ChatGPT sufrió una vulneración en sus sistemas donde terminaron r evelando información sensible de numerosos usuarios .
Por otro lado, una investigación de la Universidad de Northwestern alertó sobre los riesgos de ciberseguridad que tiene la plataforma, que incluyen la inadecuada protección contra inyecciones de prompts por parte de atacantes experimentados.
Información que nunca debes revelar a ChatGPT
“Nunca he visto que Stephen King publique una foto en X con la computadora de fondo con páginas de su próximo gran libro. Lo mismo ocurre con las IA’s”, mencionó Huerta.
El especialista en ciberseguridad resalta que nunca debes compartir con ChatGPT información personal privada y aconseja tratar al chatbot como si fueran redes sociales. Así como no pondrías tu dirección en Facebook, tampoco en estos modelos de lenguaje, pues nunca se sabe cuándo puede haber una vulneración que exponga tus datos.
A su vez, recomienda no compartir ninguna información que pueda pertenecer a un tercero y que potencialmente pueda considerarse como propiedad intelectual. Utiliza el ejemplo de corporativos que usan la herramienta para hacer presentaciones, pero que copian tal cual información de sus clientes, lo que también los pone en riesgo.
Por último, tampoco revelar información de proyectos sensibles o importantes. Si estás trabajando en tu próxima gran novela o película, no le digas a ChatGPT porque podría entrenar su modelo con esa información y, posteriormente, revelarla a alguien más.
Además, Malware Bytes recomienda siempre utilizar un antivirus y Firewalls, así como revisar la información que comparte ChatGPT minuciosamente.
Fuente: Expansión.