ChatGPT alcanza un nuevo hito: a partir de ahora contará con memoria propia
La empresa norteamericana OpenAI, propietaria de ChatGPT, ha lanzado recientemente una versión del modelo de lenguaje que le permite recordar, en base a los inputs que le hayas introducido: cómo trabajas, cuáles son tus temas de conversación favoritos o incluso cuáles son tus gustos o preferencias.
La nueva funcionalidad, llamada Memory, es una prestación que potencia la herramienta que OpenAI lanzó en julio del año pasado bajo el nombre de “instrucciones personalizadas”. Si bien la herramienta de “instrucciones personalizadas” permitía dar indicaciones al chatbot para que tuviese en cuenta esa información en futuras respuestas dentro de la misma conversación, Memory va más allá y permitirá recordar detalles personales del usuario aunque éste no le dé instrucciones concretas sobre qué debe recordar. Para ello, ChatGPT recopilará y almacenará los detalles de la conversación a medida que el usuario introduce sus preguntas y tendrá en cuenta las peticiones o inputs introducidos cuando lo considere pertinente. La funcionalidad, que permanecerá activada por defecto, deberá ser deshabilitada manualmente en caso de que no queramos que utilice nuestros datos para futuras consultas.
No obstante, aunque la empresa norteamericana goza de gran popularidad gracias a su famoso chatbot, no ha sido la primera entidad que juega con el concepto de memoria en la IA generativa. El modelo de lenguaje de Google, Gemini 1.0, ya cuenta con una tecnología “multi turnos” que permite interactuar con el chatbot y mantener una conversación continuada, de forma que el bot recuerde el contexto y contenido de los anteriores mensajes. Además, existen empresas de IA que se encuentran actualmente desarrollando módulos de memoria que pretenden ayudar a los grandes modelos de lenguaje a la hora de recordar interacciones previas entre el chatbot y el usuario.
Memory, que aún no ha sido lanzado a nivel global, plantea serios riesgos en relación al almacenamiento de información confidencial. En este sentido, la líder de producto de OpenAI en comportamiento de modelos, Joanne Jang, ha señalado que están entrenando al modelo para evitar recordar de forma proactiva información sensible o confidencial, como contraseñas o datos relacionados con la salud. Asimismo, desde la compañía norteamericana se están planteando incluir datos potencialmente sensibles como el origen étnico del usuario dentro de la información que el chatbot puede capturar y recordar automáticamente.