Memory
Nodos de Memory de LangChain
Last updated
Nodos de Memory de LangChain
Last updated
Memory te permite chatear con la AI como si la AI tuviera memoria de conversaciones anteriores.
Humano: hola soy bob
AI: ¡Hola Bob! Es un placer conocerte. ¿Cómo puedo ayudarte hoy?
Humano: ¿cuál es mi nombre?
AI: Tu nombre es Bob, como mencionaste anteriormente.
Internamente, estas conversaciones se almacenan en arrays o bases de datos, y se proporcionan como contexto al LLM. Por ejemplo:
Por defecto, la UI y el Chat Embebido separarán automáticamente las conversaciones de diferentes usuarios. Esto se hace generando un chatId
único para cada nueva interacción. Esa lógica es manejada internamente por Flowise.
Puedes separar las conversaciones para múltiples usuarios especificando un sessionId
único
Para cada nodo de memory, deberías poder ver un parámetro de entrada Session ID
En el cuerpo de la solicitud POST /api/v1/prediction/{your-chatflowid}
, especifica el sessionId
en overrideConfig
GET /api/v1/chatmessage/{your-chatflowid}
DELETE /api/v1/chatmessage/{your-chatflowid}
sessionId
string
sort
enum
ASC o DESC
startDate
string
endDate
string
Todas las conversaciones también pueden ser visualizadas y gestionadas desde la UI:
Para OpenAI Assistant, se utilizarán para almacenar las conversaciones.