Memory
Nodos de Memory de LangChain
Memory te permite chatear con la AI como si la AI tuviera memoria de conversaciones anteriores.
Humano: hola soy bob
AI: ¡Hola Bob! Es un placer conocerte. ¿Cómo puedo ayudarte hoy?
Humano: ¿cuál es mi nombre?
AI: Tu nombre es Bob, como mencionaste anteriormente.
Internamente, estas conversaciones se almacenan en arrays o bases de datos, y se proporcionan como contexto al LLM. Por ejemplo:
Eres un asistente para un humano, impulsado por un modelo de lenguaje grande entrenado por OpenAI.
Ya sea que el humano necesite ayuda con una pregunta específica o solo quiera tener una conversación sobre un tema en particular, estás aquí para ayudar.
Conversación actual:
{history}
Nodos de Memory:
Conversaciones separadas para múltiples usuarios
UI y Chat Embebido
Por defecto, la UI y el Chat Embebido separarán automáticamente las conversaciones de diferentes usuarios. Esto se hace generando un chatId
único para cada nueva interacción. Esa lógica es manejada internamente por Flowise.
API de Predicción
Puedes separar las conversaciones para múltiples usuarios especificando un sessionId
único
Para cada nodo de memory, deberías poder ver un parámetro de entrada
Session ID


En el cuerpo de la solicitud POST
/api/v1/prediction/{your-chatflowid}
, especifica elsessionId
enoverrideConfig
{
"question": "¡hola!",
"overrideConfig": {
"sessionId": "user1"
}
}
API de Mensajes
GET
/api/v1/chatmessage/{your-chatflowid}
DELETE
/api/v1/chatmessage/{your-chatflowid}
sessionId
string
sort
enum
ASC o DESC
startDate
string
endDate
string
Todas las conversaciones también pueden ser visualizadas y gestionadas desde la UI:

Para OpenAI Assistant, se utilizarán Threads para almacenar las conversaciones.
Last updated