Memory

Nodos de Memory de LangChain


Memory te permite chatear con la AI como si la AI tuviera memoria de conversaciones anteriores.

Humano: hola soy bob

AI: ¡Hola Bob! Es un placer conocerte. ¿Cómo puedo ayudarte hoy?

Humano: ¿cuál es mi nombre?

AI: Tu nombre es Bob, como mencionaste anteriormente.

Internamente, estas conversaciones se almacenan en arrays o bases de datos, y se proporcionan como contexto al LLM. Por ejemplo:

Eres un asistente para un humano, impulsado por un modelo de lenguaje grande entrenado por OpenAI.

Ya sea que el humano necesite ayuda con una pregunta específica o solo quiera tener una conversación sobre un tema en particular, estás aquí para ayudar.

Conversación actual:
{history}

Nodos de Memory:

Conversaciones separadas para múltiples usuarios

UI y Chat Embebido

Por defecto, la UI y el Chat Embebido separarán automáticamente las conversaciones de diferentes usuarios. Esto se hace generando un chatId único para cada nueva interacción. Esa lógica es manejada internamente por Flowise.

API de Predicción

Puedes separar las conversaciones para múltiples usuarios especificando un sessionId único

  1. Para cada nodo de memory, deberías poder ver un parámetro de entrada Session ID

  1. En el cuerpo de la solicitud POST /api/v1/prediction/{your-chatflowid}, especifica el sessionId en overrideConfig

{
    "question": "¡hola!",
    "overrideConfig": {
        "sessionId": "user1"
    }
}

API de Mensajes

  • GET /api/v1/chatmessage/{your-chatflowid}

  • DELETE /api/v1/chatmessage/{your-chatflowid}

Parámetro de Consulta
Tipo
Valor

sessionId

string

sort

enum

ASC o DESC

startDate

string

endDate

string

Todas las conversaciones también pueden ser visualizadas y gestionadas desde la UI:

Para OpenAI Assistant, se utilizarán Threads para almacenar las conversaciones.

Last updated