# FlowiseAI

## English

- [Introduction](https://docs.flowiseai.com/readme.md): Welcome to the official Flowise documentation
- [Get Started](https://docs.flowiseai.com/getting-started.md)
- [Contribution Guide](https://docs.flowiseai.com/contributing.md): Learn how to contribute to this project
- [Building Node](https://docs.flowiseai.com/contributing/building-node.md)
- [API Reference](https://docs.flowiseai.com/api-reference.md)
- [Assistants](https://docs.flowiseai.com/api-reference/assistants.md)
- [Attachments](https://docs.flowiseai.com/api-reference/attachments.md)
- [Chat Message](https://docs.flowiseai.com/api-reference/chat-message.md)
- [Chatflows](https://docs.flowiseai.com/api-reference/chatflows.md)
- [Document Store](https://docs.flowiseai.com/api-reference/document-store.md)
- [Feedback](https://docs.flowiseai.com/api-reference/feedback.md)
- [Leads](https://docs.flowiseai.com/api-reference/leads.md)
- [Ping](https://docs.flowiseai.com/api-reference/ping.md)
- [Prediction](https://docs.flowiseai.com/api-reference/prediction.md)
- [Tools](https://docs.flowiseai.com/api-reference/tools.md)
- [Upsert History](https://docs.flowiseai.com/api-reference/upsert-history.md)
- [Variables](https://docs.flowiseai.com/api-reference/variables.md)
- [Vector Upsert](https://docs.flowiseai.com/api-reference/vector-upsert.md)
- [CLI Reference](https://docs.flowiseai.com/cli-reference.md)
- [User](https://docs.flowiseai.com/cli-reference/user.md)
- [Using Flowise](https://docs.flowiseai.com/using-flowise.md): Learn about some core functionalities built into Flowise
- [Agentflow V2](https://docs.flowiseai.com/using-flowise/agentflowv2.md): Learn how to build multi-agents system using Agentflow V2, written by @toi500
- [Agentflow V1 (Deprecating)](https://docs.flowiseai.com/using-flowise/agentflowv1.md): Learn about how to build agentic systems in Flowise
- [Multi-Agents](https://docs.flowiseai.com/using-flowise/agentflowv1/multi-agents.md): Learn how to use Multi-Agents in Flowise, written by @toi500
- [Sequential Agents](https://docs.flowiseai.com/using-flowise/agentflowv1/sequential-agents.md): Learn the Fundamentals of Sequential Agents in Flowise, written by @toi500
- [Video Tutorials](https://docs.flowiseai.com/using-flowise/agentflowv1/sequential-agents/video-tutorials.md): Learn Sequential Agents from the Community
- [Prediction](https://docs.flowiseai.com/using-flowise/prediction.md)
- [Streaming](https://docs.flowiseai.com/using-flowise/streaming.md): Learn how Flowise streaming works
- [Document Stores](https://docs.flowiseai.com/using-flowise/document-stores.md): Learn how to use the Flowise Document Stores, written by @toi500
- [Upsertion](https://docs.flowiseai.com/using-flowise/upsertion.md)
- [Analytic](https://docs.flowiseai.com/using-flowise/analytics.md): Learn how to analyze and troubleshoot your chatflows and agentflows
- [Arize](https://docs.flowiseai.com/using-flowise/analytics/arize.md): Learn how to setup Arize to analyze and troubleshoot your chatflows and agentflows
- [LangWatch](https://docs.flowiseai.com/using-flowise/analytics/langwatch.md): Learn how to setup LangWatch to analyze and troubleshoot your chatflows and agentflows
- [Langfuse](https://docs.flowiseai.com/using-flowise/analytics/langfuse.md)
- [Lunary](https://docs.flowiseai.com/using-flowise/analytics/lunary.md)
- [Opik](https://docs.flowiseai.com/using-flowise/analytics/opik.md): Learn how to setup Opik to analyze and troubleshoot your chatflows and agentflows
- [Phoenix](https://docs.flowiseai.com/using-flowise/analytics/phoenix.md): Learn how to setup Phoenix to analyze and troubleshoot your chatflows and agentflows
- [Monitoring](https://docs.flowiseai.com/using-flowise/monitoring.md)
- [Embed](https://docs.flowiseai.com/using-flowise/embed.md): Learn how to customize and embed our chat widget
- [Uploads](https://docs.flowiseai.com/using-flowise/uploads.md): Learn how to use upload images, audio, and other files
- [Variables](https://docs.flowiseai.com/using-flowise/variables.md): Learn how to use variables in Flowise
- [Workspaces](https://docs.flowiseai.com/using-flowise/workspaces.md)
- [Evaluations](https://docs.flowiseai.com/using-flowise/evaluations.md)
- [Configuration](https://docs.flowiseai.com/configuration.md): Learn how to set up and run Flowise instances
- [Auth](https://docs.flowiseai.com/configuration/authorization.md): Learn how to secure your Flowise Instances
- [Application](https://docs.flowiseai.com/configuration/authorization/app-level.md): Learn how to set up app-level access control for your Flowise instances
- [Flows](https://docs.flowiseai.com/configuration/authorization/chatflow-level.md): Learn how to set up chatflow-level access control for your Flowise instances
- [Databases](https://docs.flowiseai.com/configuration/databases.md): Learn how to connect your Flowise instance to a database
- [Deployment](https://docs.flowiseai.com/configuration/deployment.md): Learn how to deploy Flowise to the cloud
- [AWS](https://docs.flowiseai.com/configuration/deployment/aws.md): Learn how to deploy Flowise on AWS
- [Azure](https://docs.flowiseai.com/configuration/deployment/azure.md): Learn how to deploy Flowise on Azure
- [Digital Ocean](https://docs.flowiseai.com/configuration/deployment/digital-ocean.md): Learn how to deploy Flowise on Digital Ocean
- [GCP](https://docs.flowiseai.com/configuration/deployment/gcp.md): Learn how to deploy Flowise on GCP
- [Hugging Face](https://docs.flowiseai.com/configuration/deployment/hugging-face.md): Learn how to deploy Flowise on Hugging Face
- [Railway](https://docs.flowiseai.com/configuration/deployment/railway.md): Learn how to deploy Flowise on Railway
- [Render](https://docs.flowiseai.com/configuration/deployment/render.md): Learn how to deploy Flowise on Render
- [Replit](https://docs.flowiseai.com/configuration/deployment/replit.md): Learn how to deploy Flowise on Replit
- [Sealos](https://docs.flowiseai.com/configuration/deployment/sealos.md): Learn how to deploy Flowise on Sealos
- [Zeabur](https://docs.flowiseai.com/configuration/deployment/zeabur.md): Learn how to deploy Flowise on Zeabur
- [Environment Variables](https://docs.flowiseai.com/configuration/environment-variables.md): Learn how to configure environment variables for Flowise
- [Rate Limit](https://docs.flowiseai.com/configuration/rate-limit.md): Learn how to managing API requests in Flowise
- [Running Flowise behind company proxy](https://docs.flowiseai.com/configuration/running-flowise-behind-company-proxy.md)
- [SSO](https://docs.flowiseai.com/configuration/sso.md)
- [Running Flowise using Queue](https://docs.flowiseai.com/configuration/running-flowise-using-queue.md)
- [Running in Production](https://docs.flowiseai.com/configuration/running-in-production.md)
- [Integrations](https://docs.flowiseai.com/integrations.md): Learn about all available integrations / nodes in Flowise
- [LangChain](https://docs.flowiseai.com/integrations/langchain.md): Learn how Flowise integrates with the LangChain framework
- [Agents](https://docs.flowiseai.com/integrations/langchain/agents.md): LangChain Agent Nodes
- [Airtable Agent](https://docs.flowiseai.com/integrations/langchain/agents/airtable-agent.md): Agent used to to answer queries on Airtable table.
- [AutoGPT](https://docs.flowiseai.com/integrations/langchain/agents/autogpt.md): Autonomous agent with chain of thoughts for self-guided task completion.
- [BabyAGI](https://docs.flowiseai.com/integrations/langchain/agents/babyagi.md): Task Driven Autonomous Agent which creates new task and reprioritizes task list based on objective
- [CSV Agent](https://docs.flowiseai.com/integrations/langchain/agents/csv-agent.md): Agent used to answer queries on CSV data.
- [Conversational Agent](https://docs.flowiseai.com/integrations/langchain/agents/conversational-agent.md): Conversational agent for a chat model. It will utilize chat specific prompts.
- [Conversational Retrieval Agent](https://docs.flowiseai.com/integrations/langchain/agents/conversational-retrieval-agent.md): Deprecating Node.
- [MistralAI Tool Agent](https://docs.flowiseai.com/integrations/langchain/agents/mistralai-tool-agent.md): Deprecating Node.
- [OpenAI Assistant](https://docs.flowiseai.com/integrations/langchain/agents/openai-assistant.md): An agent that uses OpenAI Assistant API to pick the tool and args to call.
- [Threads](https://docs.flowiseai.com/integrations/langchain/agents/openai-assistant/threads.md)
- [OpenAI Function Agent](https://docs.flowiseai.com/integrations/langchain/agents/openai-function-agent.md): Deprecating Node.
- [OpenAI Tool Agent](https://docs.flowiseai.com/integrations/langchain/agents/openai-tool-agent.md): Deprecating Node.
- [ReAct Agent Chat](https://docs.flowiseai.com/integrations/langchain/agents/react-agent-chat.md)
- [ReAct Agent LLM](https://docs.flowiseai.com/integrations/langchain/agents/react-agent-llm.md)
- [Tool Agent](https://docs.flowiseai.com/integrations/langchain/agents/tool-agent.md): Agent that uses Function Calling to pick the tools and args to call.
- [XML Agent](https://docs.flowiseai.com/integrations/langchain/agents/xml-agent.md): Agent that is designed for LLMs that are good for reasoning/writing XML (e.g: Anthropic Claude).
- [Cache](https://docs.flowiseai.com/integrations/langchain/cache.md): LangChain Cache Nodes
- [InMemory Cache](https://docs.flowiseai.com/integrations/langchain/cache/in-memory-cache.md): Caches LLM response in local memory, will be cleared when app is restarted.
- [InMemory Embedding Cache](https://docs.flowiseai.com/integrations/langchain/cache/inmemory-embedding-cache.md): Cache generated Embeddings in memory to avoid needing to recompute them.
- [Momento Cache](https://docs.flowiseai.com/integrations/langchain/cache/momento-cache.md): Cache LLM response using Momento, a distributed, serverless cache.
- [Redis Cache](https://docs.flowiseai.com/integrations/langchain/cache/redis-cache.md): Cache LLM response in Redis, useful for sharing cache across multiple processes or servers.
- [Redis Embeddings Cache](https://docs.flowiseai.com/integrations/langchain/cache/redis-embeddings-cache.md): Cache LLM response in Redis, useful for sharing cache across multiple processes or servers.
- [Upstash Redis Cache](https://docs.flowiseai.com/integrations/langchain/cache/upstash-redis-cache.md): Cache LLM response in Upstash Redis, serverless data for Redis and Kafka.
- [Chains](https://docs.flowiseai.com/integrations/langchain/chains.md): LangChain Chain Nodes
- [GET API Chain](https://docs.flowiseai.com/integrations/langchain/chains/get-api-chain.md): Chain to run queries against GET API.
- [OpenAPI Chain](https://docs.flowiseai.com/integrations/langchain/chains/openapi-chain.md): Chain that automatically select and call APIs based only on an OpenAPI spec.
- [POST API Chain](https://docs.flowiseai.com/integrations/langchain/chains/post-api-chain.md): Chain to run queries against POST API.
- [Conversation Chain](https://docs.flowiseai.com/integrations/langchain/chains/conversation-chain.md): Chat models specific conversational chain with memory.
- [Conversational Retrieval QA Chain](https://docs.flowiseai.com/integrations/langchain/chains/conversational-retrieval-qa-chain.md)
- [LLM Chain](https://docs.flowiseai.com/integrations/langchain/chains/llm-chain.md): Chain to run queries against LLMs.
- [Multi Prompt Chain](https://docs.flowiseai.com/integrations/langchain/chains/multi-prompt-chain.md): Chain automatically picks an appropriate prompt from multiple prompt templates.
- [Multi Retrieval QA Chain](https://docs.flowiseai.com/integrations/langchain/chains/multi-retrieval-qa-chain.md): QA Chain that automatically picks an appropriate vector store from multiple retrievers.
- [Retrieval QA Chain](https://docs.flowiseai.com/integrations/langchain/chains/retrieval-qa-chain.md): QA chain to answer a question based on the retrieved documents.
- [Sql Database Chain](https://docs.flowiseai.com/integrations/langchain/chains/sql-database-chain.md): Answer questions over a SQL database.
- [Vectara QA Chain](https://docs.flowiseai.com/integrations/langchain/chains/vectara-chain.md)
- [VectorDB QA Chain](https://docs.flowiseai.com/integrations/langchain/chains/vectordb-qa-chain.md): QA chain for vector databases.
- [Chat Models](https://docs.flowiseai.com/integrations/langchain/chat-models.md): LangChain Chat Model Nodes
- [AWS ChatBedrock](https://docs.flowiseai.com/integrations/langchain/chat-models/aws-chatbedrock.md): Wrapper around AWS Bedrock large language models that use the Chat endpoint.
- [Azure ChatOpenAI](https://docs.flowiseai.com/integrations/langchain/chat-models/azure-chatopenai-1.md)
- [NVIDIA NIM](https://docs.flowiseai.com/integrations/langchain/chat-models/nvidia-nim.md)
- [ChatCometAPI](https://docs.flowiseai.com/integrations/langchain/chat-models/chatcometapi.md)
- [ChatAnthropic](https://docs.flowiseai.com/integrations/langchain/chat-models/chatanthropic.md): Wrapper around ChatAnthropic large language models that use the Chat endpoint.
- [ChatCohere](https://docs.flowiseai.com/integrations/langchain/chat-models/chatcohere.md): Wrapper around Cohere Chat Endpoints.
- [Chat Fireworks](https://docs.flowiseai.com/integrations/langchain/chat-models/chat-fireworks.md): Wrapper around Fireworks Chat Endpoints.
- [ChatGoogleGenerativeAI](https://docs.flowiseai.com/integrations/langchain/chat-models/google-ai.md)
- [Google VertexAI](https://docs.flowiseai.com/integrations/langchain/chat-models/google-vertexai.md)
- [ChatHuggingFace](https://docs.flowiseai.com/integrations/langchain/chat-models/chathuggingface.md): Instructions for creating chatflows with a Hugging Face chat model.
- [ChatLocalAI](https://docs.flowiseai.com/integrations/langchain/chat-models/chatlocalai.md)
- [ChatMistralAI](https://docs.flowiseai.com/integrations/langchain/chat-models/mistral-ai.md)
- [IBM Watsonx](https://docs.flowiseai.com/integrations/langchain/chat-models/ibm-watsonx.md)
- [ChatOllama](https://docs.flowiseai.com/integrations/langchain/chat-models/chatollama.md)
- [ChatOpenAI](https://docs.flowiseai.com/integrations/langchain/chat-models/azure-chatopenai.md)
- [ChatTogetherAI](https://docs.flowiseai.com/integrations/langchain/chat-models/chattogetherai.md): Wrapper around TogetherAI large language models
- [GroqChat](https://docs.flowiseai.com/integrations/langchain/chat-models/groqchat.md): Wrapper around Groq API with LPU Inference Engine.
- [Document Loaders](https://docs.flowiseai.com/integrations/langchain/document-loaders.md): LangChain Document Loader Nodes
- [Airtable](https://docs.flowiseai.com/integrations/langchain/document-loaders/airtable.md): Load data from Airtable table.
- [API Loader](https://docs.flowiseai.com/integrations/langchain/document-loaders/api-loader.md): Load data from an API.
- [Apify Website Content Crawler](https://docs.flowiseai.com/integrations/langchain/document-loaders/apify-website-content-crawler.md): Load data from Apify Website Content Crawler.
- [BraveSearch Loader](https://docs.flowiseai.com/integrations/langchain/document-loaders/bravesearch-api.md)
- [Cheerio Web Scraper](https://docs.flowiseai.com/integrations/langchain/document-loaders/cheerio-web-scraper.md)
- [Confluence](https://docs.flowiseai.com/integrations/langchain/document-loaders/confluence.md): Load data from a Confluence Document
- [Csv File](https://docs.flowiseai.com/integrations/langchain/document-loaders/csv-file.md): Load data from CSV files.
- [Custom Document Loader](https://docs.flowiseai.com/integrations/langchain/document-loaders/custom-document-loader.md): Custom function for loading documents.
- [Document Store](https://docs.flowiseai.com/integrations/langchain/document-loaders/document-store.md): Load data from pre-configured document stores.
- [Docx File](https://docs.flowiseai.com/integrations/langchain/document-loaders/docx-file.md): Load data from DOCX files.
- [Epub File](https://docs.flowiseai.com/integrations/langchain/document-loaders/epub-file.md)
- [Figma](https://docs.flowiseai.com/integrations/langchain/document-loaders/figma.md): Load data from a Figma file.
- [File](https://docs.flowiseai.com/integrations/langchain/document-loaders/file-loader.md)
- [FireCrawl](https://docs.flowiseai.com/integrations/langchain/document-loaders/firecrawl.md): Load data from URL using FireCrawl.
- [Folder](https://docs.flowiseai.com/integrations/langchain/document-loaders/folder.md)
- [GitBook](https://docs.flowiseai.com/integrations/langchain/document-loaders/gitbook.md): Load data from GitBook.
- [Github](https://docs.flowiseai.com/integrations/langchain/document-loaders/github.md): Load data from a GitHub repository.
- [Google Drive](https://docs.flowiseai.com/integrations/langchain/document-loaders/google-drive.md)
- [Google Sheets](https://docs.flowiseai.com/integrations/langchain/document-loaders/google-sheets.md)
- [Jira](https://docs.flowiseai.com/integrations/langchain/document-loaders/jira.md)
- [Json File](https://docs.flowiseai.com/integrations/langchain/document-loaders/json-file.md): Load data from JSON files.
- [Json Lines File](https://docs.flowiseai.com/integrations/langchain/document-loaders/jsonlines.md)
- [Microsoft Excel](https://docs.flowiseai.com/integrations/langchain/document-loaders/microsoft-excel.md)
- [Microsoft Powerpoint](https://docs.flowiseai.com/integrations/langchain/document-loaders/microsoft-powerpoint.md)
- [Microsoft Word](https://docs.flowiseai.com/integrations/langchain/document-loaders/microsoft-word.md)
- [Notion](https://docs.flowiseai.com/integrations/langchain/document-loaders/notion.md)
- [Oxylabs](https://docs.flowiseai.com/integrations/langchain/document-loaders/oxylabs.md): Get data from any website with Oxylabs.
- [PDF Files](https://docs.flowiseai.com/integrations/langchain/document-loaders/pdf-file.md)
- [Plain Text](https://docs.flowiseai.com/integrations/langchain/document-loaders/plain-text.md)
- [Playwright Web Scraper](https://docs.flowiseai.com/integrations/langchain/document-loaders/playwright-web-scraper.md)
- [Puppeteer Web Scraper](https://docs.flowiseai.com/integrations/langchain/document-loaders/puppeteer-web-scraper.md)
- [S3 File Loader](https://docs.flowiseai.com/integrations/langchain/document-loaders/s3-file-loader.md)
- [SearchApi For Web Search](https://docs.flowiseai.com/integrations/langchain/document-loaders/searchapi-for-web-search.md): Load data from real-time search results.
- [SerpApi For Web Search](https://docs.flowiseai.com/integrations/langchain/document-loaders/serpapi-for-web-search.md): Load and process data from web search results.
- [Spider - web search & crawler](https://docs.flowiseai.com/integrations/langchain/document-loaders/spider-web-scraper-crawler.md): Scrape & Crawl the web with Spider - the fastest open source web scraper & crawler.
- [Text File](https://docs.flowiseai.com/integrations/langchain/document-loaders/text-file.md): Load data from text files.
- [Unstructured File Loader](https://docs.flowiseai.com/integrations/langchain/document-loaders/unstructured-file-loader.md): Use Unstructured.io to load data from a file path.
- [Unstructured Folder Loader](https://docs.flowiseai.com/integrations/langchain/document-loaders/unstructured-folder-loader.md): Use Unstructured.io to load data from a folder. Note: Currently doesn't support .png and .heic until unstructured is updated.
- [Embeddings](https://docs.flowiseai.com/integrations/langchain/embeddings.md): LangChain Embedding Nodes
- [AWS Bedrock Embeddings](https://docs.flowiseai.com/integrations/langchain/embeddings/aws-bedrock-embeddings.md): AWSBedrock embedding models to generate embeddings for a given text.
- [Azure OpenAI Embeddings](https://docs.flowiseai.com/integrations/langchain/embeddings/azure-openai-embeddings.md)
- [Cohere Embeddings](https://docs.flowiseai.com/integrations/langchain/embeddings/cohere-embeddings.md): Cohere API to generate embeddings for a given text
- [Google GenerativeAI Embeddings](https://docs.flowiseai.com/integrations/langchain/embeddings/googlegenerativeai-embeddings.md): Google Generative API to generate embeddings for a given text.
- [Google VertexAI Embeddings](https://docs.flowiseai.com/integrations/langchain/embeddings/googlevertexai-embeddings.md): Google vertexAI API to generate embeddings for a given text.
- [HuggingFace Inference Embeddings](https://docs.flowiseai.com/integrations/langchain/embeddings/huggingface-inference-embeddings.md): HuggingFace Inference API to generate embeddings for a given text.
- [LocalAI Embeddings](https://docs.flowiseai.com/integrations/langchain/embeddings/localai-embeddings.md)
- [MistralAI Embeddings](https://docs.flowiseai.com/integrations/langchain/embeddings/mistralai-embeddings.md): MistralAI API to generate embeddings for a given text.
- [Ollama Embeddings](https://docs.flowiseai.com/integrations/langchain/embeddings/ollama-embeddings.md): Generate embeddings for a given text using open source model on Ollama.
- [OpenAI Embeddings](https://docs.flowiseai.com/integrations/langchain/embeddings/openai-embeddings.md): OpenAI API to generate embeddings for a given text.
- [OpenAI Embeddings Custom](https://docs.flowiseai.com/integrations/langchain/embeddings/openai-embeddings-custom.md): OpenAI API to generate embeddings for a given text.
- [TogetherAI Embedding](https://docs.flowiseai.com/integrations/langchain/embeddings/togetherai-embedding.md): TogetherAI Embedding models to generate embeddings for a given text.
- [VoyageAI Embeddings](https://docs.flowiseai.com/integrations/langchain/embeddings/voyageai-embeddings.md): Voyage AI API to generate embeddings for a given text.
- [LLMs](https://docs.flowiseai.com/integrations/langchain/llms.md): LangChain LLM Nodes
- [AWS Bedrock](https://docs.flowiseai.com/integrations/langchain/llms/aws-bedrock.md): Wrapper around AWS Bedrock large language models.
- [Azure OpenAI](https://docs.flowiseai.com/integrations/langchain/llms/azure-openai.md): Wrapper around Azure OpenAI large language models.
- [Cohere](https://docs.flowiseai.com/integrations/langchain/llms/cohere.md): Wrapper around Cohere large language models.
- [GoogleVertex AI](https://docs.flowiseai.com/integrations/langchain/llms/googlevertex-ai.md): Wrapper around GoogleVertexAI large language models.
- [HuggingFace Inference](https://docs.flowiseai.com/integrations/langchain/llms/huggingface-inference.md): Wrapper around HuggingFace large language models.
- [Ollama](https://docs.flowiseai.com/integrations/langchain/llms/ollama.md): Wrapper around open source large language models on Ollama.
- [OpenAI](https://docs.flowiseai.com/integrations/langchain/llms/openai.md): Wrapper around OpenAI large language models.
- [Replicate](https://docs.flowiseai.com/integrations/langchain/llms/replicate.md): Use Replicate to run open source models on cloud.
- [Memory](https://docs.flowiseai.com/integrations/langchain/memory.md): LangChain Memory Nodes
- [Buffer Memory](https://docs.flowiseai.com/integrations/langchain/memory/buffer-memory.md)
- [Buffer Window Memory](https://docs.flowiseai.com/integrations/langchain/memory/buffer-window-memory.md)
- [Conversation Summary Memory](https://docs.flowiseai.com/integrations/langchain/memory/conversation-summary-memory.md)
- [Conversation Summary Buffer Memory](https://docs.flowiseai.com/integrations/langchain/memory/conversation-summary-buffer-memory.md)
- [DynamoDB Chat Memory](https://docs.flowiseai.com/integrations/langchain/memory/dynamodb-chat-memory.md): Stores the conversation in dynamo db table.
- [MongoDB Atlas Chat Memory](https://docs.flowiseai.com/integrations/langchain/memory/mongodb-atlas-chat-memory.md): Stores the conversation in MongoDB Atlas.
- [Redis-Backed Chat Memory](https://docs.flowiseai.com/integrations/langchain/memory/redis-backed-chat-memory.md): Summarizes the conversation and stores the memory in Redis server.
- [Upstash Redis-Backed Chat Memory](https://docs.flowiseai.com/integrations/langchain/memory/upstash-redis-backed-chat-memory.md): Summarizes the conversation and stores the memory in Upstash Redis server.
- [Zep Memory](https://docs.flowiseai.com/integrations/langchain/memory/zep-memory.md)
- [Moderation](https://docs.flowiseai.com/integrations/langchain/moderation.md): LangChain Moderation Nodes
- [OpenAI Moderation](https://docs.flowiseai.com/integrations/langchain/moderation/openai-moderation.md): Check whether content complies with OpenAI usage policies.
- [Simple Prompt Moderation](https://docs.flowiseai.com/integrations/langchain/moderation/simple-prompt-moderation.md): Check whether input consists of any text from Deny list, and prevent being sent to LLM.
- [Output Parsers](https://docs.flowiseai.com/integrations/langchain/output-parsers.md): LangChain Output Parser Nodes
- [CSV Output Parser](https://docs.flowiseai.com/integrations/langchain/output-parsers/csv-output-parser.md): Parse the output of an LLM call as a comma-separated list of values.
- [Custom List Output Parser](https://docs.flowiseai.com/integrations/langchain/output-parsers/custom-list-output-parser.md): Parse the output of an LLM call as a list of values.
- [Structured Output Parser](https://docs.flowiseai.com/integrations/langchain/output-parsers/structured-output-parser.md): Parse the output of an LLM call into a given (JSON) structure.
- [Advanced Structured Output Parser](https://docs.flowiseai.com/integrations/langchain/output-parsers/advanced-structured-output-parser.md): Parse the output of an LLM call into a given structure by providing a Zod schema.
- [Prompts](https://docs.flowiseai.com/integrations/langchain/prompts.md): LangChain Prompt Nodes
- [Chat Prompt Template](https://docs.flowiseai.com/integrations/langchain/prompts/chat-prompt-template.md): Schema to represent a chat prompt.
- [Few Shot Prompt Template](https://docs.flowiseai.com/integrations/langchain/prompts/few-shot-prompt-template.md): Prompt template you can build with examples.
- [Prompt Template](https://docs.flowiseai.com/integrations/langchain/prompts/prompt-template.md): Schema to represent a basic prompt for an LLM.
- [Record Managers](https://docs.flowiseai.com/integrations/langchain/record-managers.md): LangChain Record Manager Nodes
- [Retrievers](https://docs.flowiseai.com/integrations/langchain/retrievers.md): LangChain Retriever Nodes
- [Extract Metadata Retriever](https://docs.flowiseai.com/integrations/langchain/retrievers/extract-metadata-retriever.md)
- [Custom Retriever](https://docs.flowiseai.com/integrations/langchain/retrievers/custom-retriever.md): Custom Retriever allows user to specify the format of the context to LLM
- [Cohere Rerank Retriever](https://docs.flowiseai.com/integrations/langchain/retrievers/cohere-rerank-retriever.md): Cohere Rerank indexes the documents from most to least semantically relevant to the query.
- [Embeddings Filter Retriever](https://docs.flowiseai.com/integrations/langchain/retrievers/embeddings-filter-retriever.md): A document compressor that uses embeddings to drop documents unrelated to the query.
- [HyDE Retriever](https://docs.flowiseai.com/integrations/langchain/retrievers/hyde-retriever.md): Use HyDE retriever to retrieve from a vector store.
- [LLM Filter Retriever](https://docs.flowiseai.com/integrations/langchain/retrievers/llm-filter-retriever.md): Iterate over the initially returned documents and extract, from each, only the content that is relevant to the query.
- [Multi Query Retriever](https://docs.flowiseai.com/integrations/langchain/retrievers/multi-query-retriever.md): Generate multiple queries from different perspectives for a given user input query.
- [Prompt Retriever](https://docs.flowiseai.com/integrations/langchain/retrievers/prompt-retriever.md): Store prompt template with name & description to be later queried by MultiPromptChain.
- [Reciprocal Rank Fusion Retriever](https://docs.flowiseai.com/integrations/langchain/retrievers/reciprocal-rank-fusion-retriever.md): Reciprocal Rank Fusion to re-rank search results by multiple query generation.
- [Similarity Score Threshold Retriever](https://docs.flowiseai.com/integrations/langchain/retrievers/similarity-score-threshold-retriever.md): Return results based on the minimum similarity percentage.
- [Vector Store Retriever](https://docs.flowiseai.com/integrations/langchain/retrievers/vector-store-retriever.md): Store vector store as retriever to be later queried by MultiRetrievalQAChain.
- [Voyage AI Rerank Retriever](https://docs.flowiseai.com/integrations/langchain/retrievers/page.md): Voyage AI Rerank indexes the documents from most to least semantically relevant to the query.
- [Text Splitters](https://docs.flowiseai.com/integrations/langchain/text-splitters.md): LangChain Text Splitter Nodes
- [Character Text Splitter](https://docs.flowiseai.com/integrations/langchain/text-splitters/character-text-splitter.md): Splits only on one type of character (defaults to "\n\n").
- [Code Text Splitter](https://docs.flowiseai.com/integrations/langchain/text-splitters/code-text-splitter.md): Split documents based on language-specific syntax.
- [Html-To-Markdown Text Splitter](https://docs.flowiseai.com/integrations/langchain/text-splitters/html-to-markdown-text-splitter.md): Converts Html to Markdown and then split your content into documents based on the Markdown headers.
- [Markdown Text Splitter](https://docs.flowiseai.com/integrations/langchain/text-splitters/markdown-text-splitter.md): Split your content into documents based on the Markdown headers.
- [Recursive Character Text Splitter](https://docs.flowiseai.com/integrations/langchain/text-splitters/recursive-character-text-splitter.md): Split documents recursively by different characters - starting with "\n\n", then "\n", then " ".
- [Token Text Splitter](https://docs.flowiseai.com/integrations/langchain/text-splitters/token-text-splitter.md): Splits a raw text string by first converting the text into BPE tokens, then split these tokens into chunks and convert the tokens within a single chunk back into text.
- [Tools](https://docs.flowiseai.com/integrations/langchain/tools.md): LangChain Tool Nodes
- [BraveSearch API](https://docs.flowiseai.com/integrations/langchain/tools/bravesearch-api.md): Wrapper around BraveSearch API - a real-time API to access Brave search results.
- [Browserless MCP](https://docs.flowiseai.com/integrations/langchain/tools/browserless-mcp.md): MCP Server for Browserless - scrape pages, take screenshots, generate PDFs, and more
- [Calculator](https://docs.flowiseai.com/integrations/langchain/tools/calculator.md): Perform calculations on response.
- [Chain Tool](https://docs.flowiseai.com/integrations/langchain/tools/chain-tool.md): Use a chain as allowed tool for agent.
- [Chatflow Tool](https://docs.flowiseai.com/integrations/langchain/tools/chatflow-tool.md): Execute another chatflow and get the response.
- [Code Interpreter by E2B](https://docs.flowiseai.com/integrations/langchain/tools/python-interpreter.md)
- [Custom Tool](https://docs.flowiseai.com/integrations/langchain/tools/custom-tool.md)
- [Exa Search](https://docs.flowiseai.com/integrations/langchain/tools/exa-search.md): Wrapper around Exa Search API - search engine fully designed for use by LLMs.
- [Gmail](https://docs.flowiseai.com/integrations/langchain/tools/gmail.md)
- [Google Calendar](https://docs.flowiseai.com/integrations/langchain/tools/google-calendar.md)
- [Google Custom Search](https://docs.flowiseai.com/integrations/langchain/tools/google-custom-search.md): Wrapper around Google Custom Search API - a real-time API to access Google search results.
- [Google Drive](https://docs.flowiseai.com/integrations/langchain/tools/google-drive.md)
- [Google Sheets](https://docs.flowiseai.com/integrations/langchain/tools/google-sheets.md)
- [Microsoft Outlook](https://docs.flowiseai.com/integrations/langchain/tools/microsoft-outlook.md)
- [Microsoft Teams](https://docs.flowiseai.com/integrations/langchain/tools/microsoft-teams.md)
- [OpenAPI Toolkit](https://docs.flowiseai.com/integrations/langchain/tools/openapi-toolkit.md): Load OpenAPI specification.
- [Pipedream MCP](https://docs.flowiseai.com/integrations/langchain/tools/pipedream-mcp-user-guide.md)
- [Read File](https://docs.flowiseai.com/integrations/langchain/tools/read-file.md): Read file from disk.
- [Request Get](https://docs.flowiseai.com/integrations/langchain/tools/request-get.md): Execute HTTP GET requests.
- [Request Post](https://docs.flowiseai.com/integrations/langchain/tools/request-post.md): Execute HTTP POST requests.
- [Retriever Tool](https://docs.flowiseai.com/integrations/langchain/tools/retriever-tool.md): Use a retriever as allowed tool for agent.
- [SearchApi](https://docs.flowiseai.com/integrations/langchain/tools/searchapi.md): Real-time API for accessing Google Search data.
- [SearXNG](https://docs.flowiseai.com/integrations/langchain/tools/searxng.md): Wrapper around SearXNG - a free internet metasearch engine.
- [Serp API](https://docs.flowiseai.com/integrations/langchain/tools/serp-api.md): Wrapper around SerpAPI - a real-time API to access Google search results.
- [Serper](https://docs.flowiseai.com/integrations/langchain/tools/serper.md): Wrapper around Serper.dev - Google Search API.
- [Slack MCP](https://docs.flowiseai.com/integrations/langchain/tools/pipedream-mcp-user-guide-1.md)
- [Tavily](https://docs.flowiseai.com/integrations/langchain/tools/tavily-ai.md): Wrapper around TavilyAI API - real-time, accurate search results tailored for LLMs and RAG.
- [Web Browser](https://docs.flowiseai.com/integrations/langchain/tools/web-browser.md): Gives agent the ability to visit a website and extract information.
- [Write File](https://docs.flowiseai.com/integrations/langchain/tools/write-file.md): Write file to disk.
- [Vector Stores](https://docs.flowiseai.com/integrations/langchain/vector-stores.md): LangChain Vector Store Nodes
- [AstraDB](https://docs.flowiseai.com/integrations/langchain/vector-stores/astradb.md)
- [Chroma](https://docs.flowiseai.com/integrations/langchain/vector-stores/chroma.md)
- [Couchbase](https://docs.flowiseai.com/integrations/langchain/vector-stores/couchbase.md): Upsert embedded data and perform vector search upon query using Couchbase, a NoSQL cloud developer data platform for critical, AI-powered applications.
- [Elastic](https://docs.flowiseai.com/integrations/langchain/vector-stores/elastic.md)
- [Faiss](https://docs.flowiseai.com/integrations/langchain/vector-stores/faiss.md): Upsert embedded data and perform similarity search using the Faiss library from Meta.
- [In-Memory Vector Store](https://docs.flowiseai.com/integrations/langchain/vector-stores/in-memory-vector-store.md): In-memory vectorstore that stores embeddings and does an exact, linear search for the most similar embeddings.
- [Milvus](https://docs.flowiseai.com/integrations/langchain/vector-stores/milvus.md): Upsert embedded data and perform similarity search upon query using Milvus, world's most advanced open-source vector database.
- [MongoDB Atlas](https://docs.flowiseai.com/integrations/langchain/vector-stores/mongodb-atlas.md): Upsert embedded data and perform similarity or mmr search upon query using MongoDB Atlas, a managed cloud mongodb database.
- [OpenSearch](https://docs.flowiseai.com/integrations/langchain/vector-stores/opensearch.md): Upsert embedded data and perform similarity search upon query using OpenSearch, an open-source, all-in-one vector database.
- [Pinecone](https://docs.flowiseai.com/integrations/langchain/vector-stores/pinecone.md): Upsert embedded data and perform similarity search upon query using Pinecone, a leading fully managed hosted vector database.
- [Postgres](https://docs.flowiseai.com/integrations/langchain/vector-stores/postgres.md): Upsert embedded data and perform similarity search upon query using pgvector on Postgres.
- [Qdrant](https://docs.flowiseai.com/integrations/langchain/vector-stores/qdrant.md)
- [Redis](https://docs.flowiseai.com/integrations/langchain/vector-stores/redis.md)
- [SingleStore](https://docs.flowiseai.com/integrations/langchain/vector-stores/singlestore.md)
- [Supabase](https://docs.flowiseai.com/integrations/langchain/vector-stores/supabase.md)
- [Upstash Vector](https://docs.flowiseai.com/integrations/langchain/vector-stores/upstash-vector.md)
- [Vectara](https://docs.flowiseai.com/integrations/langchain/vector-stores/vectara.md)
- [Weaviate](https://docs.flowiseai.com/integrations/langchain/vector-stores/weaviate.md): Upsert embedded data and perform similarity or mmr search using Weaviate, a scalable open-source vector database.
- [Zep Collection - Open Source](https://docs.flowiseai.com/integrations/langchain/vector-stores/zep-collection-open-source.md): Upsert embedded data and perform similarity or mmr search upon query using Zep, a fast and scalable building block for LLM apps.
- [Zep Collection - Cloud](https://docs.flowiseai.com/integrations/langchain/vector-stores/zep-collection-cloud.md): Upsert embedded data and perform similarity or mmr search upon query using Zep, a fast and scalable building block for LLM apps.
- [LiteLLM Proxy](https://docs.flowiseai.com/integrations/litellm.md): Learn how Flowise integrates with LiteLLM Proxy
- [LlamaIndex](https://docs.flowiseai.com/integrations/llamaindex.md): Learn how Flowise integrates with the LlamaIndex framework
- [Agents](https://docs.flowiseai.com/integrations/llamaindex/agents.md): LlamaIndex Agent Nodes
- [OpenAI Tool Agent](https://docs.flowiseai.com/integrations/llamaindex/agents/openai-tool-agent.md): Agent that uses OpenAI Function Calling to pick the tools and args to call using LlamaIndex.
- [Anthropic Tool Agent](https://docs.flowiseai.com/integrations/llamaindex/agents/openai-tool-agent-1.md): Agent that uses Anthropic Function Calling to pick the tools and args to call using LlamaIndex.
- [Chat Models](https://docs.flowiseai.com/integrations/llamaindex/chat-models.md): LlamaIndex Chat Model Nodes
- [AzureChatOpenAI](https://docs.flowiseai.com/integrations/llamaindex/chat-models/azurechatopenai.md): Wrapper around Azure OpenAI Chat LLM specific for LlamaIndex.
- [ChatAnthropic](https://docs.flowiseai.com/integrations/llamaindex/chat-models/chatanthropic.md): Wrapper around ChatAnthropic LLM specific for LlamaIndex.
- [ChatMistral](https://docs.flowiseai.com/integrations/llamaindex/chat-models/chatmistral.md): Wrapper around ChatMistral LLM specific for LlamaIndex.
- [ChatOllama](https://docs.flowiseai.com/integrations/llamaindex/chat-models/chatollama.md): Wrapper around ChatOllama LLM specific for LlamaIndex.
- [ChatOpenAI](https://docs.flowiseai.com/integrations/llamaindex/chat-models/chatopenai.md): Wrapper around OpenAI Chat LLM specific for LlamaIndex.
- [ChatTogetherAI](https://docs.flowiseai.com/integrations/llamaindex/chat-models/chattogetherai.md): Wrapper around ChatTogetherAI LLM specific for LlamaIndex.
- [ChatGroq](https://docs.flowiseai.com/integrations/llamaindex/chat-models/chatgroq.md): Wrapper around Groq LLM specific for LlamaIndex.
- [Embeddings](https://docs.flowiseai.com/integrations/llamaindex/embeddings.md): LlamaIndex Embeddings Nodes
- [Azure OpenAI Embeddings](https://docs.flowiseai.com/integrations/llamaindex/embeddings/azure-openai-embeddings.md): Azure OpenAI API embeddings specific for LlamaIndex.
- [OpenAI Embedding](https://docs.flowiseai.com/integrations/llamaindex/embeddings/openai-embedding.md): OpenAI Embedding specific for LlamaIndex.
- [Engine](https://docs.flowiseai.com/integrations/llamaindex/engine.md): LlamaIndex Engine Nodes
- [Query Engine](https://docs.flowiseai.com/integrations/llamaindex/engine/query-engine.md)
- [Simple Chat Engine](https://docs.flowiseai.com/integrations/llamaindex/engine/simple-chat-engine.md)
- [Context Chat Engine](https://docs.flowiseai.com/integrations/llamaindex/engine/context-chat-engine.md)
- [Sub-Question Query Engine](https://docs.flowiseai.com/integrations/llamaindex/engine/sub-question-query-engine.md)
- [Response Synthesizer](https://docs.flowiseai.com/integrations/llamaindex/response-synthesizer.md): LlamaIndex Response Synthesizer Nodes
- [Refine](https://docs.flowiseai.com/integrations/llamaindex/response-synthesizer/refine.md)
- [Compact And Refine](https://docs.flowiseai.com/integrations/llamaindex/response-synthesizer/compact-and-refine.md)
- [Simple Response Builder](https://docs.flowiseai.com/integrations/llamaindex/response-synthesizer/simple-response-builder.md)
- [Tree Summarize](https://docs.flowiseai.com/integrations/llamaindex/response-synthesizer/tree-summarize.md)
- [Tools](https://docs.flowiseai.com/integrations/llamaindex/tools.md): LlamaIndex Agent Nodes
- [Query Engine Tool](https://docs.flowiseai.com/integrations/llamaindex/tools/query-engine-tool.md)
- [Vector Stores](https://docs.flowiseai.com/integrations/llamaindex/vector-stores.md): LlamaIndex Vector Store Nodes
- [Pinecone](https://docs.flowiseai.com/integrations/llamaindex/vector-stores/pinecone.md): Upsert embedded data and perform similarity search upon query using Pinecone, a leading fully managed hosted vector database.
- [SimpleStore](https://docs.flowiseai.com/integrations/llamaindex/vector-stores/queryengine-tool.md): Upsert embedded data to local path and perform similarity search.
- [Utilities](https://docs.flowiseai.com/integrations/utilities.md): Learn how to use Flowise utility nodes
- [Custom JS Function](https://docs.flowiseai.com/integrations/utilities/custom-js-function.md): Execute custom javascript function.
- [Set/Get Variable](https://docs.flowiseai.com/integrations/utilities/set-get-variable.md)
- [If Else](https://docs.flowiseai.com/integrations/utilities/if-else.md)
- [Sticky Note](https://docs.flowiseai.com/integrations/utilities/sticky-note.md): Add a sticky note to the flow.
- [External Integrations](https://docs.flowiseai.com/integrations/3rd-party-platform-integration.md): Learn how to integrate Flowise with third-party platforms
- [Zapier Zaps](https://docs.flowiseai.com/integrations/3rd-party-platform-integration/zapier-zaps.md): Learn how to integrate Flowise and Zapier
- [Open WebUI](https://docs.flowiseai.com/integrations/3rd-party-platform-integration/open-webui.md)
- [Streamlit](https://docs.flowiseai.com/integrations/3rd-party-platform-integration/streamlit.md)
- [Migration Guide](https://docs.flowiseai.com/migration-guide.md): Learn about legacy versions of Flowise
- [Cloud Migration](https://docs.flowiseai.com/migration-guide/cloud-migration.md)
- [v1.3.0 Migration Guide](https://docs.flowiseai.com/migration-guide/v1.3.0-migration-guide.md): In v1.3.0, we introduced Credentials
- [v1.4.3 Migration Guide](https://docs.flowiseai.com/migration-guide/v1.4.3-migration-guide.md): In v1.4.3, we introduced a unified Vector Store node
- [v2.1.4 Migration Guide](https://docs.flowiseai.com/migration-guide/v2.1.4-migration-guide.md)
- [Tutorials](https://docs.flowiseai.com/tutorials.md)
- [RAG](https://docs.flowiseai.com/tutorials/rag.md)
- [Agentic RAG](https://docs.flowiseai.com/tutorials/agentic-rag.md)
- [SQL Agent](https://docs.flowiseai.com/tutorials/sql-agent.md)
- [Agent as Tool](https://docs.flowiseai.com/tutorials/agent-as-tool.md)
- [Interacting with API](https://docs.flowiseai.com/tutorials/interacting-with-api.md)
- [Tools & MCP](https://docs.flowiseai.com/tutorials/tools-and-mcp.md)
- [Structured Output](https://docs.flowiseai.com/tutorials/structured-output.md)
- [Human In The Loop](https://docs.flowiseai.com/tutorials/human-in-the-loop.md)
- [Deep Research](https://docs.flowiseai.com/tutorials/deep-research.md)
- [Customer Support](https://docs.flowiseai.com/tutorials/customer-support.md)
- [Supervisor and Workers](https://docs.flowiseai.com/tutorials/supervisor-and-workers.md)

## Español

- [Introduction](https://docs.flowiseai.com/espanol/readme.md): Bienvenido a la documentación oficial de Flowise
- [Parte 1: Introducción](https://docs.flowiseai.com/espanol/partes/parte-1-introduccion.md)
- [Recursos](https://docs.flowiseai.com/espanol/partes/parte-1-introduccion/recursos.md)
- [Parte 2: Chains Avanzadas](https://docs.flowiseai.com/espanol/partes/parte-2-chains-avanzadas.md)
- [Desafío 1: Traductor de Lenguas Antiguas](https://docs.flowiseai.com/espanol/partes/parte-2-chains-avanzadas/desafio-1-traductor-de-lenguas-antiguas.md)
- [Parte 3: Gestión de Documentos y Memoria](https://docs.flowiseai.com/espanol/partes/parte-3-gestion-de-documentos-y-memoria.md)
- [Desafío 2: Chatbot Nikola Tesla](https://docs.flowiseai.com/espanol/partes/parte-3-gestion-de-documentos-y-memoria/desafio-2-chatbot-nikola-tesla.md)
- [Parte 4: Despliegue y API](https://docs.flowiseai.com/espanol/partes/parte-4-despliegue-y-api.md)
- [Parte 5: Introducción a Agentes](https://docs.flowiseai.com/espanol/partes/parte-5-introduccion-a-agentes.md)
- [Desafíos](https://docs.flowiseai.com/espanol/partes/parte-5-introduccion-a-agentes/desafios.md)
- [Parte 6: Agentes Avanzados](https://docs.flowiseai.com/espanol/partes/parte-6-agentes-avanzados.md)
- [Desafíos](https://docs.flowiseai.com/espanol/partes/parte-6-agentes-avanzados/desafios.md)
- [Parte 7: Multi-Agentes](https://docs.flowiseai.com/espanol/partes/parte-7-multi-agentes.md)
- [Desafíos](https://docs.flowiseai.com/espanol/partes/parte-7-multi-agentes/desafios.md)
- [Parte 8: AgentFlows](https://docs.flowiseai.com/espanol/partes/parte-8-agentflows.md)
- [Desafíos](https://docs.flowiseai.com/espanol/partes/parte-8-agentflows/desafios.md)
- [Parte 9: Agentes Secuenciales](https://docs.flowiseai.com/espanol/partes/parte-9-agentes-secuenciales.md)
- [Desafíos](https://docs.flowiseai.com/espanol/partes/parte-9-agentes-secuenciales/desafios.md)
- [Parte 10: Sequential Agents Avanzados](https://docs.flowiseai.com/espanol/partes/parte-10-sequential-agents-avanzados.md)
- [Enlaces Útiles](https://docs.flowiseai.com/espanol/recursos/enlaces-utiles.md)
- [Documentación Oficial](https://docs.flowiseai.com/espanol/recursos/documentacion-oficial.md)
- [Ejemplos de Código](https://docs.flowiseai.com/espanol/recursos/ejemplos-de-codigo.md)
- [Mejores Prácticas](https://docs.flowiseai.com/espanol/recursos/mejores-practicas.md)
- [Primeros Pasos](https://docs.flowiseai.com/espanol/documentacion-oficial/primeros-pasos.md)
- [Guía de Contribución](https://docs.flowiseai.com/espanol/documentacion-oficial/contribucion.md): Aprende cómo contribuir a este proyecto
- [Building Node](https://docs.flowiseai.com/espanol/documentacion-oficial/contribucion/building-node.md)
- [Referencia de API](https://docs.flowiseai.com/espanol/documentacion-oficial/referencia-api.md)
- [Assistants](https://docs.flowiseai.com/espanol/documentacion-oficial/referencia-api/assistants.md)
- [Attachments](https://docs.flowiseai.com/espanol/documentacion-oficial/referencia-api/attachments.md)
- [Chat Message](https://docs.flowiseai.com/espanol/documentacion-oficial/referencia-api/chat-message.md)
- [Chatflows](https://docs.flowiseai.com/espanol/documentacion-oficial/referencia-api/chatflows.md)
- [Document Store](https://docs.flowiseai.com/espanol/documentacion-oficial/referencia-api/document-store.md)
- [Feedback](https://docs.flowiseai.com/espanol/documentacion-oficial/referencia-api/feedback.md)
- [Leads](https://docs.flowiseai.com/espanol/documentacion-oficial/referencia-api/leads.md)
- [Ping](https://docs.flowiseai.com/espanol/documentacion-oficial/referencia-api/ping.md)
- [Prediction](https://docs.flowiseai.com/espanol/documentacion-oficial/referencia-api/prediction.md)
- [Tools](https://docs.flowiseai.com/espanol/documentacion-oficial/referencia-api/tools.md)
- [Upsert History](https://docs.flowiseai.com/espanol/documentacion-oficial/referencia-api/upsert-history.md)
- [Variables](https://docs.flowiseai.com/espanol/documentacion-oficial/referencia-api/variables.md)
- [Vector Upsert](https://docs.flowiseai.com/espanol/documentacion-oficial/referencia-api/vector-upsert.md)
- [Usar Flowise](https://docs.flowiseai.com/espanol/documentacion-oficial/usar-flowise.md): Aprende sobre algunas funcionalidades principales integradas en Flowise
- [Agentflows](https://docs.flowiseai.com/espanol/documentacion-oficial/usar-flowise/agentflows.md): Aprende cómo construir sistemas agénticos en Flowise
- [Multi-Agents](https://docs.flowiseai.com/espanol/documentacion-oficial/usar-flowise/agentflows/multi-agents.md): Aprende cómo usar Multi-Agents en Flowise, escrito por @toi500
- [Sequential Agents](https://docs.flowiseai.com/espanol/documentacion-oficial/usar-flowise/agentflows/sequential-agents.md): Aprende los Fundamentos de Sequential Agents en Flowise, escrito por @toi500
- [Tutoriales en Video](https://docs.flowiseai.com/espanol/documentacion-oficial/usar-flowise/agentflows/sequential-agents/tutoriales-video.md): Aprende Sequential Agents de la Comunidad
- [API](https://docs.flowiseai.com/espanol/documentacion-oficial/usar-flowise/api.md)
- [Analytic](https://docs.flowiseai.com/espanol/documentacion-oficial/usar-flowise/analytic.md): Aprende cómo analizar y solucionar problemas en tus flujos de chat y flujos de agentes
- [Almacenes de Documentos](https://docs.flowiseai.com/espanol/documentacion-oficial/usar-flowise/almacenes-documentos.md): Aprende cómo usar los Document Stores de Flowise, escrito por @toi500
- [Embed](https://docs.flowiseai.com/espanol/documentacion-oficial/usar-flowise/embed.md): Learn how to customize and embed our chat widget
- [Monitoring](https://docs.flowiseai.com/espanol/documentacion-oficial/usar-flowise/monitoring.md)
- [Streaming](https://docs.flowiseai.com/espanol/documentacion-oficial/usar-flowise/streaming.md): Aprende cómo funciona el streaming en Flowise
- [Telemetry](https://docs.flowiseai.com/espanol/documentacion-oficial/usar-flowise/telemetry.md): Aprende cómo Flowise recopila información anónima del uso de la aplicación
- [Subidas](https://docs.flowiseai.com/espanol/documentacion-oficial/usar-flowise/subidas.md): Aprende cómo subir imágenes, audio y otros archivos
- [Variables](https://docs.flowiseai.com/espanol/documentacion-oficial/usar-flowise/variables.md): Aprende cómo usar variables en Flowise
- [Workspaces](https://docs.flowiseai.com/espanol/documentacion-oficial/usar-flowise/workspaces.md)
- [Evaluaciones](https://docs.flowiseai.com/espanol/documentacion-oficial/usar-flowise/evaluaciones.md)
- [Configuración](https://docs.flowiseai.com/espanol/documentacion-oficial/configuracion.md): Aprende cómo configurar y ejecutar instancias de Flowise
- [Auth](https://docs.flowiseai.com/espanol/documentacion-oficial/configuracion/autorizacion.md): Aprende cómo asegurar tus instancias de Flowise
- [Nivel de App](https://docs.flowiseai.com/espanol/documentacion-oficial/configuracion/autorizacion/nivel-app.md): Aprende cómo configurar el control de acceso a nivel de aplicación para tus instancias de Flowise
- [Nivel de Chatflow](https://docs.flowiseai.com/espanol/documentacion-oficial/configuracion/autorizacion/nivel-chatflow.md): Aprende cómo configurar el control de acceso a nivel de chatflow para tus instancias de Flowise
- [Databases](https://docs.flowiseai.com/espanol/documentacion-oficial/configuracion/databases.md): Aprende cómo conectar tu instancia de Flowise a una database
- [Deployment](https://docs.flowiseai.com/espanol/documentacion-oficial/configuracion/deployment.md): Aprende cómo hacer deployment de Flowise a la cloud
- [AWS](https://docs.flowiseai.com/espanol/documentacion-oficial/configuracion/deployment/aws.md): Learn how to deploy Flowise on AWS
- [Azure](https://docs.flowiseai.com/espanol/documentacion-oficial/configuracion/deployment/azure.md): Learn how to deploy Flowise on Azure
- [Digital Ocean](https://docs.flowiseai.com/espanol/documentacion-oficial/configuracion/deployment/digital-ocean.md): Learn how to deploy Flowise on Digital Ocean
- [GCP](https://docs.flowiseai.com/espanol/documentacion-oficial/configuracion/deployment/gcp.md): Learn how to deploy Flowise on GCP
- [Hugging Face](https://docs.flowiseai.com/espanol/documentacion-oficial/configuracion/deployment/hugging-face.md): Aprende cómo hacer deployment de Flowise en Hugging Face
- [Railway](https://docs.flowiseai.com/espanol/documentacion-oficial/configuracion/deployment/railway.md): Learn how to deploy Flowise on Railway
- [Render](https://docs.flowiseai.com/espanol/documentacion-oficial/configuracion/deployment/render.md): Learn how to deploy Flowise on Render
- [Replit](https://docs.flowiseai.com/espanol/documentacion-oficial/configuracion/deployment/replit.md): Aprende cómo hacer deployment de Flowise en Replit
- [Sealos](https://docs.flowiseai.com/espanol/documentacion-oficial/configuracion/deployment/sealos.md): Learn how to deploy Flowise on Sealos
- [Zeabur](https://docs.flowiseai.com/espanol/documentacion-oficial/configuracion/deployment/zeabur.md): Learn how to deploy Flowise on Zeabur
- [Variables de Entorno](https://docs.flowiseai.com/espanol/documentacion-oficial/configuracion/variables-entorno.md): Aprende cómo configurar las environment variables para Flowise
- [Rate Limit](https://docs.flowiseai.com/espanol/documentacion-oficial/configuracion/rate-limit.md): Aprende cómo gestionar las API requests en Flowise
- [Ejecutar Flowise detrás de proxy corporativo](https://docs.flowiseai.com/espanol/documentacion-oficial/configuracion/ejecutar-detras-proxy.md)
- [SSO](https://docs.flowiseai.com/espanol/documentacion-oficial/configuracion/sso.md)
- [Integraciones](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones.md): Aprende sobre todas las integraciones / nodes disponibles en Flowise
- [LangChain](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain.md): Aprende sobre las integraciones disponibles de LangChain en Flowise
- [Agents](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/agents.md): Nodes de Agentes de LangChain
- [Airtable Agent](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/agents/airtable-agent.md): Agente utilizado para responder consultas en tablas de Airtable.
- [AutoGPT](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/agents/autogpt.md): Agente autónomo con cadena de pensamientos para completar tareas de forma autoguiada.
- [BabyAGI](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/agents/babyagi.md): Agente Autónomo Orientado a Tareas que crea nuevas tareas y reprioriza la lista de tareas basándose en el objetivo
- [CSV Agent](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/agents/csv-agent.md): Agente utilizado para responder consultas sobre datos CSV.
- [Conversational Agent](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/agents/conversational-agent.md): Agente conversacional para un modelo de chat. Utilizará prompts específicos para chat.
- [Conversational Retrieval Agent](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/agents/conversational-retrieval-agent.md): Deprecating Node.
- [MistralAI Tool Agent](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/agents/mistralai-tool-agent.md): Deprecating Node.
- [OpenAI Assistant](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/agents/openai-assistant.md): Un agente que utiliza la API de OpenAI Assistant para seleccionar la herramienta y los argumentos a llamar.
- [Threads](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/agents/openai-assistant/threads.md)
- [OpenAI Function Agent](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/agents/openai-function-agent.md): Deprecating Node.
- [OpenAI Tool Agent](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/agents/openai-tool-agent.md): Deprecating Node.
- [ReAct Agent Chat](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/agents/react-agent-chat.md)
- [ReAct Agent LLM](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/agents/react-agent-llm.md)
- [Tool Agent](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/agents/tool-agent.md): Agente que utiliza Function Calling para seleccionar las herramientas y argumentos a llamar.
- [XML Agent](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/agents/xml-agent.md): Agente diseñado para LLMs que son buenos en razonamiento/escritura de XML (por ejemplo: Anthropic Claude).
- [Cache](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/cache.md): Nodes de Cache de LangChain
- [InMemory Cache](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/cache/in-memory-cache.md): Almacena en caché las respuestas del LLM en memoria local, se borrará cuando se reinicie la aplicación.
- [InMemory Embedding Cache](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/cache/inmemory-embedding-cache.md): Almacena en caché los Embeddings generados en memoria para evitar tener que recalcularlos.
- [Momento Cache](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/cache/momento-cache.md): Almacena en caché las respuestas del LLM usando Momento, un cache distribuido y serverless.
- [Redis Cache](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/cache/redis-cache.md): Almacena en caché las respuestas del LLM en Redis, útil para compartir cache entre múltiples procesos o servidores.
- [Redis Embeddings Cache](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/cache/redis-embeddings-cache.md): Almacena en caché las respuestas del LLM en Redis, útil para compartir cache entre múltiples procesos o servidores.
- [Upstash Redis Cache](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/cache/upstash-redis-cache.md): Almacena en caché las respuestas del LLM en Upstash Redis, datos serverless para Redis y Kafka.
- [Chains](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chains.md): Nodos de Cadenas LangChain
- [GET API Chain](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chains/get-api-chain.md): Cadena para ejecutar consultas contra una API GET.
- [OpenAPI Chain](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chains/openapi-chain.md): Cadena que selecciona y llama automáticamente a APIs basándose únicamente en una especificación OpenAPI.
- [POST API Chain](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chains/post-api-chain.md): Cadena para ejecutar consultas contra una API POST.
- [Conversation Chain](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chains/conversation-chain.md): Cadena conversacional específica para modelos de chat con memoria.
- [Conversational Retrieval QA Chain](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chains/conversational-retrieval-qa-chain.md)
- [LLM Chain](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chains/llm-chain.md): Cadena para ejecutar consultas contra LLMs.
- [Multi Prompt Chain](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chains/multi-prompt-chain.md): Cadena que selecciona automáticamente un prompt apropiado de múltiples plantillas de prompts.
- [Multi Retrieval QA Chain](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chains/multi-retrieval-qa-chain.md): Cadena QA que selecciona automáticamente un almacén de vectores apropiado de múltiples recuperadores.
- [Retrieval QA Chain](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chains/retrieval-qa-chain.md): Cadena QA para responder una pregunta basada en los documentos recuperados.
- [Sql Database Chain](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chains/sql-database-chain.md): Responde preguntas sobre una base de datos SQL.
- [Vectara QA Chain](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chains/vectara-chain.md)
- [VectorDB QA Chain](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chains/vectordb-qa-chain.md): Cadena QA para bases de datos vectoriales.
- [Chat Models](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chat-models.md): Nodes de Modelos de Chat de LangChain
- [AWS ChatBedrock](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chat-models/aws-chatbedrock.md): Wrapper alrededor de los modelos de lenguaje grandes de AWS Bedrock que utilizan el endpoint de Chat.
- [Azure ChatOpenAI](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chat-models/azure-chatopenai-1.md)
- [NVIDIA NIM](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chat-models/nvidia-nim.md)
- [ChatAnthropic](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chat-models/chatanthropic.md): Wrapper alrededor de los modelos de lenguaje grandes de ChatAnthropic que utilizan el endpoint de Chat.
- [ChatCohere](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chat-models/chatcohere.md): Wrapper alrededor de los endpoints de Chat de Cohere.
- [Chat Fireworks](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chat-models/chat-fireworks.md): Wrapper alrededor de los endpoints de Chat de Fireworks.
- [ChatGoogleGenerativeAI](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chat-models/google-ai.md)
- [Google VertexAI](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chat-models/google-vertexai.md)
- [ChatHuggingFace](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chat-models/chathuggingface.md): Wrapper alrededor de los modelos de lenguaje grandes de HuggingFace.
- [ChatLocalAI](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chat-models/chatlocalai.md)
- [ChatMistralAI](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chat-models/mistral-ai.md)
- [IBM Watsonx](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chat-models/ibm-watsonx.md)
- [ChatOllama](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chat-models/chatollama.md)
- [ChatOpenAI](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chat-models/azure-chatopenai.md)
- [ChatTogetherAI](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chat-models/chattogetherai.md): Wrapper alrededor de los modelos de lenguaje grandes de TogetherAI
- [GroqChat](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/chat-models/groqchat.md): Wrapper alrededor de la API de Groq con LPU Inference Engine.
- [Document Loaders](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders.md): Nodos de Cargadores de Documentos LangChain
- [API Loader](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/api-loader.md): Carga datos desde una API.
- [Airtable](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/airtable.md): Carga datos desde una tabla de Airtable.
- [Apify Website Content Crawler](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/apify-website-content-crawler.md): Carga datos desde el Rastreador de Contenido Web de Apify.
- [Cheerio Web Scraper](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/cheerio-web-scraper.md)
- [Confluence](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/confluence.md): Carga datos desde un Documento de Confluence
- [Csv File](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/csv-file.md): Carga datos desde archivos CSV.
- [Custom Document Loader](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/custom-document-loader.md): Función personalizada para cargar documentos.
- [Document Store](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/document-store.md): Carga datos desde almacenes de documentos preconfigurados.
- [Docx File](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/docx-file.md): Carga datos desde archivos DOCX.
- [File Loader](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/file-loader.md)
- [Figma](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/figma.md): Carga datos desde un archivo de Figma.
- [FireCrawl](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/firecrawl.md): Carga datos desde URL usando FireCrawl.
- [Folder with Files](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/folder-with-files.md): Carga datos desde una carpeta con múltiples archivos.
- [GitBook](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/gitbook.md): Carga datos desde GitBook.
- [Github](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/github.md): Carga datos desde un repositorio de GitHub.
- [Json File](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/json-file.md): Carga datos desde archivos JSON.
- [Json Lines File](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/json-lines-file.md): Carga datos desde archivos JSON Lines.
- [Notion Database](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/notion-database.md): Carga datos desde una base de datos de Notion (cada fila es un documento separado con todas las propiedades como metadatos).
- [Notion Folder](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/notion-folder.md): Carga datos desde la carpeta exportada y descomprimida de Notion.
- [Notion Page](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/notion-page.md): Carga datos desde una página de Notion (incluyendo páginas hijas como documentos separados).
- [PDF Files](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/pdf-file.md)
- [Plain Text](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/plain-text.md): Carga datos desde texto plano.
- [Playwright Web Scraper](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/playwright-web-scraper.md)
- [Puppeteer Web Scraper](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/puppeteer-web-scraper.md)
- [S3 File Loader](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/s3-file-loader.md)
- [SearchApi For Web Search](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/searchapi-for-web-search.md): Carga datos desde resultados de búsqueda en tiempo real.
- [SerpApi For Web Search](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/serpapi-for-web-search.md): Carga y procesa datos desde resultados de búsqueda web.
- [Spider Web Scraper/Crawler](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/spider-web-scraper-crawler.md): Haz scraping y crawling de la web con Spider - el web scraper y crawler de código abierto más rápido.
- [Text File](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/text-file.md): Carga datos desde archivos de texto.
- [Unstructured File Loader](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/unstructured-file-loader.md): Usa Unstructured.io para cargar datos desde una ruta de archivo.
- [Unstructured Folder Loader](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/unstructured-folder-loader.md): Usa Unstructured.io para cargar datos desde una carpeta. Nota: Actualmente no soporta .png y .heic hasta que unstructured sea actualizado.
- [VectorStore To Document](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/document-loaders/vectorstore-to-document.md): Busca documentos con puntuaciones desde vector store.
- [Embeddings](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/embeddings.md): Nodos de Embedding de LangChain
- [AWS Bedrock Embeddings](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/embeddings/aws-bedrock-embeddings.md): Modelos de embedding de AWSBedrock para generar embeddings para un texto dado.
- [Azure OpenAI Embeddings](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/embeddings/azure-openai-embeddings.md)
- [Cohere Embeddings](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/embeddings/cohere-embeddings.md): API de Cohere para generar embeddings para un texto dado
- [Google GenerativeAI Embeddings](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/embeddings/googlegenerativeai-embeddings.md): API de Google Generative para generar embeddings para un texto dado.
- [Google VertexAI Embeddings](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/embeddings/googlevertexai-embeddings.md): API de Google VertexAI para generar embeddings para un texto dado.
- [HuggingFace Inference Embeddings](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/embeddings/huggingface-inference-embeddings.md): API de HuggingFace Inference para generar embeddings para un texto dado.
- [LocalAI Embeddings](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/embeddings/localai-embeddings.md)
- [MistralAI Embeddings](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/embeddings/mistralai-embeddings.md): API de MistralAI para generar embeddings para un texto dado.
- [Ollama Embeddings](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/embeddings/ollama-embeddings.md): Genera embeddings para un texto dado usando modelos de código abierto en Ollama.
- [OpenAI Embeddings](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/embeddings/openai-embeddings.md): API de OpenAI para generar embeddings para un texto dado.
- [OpenAI Embeddings Custom](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/embeddings/openai-embeddings-custom.md): API de OpenAI para generar embeddings para un texto dado.
- [TogetherAI Embedding](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/embeddings/togetherai-embedding.md): Modelos de embedding de TogetherAI para generar embeddings para un texto dado.
- [VoyageAI Embeddings](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/embeddings/voyageai-embeddings.md): API de Voyage AI para generar embeddings para un texto dado.
- [LLMs](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/llms.md): Nodos LLM de LangChain
- [AWS Bedrock](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/llms/aws-bedrock.md): Envoltorio alrededor de los modelos de lenguaje grandes de AWS Bedrock.
- [Azure OpenAI](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/llms/azure-openai.md): Envoltorio alrededor de los modelos de lenguaje grandes de Azure OpenAI.
- [Cohere](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/llms/cohere.md): Envoltorio alrededor de los modelos de lenguaje grandes de Cohere.
- [GoogleVertex AI](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/llms/googlevertex-ai.md): Envoltorio alrededor de los modelos de lenguaje grandes de GoogleVertexAI.
- [HuggingFace Inference](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/llms/huggingface-inference.md): Envoltorio alrededor de los modelos de lenguaje grandes de HuggingFace.
- [Ollama](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/llms/ollama.md): Envoltorio alrededor de modelos de lenguaje grandes de código abierto en Ollama.
- [OpenAI](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/llms/openai.md): Envoltorio alrededor de los modelos de lenguaje grandes de OpenAI.
- [Replicate](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/llms/replicate.md): Usa Replicate para ejecutar modelos de código abierto en la nube.
- [Memory](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/memory.md): Nodos de Memory de LangChain
- [Buffer Memory](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/memory/buffer-memory.md)
- [Buffer Window Memory](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/memory/buffer-window-memory.md)
- [Conversation Summary Memory](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/memory/conversation-summary-memory.md)
- [Conversation Summary Buffer Memory](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/memory/conversation-summary-buffer-memory.md)
- [DynamoDB Chat Memory](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/memory/dynamodb-chat-memory.md): Almacena la conversación en una tabla de dynamo db.
- [MongoDB Atlas Chat Memory](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/memory/mongodb-atlas-chat-memory.md): Almacena la conversación en MongoDB Atlas.
- [Redis-Backed Chat Memory](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/memory/redis-backed-chat-memory.md): Resume la conversación y almacena la memoria en el servidor Redis.
- [Upstash Redis-Backed Chat Memory](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/memory/upstash-redis-backed-chat-memory.md): Resume la conversación y almacena la memoria en el servidor Upstash Redis.
- [Zep Memory](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/memory/zep-memory.md)
- [Moderation](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/moderation.md): Nodos de Moderation de LangChain
- [OpenAI Moderation](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/moderation/openai-moderation.md): Verifica si el contenido cumple con las políticas de uso de OpenAI.
- [Simple Prompt Moderation](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/moderation/simple-prompt-moderation.md): Verifica si la entrada contiene algún texto de la lista de denegación (Deny list) y evita que sea enviado al LLM.
- [Output Parsers](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/output-parsers.md): Nodos Output Parser de LangChain
- [CSV Output Parser](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/output-parsers/csv-output-parser.md): Analiza la salida de una llamada LLM como una lista de valores separados por comas.
- [Custom List Output Parser](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/output-parsers/custom-list-output-parser.md): Analiza la salida de una llamada LLM como una lista de valores.
- [Structured Output Parser](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/output-parsers/structured-output-parser.md): Analiza la salida de una llamada LLM en una estructura (JSON) determinada.
- [Advanced Structured Output Parser](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/output-parsers/advanced-structured-output-parser.md): Analiza la salida de una llamada LLM en una estructura determinada proporcionando un esquema Zod.
- [Prompts](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/prompts.md): Nodos Prompt de LangChain
- [Chat Prompt Template](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/prompts/chat-prompt-template.md): Esquema para representar un prompt de chat.
- [Few Shot Prompt Template](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/prompts/few-shot-prompt-template.md): Plantilla de prompt que puedes construir con ejemplos.
- [Prompt Template](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/prompts/prompt-template.md): Esquema para representar un prompt básico para un LLM.
- [Record Managers](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/record-managers.md): Nodos Record Manager de LangChain
- [Retrievers](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/retrievers.md): Nodos Retriever de LangChain
- [Custom Retriever](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/retrievers/custom-retriever.md): Custom Retriever permite al usuario especificar el formato del contexto para el LLM
- [Cohere Rerank Retriever](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/retrievers/cohere-rerank-retriever.md): Cohere Rerank indexa los documentos del más al menos semánticamente relevante para la consulta.
- [Embeddings Filter Retriever](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/retrievers/embeddings-filter-retriever.md): Un compresor de documentos que utiliza embeddings para descartar documentos no relacionados con la consulta.
- [HyDE Retriever](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/retrievers/hyde-retriever.md): Usa el retriever HyDE para recuperar de un vector store.
- [LLM Filter Retriever](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/retrievers/llm-filter-retriever.md): Itera sobre los documentos inicialmente devueltos y extrae, de cada uno, solo el contenido que es relevante para la consulta.
- [Multi Query Retriever](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/retrievers/multi-query-retriever.md): Genera múltiples consultas desde diferentes perspectivas para una consulta de entrada del usuario.
- [Prompt Retriever](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/retrievers/prompt-retriever.md): Almacena plantillas de prompt con nombre y descripción para ser consultadas posteriormente por MultiPromptChain.
- [Reciprocal Rank Fusion Retriever](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/retrievers/reciprocal-rank-fusion-retriever.md): Reciprocal Rank Fusion para reordenar resultados de búsqueda mediante generación múltiple de consultas.
- [Similarity Score Threshold Retriever](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/retrievers/similarity-score-threshold-retriever.md): Devuelve resultados basados en el porcentaje mínimo de similitud.
- [Vector Store Retriever](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/retrievers/vector-store-retriever.md): Almacena vector store como retriever para ser consultado posteriormente por MultiRetrievalQAChain.
- [Voyage AI Rerank Retriever](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/retrievers/page.md): Voyage AI Rerank indexa los documentos del más al menos semánticamente relevante para la consulta.
- [Text Splitters](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/text-splitters.md): Nodos Text Splitter de LangChain
- [Character Text Splitter](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/text-splitters/character-text-splitter.md): Divide solo en un tipo de carácter (por defecto "\n\n").
- [Code Text Splitter](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/text-splitters/code-text-splitter.md): Divide documentos basándose en la sintaxis específica del lenguaje.
- [Html-To-Markdown Text Splitter](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/text-splitters/html-to-markdown-text-splitter.md): Convierte HTML a Markdown y luego divide tu contenido en documentos basándose en los encabezados de Markdown.
- [Markdown Text Splitter](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/text-splitters/markdown-text-splitter.md): Divide tu contenido en documentos basándose en los encabezados de Markdown.
- [Recursive Character Text Splitter](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/text-splitters/recursive-character-text-splitter.md): Divide documentos recursivamente por diferentes caracteres - comenzando con "\n\n", luego "\n", y finalmente " ".
- [Token Text Splitter](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/text-splitters/token-text-splitter.md): Divide una cadena de texto sin procesar primero convirtiendo el texto en tokens BPE, luego divide estos tokens en fragmentos y convierte los tokens dentro de un solo fragmento de vuelta a texto.
- [Tools](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/tools.md): Nodos de Herramientas LangChain
- [BraveSearch API](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/tools/bravesearch-api.md): Wrapper alrededor de BraveSearch API - una API en tiempo real para acceder a los resultados de búsqueda de Brave.
- [Calculator](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/tools/calculator.md): Realizar cálculos sobre la respuesta.
- [Chain Tool](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/tools/chain-tool.md): Usar una chain como herramienta permitida para el agent.
- [Chatflow Tool](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/tools/chatflow-tool.md): Ejecutar otro chatflow y obtener la respuesta.
- [Custom Tool](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/tools/custom-tool.md)
- [Exa Search](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/tools/exa-search.md): Wrapper alrededor de Exa Search API - motor de búsqueda completamente diseñado para uso con LLMs.
- [Google Custom Search](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/tools/google-custom-search.md): Wrapper alrededor de Google Custom Search API - una API en tiempo real para acceder a los resultados de búsqueda de Google.
- [OpenAPI Toolkit](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/tools/openapi-toolkit.md): Cargar especificación OpenAPI.
- [Code Interpreter by E2B](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/tools/python-interpreter.md)
- [Read File](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/tools/read-file.md): Leer archivo desde el disco.
- [Request Get](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/tools/request-get.md): Ejecutar peticiones HTTP GET.
- [Request Post](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/tools/request-post.md): Ejecutar peticiones HTTP POST.
- [Retriever Tool](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/tools/retriever-tool.md): Usar un retriever como herramienta permitida para el agent.
- [SearchApi](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/tools/searchapi.md): API en tiempo real para acceder a datos de Google Search.
- [SearXNG](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/tools/searxng.md): Wrapper alrededor de SearXNG - un motor de metabúsqueda de internet gratuito.
- [Serp API](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/tools/serp-api.md): Wrapper alrededor de SerpAPI - una API en tiempo real para acceder a resultados de búsqueda de Google.
- [Serper](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/tools/serper.md): Wrapper alrededor de Serper.dev - API de Google Search.
- [Web Browser](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/tools/web-browser.md): Proporciona al agent la capacidad de visitar un sitio web y extraer información.
- [Write File](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/tools/write-file.md): Escribir archivo en el disco.
- [Vector Stores](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/vector-stores.md): Nodos de Vector Store de LangChain
- [AstraDB](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/vector-stores/astradb.md)
- [Chroma](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/vector-stores/chroma.md)
- [Elastic](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/vector-stores/elastic.md)
- [Faiss](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/vector-stores/faiss.md): Realiza upsert de datos embedidos y ejecuta búsquedas de similitud sobre consultas usando la librería Faiss de Meta.
- [In-Memory Vector Store](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/vector-stores/in-memory-vector-store.md): Vector store en memoria que almacena embeddings y realiza una búsqueda lineal exacta para encontrar los embeddings más similares.
- [Milvus](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/vector-stores/milvus.md): Realiza upsert de datos embedidos y ejecuta búsquedas de similitud sobre consultas usando Milvus, la base de datos vectorial de código abierto más avanzada del mundo.
- [MongoDB Atlas](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/vector-stores/mongodb-atlas.md): Realiza upsert de datos embedidos y ejecuta búsquedas de similitud o mmr sobre consultas usando MongoDB Atlas, una base de datos mongodb gestionada en la nube.
- [OpenSearch](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/vector-stores/opensearch.md): Realiza upsert de datos embedidos y ejecuta búsquedas de similitud sobre consultas usando OpenSearch, una base de datos vectorial todo en uno de código abierto.
- [Pinecone](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/vector-stores/pinecone.md): Realiza upsert de datos embedidos y ejecuta búsquedas de similitud sobre consultas usando Pinecone, una base de datos vectorial gestionada líder en el mercado.
- [Postgres](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/vector-stores/postgres.md): Realiza upsert de datos embedidos y ejecuta búsquedas de similitud sobre consultas usando pgvector en Postgres.
- [Qdrant](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/vector-stores/qdrant.md)
- [Redis](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/vector-stores/redis.md)
- [SingleStore](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/vector-stores/singlestore.md)
- [Supabase](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/vector-stores/supabase.md)
- [Upstash Vector](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/vector-stores/upstash-vector.md)
- [Vectara](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/vector-stores/vectara.md)
- [Weaviate](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/vector-stores/weaviate.md): Realiza upsert de datos embedidos y ejecuta búsquedas de similitud o mmr usando Weaviate, una base de datos vectorial escalable de código abierto.
- [Zep Collection - Open Source](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/vector-stores/zep-collection-open-source.md): Realiza upsert de datos embedidos y ejecuta búsquedas de similitud o mmr sobre consultas usando Zep, un bloque de construcción rápido y escalable para aplicaciones LLM.
- [Zep Collection - Cloud](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/langchain/vector-stores/zep-collection-cloud.md): Realiza upsert de datos embedidos y ejecuta búsquedas de similitud o mmr sobre consultas usando Zep, un bloque de construcción rápido y escalable para aplicaciones LLM.
- [LiteLLM Proxy](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/litellm.md): Aprende cómo Flowise se integra con LiteLLM Proxy
- [LlamaIndex](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex.md): Aprende sobre las integraciones disponibles de LlamaIndex en Flowise
- [Agents](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/agents.md): Nodos de Agentes de LlamaIndex
- [OpenAI Tool Agent](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/agents/openai-tool-agent.md): Agente que utiliza OpenAI Function Calling para seleccionar las herramientas y argumentos a llamar usando LlamaIndex.
- [Anthropic Tool Agent](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/agents/openai-tool-agent-1.md): Agente que utiliza Anthropic Function Calling para seleccionar las herramientas y argumentos a llamar usando LlamaIndex.
- [Chat Models](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/chat-models.md): Nodos de Modelos de Chat de LlamaIndex
- [AzureChatOpenAI](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/chat-models/azurechatopenai.md): Wrapper alrededor del Chat LLM de Azure OpenAI específico para LlamaIndex.
- [ChatAnthropic](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/chat-models/chatanthropic.md): Wrapper alrededor del LLM ChatAnthropic específico para LlamaIndex.
- [ChatMistral](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/chat-models/chatmistral.md): Wrapper alrededor del LLM ChatMistral específico para LlamaIndex.
- [ChatOllama](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/chat-models/chatollama.md): Wrapper alrededor del LLM ChatOllama específico para LlamaIndex.
- [ChatOpenAI](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/chat-models/chatopenai.md): Wrapper alrededor del Chat LLM de OpenAI específico para LlamaIndex.
- [ChatTogetherAI](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/chat-models/chattogetherai.md): Wrapper alrededor del LLM ChatTogetherAI específico para LlamaIndex.
- [ChatGroq](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/chat-models/chatgroq.md): Wrapper alrededor del LLM Groq específico para LlamaIndex.
- [Embeddings](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/embeddings.md): Nodos de Embeddings de LlamaIndex
- [Azure OpenAI Embeddings](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/embeddings/azure-openai-embeddings.md): Embeddings de la API de Azure OpenAI específicos para LlamaIndex.
- [OpenAI Embedding](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/embeddings/openai-embedding.md): Embedding de OpenAI específico para LlamaIndex.
- [Engine](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/engine.md): Nodos de Engine de LlamaIndex
- [Query Engine](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/engine/query-engine.md)
- [Simple Chat Engine](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/engine/simple-chat-engine.md)
- [Context Chat Engine](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/engine/context-chat-engine.md)
- [Sub-Question Query Engine](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/engine/sub-question-query-engine.md)
- [Response Synthesizer](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/response-synthesizer.md): Nodos Response Synthesizer de LlamaIndex
- [Refine](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/response-synthesizer/refine.md)
- [Compact And Refine](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/response-synthesizer/compact-and-refine.md)
- [Simple Response Builder](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/response-synthesizer/simple-response-builder.md)
- [Tree Summarize](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/response-synthesizer/tree-summarize.md)
- [Tools](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/tools.md): Nodos Agent de LlamaIndex
- [Query Engine Tool](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/tools/query-engine-tool.md)
- [Vector Stores](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/vector-stores.md): Nodos Vector Store de LlamaIndex
- [Pinecone](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/vector-stores/pinecone.md): Realiza upsert de datos embedidos y ejecuta búsquedas de similitud usando Pinecone, una base de datos vectorial gestionada y alojada líder en el mercado.
- [SimpleStore](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/llamaindex/vector-stores/queryengine-tool.md): Realiza upsert de datos embedidos en una ruta local y ejecuta búsquedas de similitud.
- [Utilities](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/utilities.md): Aprende sobre las utilidades disponibles en Flowise
- [Custom JS Function](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/utilities/custom-js-function.md): Ejecuta una función JavaScript personalizada.
- [Set/Get Variable](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/utilities/set-get-variable.md)
- [If Else](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/utilities/if-else.md)
- [Sticky Note](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/utilities/sticky-note.md): Añade una nota adhesiva al flujo.
- [External Integrations](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/3rd-party-platform-integration.md): Aprende sobre las integraciones con plataformas externas disponibles en Flowise
- [Zapier Zaps](https://docs.flowiseai.com/espanol/documentacion-oficial/integraciones/3rd-party-platform-integration/zapier-zaps.md): Aprende cómo integrar Flowise y Zapier
- [Migration Guide](https://docs.flowiseai.com/espanol/documentacion-oficial/migration-guide.md): Aprende sobre las versiones anteriores de Flowise
- [v1.3.0 Migration Guide](https://docs.flowiseai.com/espanol/documentacion-oficial/migration-guide/v1.3.0-migration-guide.md): En v1.3.0, introducimos Credentials
- [v1.4.3 Migration Guide](https://docs.flowiseai.com/espanol/documentacion-oficial/migration-guide/v1.4.3-migration-guide.md): En v1.4.3, introducimos un nodo Vector Store unificado
- [v2.1.4 Migration Guide](https://docs.flowiseai.com/espanol/documentacion-oficial/migration-guide/v2.1.4-migration-guide.md)
- [Use Cases](https://docs.flowiseai.com/espanol/documentacion-oficial/use-cases.md): Aprende a construir tus propias soluciones Flowise a través de ejemplos prácticos
- [Calling Children Flows](https://docs.flowiseai.com/espanol/documentacion-oficial/use-cases/calling-children-flows.md): Aprende a usar efectivamente el Chatflow Tool y el Custom Tool
- [Calling Webhook](https://docs.flowiseai.com/espanol/documentacion-oficial/use-cases/webhook-tool.md): Aprende cómo llamar a un webhook en Make
- [Interacting with API](https://docs.flowiseai.com/espanol/documentacion-oficial/use-cases/interacting-with-api.md): Aprende a usar integraciones de API externas con Flowise
- [Multiple Documents QnA](https://docs.flowiseai.com/espanol/documentacion-oficial/use-cases/multiple-documents-qna.md): Aprende cómo consultar múltiples documentos correctamente
- [SQL QnA](https://docs.flowiseai.com/espanol/documentacion-oficial/use-cases/sql-qna.md): Aprende cómo consultar datos estructurados
- [Upserting Data](https://docs.flowiseai.com/espanol/documentacion-oficial/use-cases/upserting-data.md): Aprende cómo hacer upsert de datos a Vector Stores con Flowise
- [Web Scrape QnA](https://docs.flowiseai.com/espanol/documentacion-oficial/use-cases/web-scrape-qna.md): Aprende cómo hacer scraping, upsert y consultas a un sitio web


---

# Agent Instructions: Querying This Documentation

If you need additional information, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on a page URL with the `ask` query parameter:

```
GET https://docs.flowiseai.com/readme.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
