LiteLLM Proxy
Aprende cómo Flowise se integra con LiteLLM Proxy
Last updated
Aprende cómo Flowise se integra con LiteLLM Proxy
Last updated
Usa con Flowise para:
Balancear la carga de endpoints de Azure OpenAI/LLM
Llamar a más de 100 LLMs en el formato OpenAI
Usar Claves Virtuales para establecer presupuestos, límites de tasa y rastrear el uso
LiteLLM requiere una configuración con todos tus modelos definidos - llamaremos a este archivo litellm_config.yaml
Si tiene éxito, el proxy comenzará a ejecutarse en http://localhost:4000/
En Flowise, especifica los nodos estándar de OpenAI (no los nodos de Azure OpenAI) -- esto aplica para modelos de chat, embeddings, llms -- todo
Establece BasePath
a la URL del LiteLLM Proxy (http://localhost:4000
cuando se ejecuta localmente)
Establece los siguientes headers Authorization: Bearer <tu-litellm-master-key>