LiteLLM Proxy
Aprende cómo Flowise se integra con LiteLLM Proxy
Cómo usar LiteLLM Proxy con Flowise
Paso 1: Define tus modelos LLM en el archivo config.yaml de LiteLLM
model_list:
- model_name: gpt-4
litellm_params:
model: azure/chatgpt-v-2
api_base: https://openai-gpt-4-test-v-1.openai.azure.com/
api_version: "2023-05-15"
api_key:
- model_name: gpt-4
litellm_params:
model: azure/gpt-4
api_key:
api_base: https://openai-gpt-4-test-v-2.openai.azure.com/
- model_name: gpt-4
litellm_params:
model: azure/gpt-4
api_key:
api_base: https://openai-gpt-4-test-v-2.openai.azure.com/Paso 2. Inicia el proxy litellm
Paso 3: Usa el LiteLLM Proxy en Flowise
Last updated