githubEdit

ChatLocalAI

Configuración de LocalAI

LocalAIarrow-up-right es una API REST de reemplazo compatible con las especificaciones de la API de OpenAI para inferencia local. Te permite ejecutar LLMs (y no solo eso) localmente o en las instalaciones con hardware de grado consumidor, soportando múltiples familias de modelos que son compatibles con el formato ggml.

Para usar ChatLocalAI dentro de Flowise, sigue los pasos a continuación:

  1. git clone https://github.com/go-skynet/LocalAI
  2. cd LocalAI
  3. # copia tus modelos a models/
    cp your-model.bin models/

Por ejemplo:

Descarga uno de los modelos desde gpt4all.ioarrow-up-right

# Descarga gpt4all-j a models/
wget https://gpt4all.io/models/ggml-gpt4all-j.bin -O models/ggml-gpt4all-j

En la carpeta /models, deberías poder ver el modelo descargado:

Consulta aquíarrow-up-right la lista de modelos soportados.

  1. Ahora la API es accesible en localhost:8080

Configuración en Flowise

Arrastra y suelta un nuevo componente ChatLocalAI al lienzo:

Completa los campos:

  • Base Path: La URL base de LocalAI como http://localhost:8080/v1arrow-up-right

  • Model Name: El modelo que quieres usar. Ten en cuenta que debe estar dentro de la carpeta /models del directorio de LocalAI. Por ejemplo: ggml-gpt4all-j.bin

circle-info

Si estás ejecutando tanto Flowise como LocalAI en Docker, es posible que necesites cambiar la ruta base a http://host.docker.internal:8080/v1arrow-up-right. Para sistemas basados en Linux, se debe usar el gateway predeterminado de docker ya que host.docker.internal no está disponible: http://172.17.0.1:8080/v1arrow-up-right

¡Eso es todo! Para más información, consulta la documentaciónarrow-up-right de LocalAI.

Mira cómo puedes usar LocalAI en Flowise:

Last updated