githubEdit

LocalAI Embeddings

Configuración de LocalAI

LocalAI arrow-up-rightes un reemplazo directo de REST API que es compatible con las especificaciones de OpenAI API para inferencia local. Te permite ejecutar LLMs (y no solo eso) localmente o en las instalaciones con hardware de grado consumidor, soportando múltiples familias de modelos que son compatibles con el formato ggml.

Para usar LocalAI Embeddings dentro de Flowise, sigue los pasos a continuación:

  1. git clone https://github.com/go-skynet/LocalAI
  2. cd LocalAI
  3. LocalAI proporciona un endpoint de APIarrow-up-right para descargar/instalar el modelo. En este ejemplo, vamos a usar el modelo BERT Embeddings:

  1. En la carpeta /models, deberías poder ver el modelo descargado:

  1. Ahora puedes probar los embeddings:

  1. La respuesta debería verse así:

Configuración de Flowise

Arrastra y suelta un nuevo componente LocalAIEmbeddings al lienzo:

Completa los campos:

  • Base Path: La URL base de LocalAI, por ejemplo http://localhost:8080/v1arrow-up-right

  • Model Name: El modelo que quieres usar. Ten en cuenta que debe estar dentro de la carpeta /models del directorio de LocalAI. Por ejemplo: text-embedding-ada-002

¡Eso es todo! Para más información, consulta la documentaciónarrow-up-right de LocalAI.

Last updated