LocalAI Embeddings
Last updated
Last updated
LocalAI es un reemplazo directo de REST API que es compatible con las especificaciones de OpenAI API para inferencia local. Te permite ejecutar LLMs (y no solo eso) localmente o en las instalaciones con hardware de grado consumidor, soportando múltiples familias de modelos que son compatibles con el formato ggml.
Para usar LocalAI Embeddings dentro de Flowise, sigue los pasos a continuación:
LocalAI proporciona un endpoint de API para descargar/instalar el modelo. En este ejemplo, vamos a usar el modelo BERT Embeddings:
En la carpeta /models
, deberías poder ver el modelo descargado:
Ahora puedes probar los embeddings:
La respuesta debería verse así:
Arrastra y suelta un nuevo componente LocalAIEmbeddings al lienzo:
Completa los campos:
Base Path: La URL base de LocalAI, por ejemplo http://localhost:8080/v1
Model Name: El modelo que quieres usar. Ten en cuenta que debe estar dentro de la carpeta /models
del directorio de LocalAI. Por ejemplo: text-embedding-ada-002
¡Eso es todo! Para más información, consulta la documentación de LocalAI.