ChatOllama

Prerequisitos

  1. Descarga Ollama o ejecútalo en Docker.

  2. Por ejemplo, puedes usar el siguiente comando para iniciar una instancia de Docker con llama3

    docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
    docker exec -it ollama ollama run llama3

Configuración

  1. Chat Models > arrastra el nodo ChatOllama

  1. Completa el modelo que se está ejecutando en Ollama. Por ejemplo: llama2. También puedes usar parámetros adicionales:

  1. ¡Voilà 🎉, ahora puedes usar el nodo ChatOllama en Flowise

Adicional

Si estás ejecutando tanto Flowise como Ollama en docker, tendrás que cambiar la URL Base para ChatOllama.

Para sistemas operativos Windows y MacOS, especifica http://host.docker.internal:8000. Para sistemas basados en Linux, se debe usar el gateway predeterminado de docker ya que host.docker.internal no está disponible: http://172.17.0.1:8000

Recursos

Last updated