ChatOllama
Last updated
Last updated
Por ejemplo, puedes usar el siguiente comando para iniciar una instancia de Docker con llama3
Chat Models > arrastra el nodo ChatOllama
Completa el modelo que se está ejecutando en Ollama. Por ejemplo: llama2
. También puedes usar parámetros adicionales:
¡Voilà 🎉, ahora puedes usar el nodo ChatOllama en Flowise
Si estás ejecutando tanto Flowise como Ollama en docker, tendrás que cambiar la URL Base para ChatOllama.
Para sistemas operativos Windows y MacOS, especifica http://host.docker.internal:8000. Para sistemas basados en Linux, se debe usar el gateway predeterminado de docker ya que host.docker.internal no está disponible: http://172.17.0.1:8000