ChatOllama
Last updated
Last updated
Descarga o ejecútalo en
Por ejemplo, puedes usar el siguiente comando para iniciar una instancia de Docker con llama3
Chat Models > arrastra el nodo ChatOllama
Completa el modelo que se está ejecutando en Ollama. Por ejemplo: llama2
. También puedes usar parámetros adicionales:
Si estás ejecutando tanto Flowise como Ollama en docker, tendrás que cambiar la URL Base para ChatOllama.
¡Voilà , ahora puedes usar el nodo ChatOllama en Flowise
Para sistemas operativos Windows y MacOS, especifica . Para sistemas basados en Linux, se debe usar el gateway predeterminado de docker ya que host.docker.internal no está disponible: