Ollama

Use Local LLMs in your Flows
Use Local LLMs in your Flows

Læs mere ›

Flow-kort

Så...

Ollama
Generate response using model Model and prompt Prompt
Advanced
Ollama
Generate response using model Model and prompt Prompt with image ...
Advanced
Ollama
Set system prompt to System prompt

Support

Har du et problem med denne app? Kontakt udvikleren her.

Hvad er nyt

Version 1.0.9 — Improved autocomplete listeners

Se ændringslog

Ollama

Ollama er ikke kompatibel med den valgte Homey.

Ollama bliver snart installeret på Homey.
Installer