Ollama

Use Local LLMs in your Flows
Use Local LLMs in your Flows

Les mer ›

Flow-kort

Så …

Ollama
Generate response using model Model and prompt Prompt
Advanced
Ollama
Generate response using model Model and prompt Prompt with image ...
Advanced
Ollama
Set system prompt to System prompt

Støtte

Har du et problem med denne appen? Kontakt utvikleren her.

Nyheter

Versjon 1.0.9 — Improved autocomplete listeners

Vis endringslogg

Ollama

Ollama er ikke kompatibel med den valgte Homey.

Ollama vil straks installeres på Homey.
Installer