Ollama

Use Local LLMs in your Flows
Use Local LLMs in your Flows

Läs mer ›

Flow-kort

Då...

Ollama
Generate response using model Model and prompt Prompt
Advanced
Ollama
Generate response using model Model and prompt Prompt with image ...
Advanced
Ollama
Set system prompt to System prompt

Support

Har du problem med den här appen? Kontakta utvecklaren här.

Vad är nytt?

Version 1.0.9 — Improved autocomplete listeners

Visa ändringslogg

Ollama

Ollama är inte kompatibelt med vald Homey.

Ollama installeras på Homey inom kort.
Installera