Ollama

Use Local LLMs in your Flows
Use Local LLMs in your Flows

Leggi di più ›

Schede dei Flow

Poi...

Ollama
Generate response using model Model and prompt Prompt
Advanced
Ollama
Generate response using model Model and prompt Prompt with image ...
Advanced
Ollama
Set system prompt to System prompt

Supporto

Hai un problema con questa app? Contatta lo sviluppatore qui.

Novità

Versione 1.0.9 — Improved autocomplete listeners

Visualizza il changelog

Ollama

Ollama non è compatibile con l’Homey selezionato.

Ollamaverrà installato a breve su Homey.
Installa