Ollama

Use Local LLMs in your Flows
Use Local LLMs in your Flows

Lire plus ›

Cartes Flow

Alors...

Ollama
Generate response using model Model and prompt Prompt
Advanced
Ollama
Generate response using model Model and prompt Prompt with image ...
Advanced
Ollama
Set system prompt to System prompt

Assistance

Vous avez un problème avec cette appli ? Contacter le développeur ici.

Nouveautés

Version 1.0.9 — Improved autocomplete listeners

Afficher le journal des modifications

Ollama

Ollama n’est pas compatible avec le Homey sélectionné.

Ollama va s’installer sur Homey dans un instant.
Installer