Ollama

Use Local LLMs in your Flows
Use Local LLMs in your Flows

Leer más ›

Tarjetas Flow

Entonces...

Ollama
Generate response using model Model and prompt Prompt
Advanced
Ollama
Generate response using model Model and prompt Prompt with image ...
Advanced
Ollama
Set system prompt to System prompt

Asistencia

¿Tienes algún problema con esta aplicación? Contacta con el desarrollador aquí.

Novedades

Versión 1.0.9 — Improved autocomplete listeners

Ver registro de cambios

Ollama

Ollama no es compatible con el Homey seleccionado.

Ollama se instalará en Homey en breve.
Instalar