Open WebUI
Open WebUI ist eine benutzerfreundliche Chat-Oberfläche für Large Language Models (LLMs). Sie ist kompatibel mit Ollama, llama-swap und der OpenAI-API.
Dies ist NUR die Weboberfläche
Open WebUI ist nur eine Benutzeroberfläche. Du benötigst zusätzlich einen LLM-Server wie Ollama oder llama-swap, um Modelle zu laden und Anfragen zu verarbeiten.
Installation
Füge das folgende Template in deine docker-compose.yml ein und führe anschließend ei23 dc aus.
LLM-Server erforderlich
Installiere zuerst entweder Ollama oder llama-swap.
Template
open-webui:
image: ghcr.io/open-webui/open-webui:main
container_name: open-webui
restart: always
ports:
- 2280:8080
environment:
- OLLAMA_BASE_URL=http://llama-swap:8080 # oder http://ollama:11434
volumes:
- ./volumes/open-webui:/app/backend/data
LLM-Server konfigurieren
Je nachdem welchen LLM-Server du nutzst, passe die OLLAMA_BASE_URL an:
| LLM-Server | OLLAMA_BASE_URL | Port im Template |
|---|---|---|
| llama-swap (empfohlen) | http://llama-swap:8080 | 9292 |
| Ollama | http://ollama:11434 | 11434 |
llama-swap empfohlen
Für bessere Performance und mehr Flexibilität empfehlen wir llama-swap anstelle von Ollama.
Features
- Chat-Oberfläche - Moderne, intuitive Benutzeroberfläche
- Multi-User-Support - Mehrere Benutzer mit individuellen Einstellungen
- Chat-Historie - Gespräche werden gespeichert und durchsuchbar
- Prompt-Vorlagen - Wiederverwendbare System-Prompts
- RAG (Retrieval Augmented Generation) - Dokumente hochladen und Fragen dazu stellen
- Modell-Auswahl - Zwischen verschiedenen Modellen wechseln
- OpenAI-kompatibel - Funktioniert mit allen OpenAI-API-kompatiblen Servern
Erster Start
- Nach dem Start erreichst du Open WebUI unter
http://[IP]:2280 - Erstelle einen Account (der erste Account wird automatisch Admin)
- Gehe zu den Einstellungen → Verbindungen und prüfe die LLM-Server URL
- Wähle ein Modell aus dem Dropdown-Menü und starte zu chatten
Modelle müssen vorher heruntergeladen werden
Die Modelle werden im jeweiligen LLM-Server (Ollama/llama-swap) heruntergeladen, nicht in Open WebUI.
Dokumente hochladen (RAG)
Open WebUI unterstützt das Hochladen von Dokumenten, um Fragen mit Kontext aus deinen Dateien zu beantworten:
- Klicke auf das 📎 Symbol im Chat
- Lade PDFs, Textdateien oder Markdown-Dateien hoch
- Stelle Fragen zum Inhalt - die KI nutzt die Dokumente als Kontext
Hinweise
- Die Daten werden in
./volumes/open-webui/gespeichert - Der Port 2280 ist standardmäßig konfiguriert - passe bei Bedarf an
- Open WebUI funktioniert auch mit entfernten Servern (Cloud-GPUs, etc.)
- Für beste RAG-Ergebnisse: Nutze ein Modell mit großer Kontextlänge