Deployment von Ollama + Open WebUI auf Codesphere
Schritt-für-Schritt-Anleitung zum Deployment von Ollama und Open WebUI auf Codesphere. Erfahren Sie, wie Sie eine private, Cloud-basierte LLM-Umgebung mithilfe des offiziellen GitHub-Repos einrichten.

Inhaltsverzeichnis
Ollama ist eine leistungsstarke Laufzeitumgebung für die Ausführung von Open-Source-Language-Modellen (LLMs) wie LLaMA 3, Mistral oder Phi-4 auf lokalen oder entfernten Rechnern. Open WebUI fügt eine saubere, moderne browserbasierte Schnittstelle hinzu, die es jedem ermöglicht, mit LLMs in Echtzeit zu chatten.
Durch die Kombination der beiden erhalten Sie einen selbst gehosteten KI-Assistenten, der privat, flexibel und anpassbar ist, ohne auf kommerzielle APIs angewiesen zu sein. Mit Codesphere können Sie diesen kompletten Stack in einem Cloud Workspace mit minimaler Einrichtung und ohne Probleme mit der Infrastruktur deployen.
🚀 Step-by-Step Deployment Guide
Die vollständige Einrichtung von Ollama + Open WebUI ist über eine öffentliches Depot auf Codesphere, so dass Sie Ihren eigenen lokalen LLM-Stack einfach in der Cloud deployen können.
Bei diesem Repository wird alles in einem einzigen Workspace ausgeführt, mit automatischen Startskripten und persistenter Speicherung, wodurch es sich sowohl für Experimente als auch für die Produktion eignet.
Ganz gleich, ob Sie neue Modelle testen, einen privaten KI-Assistenten erstellen oder sichere Experimente ohne lokale Hardwarebeschränkungen durchführen möchten, das Repo bietet einen leistungsstarken und reibungslosen Ausgangspunkt.
🔗 Learn how to deploy the repo step by step :
1. Create a Workspace from the Repo
- Beginnen Sie mit der Erstellung eines neuen Workspace auf Codesphere unter dieser GitHub-URL:
https://github.com/codesphere-cloud/template-Ollama-Open-WebUI.git
- Verwenden Sie einen "Boost"- oder "Pro"-Tarif, um genügend Speicherplatz für die LLMs zu haben.
2. Run the Prepare and Run Stages
- Go to the CI/CD tab in your Codesphere workspace. a. First, select the 'prepare' stage and click Run . Dies wird:
- Kopieren. env .example zu .env
- Alle Abhängigkeiten werden automatisch eingerichtet.
b. Wählen Sie nach Abschluss des Vorgangs die Phase "Run" und klicken Sie auf Run . Dies wird:
- Starten Sie den Ollama-Server und öffnen Sie gemeinsam die WebUI
- Open WebUI und Ollama herunterladen und installieren
3. Access the Open WebUI
- Greifen Sie in Ihrem Codesphere Workspace über den Button 'Open Deployment' auf die Open WebUI zu.
Während der Ersteinrichtung kann es ein wenig länger dauern, bis das Deployment vollständig gestartet ist. Wenn die Seite nicht sofort geladen wird, warten Sie bitte und versuchen Sie es erneut.
4. Create Your Admin Account
- Beim ersten Start werden Sie zu folgenden Schritten aufgefordert create an admin account .
- Geben Sie Ihre E-Mail-Adresse und Ihr Passwort ein, um die Einrichtung abzuschließen.
5. Select and Load Your Model
- Nachdem Sie sich angemeldet haben, können Sie select the LLM model zu verwenden.
- Standardmäßig installiert der Workspace phi4-mini:latest .
- Über das Dropdown-Menü am oberen Rand der Benutzeroberfläche können Sie jederzeit zu anderen Modellen wechseln.
- Weitere Modelle finden Sie unter Ollama's Modellbibliothek (auch über WebUI zugänglich).
6. Start Chatting
Sie sind nun bereit, Ollama mit Open WebUI zu nutzen, ohne lokale Einrichtung, ohne komplexe Konfigurationen. Einfach eine saubere, private LLM-Erfahrung, die in der Cloud läuft. Interagieren Sie mit Ihrem Modell - viel Spaß beim Chatten!
Mit Ollama und Open WebUI auf Codesphere haben Sie jetzt eine schnelle, anpassungsfähige und vollständig private lokale LLM-Umgebung, die für die Entwicklung, das Experimentieren oder den täglichen Gebrauch zur Verfügung steht. Kein Docker, keine fummelige Einrichtung, nur leistungsstarke Modelle in einer aufgeräumten Oberfläche.
Machen Sie weiter und probieren Sie weitere Modelle aus, fügen Sie APIs hinzu oder passen Sie die Benutzeroberfläche nach Ihrem Geschmack an. Diese Konfiguration ist nur der Ausgangspunkt für das, was Sie erstellen können.