Ollama – Lokale KI-Modelle für Vibe Coding
Ollama ermöglicht lokale KI-Modelle ohne Cloud. Subagenten, Websuche, Vibe Coding und DSGVO-konform. Alle Features, Modelle und Setup-Tipps 2026.
Mehr erfahren
vLLM ist eine Open Source Inference Engine für Large Language Models, die 2023 im Sky Computing Lab der UC Berkeley von Woosuk Kwon und Kollegen entwickelt wurde. Das Projekt setzt den Standard für produktives LLM Serving: Mit der Kerntechnologie PagedAttention erreicht vLLM laut dem Berkeley Blog bis zu 24-mal höheren Durchsatz als naive Hugging Face Transformers Inference, ohne Modelländerungen vorauszusetzen.
Für deutsche Unternehmen, die Sprachmodelle DSGVO konform selbst betreiben möchten, ist vLLM die erste Wahl: Die Engine bringt einen OpenAI kompatiblen API Server mit, unterstützt über 200 Modellarchitekturen von Hugging Face und läuft auf NVIDIA, AMD, Intel Gaudi, Google TPU und Apple Silicon. Wer also von OpenAI auf eigene Llama, Mistral oder Qwen Modelle umsteigt, tauscht nur die API URL aus.
vLLM ist damit das Fundament moderner KI Infrastruktur in Europa. Bei NCA Vibe Coding Consulting setzen wir vLLM in On Premise Setups ein, damit sensible Daten nie das eigene Rechenzentrum verlassen.
Roland Golla ist Entwickler aus Leidenschaft – seit über 20 Jahren. Er hat hunderte Projekte begleitet, von Legacy-Refactoring bis KI-Integration. Bei Vibe Coding verbindet er das Beste aus beiden Welten: Die Geschwindigkeit von KI-generiertem Code mit der Qualität professioneller Softwareentwicklung. Kein Bullshit, keine Agentur-Floskeln – direkte Hilfe von jemandem, der selbst täglich im Code steckt.
Der Durchbruch von vLLM heißt PagedAttention. Das Verfahren übersetzt ein Konzept aus Betriebssystemen in die GPU Welt: Der KV Cache wird wie Virtual Memory verwaltet, also in nicht zusammenhängenden Blöcken. Klassische Inference Engines reservieren für jeden Request einen zusammenhängenden Speicherblock für die maximale Sequenzlänge. Das verschwendet laut vLLM Team 60 bis 80 Prozent des GPU Speichers durch Fragmentierung und Überallokation.
PagedAttention teilt den KV Cache stattdessen in kleine Pages auf, ähnlich wie Pages im Betriebssystem. Die Pages müssen nicht benachbart im GPU Speicher liegen. Ein Block Table bildet logische auf physische Pages ab. Ergebnis laut vLLM Dokumentation: Der Memory Waste sinkt auf unter 4 Prozent, die GPU Auslastung steigt massiv.
Das ist nicht nur akademisch interessant. Für deine Produktion bedeutet es konkret:
PagedAttention ist nur die halbe Miete. vLLM kombiniert den Memory Vorteil mit Continuous Batching: Neue Requests werden in den laufenden Batch eingefügt, sobald Slots frei werden. Klassische statische Batches warten auf das längste Output, was die GPU leerlaufen lässt. vLLM hält die Auslastung dagegen nahe an 100 Prozent.
Für deutsche Teams besonders wertvoll ist die OpenAI kompatible REST API. Bestehender Code, der gegen api.openai.com schreibt, funktioniert nach einem URL Wechsel mit eigener vLLM Instanz weiter. Keine Agenten bibliothek umbauen, kein Prompt Format anpassen. Das macht die Migration von OpenAI zu einem selbst gehosteten Llama oder Mistral Modell zu einer Stunden statt Wochen Aufgabe.
Weitere Production Features der Engine laut vLLM Dokumentation 2026:
Die Installation von vLLM ist in 2026 erfreulich unspektakulär. Voraussetzung: Python 3.10 oder höher, eine CUDA fähige GPU und idealerweise uv als Package Manager. Das vLLM Team empfiehlt uv laut offizieller Dokumentation für schnellere und zuverlässigere Installation.
# Installation mit pip
pip install vllm
# Alternativ mit uv (empfohlen vom vLLM Team)
uv pip install vllm
# OpenAI kompatiblen API Server starten
vllm serve meta-llama/Llama-3.1-8B-Instruct \
--host 0.0.0.0 \
--port 8000 \
--dtype auto
Nach dem Start lauscht vLLM auf Port 8000 mit einer OpenAI kompatiblen Schnittstelle. Bestehende Clients wie OpenAI Python SDK oder LangChain sprechen den Server ohne Codeänderung an:
from openai import OpenAI
client = OpenAI(
base_url="http://localhost:8000/v1",
api_key="dummy"
)
response = client.chat.completions.create(
model="meta-llama/Llama-3.1-8B-Instruct",
messages=[
{"role": "user", "content": "Erkläre PagedAttention in zwei Sätzen."}
]
)
print(response.choices[0].message.content)
Für produktive Deployments mit mehreren GPUs, Health Checks und Monitoring helfen wir bei der Einrichtung: roland@nevercodealone.de.
Ein strategischer Vorteil von vLLM ist die breite Hardware Unterstützung. Während proprietäre Inference Engines wie TensorRT LLM ausschließlich auf NVIDIA laufen, ist vLLM portabel. Laut offizieller Dokumentation unterstützt vLLM 2026 nativ NVIDIA GPUs und AMD GPUs sowie x86, ARM und PowerPC CPUs.
Über Hardware Plugins kommen weitere Beschleuniger hinzu:
Zusätzlich unterstützt vLLM laut GitHub über 200 Modellarchitekturen von Hugging Face direkt. Llama (alle Versionen), Mistral, Qwen, Gemma, Falcon, Phi und Starcoder sind nur die bekanntesten. Für neue Modelle gibt es in der Regel Day 0 Support, also Unterstützung ab Release Tag. Das ist ein wichtiger Faktor bei der Planung einer langfristigen KI Infrastruktur.
Die Open Source Landschaft für LLM Serving ist 2026 ausdifferenziert. Nicht jedes Tool löst das gleiche Problem. Wer sich zwischen vLLM, Ollama, SGLang und LMDeploy entscheiden muss, sollte die Workload Typologie kennen:
vLLM ist die ausgewogenste Wahl für produktives Serving mit mehreren Nutzern. Die Engine liefert hohen Durchsatz, breitesten Hardware Support und das reifste Ökosystem. Production Stacks wie AIBrix für Kubernetes und LLM Compressor für Quantisierung bauen auf vLLM auf.
Ollama ist kein direkter Konkurrent, sondern ergänzt vLLM. Ollama läuft auf jedem Laptop, nutzt llama.cpp unter der Haube und adressiert Entwickler, die lokal testen wollen. In Produktion mit parallelen Requests und GPU Clustern ist vLLM deutlich effizienter.
SGLang kam ebenfalls aus Berkeley und ist für strukturierte Generierung und Multi Turn Agent Workflows optimiert. Die RadixAttention von SGLang erreicht bei Workloads mit gemeinsamen Prefixes laut Yotta Labs Benchmarks 2026 bis zu 5 mal höhere Performance. Für reine Einzelrequests bleibt vLLM gleichwertig oder vorne.
LMDeploy setzt mit TurboMind auf reines C plus plus statt Python. Für quantisierte Modelle auf NVIDIA Hardware ist LMDeploy laut PremAI Benchmarks 2026 sehr schnell. Der Preis: Bindung an NVIDIA und kleineres Ökosystem.
Fazit für deutsche Unternehmen: Starte mit vLLM. Die Engine ist in der Dokumentation, im Support und in der Hardware Portabilität am reifsten. Für Spezialfälle lässt sich später auf SGLang oder LMDeploy optimieren.
Für deutsche und europäische Unternehmen ist die Inference Engine nicht nur eine Performance Frage, sondern eine Compliance Frage. Jede Anfrage an die OpenAI API verlässt die EU und unterliegt US Rechtsrahmen wie dem CLOUD Act. Bei personenbezogenen Daten, Mandantengeheimnis oder internen Entwicklungsprojekten ist das für viele Branchen schlicht nicht zulässig.
vLLM löst das Problem an der Wurzel: Die Engine läuft auf eigener Hardware, entweder im eigenen Rechenzentrum oder bei einem europäischen Cloud Anbieter wie Hetzner, Scaleway oder OVHcloud. Offene Modelle wie Llama 3.1, Mistral Small 3 oder Qwen 2.5 bieten 2026 eine Qualität, die für die meisten Business Use Cases ausreicht. Die Kombination aus vLLM und offenem Modell ist damit eine vollständige, DSGVO konforme Alternative zu OpenAI.
Typische NCA Projekte rund um vLLM:
Telefonisch unter +49 176 24747727 oder per Mail an roland@nevercodealone.de besprechen wir gern, ob vLLM für euer Setup passt. Die Erstberatung ist kostenlos.
We see a future where serving AI becomes effortless.
Ollama ermöglicht lokale KI-Modelle ohne Cloud. Subagenten, Websuche, Vibe Coding und DSGVO-konform. Alle Features, Modelle und Setup-Tipps 2026.
Mehr erfahren
Open WebUI ist das führende Self-Hosted Interface für lokale KI-Modelle. DSGVO-konform, Docker-Setup, RAG, Multimodell – so richtest du es 2026 ein.
Mehr erfahren
Qwen ist Alibabas Open-Source KI-Modellfamilie mit Qwen3, Qwen3-Coder und Qwen3-Omni. Apache 2.0, lokal nutzbar, DSGVO-freundlich.
Mehr erfahrenFinde das passende Angebot für dein Projekt
Hey! Ich bin CodeBot. Lass uns herausfinden, wie wir dein Projekt zum Fliegen bringen.
Was soll entstehen?
Die wichtigsten Antworten rund um vLLM, Installation, Hardware, Vergleich mit Ollama und OpenAI sowie DSGVO konformes Self Hosting.
vLLM ist vollständig Open Source unter Apache 2.0 Lizenz und damit kostenlos. Kosten entstehen nur für die Hardware, auf der vLLM läuft, sowie für Einrichtung und Betrieb. Eine NVIDIA H100 GPU kostet in der Cloud ab etwa zwei Euro pro Stunde. Bei NCA rechnen wir gern konkret durch, ob sich Self Hosting für euren Use Case lohnt.
Kleine Modelle wie Llama 3.1 8B laufen bereits auf einer NVIDIA RTX 4090 mit 24 GB. Für produktives Serving mit mehreren Nutzern und 70B Modellen empfiehlt vLLM eine H100 mit 80 GB oder zwei A100 GPUs im Tensor Parallelism Setup. Quantisierung auf FP8 oder INT4 reduziert den Speicherbedarf deutlich.
Ollama ist für lokale Entwicklung auf einem einzelnen Rechner optimiert und nutzt llama.cpp. vLLM richtet sich an produktives Serving mit vielen parallelen Nutzern auf GPU Servern. Wer LLMs in Produktion bringt, nutzt vLLM. Wer auf dem Laptop experimentiert, startet mit Ollama. Beide ergänzen sich im typischen Entwicklungsstack.
Ja. vLLM ist reine Software und speichert selbst keine Daten. Die DSGVO Konformität hängt von deinem Setup ab: Wenn vLLM in einem deutschen oder europäischen Rechenzentrum auf eigener Hardware läuft, verlassen personenbezogene Daten nie die EU. Das ist ein entscheidender Vorteil gegenüber OpenAI oder Anthropic APIs.
Nach dem Installieren mit pip install vllm reicht ein einziger Befehl: vllm serve meta-llama/Llama-3.1-8B-Instruct. Der Server läuft dann auf Port 8000 mit OpenAI kompatibler API. Für das Modell Download aus Hugging Face wird ein Account Token benötigt, das als Umgebungsvariable HF_TOKEN gesetzt wird.
Ja, aber mit Einschränkungen. vLLM unterstützt x86, ARM und PowerPC CPUs für Inferenz. Die Performance liegt dann aber deutlich unter GPU basierten Setups. Für Entwicklung und Tests funktioniert der CPU Modus, für Produktion mit mehreren Nutzern sind GPUs praktisch Pflicht.
Laut offizieller Dokumentation unterstützt vLLM über 200 Modellarchitekturen von Hugging Face. Darunter alle Llama Versionen, Mistral, Qwen, Gemma, Phi, Falcon, Starcoder, DeepSeek und Kimi K2.5. Neue Modelle bekommen in der Regel Day 0 Support direkt zum Release.
PagedAttention ist der Algorithmus, der den KV Cache einer GPU wie Virtual Memory im Betriebssystem verwaltet. Statt großer zusammenhängender Speicherblöcke werden kleine Pages genutzt. Das reduziert den Memory Waste laut vLLM Dokumentation von 60 bis 80 Prozent auf unter 4 Prozent und verdoppelt bis vervierfacht den Durchsatz.
In den meisten Fällen reicht es, die Base URL im OpenAI Client von api.openai.com auf die eigene vLLM Instanz zu ändern. Der Modellname muss auf das selbst gehostete Modell angepasst werden. Agenten Bibliotheken, Prompt Templates und Tool Calling bleiben unverändert. NCA unterstützt bei Migrationen mit Inventur, Benchmark und Cutover Planung.
In unabhängigen Benchmarks 2026 erreicht vLLM rund 12.500 Tokens pro Sekunde auf einer H100 mit Llama 3.1 8B. SGLang und LMDeploy liegen bei rund 16.200 Tokens pro Sekunde. Dafür hat vLLM das reifste Ökosystem, den breitesten Hardware Support und die einfachste Einrichtung für die meisten Use Cases.
Ja. Für Kubernetes Setups gibt es mit AIBrix und dem vLLM Production Stack offizielle Referenzlösungen. Sie decken Autoscaling, Load Balancing, Health Checks und Model Caching ab. Für produktive Deployments im Kubernetes Cluster ist das der empfohlene Weg. NCA richtet solche Setups im Rahmen von Vibe Coding Consulting ein.
Neben vLLM sind 2026 Hugging Face Text Generation Inference, SGLang, LMDeploy und NVIDIA TensorRT LLM die wichtigsten Open Source Optionen. TensorRT LLM ist reines NVIDIA, LMDeploy setzt auf C plus plus für geringste Latenz, SGLang glänzt bei strukturierten Multi Turn Workflows. vLLM bleibt der beste Allrounder für die meisten Teams.
A/B Testing mit KI-Coding-Agents und PostHog oder GrowthBook: So setzt du automatisiertes Testing mit Vibe Coding um - DSGVO-konform und Open Source.
AGI (Artificial General Intelligence) bezeichnet KI-Systeme mit menschenähnlicher Intelligenz. Definition, aktueller Stand, Kontroversen und was AGI für Entwickler bedeutet.
AutoGen ist Microsofts Open-Source-Framework für Multi-Agent-Systeme. Mehrere KI-Agenten arbeiten autonom zusammen und lösen komplexe Aufgaben durch Konversation.
ChatGPT und die GPT-5-Serie: GPT-5.2, 5.3 Instant und 5.4 mit Features, Benchmarks und Einordnung für Entwickler 2026.
Claude Agent Teams ermöglicht parallele KI-Agenten in Claude Code. Aktivierung, Setup, Anwendungsfälle und Best Practices für Entwickler 2026.
Der Claude Code Plugin Marketplace ist ein dezentrales, Git-basiertes System für KI-Entwickler-Plugins. So finden, installieren und erstellen Sie eigene Marketplaces 2026.
Claude Code Plugins bündeln Slash-Commands, Agents, Hooks und MCP-Server in teilbare Pakete. So erweitern Entwickler ihr KI-Coding-Tool 2026.
Claude Code Remote Control, SSH-Zugriff und Cloud Sessions: So steuern Sie Ihre KI-Coding-Sessions von unterwegs. Setup, Sicherheit und Vergleich 2026.
Was ist Claude Cowork 2026? Der KI-Agent von Anthropic für Desktop-Automatisierung. Funktionen, Anwendungsfälle und Einschränkungen im Überblick.
Claude Design ist Anthropics KI Design Tool auf Opus 4.7 Basis. Prototypen, Wireframes und Pitch Decks aus Text, Handoff zu Claude Code.
Claw Code ist ein quelloffenes KI-Coding-Agent-Framework in Python und Rust. Clean-Room-Rewrite der Claude Code Architektur. 172k GitHub Stars. Jetzt mehr erfahren.
Clawdbot installieren: Komplette Anleitung für macOS, Linux und Windows (WSL2). Node.js Setup, Provider-Anbindung, Sicherheitskonfiguration und Best Practices für den Always-on-Betrieb.
Clawdbot auf Mac Mini einrichten: Komplette Anleitung für den Always-on KI-Assistenten. Hardware-Auswahl, macOS Headless-Konfiguration, Energy Saver, SSH-Zugang, Docker-Isolation und Best Practices 2026.
CodeRabbit reviewt Pull Requests automatisch mit KI und 40+ Lintern. So nutzen PHP-Teams das Tool DSGVO-konform in CI/CD-Pipelines.
CodexBar zeigt Token-Limits für Claude Code, Cursor und Codex direkt im macOS Menu Bar. Kostenlos, MIT-lizenziert, 7.400+ GitHub Stars.
ComfyUI ist eine Open-Source-Engine f\u00fcr KI-Bildgenerierung mit node-basiertem Workflow-Editor. Lokal, DSGVO-konform, unterst\u00fctzt Flux, SDXL und mehr.
CrewAI ist ein Framework für rollenbasierte Multi-Agent-Systeme. Definiere Agenten mit Rollen, Zielen und Backstories – sie arbeiten autonom als Team zusammen.
Cursor BugBot ist der KI-Debugging-Agent für Vibe Coding. Über 2 Mio. PRs/Monat, 70 % Resolution Rate. Wie er funktioniert und wann er hilft.
Embodied AI und Vision Language Action Modelle 2026: HY-Embodied-0.5, Pi Zero, NORA, OpenVLA, Gemini Robotics. KI Foundation Models für Roboter im Vergleich.
Firebase Studio ist Googles cloudbasierte KI-Entwicklungsumgebung für Full-Stack-Apps. Prototyping per Prompt, Gemini-KI, kostenlos nutzbar. NCA Glossar 2026.
GitHub MCP Server verbindet KI Agents direkt mit Repositories, Issues und CI/CD Pipelines. Installation und DSGVO Bewertung für Entwickler 2026.
Google Antigravity 2026: Die revolutionäre Agent-First IDE mit autonomen KI-Agenten. Powered by Gemini 3 Pro. Kostenlos für Entwickler. Installation, Features und Vergleich.
Google Gemini Gems sind anpassbare KI-Assistenten mit 1-Million-Token-Kontext und Live-Google-Drive-Sync. Vergleich mit ChatGPT Custom GPTs.
Google Stitch: KI-natives Vibe Design Tool – UI aus Text und Sprache generieren, prototypen und direkt in Code exportieren. Kostenlos in Google Labs.
Hermes Agent von Nous Research: selbstlernender Open Source KI Agent mit Memory, Skills System und MCP. Installation, Vergleich und DSGVO Bewertung.
Das Karpathy LLM Wiki erklärt Andrej Karpathys wichtigste LLM-Ressourcen für Entwickler: nanoGPT, LLM.c, makemore und das LLM OS Konzept kompakt erklärt.
Kimi K2.5 von Moonshot AI: Multimodales MoE-Modell mit 1 Billion Parametern, Agent Swarm und Kimi Code CLI. Features, Benchmarks und Einsatz 2026.
LangGraph ist LangChains Framework für zustandsbehaftete Multi-Agent-Workflows. Graphen definieren Kontrollfluss, Zyklen und Entscheidungslogik für produktionsreife KI-Systeme.
LLM lokal auf dem Smartphone nutzen: Die besten Apps fuer Android und iOS, Hardware Anforderungen und DSGVO Vorteile von On Device KI 2026.
MemPalace von Milla Jovovich ist das Open Source KI Memory System gegen KI Amnesie. 96,6% LongMemEval, lokal, DSGVO konform. NCA erklaert Setup und Einsatz.
Mistral Connectors verbinden KI-Agents mit Enterprise-Daten per MCP-Protokoll. So funktioniert reusable Tool-Integration in Mistral Studio 2026.
Was ist Moltbook? Das virale Social Network für KI-Agenten – Funktionsweise, Sicherheitslücken und warum Experten davor warnen. Alles Wichtige kompakt erklärt.
MoltBot (früher ClawdBot) ist der virale Open-Source KI-Assistent mit 60.000+ GitHub Stars. Was kann er, wie funktioniert er, und lohnt sich die Installation?
Nano Banana 2 (Gemini 3.1 Flash Image): Googles schnellster KI-Bildgenerator mit 4K, Text-Rendering und Web-Grounding. Jetzt kostenlos verfügbar.
NVIDIA NemoClaw erweitert OpenClaw um Privacy- und Security-Controls. Lokale KI-Modelle via Nemotron, OpenShell-Guardrails, Deploy mit einem Befehl.
Obsidian mit KI und künstlicher Intelligenz: lokales PKM-Tool, DSGVO-konform, Obsidian Skills auf GitHub für Claude Code. NCA erklärt den Setup.
Ollama ermöglicht lokale KI-Modelle ohne Cloud. Subagenten, Websuche, Vibe Coding und DSGVO-konform. Alle Features, Modelle und Setup-Tipps 2026.
Open WebUI ist das führende Self-Hosted Interface für lokale KI-Modelle. DSGVO-konform, Docker-Setup, RAG, Multimodell – so richtest du es 2026 ein.
OpenClaw ist ein autonomer KI-Agent mit 100.000+ GitHub Stars. Ursprünglich ClawdBot, dann MoltBot – jetzt OpenClaw. Messaging-Integration, Skills-System und Sicherheitsrisiken erklärt.
OpenSpec ist ein leichtgewichtiges Framework für Spec-Driven Development mit KI-Coding-Assistenten. Single Source of Truth für Claude Code, Cursor und Copilot.
Paperclip ist die Open Source Plattform fuer KI Agenten Teams 2026. Mit Org Charts, Budgetkontrolle und Audit Log. Selbst gehostet und DSGVO konform.
Project Glasswing ist Anthropics Initiative, mit Claude Mythos Preview Zero-Day-Schwachstellen in kritischer Software zu finden. Was steckt dahinter?
Qwen ist Alibabas Open-Source KI-Modellfamilie mit Qwen3, Qwen3-Coder und Qwen3-Omni. Apache 2.0, lokal nutzbar, DSGVO-freundlich.
RentAHuman.ai ist der Marktplatz, auf dem KI-Agenten Menschen für physische Aufgaben buchen. Funktionsweise, MCP-Integration, Risiken und Chancen 2026.
Ruflo ist die führende Agent-Orchestrierungsplattform für Claude Code. Multi-Agent-Swarms, 60+ Agenten, WASM-Embeddings, lokal oder On-Premise einsetzbar.
Shannon ist ein autonomer KI-Pentester f\u00fcr Web-Apps und APIs. White-Box-Analyse, echte Exploits, DSGVO-konform on-premise einsetzbar. NCA-Beratung.
Vibe Coding macht Schulden. Vise Coding l\u00f6st das. NCA Experten erkl\u00e4ren, wie AI Code mit Guardrails, Tests und Doku echten Produktionscode liefert. Jetzt beraten lassen.
Wie NCA OpenAI-Embeddings durch Voyage AI voyage-3-m-exp auf HuggingFace ersetzte. Erfahrungsbericht, Benchmarks und Migrationsanleitung 2026.
Web MCP verbindet KI-Agenten \u00fcber Streamable HTTP mit externen Tools und Datenquellen. Alles \u00fcber Remote MCP Server, Sicherheit und Einsatz 2026.