NCA Social Media
Terminal mit crush-Text in grün, Provider-Orbs, Rakete rechts

Was ist Crush?

Crush ist ein Open-Source KI-Coding-Agent für das Terminal, entwickelt von Charmbracelet und in Go geschrieben. Der Agent verbindet sich direkt mit deinem bevorzugten LLM-Anbieter – von Anthropic über OpenAI bis zu lokalen Modellen via Ollama – und unterstützt dich beim Schreiben, Refactoring und Debuggen von Code, ohne die Kommandozeile zu verlassen.

Anders als GUI-basierte Tools wie Cursor oder Windsurf setzt Crush konsequent auf das Terminal. Das macht ihn besonders attraktiv für Entwickler, die ohnehin in der Kommandozeile arbeiten, für Server-Umgebungen ohne grafische Oberfläche, und für Teams, die keinen Provider-Lock-in wollen. Mit über 15.600 GitHub-Stars (Stand Februar 2026) hat sich Crush schnell als ernstzunehmende Alternative zu OpenCode und Codex CLI etabliert.

Das Besondere an Crush: Er bringt echte LSP-Integration mit – also Language Server Protocol, das auch IDEs wie VS Code nutzen. Das bedeutet, Crush versteht deinen Code auf semantischer Ebene, nicht nur als Text. Dazu kommt volle MCP-Unterstützung (Model Context Protocol) für externe Tools und Services – mehr dazu im Artikel über den Context7 MCP Server.

CYPRESS.IO Ambassador und IT Consultant für QA Engenieering und Qualität in PHP Projekten.

NCA Vibe Coding Consulting

Roland Golla ist Entwickler aus Leidenschaft – seit über 20 Jahren. Er hat hunderte Projekte begleitet, von Legacy-Refactoring bis KI-Integration. Bei Vibe Coding verbindet er das Beste aus beiden Welten: Die Geschwindigkeit von KI-generiertem Code mit der Qualität professioneller Softwareentwicklung. Kein Bullshit, keine Agentur-Floskeln – direkte Hilfe von jemandem, der selbst täglich im Code steckt.

Crush installieren – alle Wege im Überblick

Crush lässt sich auf praktisch jedem System installieren. Die einfachsten Wege je nach Betriebssystem:

  • macOS (Homebrew): brew install charmbracelet/tap/crush
  • npm (plattformübergreifend): npm install -g @charmland/crush
  • Debian/Ubuntu: Via apt-Repository von repo.charm.sh
  • Windows (Winget): winget install charmbracelet.crush
  • Windows (Scoop): scoop install crush
  • Go (aus dem Quellcode): go install github.com/charmbracelet/crush@latest
  • Arch Linux: yay -S crush-bin
  • Nix: nix run github:numtide/nix-ai-tools#crush

Nach der Installation startest du Crush einfach mit crush im Terminal. Beim ersten Start wirst du nach einem API-Key deines bevorzugten Providers gefragt. Alternativ setzt du eine Umgebungsvariable wie ANTHROPIC_API_KEY oder OPENAI_API_KEY – dann startet Crush direkt ohne weitere Konfiguration.

Multi-Model-Support: Welche LLMs unterstützt Crush?

Einer der größten Stärken von Crush ist der breite Provider-Support. Du bist nicht auf einen Anbieter festgelegt – du kannst sogar mitten in einer laufenden Session das Modell wechseln, ohne den Kontext zu verlieren. Das ist ein echter Gamechanger im Vergleich zu Tools, die dich an einen Provider binden.

Unterstützte Provider out-of-the-box:

  • Anthropic – Claude-Modelle (via ANTHROPIC_API_KEY)
  • OpenAI – GPT-4 und neuere Modelle
  • Google Gemini – inkl. Vertex AI
  • Groq – ultraschnelle Inferenz
  • OpenRouter – Aggregator für 100+ Modelle
  • AWS Bedrock – Claude via Amazon-Infrastruktur
  • Azure OpenAI – für Enterprise-Umgebungen
  • Hugging Face – Inference API
  • Cerebras – spezialisierte KI-Hardware
  • Lokal via Ollama oder LM Studio – vollständig offline, DSGVO-konform

Neue Modelle und Provider werden über Catwalk verwaltet – ein community-gepflegtes Open-Source-Repository. Crush aktualisiert die Provider-Liste automatisch im Hintergrund. Wer in air-gapped Umgebungen arbeitet, kann das per Config-Flag deaktivieren. Für Teams mit strikten Datenschutzanforderungen ist der lokale Betrieb via Ollama besonders interessant – kein Datentransfer nach außen, volle Kontrolle.

Crush konfigurieren: crush.json im Detail

Crush funktioniert ohne jede Konfiguration – einfach starten und loslegen. Wer mehr Kontrolle möchte, legt eine crush.json im Projektverzeichnis oder global unter ~/.config/crush/crush.json an. Die Konfiguration folgt einer klaren Priorität: lokale Projektdatei schlägt globale Einstellungen.

Die wichtigsten Konfigurationsbereiche:

  • LSP-Integration: Sprach-Server für Go (gopls), TypeScript, Python, Nix und weitere konfigurieren – Crush nutzt sie genau wie deine IDE für semantisches Code-Verständnis
  • MCP-Server: Externe Tools via stdio, HTTP oder SSE anbinden – Datenbanken, APIs, Git-Hooks, CI-Systeme
  • Custom Provider: Eigene OpenAI-kompatible oder Anthropic-kompatible APIs eintragen inkl. Modell-Metadaten und Kostenangaben
  • Permissions: Welche Tools Crush ohne Nachfragen ausführen darf (z.B. view, ls, grep) – oder mit --yolo Flag alle Prompts überspringen
  • Attribution: Wie Crush in Git-Commits und PRs erwähnt wird – assisted-by, co-authored-by oder gar nicht

Für Teams empfehlen wir, eine .crushignore Datei anzulegen – analog zu .gitignore. So stellt man sicher, dass sensitive Konfigurationsdateien, Secrets oder generierte Dateien nicht in den KI-Kontext fließen. Ein guter erster Schritt für jeden produktiven Einsatz von Crush im Team.

Crush vs. Claude Code vs. OpenCode: Der ehrliche Vergleich

Im Terminal-Agent-Markt hat sich 2026 ein klares Trio herausgebildet: Crush, Claude Code und OpenCode. Alle drei arbeiten im Terminal, alle drei unterstützen MCP – aber mit unterschiedlichen Stärken:

Crush (Charmbracelet) punktet mit der besten Multi-Model-Flexibilität und der ausgereiftesten LSP-Integration. Die Charmbracelet-DNA (bekannt durch Tools wie Bubbletea, Glow, Freeze) sorgt für eine außergewöhnlich polierte Terminal-UX. Crush ist ideal, wenn du keinen Provider-Lock-in willst und häufig zwischen Modellen wechselst.

Claude Code (Anthropic) ist tiefer in das Claude-Ökosystem integriert und glänzt bei komplexen Multi-Step-Coding-Tasks, besonders mit Claude Sonnet und Opus. Für Teams, die primär auf Anthropic setzen, ist der Overhead geringer.

OpenCode positioniert sich als maximale Open-Source-Alternative mit 75+ Providern und aktivster Community-Entwicklung. Der Funktionsumfang wächst schnell, die Reife ist aber noch schwankender als bei Crush.

It's the terminal AI assistant I wanted to build, executed with the level of polish and thoughtfulness that Charm brings to everything they do.

Micah Walter, Developer & Blogger – micahwalter.com

Crush kritisch betrachtet: Wo es noch hakt

Crush ist stark – aber kein Allheilmittel. Wer blind auf den GitHub-Star-Zähler schaut, übersieht wichtige Einschränkungen für den Produktionseinsatz:

  • Lizenz: Crush nutzt FSL-1.1-MIT (Functional Source License). Das bedeutet: kostenlos nutzbar, aber kommerzielle Nutzung in Konkurrenzprodukten ist eingeschränkt. Für interne Entwicklertools kein Problem – aber prüfen lohnt sich.
  • Reife: Mit Version 0.21.0 (Stand Dezember 2025) ist Crush noch pre-1.0. API und Konfigurationsformat können sich ändern.
  • Windows-Support: Läuft via PowerShell und WSL, ist aber primär für Unix-Umgebungen optimiert.
  • Kein integriertes GUI: Wer visuelle Diff-Ansichten oder Datei-Browser gewohnt ist, vermisst diese bei reinen Terminal-Agenten grundsätzlich.
  • Metriken: Crush sammelt pseudonyme Nutzungsmetriken. Opt-out ist möglich via CRUSH_DISABLE_METRICS=1 oder DO_NOT_TRACK=1 – für DSGVO-konforme Umgebungen relevant.

Für Teams, die Crush produktiv einsetzen wollen, empfehlen wir eine klare Onboarding-Strategie: .crushignore definieren, Permission-Regeln festlegen, und einen dedizierten lokalen Provider-Setup für sensitive Projekte aufsetzen. NCA unterstützt bei der Einführung von Vibe Coding Workflows in professionellen Umgebungen.

Häufig gestellte Fragen (FAQ)

Die wichtigsten Fragen zu Crush – dem KI-Coding-Agenten von Charmbracelet – kompakt beantwortet.

Was ist Crush und wofür wird es 2026 eingesetzt?

Crush ist ein Open-Source KI-Coding-Agent für das Terminal, entwickelt von Charmbracelet. Er verbindet dich mit deinem bevorzugten LLM-Anbieter direkt in der Kommandozeile – für Code-Generierung, Refactoring und Debugging ohne GUI. 2026 hat er sich als ernsthafte Alternative zu Claude Code etabliert.

Ist Crush kostenlos nutzbar 2026?

Crush selbst ist kostenlos (Open Source unter FSL-1.1-MIT). Du zahlst nur für die API-Nutzung deines gewählten KI-Providers, also z.B. Anthropic oder OpenAI. Wer lokale Modelle via Ollama nutzt, hat keinerlei laufende Kosten.

Welche LLM-Provider unterstützt Crush 2026?

Crush unterstützt out-of-the-box: Anthropic (Claude), OpenAI, Google Gemini, Groq, OpenRouter, AWS Bedrock, Azure OpenAI, Hugging Face, Cerebras sowie lokale Modelle via Ollama und LM Studio. Jede OpenAI- oder Anthropic-kompatible API lässt sich manuell ergänzen.

Wie unterscheidet sich Crush von Claude Code 2026?

Claude Code ist tiefer ins Anthropic-Ökosystem integriert und stark bei komplexen Multi-Step-Tasks mit Claude Sonnet/Opus. Crush ist provider-agnostisch, bringt ausgefeiltere LSP-Integration und eine polierter Terminal-UX – ideal für Teams, die Flexibilität beim Modellwechsel brauchen.

Läuft Crush unter Windows 2026?

Ja, Crush unterstützt Windows via PowerShell und WSL (Windows Subsystem for Linux). Installierbar über Winget oder Scoop. Die primäre Zielplattform ist Unix, aber der Windows-Support ist funktional und wird aktiv gepflegt.

Was ist LSP-Integration bei Crush und warum ist das wichtig?

LSP steht für Language Server Protocol – die Technologie, die auch VS Code nutzt, um Code semantisch zu verstehen. Crush bindet LSPs wie gopls (Go) oder typescript-language-server direkt ein, wodurch der Agent Code-Struktur, Typen und Abhängigkeiten versteht, statt ihn nur als Text zu behandeln.

Wie konfiguriert man Crush für ein Team?

Die Konfiguration erfolgt via crush.json im Projektverzeichnis oder global unter ~/.config/crush/crush.json. Wichtig für Teams: eine .crushignore-Datei für sensitive Dateien anlegen, Permissions für erlaubte Tools festlegen und bei Bedarf Metrics-Tracking via CRUSH_DISABLE_METRICS=1 deaktivieren.

Ist Crush DSGVO-konform einsetzbar?

Mit lokalen Modellen via Ollama oder LM Studio: ja, vollständig. Kein Datentransfer nach außen. Bei Cloud-Providern gelten die Datenschutzbestimmungen des jeweiligen Anbieters. Crush selbst sammelt pseudonyme Nutzungsmetriken – abschaltbar via CRUSH_DISABLE_METRICS=1 oder DO_NOT_TRACK=1.

Was sind MCP-Server in Crush und wie richtet man sie ein?

MCP-Server (Model Context Protocol) erlauben es Crush, externe Tools und Services zu nutzen – z.B. Datenbanken, APIs oder CI-Systeme. Die Einbindung erfolgt in der crush.json unter dem mcp-Schlüssel via stdio, HTTP oder SSE-Transport. Drei Zeilen Konfiguration genügen für den Start.

Kann Crush mit lokalen Modellen ohne Internetverbindung genutzt werden?

Ja. Mit Ollama oder LM Studio als lokaler Provider läuft Crush vollständig offline. Nützlich für air-gapped Umgebungen, DSGVO-kritische Projekte oder schlicht wenn man keine API-Kosten haben möchte. Die Konfiguration erfolgt über einen openai-compat Provider-Eintrag in der crush.json.

Welche Lizenz hat Crush und darf man es kommerziell nutzen?

Crush nutzt die FSL-1.1-MIT (Functional Source License). Interne Nutzung und Entwicklung mit Crush ist unbeschränkt möglich. Einschränkungen gelten nur für konkurrierende kommerzielle Softwareprodukte – was für die allermeisten Entwicklerteams kein Thema ist.

Wie initialisiert man ein Projekt mit Crush?

Mit dem Befehl crush init analysiert Crush dein Projekt und erstellt eine AGENTS.md-Datei mit Kontext zu Build-Befehlen, Code-Konventionen und Projektstruktur. Diese Datei hilft dem Agenten in zukünftigen Sessions und kann im Team geteilt werden.