Claude Code: Anthropics Terminal-Agent für Vibe Coding mit MCP und Subagenten
Claude Code im Entwickler-Check: Terminal-Agent mit Git-Integration, MCP-Support und Subagenten. Installation, Kosten, CLAUDE.md und Praxis-Tipps 2026.
Mehr erfahren
Repo Prompt ist eine native macOS-Applikation für Context Engineering beim KI-gestützten Coding. Das Tool ermöglicht Entwicklern, gezielt Dateien und Ordner aus ihrem Repository auszuwählen und daraus strukturierte, token-optimierte Prompts für KI-Modelle wie Claude, GPT-5, Gemini oder DeepSeek zu erstellen.
Entwickelt von Eric Provencher aus Quebec, Kanada (ehemaliger Senior Research Engineer bei Unity Labs), startete Repo Prompt Ende 2024 als Nebenprojekt während der Elternzeit. Innerhalb eines Jahres erreichte das Tool einen fünfstelligen monatlichen Umsatz und hat sich als feste Größe im Vibe Coding Ökosystem etabliert. Die Firma Repo Prompt Inc. ist seit 2025 eigenständig aktiv.
Der zentrale Ansatz: Statt einer kompletten Codebase blind an ein KI-Modell zu senden, gibt Repo Prompt dem Entwickler präzise Kontrolle über den Kontext. Durch visuelle Dateiauswahl, intelligente Code Maps und automatische Token-Schätzung wird genau der richtige Kontext zusammengestellt, bevor die KI überhaupt eine Zeile Code generiert. Änderungen werden erst nach manuellem Review auf die Festplatte geschrieben.
Roland Golla ist Entwickler aus Leidenschaft – seit über 20 Jahren. Er hat hunderte Projekte begleitet, von Legacy-Refactoring bis KI-Integration. Bei Vibe Coding verbindet er das Beste aus beiden Welten: Die Geschwindigkeit von KI-generiertem Code mit der Qualität professioneller Softwareentwicklung. Kein Bullshit, keine Agentur-Floskeln – direkte Hilfe von jemandem, der selbst täglich im Code steckt.
Repo Prompt bietet eine Reihe von Werkzeugen, die den Workflow zwischen lokaler Codebase und KI-Modell deutlich verbessern:
Zusätzlich bietet Repo Prompt Presets zum schnellen Wechsel zwischen Dateisätzen, Workspaces für mehrere Repositories gleichzeitig und Stored Prompts für wiederverwendbare Prompt-Vorlagen. Die kostenlose Version umfasst den Clipboard-Workflow mit 32.000 Tokens. Die Pro-Version entfernt Token-Limits und schaltet alle Features frei.
Claude Code im Entwickler-Check: Terminal-Agent mit Git-Integration, MCP-Support und Subagenten. Installation, Kosten, CLAUDE.md und Praxis-Tipps 2026.
Mehr erfahrenEines der stärksten Alleinstellungsmerkmale von Repo Prompt ist die vollständige MCP-Server-Funktionalität (Model Context Protocol). Das Tool fungiert nicht nur als eigenständige App, sondern auch als Backend für externe KI-Editoren wie Claude Code, Claude Desktop und Cursor.
Durch die MCP-Integration können Entwickler eine Konversation in Claude Desktop starten und nahtlos in Cursor fortsetzen, ohne den Kontext zu verlieren. Repo Prompt stellt dafür über 15 spezialisierte Tools bereit, die Dateioperationen, Kontextmanagement und Workflow-Automatisierung abdecken.
Mit Version 2.0 wurde diese Integration noch weiter ausgebaut: Der integrierte Agent nutzt die MCP-Tools automatisch und kombiniert sie mit dem Context Builder. Laut Gründer Eric Provencher ist der Grund, warum MCP Pair Programming mit Claude so gut funktioniert, der präzise Kontext: Repo Prompt verwaltet den Aufgabenkontext effektiver als ein einfacher Agent-Thread.
Der Begriff Context Engineering beschreibt die gezielte Auswahl und Strukturierung von Informationen, die ein KI-Modell benötigt, um qualitativ hochwertige Ergebnisse zu liefern. Repo Prompt hat dieses Konzept zu seinem Kern gemacht und positioniert sich explizit als Context Engineering Toolbox.
Der typische Workflow sieht so aus:
Dieser kontrollierte Ansatz steht im Kontrast zu Vibe Coding-Workflows, bei denen oft die gesamte Codebase ungefiltert an ein KI-Modell gesendet wird. Repo Prompt spart dadurch nicht nur Tokens und Kosten, sondern verbessert auch die Qualität der KI-Ausgaben erheblich, weil irrelevanter Kontext die Aufmerksamkeit des Modells nicht ablenkt.
Im Vergleich mit anderen KI-Coding-Tools nimmt Repo Prompt eine besondere Nische ein. Während Cursor eine vollständige IDE mit integrierter KI ist und Claude Code als Terminal-Agent arbeitet, fokussiert sich Repo Prompt auf eine einzige Aufgabe: den bestmöglichen Kontext für jedes KI-Modell zusammenstellen.
Repo Prompt vs. Cursor: Cursor ist eine VS-Code-basierte IDE mit eigenem KI-Backend. Repo Prompt arbeitet modellunabhängig und lässt sich mit bestehenden Subscriptions (ChatGPT, Claude, Gemini) nutzen, ohne zusätzliche API-Kosten. In Benchmarks zeigt Repo Prompt laut eigenen Angaben eine höhere Token-Effizienz bei großen Codebases.
Repo Prompt vs. Claude Code: Claude Code ist Anthropics eigener Terminal-Agent, der autonom Dateien lesen, schreiben und Befehle ausführen kann. Repo Prompt ergänzt Claude Code ideal als MCP-Server: Es liefert den präzisen Kontext, während Claude Code die Ausführung übernimmt. Viele Power-User kombinieren beide Tools.
Repo Prompt vs. Repomix: Repomix (Open Source, CLI) packt ein komplettes Repository in eine einzelne KI-freundliche Datei. Repo Prompt bietet dagegen eine grafische Oberfläche mit selektiver Dateiauswahl, Code Maps und Apply Mode. Repomix ist kostenlos und plattformübergreifend, Repo Prompt bietet mehr Kontrolle und Komfort auf macOS.
The reason MCP pair programming with Claude works so well is context. The Repo Prompt chat is just much more effective at managing task context than an agent thread.
Repo Prompt löst ein echtes Problem: Die meisten KI-Coding-Tools kämpfen mit der Frage, wie viel Kontext ein Modell braucht. Zu wenig Kontext führt zu fehlerhaftem Code, zu viel verschwendet Tokens und verwirrt das Modell. Repo Prompts visueller Ansatz mit Context Builder und Code Maps ist hier ein klarer Fortschritt gegenüber dem manuellen Copy-Paste von Dateien.
Die größte Einschränkung ist die Plattformbindung an macOS. Windows- und Linux-Entwickler können das Tool aktuell nicht nutzen, obwohl eine Waitlist existiert. Für Teams mit gemischten Betriebssystemen ist das ein echtes Hindernis. Alternativen wie Repomix (CLI, plattformübergreifend) oder die nativen Kontextfunktionen von Cursor und Claude Code decken ähnliche Bedürfnisse ab.
Weitere Punkte zur Einordnung:
Für NCA-Kunden ist Repo Prompt besonders relevant, wenn sie bereits mit Claude Code oder Cursor arbeiten und ihren Kontext-Workflow professionalisieren möchten. Die MCP-Integration macht es zum idealen Bindeglied zwischen verschiedenen KI-Coding-Tools. Wer Unterstützung bei der Integration von KI-Coding-Workflows in bestehende Entwicklungsprozesse braucht, findet bei NCA erfahrene Berater für Vibe Coding Consulting.
Die wichtigsten Fragen und Antworten zu Repo Prompt, Context Engineering und der Integration in bestehende Entwicklungsworkflows.
Repo Prompt ist eine native macOS-App für Context Engineering beim KI-gestützten Coding. Entwickler nutzen es, um gezielt Dateien aus ihrem Repository auszuwählen und daraus strukturierte Prompts für KI-Modelle wie Claude, GPT-5 oder Gemini zu erstellen. Das Tool optimiert den Kontext und spart Tokens.
Repo Prompt unterstützt alle gängigen KI-Anbieter: OpenAI (GPT-5, o3), Anthropic (Claude), Google Gemini, DeepSeek, Azure OpenAI und OpenRouter. Zusätzlich können lokale Modelle über Ollama eingebunden werden. Die Nutzung erfolgt über eigene API-Keys oder bestehende Subscriptions.
Repo Prompt bietet eine kostenlose Version mit Clipboard-Workflow und einem Limit von 32.000 Tokens. Für unbegrenzte Token-Nutzung und alle Pro-Features wie den Context Builder und erweiterte MCP-Tools gibt es kostenpflichtige Pläne. Zusätzlich fallen API-Kosten beim jeweiligen KI-Anbieter an.
Repo Prompt fungiert als MCP-Server (Model Context Protocol) und stellt über 15 spezialisierte Tools bereit. Damit können KI-Editoren wie Claude Desktop, Cursor oder Claude Code auf Repo Prompts Kontextmanagement zugreifen. Eine Konversation kann nahtlos zwischen verschiedenen Tools fortgesetzt werden.
Nein, Repo Prompt ist aktuell exklusiv für macOS verfügbar und für Apple Silicon optimiert. Für Windows und Linux existiert eine Waitlist. Als plattformübergreifende Alternative bietet sich das Open-Source-CLI-Tool Repomix an, das ähnliche Funktionen ohne grafische Oberfläche bietet.
Context Engineering bezeichnet die gezielte Auswahl und Strukturierung von Code-Kontext für KI-Modelle. Statt eine komplette Codebase an das Modell zu senden, werden nur die relevanten Dateien und Strukturinformationen zusammengestellt. Das verbessert die Qualität der KI-Ausgaben und spart Tokens und Kosten.
Cursor ist eine vollständige IDE mit integrierter KI, während Repo Prompt ein spezialisiertes Kontext-Tool ist. Repo Prompt arbeitet modellunabhängig mit bestehenden Subscriptions und bietet höhere Token-Effizienz bei großen Codebases. Cursor bietet dagegen eine integrierte Entwicklungsumgebung mit eigenem KI-Backend.
Ja, Repo Prompt und Claude Code ergänzen sich ideal. Repo Prompt liefert als MCP-Server den präzisen Kontext, während Claude Code als Terminal-Agent die Ausführung übernimmt. Viele Power-User nutzen dieses Pair-Programming-Setup für komplexe Refactoring- und Architekturaufgaben.
Alle Verarbeitung erfolgt lokal auf dem Mac. Code wird nur an KI-Provider gesendet, wenn der Nutzer dies explizit auslöst. Es gibt keine serverseitige Speicherung von Code durch Repo Prompt selbst. Die Datenschutzerklärung wird von Gründer Eric Provencher als Privacy Officer verantwortet.
Der Context Builder ist eine KI-gestützte Funktion, die automatisch relevante Dateien für eine bestimmte Aufgabe identifiziert und vorschlägt. Er analysiert die Projektstruktur und stellt mit einem Klick den optimalen Kontext für ein vorgegebenes Token-Budget zusammen.
Repo Prompt selbst verarbeitet Code ausschließlich lokal. Die DSGVO-Konformität hängt vom gewählten KI-Provider ab. Bei Nutzung lokaler Modelle über Ollama verlassen keine Daten den Rechner. Bei Cloud-Providern gelten deren jeweilige Datenschutzbestimmungen, was bei europäischen Unternehmen geprüft werden sollte.
Repo Prompt wurde von Eric Provencher aus Quebec, Kanada, entwickelt. Er war zuvor Senior Research Engineer bei Unity Labs im Bereich XR Interaction und Microsoft Mixed Reality MVP. Das Tool entstand Ende 2024 als Nebenprojekt und ist seit 2025 als Repo Prompt Inc. eigenständig aktiv.
Claude Code im Entwickler-Check: Terminal-Agent mit Git-Integration, MCP-Support und Subagenten. Installation, Kosten, CLAUDE.md und Praxis-Tipps 2026.
Claude Code Security scannt Codebasen auf Sicherheitslücken und schlägt Patches vor. Funktionen, Risiken & Best Practices für Enterprise-Teams 2026.
Context7 MCP Server von Upstash: Aktuelle Library-Dokumentation direkt im LLM-Kontext. Setup für Claude Code, Cursor und Windsurf. Pricing, Praxis-Tipps und Alternativen.
Crush von Charmbracelet: Open-Source KI-Coding-Agent fürs Terminal. Multi-Model, LSP-Support, MCP-Integration. Installation, Konfiguration und Praxistipps.
Cursor BugBot ist der KI-Debugging-Agent für Vibe Coding. Über 2 Mio. PRs/Monat, 70 % Resolution Rate. Wie er funktioniert und wann er hilft.
DeepSeek Coder, V3, R1 und V4: Chinas Open-Source KI-Modelle für Coding im Überblick. Benchmarks, DSGVO-Risiken, Self-Hosting und Praxis-Einordnung 2026.
GLM-5 von Zhipu AI im Business-Check: 744B Parameter, MIT-Lizenz, 5-8× günstiger als Claude. Kosten, Benchmarks und Einsatzszenarien für Unternehmen 2026.
MiniMax M2.5: 230B-Parameter-MoE-Modell erreicht 80,2% auf SWE-bench zu 1/20 der Kosten von Claude Opus. Benchmarks, API-Zugang und DSGVO-Analyse.
Mistral Vibe ist Europas terminal-nativer KI-Coding-Agent. Devstral 2, Open-Source CLI, EU-Datenschutz. Jetzt Vibe 2.0 kennenlernen.
OpenCode im Praxistest: Open-Source-Alternative zu Claude Code mit 100K GitHub Stars. Kein Provider-Lock-in, 75+ LLM-Anbieter, MCP-Integration. Lohnt es sich?
Qwen3-Coder: Open-Weight Coding Agent, 70,6% SWE-bench, 256K Kontext, läuft lokal via Ollama. Integration mit OpenCode und Claude Code – ohne API-Kosten.