NCA Social Media
Browser Fenster mit LangChain Schriftzug und Rakete als Agent Framework Header

Was ist LangChain?

LangChain ist ein Open Source Framework für die Entwicklung von Anwendungen mit Large Language Models. Es bietet standardisierte Schnittstellen zu Modellen, Vector Stores, Tools und APIs, die sich zu mehrschrittigen Pipelines, Agents und RAG Systemen kombinieren lassen. Das Projekt zählt über 100.000 GitHub Stars und gilt als das am weitesten verbreitete Framework für LLM Anwendungen.

LangChain wurde von Harrison Chase gegründet und im Oktober 2025 mit Version 1.0 stabilisiert. Heute ist das Framework Teil einer ganzen Suite: LangGraph übernimmt graphbasierte Agent Orchestrierung mit Persistierung, LangSmith liefert Tracing, Evaluation und Observability, LangSmith Deployment betreibt langlaufende Agents in Production. Über 1000 Integrationen verbinden das Framework mit nahezu jedem LLM Provider, Vector Store und externen API.

Das Herzstück von LangChain Version 1 ist die LangChain Expression Language LCEL. Statt Klassen wie LLMChain oder SequentialChain zu instanziieren, schreiben Entwickler ihre Pipelines als Pipe Syntax: prompt | llm | parser. Dieser Stil unterstützt automatisch Streaming, Async, Batching und LangSmith Tracing ohne Boilerplate. Die alten Chain Klassen sind in v1.x deprecated.

LangChain mit NCA: Einordnung vom Experten

NCA berät Teams seit Jahren beim Aufbau lokaler, DSGVO konformer KI Stacks. Wir setzen täglich auf Ollama mit Qwen und Llama für lokale Inferenz, kennen die führenden Agent Frameworks aus Beratungsprojekten und Recherche und haben eine klare Open Source DNA. Unsere Server stehen in Duisburg, nicht in Virginia, und wir bauen Vibe Coding Consulting Lösungen so, dass Kundendaten das eigene Rechenzentrum nie verlassen.

Bei LangChain helfen wir Teams beim Einordnen: Wann lohnt sich LCEL für eine Pipeline, wann besser LangGraph für komplexe Agents, wann reicht das passendere LlamaIndex für reine Dokumenten Pipelines. Für lokale Setups mit Open WebUI und multilingual-e5-large ordnen wir die Architektur sauber ein. PHP Teams binden den Stack über Symfony AI Mate oder den Web MCP Layer ein. Begleitend bieten wir Vibe Coding Best Practices Workshops für interne Teams.

Lass uns sprechen

Finde das passende Angebot für dein Projekt

🤖

Hey! Ich bin CodeBot. Lass uns herausfinden, wie wir dein Projekt zum Fliegen bringen.

Was soll entstehen?

Wie LangChain funktioniert: Die vier Phasen einer LLM Anwendung

LangChain strukturiert eine LLM Anwendung in vier klar abgegrenzte Phasen. Wer das Modell verstanden hat, kann jede beliebige Aufgabe vom einfachen Chat Prompt bis zum autonomen Agent in produktionsfähige Architektur übersetzen.

Phase 1: Prompt. Prompt Templates kapseln die Anweisung an das LLM und nehmen variable Eingaben über benannte Platzhalter entgegen. Sie machen Prompts wiederverwendbar, testbar und versionierbar. Modellspezifische Eigenheiten wie Anthropic XML Tags oder OpenAI System Roles werden über das einheitliche Chat Model Interface gekapselt, sodass Anbieter mit einem Zeilen Wechsel austauschbar sind.

Phase 2: Chain. Über die LCEL Pipe Syntax werden Prompt, Modell und Output Parser zu einer ausführbaren Pipeline verbunden. LCEL bringt Streaming, Async und Batching von Haus aus mit und liefert in Kombination mit LangSmith volle Observability. Komplexere Chains kombinieren Retrieval aus Vector Stores, mehrere Modelle in Sequenz und Branching Logic über RunnableBranch und RunnableLambda.

Phase 3: Agent. Wenn die Pipeline nicht linear vorgegeben werden kann, übernehmen Agents. Die create_agent API liefert ein erprobtes ReAct Pattern auf der LangGraph Runtime. Der Agent entscheidet zur Laufzeit, welches Tool aus dem Toolkit gerade gebraucht wird, ruft es auf, verarbeitet das Ergebnis und führt den Loop fort, bis die Aufgabe gelöst ist. Tools werden über den @tool Dekorator und Pydantic Schemas definiert.

Phase 4: Deploy. LangSmith Deployment betreibt LangChain und LangGraph Anwendungen mit Persistierung, Checkpointing, Streaming und Human in the Loop Support. Die Runtime ist auf langlaufende Agents ausgelegt, die asynchron mit Menschen und anderen Agents zusammenarbeiten. Wer auf eigener Infrastruktur deployen will, nutzt LangServe oder rollt die LangGraph Server Komponente in einem eigenen Container aus.

Phase Was passiert Geeignete Komponenten
1. Prompt Anweisung an das LLM mit variablen Platzhaltern kapseln PromptTemplate, ChatPromptTemplate, init_chat_model
2. Chain LCEL Pipeline mit Streaming, Async und Batching prompt | llm | parser, RunnablePassthrough, RunnableBranch
3. Agent Tool Auswahl zur Laufzeit, ReAct Loop, branching Logic create_agent, @tool, LangGraph Runtime, Toolkits
4. Deploy Persistierung, Checkpointing, Human in the Loop LangSmith Deployment, LangServe, eigener Container
Bar Chart Infografik LangChain Stages PROMPT CHAIN AGENT DEPLOY mit Rakete

LangChain DSGVO konform betreiben: LCEL Pipeline mit Ollama

Der typische LangChain Tutorial Code beginnt mit einem OpenAI API Key. Für deutsche Kunden ist das in vielen Fällen keine Option. Ein DSGVO konformer Aufbau kommt ohne US Cloud Provider aus: Ollama als lokaler LLM Server, ein quelloffenes Embedding Modell wie multilingual-e5-large über HuggingFace und LangChain als Glue Layer dazwischen.

Die Installation geht über pip, das Setup ist mit wenigen Zeilen erledigt:

Code:
          

# LangChain Core plus Provider Pakete
pip install langchain
pip install langchain-ollama
pip install langchain-huggingface
pip install langchain-chroma

Eine minimale LCEL Pipeline mit Ollama, die einen Prompt entgegennimmt und eine strukturierte Antwort liefert, sieht so aus:

Code:
          

from langchain.chat_models import init_chat_model
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser

# Lokales Modell ueber Ollama laden
llm = init_chat_model("ollama:qwen2.5:14b")

# Prompt Template definieren
prompt = ChatPromptTemplate.from_messages([
    ("system", "Du bist ein praeziser DSGVO Experte."),
    ("user", "{frage}"),
])

# LCEL Pipeline mit Pipe Syntax
chain = prompt | llm | StrOutputParser()

# Pipeline ausfuehren
antwort = chain.invoke({"frage": "Was sagt Art. 32 DSGVO zu KI Systemen?"})
print(antwort)

Diese Pipeline läuft komplett auf einem eigenen Server. Keine Tokens werden an OpenAI gesendet, keine Daten verlassen das Rechenzentrum. Über das standardisierte Chat Model Interface lässt sich der Provider durch eine einzige Zeile Änderung gegen Anthropic, Google oder einen anderen OpenAI kompatiblen Endpoint austauschen.

Die LangChain Suite: Wie LangChain, LangGraph und LangSmith zusammenspielen

LangChain ist 2026 nicht mehr ein einzelnes Framework, sondern eine Suite aus drei Komponenten, die unterschiedliche Probleme im Lebenszyklus einer LLM Anwendung lösen.

LangChain ist die High Level Schicht für Chains, Prompts, Modelle und Retrieval. Wer schnell einen RAG Chatbot oder eine Pipeline aus Prompt plus LLM plus Parser bauen will, ist hier richtig. Die LCEL Pipe Syntax macht aus mehrschrittigen Pipelines eine kompakte, gut lesbare Definition.

LangGraph ist die Low Level Orchestrierungs Engine darunter. LangChain Agents laufen intern auf der LangGraph Runtime. Wer komplexe State Machines, deterministisches plus agentisches Verhalten in einem Workflow oder Multi Agent Szenarien braucht, schreibt direkt LangGraph Code. Die durable Runtime liefert Persistierung, Streaming, Rewind und Human in the Loop von Haus aus.

LangSmith deckt Observability und Evaluation ab. Tracing zeigt jeden Agent Schritt mit Input, Output und Latenz, Production Traces lassen sich in Test Cases verwandeln, Evaluator scoren Agent Verhalten automatisiert oder mit menschlichem Review. LangSmith funktioniert auch mit Frameworks außerhalb von LangChain über die SDK Integration.

Für die Production Phase ergänzt LangSmith Deployment einen Agent Server mit Memory, Conversational Threads und durable Checkpointing. Die Infrastruktur ist auf langlaufende, asynchron arbeitende Agents ausgelegt, die mit Menschen und anderen Agents kollaborieren.

LangChain vs LlamaIndex: Wofür welches Framework?

Die beiden Frameworks dominieren die LLM App Landschaft, sind aber unterschiedlich geschnitten. Wer die Entscheidung früh richtig trifft, spart sich Refactorings im weiteren Projektverlauf.

LangChain ist generisch aufgestellt und positioniert sich als Orchestrierungs Framework für LLM Anwendungen jeder Art. Wer Agents mit komplexer Verzweigungslogik, Tool Calling, externen API Integrationen oder mehrschrittigen Pipelines mit Branching baut, findet hier die größere Werkzeugkiste. Die 1000+ Integrationen decken nahezu jeden LLM Provider, Vector Store und Tool Endpoint ab.

LlamaIndex ist auf eine Disziplin spezialisiert: hochwertige Dokumenten Pipelines. Wer große Mengen an PDFs, Office Dateien, technischer Dokumentation oder strukturierten Daten zugänglich machen will, findet hier ausgereifte Indexing Strategien, eine starke OCR Schicht über LlamaParse und durchdachte Query Engines mit Reranking.

In der Praxis schließen sich beide Frameworks nicht aus. Eine bewährte Architektur kombiniert LlamaIndex für Ingestion und Retrieval mit LangGraph für die agentenbasierte Entscheidungslogik darüber. Diese saubere Trennung von Datenschicht und Orchestrierung erleichtert Wartung und macht es einfacher, Komponenten später zu tauschen.

Typische Use Cases für LangChain

LangChain zeigt seine Stärken überall dort, wo eine LLM Anwendung über einen einzelnen Prompt hinausgeht. Vier Anwendungsfälle dominieren die Beratungsprojekte 2026.

Agentic Customer Support. Ein Agent erhält Zugriff auf Knowledge Base, CRM, Ticket System und interne APIs. Statt feste Antworten zu liefern, entscheidet er pro Anfrage, welche Tools er nutzt, eskaliert bei Unklarheit an den Menschen und protokolliert jede Entscheidung in LangSmith. C.H. Robinson hat nach eigenen Angaben über LangSmith täglich 5500 Bestellungen automatisiert und mehr als 600 Stunden pro Tag eingespart.

RAG Chatbots mit Branching Logic. Wenn der Bot je nach Frage unterschiedliche Datenquellen, Vector Stores oder Modell Konfigurationen ansprechen muss, bringt LCEL mit RunnableBranch das passende Konstrukt mit. Für die reine Dokumenten Indexierung lässt sich LlamaIndex sauber dahinter klemmen.

Workflow Automatisierung mit Tool Use. Vom Recherche Agent, der Web Suche, Datenbank und LLM kombiniert, bis zum Code Review Agent, der GitHub API, statische Analyse und LLM Bewertung sequenziell durchläuft. Der @tool Dekorator macht aus jeder Python Funktion ein für Agents nutzbares Tool, Pydantic Schemas validieren die Inputs.

Long Running Agents. LangSmith Deployment liefert die Runtime für Agents, die nicht nach einer Sekunde antworten, sondern Stunden oder Tage in einem Workflow stecken. Persistierung, Checkpointing und Human in the Loop sind eingebaut. Damit lassen sich klassische Knowledge Work Aufgaben wie Vertragsanalyse, Recherche oder Reporting durchgängig automatisieren.

When agents mess up, they mess up because they don't have the right context; when they succeed, they succeed because they have the right context.

Harrison Chase, Co-Founder und CEO LangChain – VentureBeat Podcast Beyond the Pilot

Was bei LangChain Projekten zählt: Drei Muster aus der Agent Praxis

Drei Muster entscheiden in Agent Projekten regelmäßig über Erfolg und Misserfolg, unabhängig vom gewählten Framework. Sie haben weniger mit dem Tool selbst zu tun als mit der Architektur drumherum.

Context Engineering ist die Hauptdisziplin. Harrison Chase sagt es selbst: Agents scheitern, weil sie nicht den richtigen Kontext sehen. Wer einen Agent baut, sollte sich vor allem fragen, welche Tools, Systemprompts und Zustandsinformationen das Modell zur Laufzeit wirklich braucht. Tracing über LangSmith ist dabei kein Nice to have, sondern die Grundlage jeder Verbesserung. Genau hier setzen Vibe Coding Best Practices Workshops mit konkreten Patterns an.

LCEL für linear, LangGraph für branching. Eine bewährte Faustregel: Solange die Pipeline linear ist und keine Schleifen braucht, reicht LCEL. Sobald Bedingungen, Loops oder mehrere Agents zusammenspielen, lohnt der Sprung zu LangGraph. Wer beides mischt, ohne sich der Grenzen bewusst zu sein, baut sich oft schwer wartbaren Code.

Eval Set vor Production. Ohne messbare Agent Qualität tappen Teams im Dunkeln. Sinnvoll ist es, ab dem ersten Prototyp ein kleines Eval Set mit echten Kundenfragen zu pflegen und nach jeder Änderung an Prompt, Tools oder Modellauswahl zu messen. So fällt eine vermeintlich kleine Anpassung nicht erst in Production auf.

NCA berät Teams beim Auswahlprozess: Wir helfen einzuordnen, ob LangChain mit LCEL und Agents zu den Anforderungen passt, ob ein Custom LangGraph für die Use Cases sinnvoller ist, oder ob das Projekt eher bei LlamaIndex für reines Document Retrieval besser aufgehoben wäre. Im Vibe Coding Consulting begleiten wir Architektur Entscheidungen und die Anbindung an bestehende Symfony Anwendungen über Symfony AI Mate.

CYPRESS.IO Ambassador und IT Consultant für QA Engenieering und Qualität in PHP Projekten.

NCA Vibe Coding Consulting

Roland Golla ist Entwickler aus Leidenschaft – seit über 20 Jahren. Er hat hunderte Projekte begleitet, von Legacy-Refactoring bis KI-Integration. Bei Vibe Coding verbindet er das Beste aus beiden Welten: Die Geschwindigkeit von KI-generiertem Code mit der Qualität professioneller Softwareentwicklung. Kein Bullshit, keine Agentur-Floskeln – direkte Hilfe von jemandem, der selbst täglich im Code steckt.

Häufige Fragen zu LangChain

Diese Fragen kommen in Beratungsterminen zu LangChain am häufigsten auf.

Was kostet LangChain 2026?

Das Open Source Framework selbst ist unter MIT Lizenz kostenlos nutzbar. Kosten entstehen durch die genutzten LLMs (Tokens bei OpenAI, Anthropic, Google), Vector Stores und optional LangSmith für Observability. Wer komplett auf Open Source und lokalen Betrieb mit Ollama setzt, zahlt nur für die Server.

Was ist LCEL bei LangChain 2026?

LCEL steht für LangChain Expression Language und ist die deklarative Pipe Syntax, die mit Version 1.0 zum Standard wurde. Statt Klassen wie LLMChain zu instanziieren, schreibt man Pipelines als prompt | llm | parser. LCEL bringt Streaming, Async, Batching und Tracing automatisch mit.

Welche LLMs unterstützt LangChain 2026?

Über das standardisierte Chat Model Interface lassen sich Anthropic, OpenAI, Google, Mistral, Cohere, Ollama und alle OpenAI kompatiblen Endpoints anbinden. Provider werden über init_chat_model dynamisch geladen und sind mit einer Zeilen Änderung austauschbar.

Wie unterscheidet sich LangChain von LangGraph 2026?

LangChain ist die High Level Schicht für Chains, Prompts und einfache Agents. LangGraph ist die Low Level Orchestrierungs Engine darunter und übernimmt komplexe State Machines, Branching, Schleifen und Multi Agent Setups. LangChain Agents laufen intern auf der LangGraph Runtime.

Brauche ich LangChain für RAG Anwendungen 2026?

Nicht zwingend. Für reine Dokumenten Pipelines mit Indexing und Retrieval ist LlamaIndex oft das passendere Werkzeug. LangChain spielt seine Stärken aus, sobald Agent Logic, Tool Use oder Branching dazu kommen. Viele Production Stacks kombinieren beide Frameworks.

Wie unterscheidet sich LangChain von LlamaIndex?

LangChain ist generisch und positioniert sich als Orchestrierungs Framework für LLM Anwendungen mit dem größten Ökosystem aus 1000+ Integrationen. LlamaIndex spezialisiert sich auf Document Pipelines und Retrieval mit ausgereiften Indexing Strategien. In der Praxis kombinieren viele Teams beide Tools.

Was sind LangSmith und LangServe?

LangSmith ist die Observability und Evaluation Plattform: Tracing, Test Cases aus Production Traces, automatisierte Evaluator. LangSmith Deployment betreibt langlaufende Agents mit Persistierung und Human in the Loop. LangServe ist die ältere Self Hosted Komponente für FastAPI basierte Endpunkte und wird mehr und mehr durch LangSmith Deployment ersetzt.

Funktioniert LangChain auch ohne OpenAI?

Ja, vollständig. LangChain hat Provider Pakete für Anthropic, Google, Mistral, Ollama, HuggingFace, llama.cpp und beliebige OpenAI kompatible Endpoints. Embedding Modelle laufen lokal über HuggingFace oder kommerziell über Voyage AI, Cohere und andere.

Wie sicher ist LangChain für Enterprise Daten?

Die Sicherheit hängt vom Setup ab. Bei rein lokalem Betrieb mit Ollama, lokalem Vector Store und Open Source Embeddings verlassen keine Daten den eigenen Server. Bei Cloud LLMs wandern Anfragen und Kontext an den jeweiligen Anbieter, der jeweilige DPA gilt. LangSmith bietet eine Self Hosted Variante für regulierte Branchen.

Was sind Deep Agents?

Deep Agents ist LangChains Antwort auf den Trend langlaufender Agents. Es handelt sich um eine konfigurierbare General Purpose Harness mit Planung, virtuellem Filesystem, Token Management, Code Execution und Subagent Delegation. Aufgesetzt auf LangChain und LangGraph, mit Skills und Memory Funktionen ausgestattet.

Welche Programmiersprachen werden unterstützt?

LangChain bietet vollwertige SDKs für Python und TypeScript. LangSmith ergänzt zusätzlich Go und Java für Tracing in nicht Python Stacks. Andere Sprachen können das Framework über die OpenAI kompatible API von LangSmith Deployment ansprechen.

Wie integriere ich LangChain mit Symfony oder PHP?

Direkte PHP SDKs gibt es nicht, weil LangChain Python und TypeScript fokussiert. PHP Anwendungen sprechen LangChain Endpoints in der Praxis über REST APIs an, die als LangSmith Deployment oder eigener FastAPI Container bereitgestellt werden. Symfony AI Mate liefert dafür einen sauberen MCP Layer.

Claude Cowork

Was ist Claude Cowork 2026? Der KI-Agent von Anthropic für Desktop-Automatisierung. Funktionen, Anwendungsfälle und Einschränkungen im Überblick.

Google Antigravity

Google Antigravity 2026: Die revolutionäre Agent-First IDE mit autonomen KI-Agenten. Powered by Gemini 3 Pro. Kostenlos für Entwickler. Installation, Features und Vergleich.

MoltBot (ClawdBot)

MoltBot heißt mittlerweile OpenClaw und hat über 247.000 GitHub Stars. Der virale Open Source KI Agent im Überblick: Funktionen, Versionen, Sicherheit.

OpenClaw – Der autonome KI-Agent

OpenClaw ist ein autonomer KI-Agent mit 100.000+ GitHub Stars. Ursprünglich ClawdBot, dann MoltBot – jetzt OpenClaw. Messaging-Integration, Skills-System und Sicherheitsrisiken erklärt.