AGI: Artificial General Intelligence erklärt
AGI (Artificial General Intelligence) bezeichnet KI-Systeme mit menschenähnlicher Intelligenz. Definition, aktueller Stand, Kontroversen und was AGI für Entwickler bedeutet.
Mehr erfahren
Das Karpathy LLM Wiki steht stellvertretend für das gesamte Lehr- und Forschungswerk von Andrej Karpathy rund um Large Language Models. Karpathy war Gründungsmitglied von OpenAI, Director of AI bei Tesla und ist heute einer der einflussreichsten Lehrenden im Bereich KI weltweit. Sein GitHub, sein Blog und sein YouTube-Kanal bilden zusammen ein praxisnahes Wiki für jeden, der LLMs wirklich verstehen will.
Anders als abstrakte Paper zeigen Karpathys Ressourcen, wie LLMs von Grund auf funktionieren: von der Tokenisierung über das Training mit Backpropagation bis zur Skalierung auf Milliarden von Parametern. Das Konzept folgt einem einfachen Prinzip: "If I can't build it, I don't understand it." Entwickler, die diese Philosophie verinnerlichen, werden zu deutlich besseren Vibe Codern und KI-Integratoren.
Für Teams, die eigene autonome KI-Agenten entwickeln oder lokale Modelle mit Ollama betreiben wollen, sind Karpathys Grundlagenprojekte der ideale Einstieg. Bei NCA setzen wir diese Prinzipien täglich in der Beratung ein.
Roland Golla ist Entwickler aus Leidenschaft – seit über 20 Jahren. Er hat hunderte Projekte begleitet, von Legacy-Refactoring bis KI-Integration. Bei Vibe Coding verbindet er das Beste aus beiden Welten: Die Geschwindigkeit von KI-generiertem Code mit der Qualität professioneller Softwareentwicklung. Kein Bullshit, keine Agentur-Floskeln – direkte Hilfe von jemandem, der selbst täglich im Code steckt.
Karpathys GitHub ist eine der wertvollsten Open-Source-Ressourcen für LLM-Entwickler. Die bekanntesten Projekte im Überblick:
Alle Projekte folgen demselben Prinzip: kein Framework-Overhead, keine Abstraktion, die das Verständnis verschleiert. Wer nanoGPT einmal selbst trainiert hat, versteht Context-Window, Attention-Mechanismen und Token-Limits auf einer Tiefe, die keine Dokumentation vermitteln kann. Diese Grundlagen sind direkt anwendbar, wenn man mit lokalen Modellen via Ollama arbeitet, Agent-Frameworks wie CrewAI oder LangGraph einsetzt oder den Claw Code Agent für automatisierte Entwicklung nutzt.
Eines von Karpathys einflussreichsten Konzepten ist das LLM OS: die Idee, ein Large Language Model nicht als einfaches Chat-Tool zu sehen, sondern als Betriebssystem-Kern für KI-Agenten. In dieser Analogie übernimmt das LLM die Rolle der CPU, während externe Tools wie Code-Interpreter, Webbrowser, Datenbanken und APIs als Peripheriegeräte fungieren.
Die Konsequenz dieser Sichtweise: Entwickler, die nur das Chat-Interface eines LLMs nutzen, sehen nur einen Bruchteil des Potenzials. Das volle LLM OS entfaltet sich erst, wenn Agenten autonom planen, Tools aufrufen und Ergebnisse iterativ verarbeiten können. Frameworks wie CrewAI und LangGraph setzen dieses Prinzip direkt um. Karpathy beschreibt, dass wir heute weniger als 10 Prozent des Potenzials dieser neuen Computing-Paradigmen ausschöpfen.
Bei NCA übersetzen wir das LLM-OS-Konzept direkt in Kundenprojekte: von der Architektur KI-gestützter Content-Pipelines bis zur Integration lokaler Modelle in bestehende Symfony- und PHP-Infrastrukturen. Auch autonome Agenten wie OpenClaw basieren konzeptionell auf dieser Betriebssystem-Metapher. Kostenlose Erstberatung: roland@nevercodealone.de
Neben seinen GitHub-Projekten hat Karpathy eine Reihe von Lehrvideos produziert, die als Standard für das Selbststudium von LLMs gelten. Die wichtigsten:
Diese Ressourcen sind keine theoretische Einführung. Jedes Video baut auf lauffähigem Code auf, den Entwickler direkt anpassen und erweitern können. Wer verstanden hat, wie GPT intern funktioniert, kann KI-Modelle für Vibe Coding deutlich fundierter vergleichen und einsetzen. Für den Einstieg in die Welt der KI-Modelle empfehlen wir die Zero-to-Hero-Playlist als ersten Schritt.
Karpathys Philosophie des "Von-Grund-auf-Verstehens" ist der Kern des NCA-Beratungsansatzes beim Vibe Coding Consulting. Wer weiß, wie ein Transformer-Block intern rechnet, schreibt bessere Prompts, wählt das richtige Modell für den jeweiligen Use Case und erkennt, wann ein LLM halluziniert statt zu wissen.
Konkret setzen wir bei NCA folgende Karpathy-Prinzipien in Kundenprojekte um:
Sie wollen diese Ansätze in Ihrem Team etablieren? Vereinbaren Sie eine kostenlose Erstberatung: roland@nevercodealone.de | +49 176 24747727
Vibe coding will terraform software and alter job descriptions.
AGI (Artificial General Intelligence) bezeichnet KI-Systeme mit menschenähnlicher Intelligenz. Definition, aktueller Stand, Kontroversen und was AGI für Entwickler bedeutet.
Mehr erfahren
Vibe Coding Consulting von NCA: Code Review, Deployment, DSGVO-Beratung und 1:1 Mentoring. Erfahrene Entwickler aus Duisburg begleiten vom Prototyp zur Production.
Mehr erfahrenFinde das passende Angebot für dein Projekt
Hey! Ich bin CodeBot. Lass uns herausfinden, wie wir dein Projekt zum Fliegen bringen.
Was soll entstehen?
Die wichtigsten Fragen zu Andrej Karpathys LLM-Ressourcen, Projekten und Konzepten für Entwickler im Überblick.
Das Karpathy LLM Wiki bezeichnet das gesammelte Lehrwerk von Andrej Karpathy: GitHub-Projekte wie nanoGPT und LLM.c, YouTube-Kurse und Blogposts, die LLMs von Grund auf erklären. Es ist keine offizielle Wiki-Plattform, sondern ein informeller Begriff für Karpathys Open-Source-Bildungsressourcen.
Andrej Karpathy ist KI-Forscher und Educator. Er war Gründungsmitglied von OpenAI, Director of AI bei Tesla und Schöpfer der ersten Deep-Learning-Vorlesung an der Stanford University (CS231n). Heute betreibt er einen YouTube-Kanal und GitHub mit frei zugänglichen LLM-Lehrressourcen.
nanoGPT ist eine minimalistische GPT-2-Implementierung in PyTorch von Andrej Karpathy. Es zeigt den vollständigen Transformer-Trainingsprozess in wenigen hundert Zeilen Code. Für Entwickler, die LLMs wirklich verstehen wollen, ist nanoGPT der direkteste Einstieg ohne Framework-Overhead.
LLM.c ist Karpathys Projekt, GPT-Training in reinem C und CUDA zu implementieren. Damit zeigt er, wie Backpropagation, Forward-Pass und Matrixmultiplikationen auf Hardware-Ebene ablaufen. Es ist ein Lehrprojekt für Entwickler, die verstehen wollen, was unter der PyTorch-Abstraktionsschicht passiert.
Das LLM OS ist Karpathys Metapher für die Architektur KI-gestützter Systeme: Das LLM fungiert als Betriebssystem-Kern, der externe Tools wie Code-Interpreter, Webbrowser und APIs als Peripheriegeräte orchestriert. Es beschreibt, wie autonome KI-Agenten strukturiert werden sollten.
Karpathys wichtigste YouTube-Kurse sind: Neural Networks Zero to Hero (komplette Playlist), Let's build GPT from scratch, Intro to Large Language Models und Deep Dive into LLMs like ChatGPT. Alle Kurse sind kostenlos verfügbar und bauen auf lauffähigem Open-Source-Code auf.
makemore ist ein zeichenbasiertes Autoregressive Language Model von Karpathy. Es generiert neue Beispiele (z.B. Namen) auf Basis eines Trainings-Datensatzes. Das Projekt erklärt Tokenisierung, n-gram-Modelle und neuronale Netzwerke für Textgenerierung auf Einsteigerniveau.
minbpe ist Karpathys minimale Python-Implementierung des Byte Pair Encoding Tokenizers, der in GPT-4 und anderen modernen LLMs verwendet wird. Es erklärt, wie Text in Tokens zerlegt wird und warum Tokenisierung einen großen Einfluss auf Modellverhalten und Kosten hat.
Karpathy prägte den Begriff Vibe Coding für einen Entwicklungsansatz, bei dem Entwickler Intentionen und Kontext beschreiben statt expliziten Code zu schreiben. LLMs generieren den Code, der Entwickler überwacht und korrigiert. In seinem 2025 Year in Review schreibt Karpathy, dass Vibe Coding Software-Jobprofile grundlegend verändern wird.
Der empfohlene Einstieg: Zero-to-Hero-Playlist auf YouTube, dann nanoGPT klonen und trainieren, dann eigene Anpassungen vornehmen. Für Teams, die diese Prinzipien in Produktionsprojekte überführen wollen, bietet NCA strukturiertes Vibe Coding Consulting an: roland@nevercodealone.de
Ja. Das Verständnis von LLM-Architekturen ist technologieunabhängig und direkt anwendbar, wenn PHP-Teams KI-Funktionen integrieren: Prompt-Design, Kontext-Management, Auswahl lokaler Modelle via Ollama, Integration in Symfony-Services. Die Prinzipien gelten für jede Programmiersprache.
Karpathys aktuelle Ressourcen sind auf karpathy.ai verlinkt. GitHub-Projekte unter github.com/karpathy, YouTube-Kanal unter youtube.com/@AndrejKarpathy und sein Blog auf karpathy.bearblog.dev. Alle Ressourcen sind kostenlos zugänglich.
A/B Testing mit KI-Coding-Agents und PostHog oder GrowthBook: So setzt du automatisiertes Testing mit Vibe Coding um - DSGVO-konform und Open Source.
AGI (Artificial General Intelligence) bezeichnet KI-Systeme mit menschenähnlicher Intelligenz. Definition, aktueller Stand, Kontroversen und was AGI für Entwickler bedeutet.
AutoGen ist Microsofts Open-Source-Framework für Multi-Agent-Systeme. Mehrere KI-Agenten arbeiten autonom zusammen und lösen komplexe Aufgaben durch Konversation.
ChatGPT und die GPT-5-Serie: GPT-5.2, 5.3 Instant und 5.4 mit Features, Benchmarks und Einordnung für Entwickler 2026.
Claude Agent Teams ermöglicht parallele KI-Agenten in Claude Code. Aktivierung, Setup, Anwendungsfälle und Best Practices für Entwickler 2026.
Der Claude Code Plugin Marketplace ist ein dezentrales, Git-basiertes System für KI-Entwickler-Plugins. So finden, installieren und erstellen Sie eigene Marketplaces 2026.
Claude Code Plugins bündeln Slash-Commands, Agents, Hooks und MCP-Server in teilbare Pakete. So erweitern Entwickler ihr KI-Coding-Tool 2026.
Claude Code Remote Control, SSH-Zugriff und Cloud Sessions: So steuern Sie Ihre KI-Coding-Sessions von unterwegs. Setup, Sicherheit und Vergleich 2026.
Was ist Claude Cowork 2026? Der KI-Agent von Anthropic für Desktop-Automatisierung. Funktionen, Anwendungsfälle und Einschränkungen im Überblick.
Claw Code ist ein quelloffenes KI-Coding-Agent-Framework in Python und Rust. Clean-Room-Rewrite der Claude Code Architektur. 172k GitHub Stars. Jetzt mehr erfahren.
Clawdbot installieren: Komplette Anleitung für macOS, Linux und Windows (WSL2). Node.js Setup, Provider-Anbindung, Sicherheitskonfiguration und Best Practices für den Always-on-Betrieb.
Clawdbot auf Mac Mini einrichten: Komplette Anleitung für den Always-on KI-Assistenten. Hardware-Auswahl, macOS Headless-Konfiguration, Energy Saver, SSH-Zugang, Docker-Isolation und Best Practices 2026.
CodeRabbit reviewt Pull Requests automatisch mit KI und 40+ Lintern. So nutzen PHP-Teams das Tool DSGVO-konform in CI/CD-Pipelines.
CodexBar zeigt Token-Limits für Claude Code, Cursor und Codex direkt im macOS Menu Bar. Kostenlos, MIT-lizenziert, 7.400+ GitHub Stars.
ComfyUI ist eine Open-Source-Engine f\u00fcr KI-Bildgenerierung mit node-basiertem Workflow-Editor. Lokal, DSGVO-konform, unterst\u00fctzt Flux, SDXL und mehr.
CrewAI ist ein Framework für rollenbasierte Multi-Agent-Systeme. Definiere Agenten mit Rollen, Zielen und Backstories – sie arbeiten autonom als Team zusammen.
Cursor BugBot ist der KI-Debugging-Agent für Vibe Coding. Über 2 Mio. PRs/Monat, 70 % Resolution Rate. Wie er funktioniert und wann er hilft.
Firebase Studio ist Googles cloudbasierte KI-Entwicklungsumgebung für Full-Stack-Apps. Prototyping per Prompt, Gemini-KI, kostenlos nutzbar. NCA Glossar 2026.
GitHub MCP Server verbindet KI Agents direkt mit Repositories, Issues und CI/CD Pipelines. Installation und DSGVO Bewertung für Entwickler 2026.
Google Antigravity 2026: Die revolutionäre Agent-First IDE mit autonomen KI-Agenten. Powered by Gemini 3 Pro. Kostenlos für Entwickler. Installation, Features und Vergleich.
Google Gemini Gems sind anpassbare KI-Assistenten mit 1-Million-Token-Kontext und Live-Google-Drive-Sync. Vergleich mit ChatGPT Custom GPTs.
Google Stitch: KI-natives Vibe Design Tool – UI aus Text und Sprache generieren, prototypen und direkt in Code exportieren. Kostenlos in Google Labs.
Kimi K2.5 von Moonshot AI: Multimodales MoE-Modell mit 1 Billion Parametern, Agent Swarm und Kimi Code CLI. Features, Benchmarks und Einsatz 2026.
LangGraph ist LangChains Framework für zustandsbehaftete Multi-Agent-Workflows. Graphen definieren Kontrollfluss, Zyklen und Entscheidungslogik für produktionsreife KI-Systeme.
LLM lokal auf dem Smartphone nutzen: Die besten Apps fuer Android und iOS, Hardware Anforderungen und DSGVO Vorteile von On Device KI 2026.
MemPalace von Milla Jovovich ist das Open Source KI Memory System gegen KI Amnesie. 96,6% LongMemEval, lokal, DSGVO konform. NCA erklaert Setup und Einsatz.
Mistral Connectors verbinden KI-Agents mit Enterprise-Daten per MCP-Protokoll. So funktioniert reusable Tool-Integration in Mistral Studio 2026.
Was ist Moltbook? Das virale Social Network für KI-Agenten – Funktionsweise, Sicherheitslücken und warum Experten davor warnen. Alles Wichtige kompakt erklärt.
MoltBot (früher ClawdBot) ist der virale Open-Source KI-Assistent mit 60.000+ GitHub Stars. Was kann er, wie funktioniert er, und lohnt sich die Installation?
Nano Banana 2 (Gemini 3.1 Flash Image): Googles schnellster KI-Bildgenerator mit 4K, Text-Rendering und Web-Grounding. Jetzt kostenlos verfügbar.
NVIDIA NemoClaw erweitert OpenClaw um Privacy- und Security-Controls. Lokale KI-Modelle via Nemotron, OpenShell-Guardrails, Deploy mit einem Befehl.
Obsidian mit KI und künstlicher Intelligenz: lokales PKM-Tool, DSGVO-konform, Obsidian Skills auf GitHub für Claude Code. NCA erklärt den Setup.
Ollama ermöglicht lokale KI-Modelle ohne Cloud. Subagenten, Websuche, Vibe Coding und DSGVO-konform. Alle Features, Modelle und Setup-Tipps 2026.
Open WebUI ist das führende Self-Hosted Interface für lokale KI-Modelle. DSGVO-konform, Docker-Setup, RAG, Multimodell – so richtest du es 2026 ein.
OpenClaw ist ein autonomer KI-Agent mit 100.000+ GitHub Stars. Ursprünglich ClawdBot, dann MoltBot – jetzt OpenClaw. Messaging-Integration, Skills-System und Sicherheitsrisiken erklärt.
OpenSpec ist ein leichtgewichtiges Framework für Spec-Driven Development mit KI-Coding-Assistenten. Single Source of Truth für Claude Code, Cursor und Copilot.
Paperclip ist die Open Source Plattform fuer KI Agenten Teams 2026. Mit Org Charts, Budgetkontrolle und Audit Log. Selbst gehostet und DSGVO konform.
Project Glasswing ist Anthropics Initiative, mit Claude Mythos Preview Zero-Day-Schwachstellen in kritischer Software zu finden. Was steckt dahinter?
Qwen ist Alibabas Open-Source KI-Modellfamilie mit Qwen3, Qwen3-Coder und Qwen3-Omni. Apache 2.0, lokal nutzbar, DSGVO-freundlich.
RentAHuman.ai ist der Marktplatz, auf dem KI-Agenten Menschen für physische Aufgaben buchen. Funktionsweise, MCP-Integration, Risiken und Chancen 2026.
Ruflo ist die führende Agent-Orchestrierungsplattform für Claude Code. Multi-Agent-Swarms, 60+ Agenten, WASM-Embeddings, lokal oder On-Premise einsetzbar.
Shannon ist ein autonomer KI-Pentester f\u00fcr Web-Apps und APIs. White-Box-Analyse, echte Exploits, DSGVO-konform on-premise einsetzbar. NCA-Beratung.
Vibe Coding macht Schulden. Vise Coding l\u00f6st das. NCA Experten erkl\u00e4ren, wie AI Code mit Guardrails, Tests und Doku echten Produktionscode liefert. Jetzt beraten lassen.
Wie NCA OpenAI-Embeddings durch Voyage AI voyage-3-m-exp auf HuggingFace ersetzte. Erfahrungsbericht, Benchmarks und Migrationsanleitung 2026.
Web MCP verbindet KI-Agenten \u00fcber Streamable HTTP mit externen Tools und Datenquellen. Alles \u00fcber Remote MCP Server, Sicherheit und Einsatz 2026.