Deep Agents (LangChain.com)

Using an LLM to call tools in a loop is the simplest form of an agent. This architecture, however, can yield agents that are “shallow” and fail to plan and act over longer, more complex tasks. Applications like “Deep Research”, “Manus”, and “Claude Code” have gotten around this limitation by

Deep Agents: How LLMs Go From Shallow Helpers to Real Problem Solvers

You’ve probably played with simple agents that call tools in a loop, they’re easy, fun, and often useful. The catch is they can stay shallow, unable to plan or work on complex tasks over time. That’s where “deep agents” come in, the kind that actually dive in and stick around, like a teammate who takes notes and breaks big problems into smaller ones.

A quick bit of background, because context matters. Early agent designs were just LLMs calling tools repeatedly, and they worked fine for little tasks. Then apps like Deep Research, Manus, and Claude Code pushed the idea further, showing that with a few additions agents can plan, spawn helpers, and keep long-term context. What changed? Four things, mainly: a detailed system prompt, a planning tool, subagents, and access to a file system.

The system prompt gives the agent a personality and rules, plus examples, so it knows how to behave. The planning tool can even be a no-op todo list, but it helps keep focus. Subagents let the main agent split work, so each piece can go deeper. The file system acts like shared memory, a place to jot notes and store progress for later. Small, practical moves, large effect.

If you want to experiment, there’s an open source package you can try, and a writeup that inspired this whole exploration is here: https://blog.langchain.com/deep-agents/. You can also install the package with pip install deepagents, and modify prompts, tools, or subagents to fit your needs.

I’ve used these ideas on research and coding projects, and it changes how you approach problems. Instead of repeating short loops, you get an agent that plans, delegates, and remembers, which feels a lot more human. The future? Expect more tailored deep agents in verticals you care about, and better tooling so you can build them without reinventing the wheel.

Deep Agents: Wie LLMs vom Helfer zum Problemlöser werden

Du kennst sicher einfache Agenten, die in einer Schleife Tools aufrufen. Praktisch, schnell, aber oft flach. Sie planen nicht groß, und sie verlieren Kontext, wenn ein Projekt länger dauert. Deep Agents sind anders, sie bleiben dran, sie teilen Aufgaben auf und sie behalten Notizen, so wie ein Kollege, der alles mitschreibt.

Kurz zur Entwicklung. Anfangs war die Architektur simpel: LLM plus Tools in einer Schleife. Dann kamen Projekte wie Deep Research, Manus und Claude Code, die gezeigt haben, dass man mit einigen zusätzlichen Komponenten weit größere Aufgaben angehen kann. Entscheidend sind vier Dinge: ein detaillierter System-Prompt, ein Planungstool, Subagents und Zugriff auf ein Dateisystem.

Der System-Prompt gibt Regeln und Beispiele, damit der Agent weiß, wie er reagieren soll. Das Planungstool kann sogar ein simples To-Do sein, es hilft dem Agenten, fokussiert zu bleiben. Subagents ermöglichen Arbeitsteilung, so kann jede Einheit tief in ihr Thema eintauchen. Das Dateisystem dient als gemeinsamer Speicher, ideal, wenn Agenten über längere Zeit laufen.

Mehr Details und Inspiration findest du hier: https://blog.langchain.com/deep-agents/. Du kannst auch direkt ausprobieren, pip install deepagents, und eigene Prompts, Tools oder Subagents hinzufügen.

Ich habe dieses Muster bei Recherche- und Coding-Aufgaben genutzt, und ehrlich, es verändert die Herangehensweise. Projekte werden planbarer, Agenten delegieren sinnvoller, und Ergebnisse sind nachhaltiger. Blick nach vorn, es wird einfacher werden, solche tiefgehenden Agenten für spezifische Anwendungsfälle zu bauen, und das ist spannend.

Kommentar abschicken