Zurück zum Blog

Persistenter Kontext für KI-Agenten: Was Mittelstands-IT-Teams 2026 über Memory-Design wissen müssen

Henri Jung, Co-Founder bei Superkind
Henri Jung

Co-Founder bei Superkind

Industrielle dunkle Magnetband-Spule mit orangener Flanke - persistentes Langzeit-Memory für KI-Agenten

Ein KI-Agent, der sich zwischen Sitzungen nichts merkt, ist - in Andrej Karpathys eigenen Worten - wie ein Kollege mit anterograder Amnesie: brillant im Moment, nutzlos über die Zeit23. Sie stellen sich am Montag vor, erklären die Kundenhistorie, gehen das offene Ticket durch - und am Dienstag hat der Agent alles vergessen. Das ist das Default-Verhalten jedes Frontier-LLM. Persistenter Kontext ist, was die Lücke zwischen Chat-Demo und einem Assistenten schließt, auf den sich das Team wirklich verlässt.

2026 ist Memory von der Forschungs-Kuriosität zum erstklassigen Architektur-Bestandteil aufgestiegen. Es gibt jetzt eine Benchmark-Suite, ein Forschungs-Korpus und eine ganze Anbieter-Kategorie - Letta (die Produktions-Evolution von MemGPT), Mem0, Zep - plus die Modell-Anbieter selbst, die Memory-Features in Claude und ChatGPT ausrollen. Mittelstands-IT-Teams, die Memory-Design ignorieren, liefern Agenten aus, die in der Demo beeindrucken und in Woche drei nutzlos in den Händen des Teams sind.

Dieser Leitfaden behandelt, was Memory ist, die Drei-Schichten-Referenz-Architektur, die zum Default geworden ist, die Tooling-Landschaft, sechs Mittelstands-Use-Cases mit klarem Memory-Payoff, die sieben Fehlermuster, die die meisten Projekte entgleisen lassen, die DSGVO- und Lösch-Mechanik sowie einen 90-Tage-Implementierungsplan. Geschrieben für IT-Verantwortliche, Plattform-Engineers und den Geschäftsführer, der die Investition tragen muss.

TL;DR

Memory ist jetzt erstklassiger Architektur-Bestandteil - 2026 ist Memory aus der Forschung in die Produktion gewandert: Letta, Mem0, Zep und persistentes Memory in Claude Managed Agents sowie Claude Team- und Enterprise-Plänen.

Das Drei-Schichten-Modell hat sich durchgesetzt - Core Memory im Context Window, Recall Memory in einem durchsuchbaren Store, Archival Memory im Cold Storage. An der klassischen Computerarchitektur orientiert.

Drei Memory-Typen zählen - episodisch (was passiert ist), semantisch (was wahr ist), prozedural (wie man Dinge tut). Die meisten frühen Agenten-Projekte bauen nur das episodische und wundern sich, dass der Agent nichts lernt.

Vektor + Graph schlägt Vektor allein - produktive Agenten nutzen semantische Ähnlichkeit für Recall und strukturierte Stores für Entitäts-Beziehungen, Konten, Verträge und Transaktionen.

Memory löst sofort DSGVO aus - sobald Sie Information über eine identifizierbare Person speichern, gilt der volle Stack: Artikel-17-Löschung, Aufbewahrungsgrenzen, Auftragsverarbeitung. Vom ersten Tag an einplanen.

Mittelstands-Monatskosten landen bei 800-3.500 Euro für die Memory-Schicht einer 5-10-Agenten-Flotte, plus zwei Engineering-Wochen pro Quartal für Dedup, Konsolidierung und Eviction. Der Payback kommt mit dem ersten Agenten, den Kunden wirklich wiedernutzen.

Warum Memory entscheidet, ob ein Agent in Produktion geht

Der schärfste Prädiktor dafür, ob ein KI-Agent in den täglichen Mittelstands-Einsatz kommt, ist, ob er sich erinnert. Sechs konkrete Gründe, warum Memory von optional zu architektonisch geworden ist.

  • Ohne Memory ist jede Sitzung kalt - Der Nutzer muss neu erklären, wer er ist, wie sein Setup aussieht und was die offene Aufgabe ist. Nach drei Cold-Starts hören die meisten Nutzer leise auf, den Agenten zu nutzen. Anthropic selbst hat Memory beim Launch für Claude Team und Enterprise als das Feature gerahmt, das die „Henri-erklärt-sich-wieder“-Schleife schließt17.
  • Ohne Memory ist Lernen zwischen Sitzungen unmöglich - Der Agent kann „dieser Kunde bevorzugt Deutsch“, „dieser Techniker braucht die Teilenummer doppelt zur Bestätigung“ oder „dieser Controller will den Bericht in Excel, nicht PDF“ nicht internalisieren. Jede Sitzung startet bei Default-Policy.
  • Ohne Memory brechen Multi-Step-Workflows - Außendienst-Disposition über vier Tage, Beschaffungs-Verhandlung über drei Wochen, Onboarding über 30 Tage - keiner überlebt den Kontextverlust zwischen Sitzungen. Memory ist das Substrat, das Workflows persistiert.
  • Ohne Memory wird der Agent nie schärfer - Produktive Agenten, die Ergebnisse erinnern, erkennen eigene vergangene Fehler („letztes Mal haben wir diesen Fall an Claude geroutet, die Antwort war falsch; lieber GPT“). Stateless-Agenten wiederholen dieselben Fehler endlos.
  • Memory ist jetzt Wettbewerbs-Feature - Bloomberg berichtete im März 2026, dass Anthropic Nutzer mit Claudes Memory-Feature explizit von ChatGPT zu gewinnen versucht; OpenAI hat Memory in ChatGPT für alle bezahlten Pläne lange davor ausgerollt16. Das Marktsignal ist laut.
  • Gartner erwartet, dass 40 Prozent der Enterprise-Apps bis Ende 2026 aufgabenspezifische Agenten haben - gegenüber unter 5 Prozent zu Beginn 202528. Die Welle deployter Agenten ist zu groß, als dass Stateless der Default bleibt.

Karpathys Bild

Andrej Karpathy vergleicht LLMs ohne Memory mit „einem Kollegen mit anterograder Amnesie - sie konsolidieren oder bauen kein Langzeitwissen auf. Sie haben nur Kurzzeitgedächtnis“23. Die persistente Kontextschicht ist die Prothese, die dem Kollegen ein Notizbuch gibt.

Das Muster, das in Produktion scheitert

Der häufigste Mittelstands-Fehler ist, das Chat-Fenster als Memory zu behandeln. Das Team baut einen großartigen Agenten, der innerhalb einer Sitzung funktioniert, die Demo beeindruckt, und dann legt die Produktion die Lücke offen.

  • Woche 1 - Agent geht live, Nutzer sind begeistert, Gespräche fühlen sich natürlich an.
  • Woche 3 - Nutzer beschweren sich, dass sie sich jedes Mal neu erklären müssen. Engagement halbiert sich.
  • Woche 6 - Das Team beginnt, längere System-Prompts handzustricken, um Nutzerkontext einzubacken. Der Prompt wird unleserlich, Kosten steigen.
  • Woche 10 - Jemand schlägt vor, „einfach alles in eine Vektor-Datenbank zu kippen“. Latenz steigt, Retrieval wird verrauscht, der Agent halluziniert aus widersprüchlichem alten Kontext.
  • Woche 16 - Das Projekt wird leise mit dem Urteil „die Technologie ist noch nicht reif“ eingestampft.

Die Technologie war reif. Es fehlte die Memory-Architektur.

Was Memory wirklich ist (und was RAG nicht ist)

Die Begriffe verschmelzen in Gesprächen. Memory, RAG, Kontext, Vektor-Store und Embeddings werden synonym verwendet. Sind sie nicht. Drei Definitionen, die man auseinanderhalten sollte, bevor man irgendetwas designt.

  • Context Window - Der fixe Puffer, den das LLM in einem einzelnen Aufruf sieht. Frontier-Modelle 2026 reichen von 128K Tokens (DeepSeek, Mistral) bis 10 Millionen in Forschungsmodellen. Das Context Window ist, wo das Programm läuft, nicht wo Memory lebt.
  • RAG (Retrieval Augmented Generation) - Das Muster, relevante Dokumente aus einem von Ihnen kontrollierten Korpus zu ziehen - Handbücher, Wissensbasis, Produkt-Doku - und vor der Antwort in das Context Window zu stopfen. RAG ist read-only und statisch; Sie entscheiden, was im Korpus liegt.
  • Memory - Die eigene, sich entwickelnde Aufzeichnung des Agenten von Fakten, Ereignissen, Präferenzen und Prozeduren. Online (der Agent schreibt während der Interaktion), dynamisch (ändert sich über die Zeit) und vom Agenten selbst oder einer expliziten Memory-Policy geformt.
BegriffWer schreibtLebensdauerTypischer StoreBeispielfrage
Context WindowAufruferEinzelner CallRAM in der LLM-RuntimeWas ist der unmittelbare Prompt?
RAG-KorpusContent-TeamMonate-JahreVektor-DB + MetadatenWas steht im Handbuch?
Episodisches MemoryAgent zur LaufzeitSitzungen-JahrePostgres + Vektor-IndexWas haben wir im März besprochen?
Semantisches MemoryAgent + KuratierungJahreGraph + Vektor + ProvenienzWer ist dieser Kunde?
Prozedurales MemoryAgent + EngineeringJahreCode + strukturierter StoreWie schließen wir hier ein Ticket?

Memory ist das Notizbuch des Agenten, nicht Ihre Wissensbasis

Das klarste Bild, das in Produktion hält: RAG ist die Referenz-Bibliothek des Agenten, Memory ist sein Notizbuch. Die Bibliothek wurde geschrieben, bevor der Agent existierte, und ändert sich nur, wenn Menschen sie aktualisieren. Das Notizbuch wird vom Agenten selbst während der Interaktion gefüllt, über die Zeit redigiert und konsolidiert und vor jeder Antwort konsultiert. Beide nützlich. Beide unterschiedlich. Sie zu verwechseln liefert Architekturen, die keines von beiden gut tun.

Der entscheidende Test

Wenn Ihr Agent „weißt du noch, was wir letzte Woche vereinbart haben?“ nicht beantworten kann, haben Sie RAG. Wenn er es kann, haben Sie Memory. Die meisten Mittelstands-Agenten 2026 haben nur RAG und nennen es Memory.

Die drei Memory-Schichten

Die Default-Referenzarchitektur 2026 borgt direkt aus der klassischen Computerarchitektur, popularisiert vom MemGPT-Paper aus UC Berkeley und nun in Letta produktionsreif. Der Agent hat drei Memory-Schichten: Core, Recall, Archival2.

Schicht 1: Core Memory (Context Window, wie RAM)

  • Was es ist - Ein kleiner, strukturierter Block, der bei jedem Call im Context Window des LLM lebt. Immer für den Agenten sichtbar, sofort verfügbar, kein Retrieval nötig.
  • Was hineinkommt - Nutzeridentität und -präferenzen, aktueller Aufgabenstand, Schlüssel-Fakten zur aktuellen Entität (dieser Kunde, dieser Vertrag, dieser Techniker), Persona und Guardrails des Agenten.
  • Größenbudget - Typisch 2K bis 8K Tokens. Klein genug, um Kontext-Kosten nicht zu dominieren, groß genug, um das Wesentliche zu tragen.
  • Eigentümer - Vom Agenten selbst über explizite Memory-Tool-Calls aktualisiert, vom Plattform-Team auditiert.

Schicht 2: Recall Memory (durchsuchbarer Store, wie Disk-Cache)

  • Was es ist - Die volle Konversationshistorie und das Event-Log, außerhalb des Context Windows gespeichert, aber per Tool-Call durchsuchbar. Der Agent fragt es bei Bedarf ab.
  • Was hineinkommt - Jede frühere Sitzung, jede Entscheidung, jedes abgerufene Dokument, jedes Tool-Call-Ergebnis, das später zählen könnte.
  • Größenbudget - Unbeschränkt, aber indexiert. Typischerweise ein Postgres-mit-pgvector- oder Qdrant-Store mit semantischer Suche und Metadaten-Filtern.
  • Eigentümer - Von der Runtime automatisch geschrieben, vom Agenten abgefragt, durch eine Eviction-Policy ausgesondert.

Schicht 3: Archival Memory (Langzeit-Cold-Store)

  • Was es ist - Langfristiges, tief konsolidiertes Wissen, das der Agent über Monate oder Jahre angesammelt hat. Seltener angefasst, aber dauerhaft.
  • Was hineinkommt - Konsolidierte Entitäts-Profile (dieser Kunde über fünf Jahre), prozedurale Lernerfahrungen (wie wir in dieser Firma Fälle schließen), regulatorisch und audit-relevante Artefakte.
  • Größenbudget - Praktisch unbegrenzt. In einer Vektor-Datenbank für semantischen Recall plus einem relationalen oder Graph-Store für Struktur abgelegt.
  • Eigentümer - Von einem periodischen Konsolidierungs-Job geschrieben, der Recall-Einträge in Archival-Zusammenfassungen befördert.
SchichtComputer-AnalogonZugriffsmusterTypische GrößeLatenz-Budget
Core MemoryRAMImmer im Kontext präsent2K-8K TokensNull (frei)
Recall MemoryDisk-CacheTool-Call, semantisch + MetadatenMB-GB pro Nutzer50-200 ms
Archival MemoryCold StorageTool-Call, Vektor + GraphGB-TB gesamt200 ms-1 s

Die Promotion- und Demotion-Schleife

Das interessante Engineering liegt nicht in den Schichten selbst, sondern in den Policies, die Information zwischen ihnen bewegen. Drei Schleifen, die explizit designt werden müssen.

  • Promotion - Wenn der Agent erkennt, dass etwas im Recall Memory wichtig genug ist, um in Core Memory zu leben, befördert er es. „Kunde hat dreimal gesagt, er will deutschen Support“ befördert sich aus Recall in Core als Präferenz.
  • Konsolidierung - Ein Hintergrund-Job, der viele Recall-Einträge in einen Archival-Eintrag komprimiert. „40 Service-Calls mit diesem Kunden in 18 Monaten“ wird zu einem strukturierten Profil.
  • Demotion und Eviction - Information altert aus. Veraltete Präferenzen verfallen, irrelevantes Detail wandert von Core zu Recall zur Löschung. Ohne Eviction wird jede Schicht zur Mülldeponie.

Episodisch, semantisch, prozedural: Die drei Memory-Typen

Schneidet man die Architektur anders, wird Memory auch nach gespeicherter Informationsart klassifiziert. Der 2026-Konsens, in Letta, Mem0 und der akademischen Survey-Literatur reflektiert, nennt drei Typen. Die meisten frühen Agenten-Projekte bauen nur den ersten und wundern sich, dass der Agent nichts lernt.

Episodisches Memory: was passiert ist

  • Definition - Zeit-gestempelte Aufzeichnungen von Ereignissen, Gesprächen, Entscheidungen und Tool-Calls. Das Tagebuch des Agenten.
  • Beispiele - „Am 14. März 2026 hat der Kunde nach dem Lager-Tausch gefragt, wir haben Angebot Q-7841 geschickt“, „Letzten Dienstag um 11:32 hat das Modell die SAP-API mit diesen Parametern aufgerufen und diese Antwort bekommen“.
  • Speicherung - Postgres oder ein ähnlicher relationaler Store mit Zeitstempeln, plus Vektor-Index für semantische Suche über Episoden.
  • Fehlermuster - Ohne Kuratierung wird episodisches Memory unendliche Mülldeponie. Verdichtung und Zeitabklang zählen.

Semantisches Memory: was wahr ist

  • Definition - Strukturierte, destillierte Fakten über Entitäten und die Welt, in der der Agent operiert. Die Referenz-Akte des Agenten.
  • Beispiele - „Kunde XYZ GmbH bevorzugt E-Mail vor Telefon“, „Unser höchster Vertragswert mit ihnen ist 1,2 Mio. EUR“, „Ihr Hauptansprechpartner ging im März 2026 in Rente“.
  • Speicherung - Ein Knowledge-Graph oder relationaler Store mit expliziten Entitäten und Beziehungen, oft gepaart mit einem Vektor-Index für unscharfen Lookup.
  • Fehlermuster - Ohne Provenienz kann semantisches Memory Widersprüche nicht auflösen. Jeder Fakt braucht Quelle und Zeitstempel.

Prozedurales Memory: wie man Dinge tut

  • Definition - Gelernte Prozeduren, Konventionen und Routinen Ihrer Umgebung. Das Muskelgedächtnis des Agenten.
  • Beispiele - „Um ein Ticket bei uns zu schließen, taggen Sie es RESOLVED und fügen einen Final-Message-Notiz an“, „Wenn ein Angebot 50K EUR übersteigt, braucht es vor Versand Geschäftsführer-Freigabe“.
  • Speicherung - Oft Mischung aus strukturierten Regeln (in Code oder Rules-Engine) und Prompt-Beispielen, die zur Laufzeit in Core Memory geladen werden.
  • Fehlermuster - Prozedurales Memory nur in Prompts ist brüchig. Kritische Prozeduren sollten Code-gebacken und Tool-vermittelt sein, nicht nur erinnert.
Memory-TypBeantwortetBeste SpeicherungEviction-Policy
EpisodischWas ist passiert?Postgres + Vektor-IndexZeitabklang + Relevanz
SemantischWas ist wahr?Graph + Vektor + ProvenienzUpdate bei Widerspruch
ProzeduralWie machen wir es hier?Code + Tool-DefinitionenVersionierte Releases

Eine Memory-Architektur, die Produktion überlebt?

Wir helfen Mittelstands-IT-Teams, den Drei-Schichten-Memory-Stack, die Konsolidierungs-Jobs und die DSGVO-Mechanik zu designen, die aus einer Stateless-Demo einen Assistenten machen, auf den sich das Team verlässt.

Demo buchen →
Drei dunkle Memory-Module parallel gestapelt mit einem orangenen Band - die Core-, Recall- und Archival-Memory-Schichten

Eine Referenz-Architektur für Mittelstands-Agenten

Die architektonischen Bausteine, die sich 2026 für produktives Agenten-Memory etabliert haben. Keiner ist neu; der Wert liegt darin, die richtige Kombination für den Mittelstands-Kontext zu wählen und sinnvoll zu verdrahten.

  1. Memory-Framework - Letta oder Mem0 als Orchestrierungsschicht, zuständig für Schicht-Promotion, Eviction und die Agent-zugewandte Tool-Oberfläche. Das von Null zu bauen ist ein Jahr Engineering ohne Vorteil.
  2. Vektor-Datenbank für Recall und Archival - Pinecone (Managed-Einfachheit), Qdrant (Open-Source-Tempo), Weaviate (Hybrid-Suche) oder pgvector (in Postgres integriert). Für einen Mittelstands-Start reicht pgvector; auf Qdrant oder Pinecone wechseln, wenn Latenz limitiert.
  3. Relationaler Store für strukturierte Fakten - Postgres, fast immer. Kunden, Verträge, Transaktionen, Audit-Trails, DSGVO-Pflichtlogs. Memory-Einträge referenzieren Zeilen hier, statt sie zu duplizieren.
  4. Optional Graph-Schicht für Entitäts-Beziehungen - Neo4j oder Memgraph, wenn der Use Case beziehungsreich ist (Vertriebs-Account-Hierarchien, Vertrags-Netze, Techniker-Kunden-Historien). Sonst überspringen.
  5. Embedding-API - OpenAI text-embedding-3, Voyage oder eine souveräne EU-Option (Mistral, Aleph Alpha). Konsistente Embeddings zählen mehr als das aktuellste Modell.
  6. Konsolidierungs-Worker - Geplanter Job, der Recall-Einträge in Archival-Zusammenfassungen komprimiert. Die meisten Teams unterbudgetieren das; es ist die Differenz zwischen Memory, das gut altert, und Memory, das verrottet.
  7. Audit- und Provenienz-Store - Jeder Memory-Schreibvorgang protokolliert mit Quelle, Zeitstempel, Konfidenz und dem Run, der ihn produziert hat. Hier lebt die Audit-Story für EU-KI-VO und DSGVO.
  8. DSGVO-Controller - Ein kleiner Service, der Nutzer-Identifikatoren auf alle Memory-Einträge über sie mappt und Auskunft sowie Löschung als einen einzigen API-Call unterstützt.
KomponenteEmpfohlener DefaultUpgrade-PfadSouveräne EU-Option
Memory-FrameworkMem0 (Apache 2.0)Letta für autonome AgentenBeides selbst hosten
Vektor-Storepgvector auf PostgresQdrant oder PineconeQdrant Cloud EU, Aleph Alpha
Relationaler StorePostgres 16+Dasselbe mit ReplikationHetzner, IONOS, Stackit
Graph (optional)Neo4j CommunityNeo4j AuraSelbst-Hosting auf EU-Infra
EmbeddingsOpenAI text-embedding-3Voyage LargeMistral Embed, Aleph Alpha
Audit-StorePostgres + S3Dediziertes SIEMEU-Object-Storage

Die Memory-Tooling-Landschaft 2026

Fünf Tool-Familien zählen. Der Mittelstands-Fehler ist, zu viele einzuführen, bevor klar ist, wofür jede gut ist.

Memory-Frameworks

  • Letta (ehemals MemGPT) - Open-Source-Agent-Runtime aus UC Berkeley. Die Referenz-Implementierung des Drei-Schichten-Memory-Modells. Beste Wahl für autonome Agenten, die feinkörnige Kontrolle brauchen, was im Kontext bleibt1.
  • Mem0 - Leichtgewichtige Memory-Schicht, an jedes Agent-Framework anbaubar. Auf „merke dir den Nutzer“-Use-Cases optimiert. Am häufigsten in kundennahe Agenten 2026 integriert5.
  • Zep - Langzeit-Memory mit eingebauter Fakt-Extraktion, nützlich, wenn Gespräche entitäten- und zeitlinien-dicht sind8.
  • LangGraph- und CrewAI-Bordmittel - Beide Frameworks bringen Basis-Memory mit; reicht für frühe Experimente, nicht für skalierte Produktion.

Vektor-Datenbanken

  • pgvector - Postgres-Erweiterung. Pragmatischer Default für einen Mittelstands-Start. Sie betreiben vermutlich ohnehin Postgres.
  • Qdrant - Rust-basiert, schnell, Hybrid-Suche nativ, als Cloud oder Self-Hosted verfügbar. EU-Hosting möglich.
  • Weaviate - Hybrid-Suche und GraphQL-API. Stark, wenn Metadaten-Filter neben semantischer Suche zählen.
  • Pinecone - Managed-Einfachheit, sichere Enterprise-Wahl. Sie zahlen für die Politur.
  • Milvus - Wenn Sie wirklich Milliarden Vektoren haben. Die meisten Mittelstands-Agenten brauchen das nie.

Anbieter-Memory-Features

  • Claude Memory (Managed Agents, Team, Enterprise) - Anthropic hat im April 2026 persistentes Memory zu Claude Managed Agents und zu Team- und Enterprise-Plänen hinzugefügt, inklusive Inkognito-Modus für nicht gespeicherte Sitzungen15.
  • ChatGPT Memory - Seit 2024 verfügbar, auf alle bezahlten Pläne ausgeweitet. Stark für individuelle Produktivität, schwach für Multi-User-Agenten.
  • Gemini Memory - Vergleichbares Feature-Set, integriert mit Google-Workspace-Kontext.
  • Achtung - Anbieter-Memory ist pro Account und nicht für Ihre Agent-Runtime exponierbar. Als Ergänzung zur eigenen Memory-Schicht nutzen, nicht als Ersatz.

Knowledge-Graph-Stores

  • Neo4j - Reif, gut betoolt, geeignet für Vertriebs-Account-Hierarchien, Vertrags-Netze, Lieferanten-Beziehungen.
  • Memgraph - Schneller bei Streaming-Workloads, nützlich, wenn Memory kontinuierlich aus Event-Streams aktualisiert wird.
  • NetworkX oder igraph in Postgres - Für leichtes Beziehungsmodell, ohne eigene Datenbank aufzusetzen.

MCP-Server als Memory-Bus

  • Anthropics Model Context Protocol (MCP) - Der 2026-Standard, um Memory und Tools strukturiert und gesteuert an LLMs zu exponieren18. Zunehmend Default-Schnittstelle zwischen Memory-Schicht und Agent.
  • Warum es zählt - MCP trennt die Memory-Implementierung vom Agenten-Code; Sie können den darunterliegenden Store austauschen, ohne den Agenten neu zu schreiben.

6 Mittelstands-Use-Cases, in denen Memory zahlt

Memory ist kein Default für jeden Agenten. Die Kosten sind real, die DSGVO-Exposition ist real, und der Engineering-Aufwand, Memory sauber zu halten, ist permanent. Sechs Use Cases, in denen sich der Aufwand für einen Mittelständler konstant lohnt.

Use Case 1: Außendienst-Disponent

  • Warum Memory - Dieselben Techniker, dieselben Kunden, dieselben Maschinen, Woche für Woche. Memory vergangener Einsätze, Kunden-Präferenzen und bekannter Maschinen-Eigenheiten ist die Differenz zwischen einem helfenden Agenten und einem, der den Disponenten jedes Mal neu fragt.
  • Was sich merken - Zugangsdetails Kundenstandort, Stärken der Techniker, wiederkehrende Fehlerbilder pro Maschine, häufig gemeinsam bestellte Teile.
  • Realistischer ROI - 20-35 % schnellere Dispositionsentscheidungen, 10-15 % weniger Zweiteinsätze.

Use Case 2: B2B-Kundenservice-Agent

  • Warum Memory - Mittelstands-B2B-Kunden haben lange, tiefe Beziehungen. Memory vergangener Tickets, Vertragsbedingungen und informeller Zusagen verwandelt einen Chatbot in einen account-bewussten Assistenten.
  • Was sich merken - Account-Kontext (Vertragsstufe, Hauptansprechpartner, Eskalationshistorie), wiederkehrende Probleme, kunden-erklärte Präferenzen (Kanal, Zeitzone, Sprache).
  • Realistischer ROI - 30-50 % weniger Bearbeitungszeit, messbare Verbesserung bei Erstkontakt-Lösung.

Use Case 3: Lieferanten-Beziehungs-Agent

  • Warum Memory - Beschaffung läuft über lange Horizonte. Der Agent, der sich Verhandlungen des Vorjahres, Lieferanten-Zuverlässigkeit und Vertragsjubiläen merkt, wird zum dauerhaften Procurement-Co-Pilot.
  • Was sich merken - Lieferanten-Performance-Episoden, vergangene Zugeständnisse, Schlüsseldaten, Entscheidungsträger-Präferenzen.
  • Realistischer ROI - 5-12 % bessere Konditionen bei Verlängerungen, deutlich weniger versäumte Compliance-Fristen.

Use Case 4: Interner Helfer-Agent für HR und IT

  • Warum Memory - Dieselben Mitarbeitenden stellen dieselben Fragen und haben dasselbe Setup. Memory von Person, Hardware und früheren Anfragen verwandelt den Agenten von einer Suchbox in einen Assistenten.
  • Was sich merken - Rolle, Standort, Vorgesetzte/r, Ausstattung, frühere Tickets, gelernte Präferenzen.
  • Realistischer ROI - 40-70 % weniger Wiederholungs-Tickets, höhere Mitarbeiterzufriedenheit mit interner IT.

Use Case 5: Vertriebs-Account-Agent

  • Warum Memory - Vertrieb ist Beziehungsarbeit. Der Agent, der sich jedes frühere Gespräch, jede Zusage und jedes persönliche Detail merkt (Urlaub des Kontakts, Geburtstag des Kindes, letzter Einwand), wird zum permanenten Gedächtnis des SDR.
  • Was sich merken - Account-Historie, kontaktbezogene Fakten und Präferenzen, Pipeline-Status, frühere Einwände und ihre Behandlung.
  • Realistischer ROI - 1-2 Stunden pro Vertriebs-Person und Woche zurückgewonnen, messbarer Win-Rate-Hub bei langen Deals.

Use Case 6: Onboarding- und Wissens-Transfer-Agent

  • Warum Memory - Neue Mitarbeitende haben einen 30- bis 90-Tage-Pfad zur Produktivität. Ein Agent, der weiß, was sie schon gelernt haben, wo sie kämpfen und wo Lücken sind, kann den Pfad personalisieren.
  • Was sich merken - Behandelte Themen, Verständnissignale, rollen-spezifische Wissensbedarfe, vom Vorgesetzten gesetzte Ziele.
  • Realistischer ROI - 30-50 % kürzere Time-to-Productivity, niedrigere Frühfluktuation.

“Memory ist jetzt erstklassiger Architektur-Bestandteil mit eigener Benchmark-Suite, eigener Forschungs-Literatur, einer messbaren Performance-Lücke zwischen Ansätzen und einem schnell wachsenden Tool-Ökosystem.”

- Mem0-Forschungsteam, State of AI Agent Memory 20265

Die 7 Memory-Fallen, die Mittelstands-Projekte entgleisen lassen

Das Muster der Fehler quer durch frühe Agenten-Deployments ist konsistent genug, um es zu nummerieren. Jede ist vermeidbar; fast alle treten in den ersten sechs Monaten auf.

  1. Alles speichern, nichts Nützliches abrufen - Das Team kippt jede Konversation in einen Vektor-Store und nennt das Memory. Retrieval wird verrauscht, Latenz steigt, der Agent halluziniert aus veralteten Einträgen. Fix: Memory beim Schreiben formen, nicht beim Lesen.
  2. Keine Eviction-Policy - Memory wächst monoton. Storage-Kosten steigen, DSGVO-Exposition wächst, Retrieval verlangsamt. Fix: Eviction in Woche eins designen - Zeitabklang für episodisch, Update bei Widerspruch für semantisch, versionierte Releases für prozedural.
  3. Keine Provenienz - Jeder Memory-Eintrag sollte erfassen, wer es gesagt hat, wann und mit welcher Konfidenz. Ohne Provenienz keine Widerspruchsauflösung, keine Löschung, kein Audit. Fix: Provenienz ist Pflichtfeld, nicht nice-to-have.
  4. Memory und Identität laufen über Nutzer hinweg - Multi-User-Agent teilt Memory über Konten, weil Namespacing nachträglich war. Ergebnis: sofortiger DSGVO-Vorfall und Glaubwürdigkeitsverlust. Fix: Namespace pro Nutzer, pro Projekt, pro Mandant ab dem ersten Commit.
  5. Anbieter-Memory und eigenes Memory im Konflikt - Das Team aktiviert Claude Memory oder ChatGPT Memory, schichtet eigenes drauf und schaut zu, wie sich beide widersprechen. Fix: eine Wahrheitsquelle pro Memory-Typ wählen, die andere als opt-in behandeln.
  6. Memory-Wachstum ungesteuert - Niemand verantwortet Dedup und Konsolidierung. Memory wächst quadratisch. Fix: benannter Eigentümer für den Konsolidierungs-Worker, wöchentliches Review der Memory-Größe pro Schicht.
  7. Recht auf Löschung als Nachgedanke - Nach sechs Monaten will ein Kunde vergessen werden, und das Team merkt, es kann nicht alle Einträge zu ihm finden. Fix: DSGVO-Controller im ersten Sprint bauen, nicht im letzten.

Wenn Memory sich auszahlt

  • Dieselben Nutzer kommen wiederholt
  • Workflows ziehen sich über Tage, Wochen, Monate
  • Personalisierung beeinflusst Ergebnis-Qualität direkt
  • Vergangene Entscheidungen prägen zukünftige
  • Kundenbeziehungen sind lang und tief

Wenn Sie Memory weglassen können

  • Anonyme One-Shot-Agenten (Suche, FAQ)
  • Read-only-Lookups gegen ein bestehendes System
  • Wegwerf-Prototypen und Ein-Wochen-Analysen
  • Use Cases mit strikter Null-Aufbewahrung
  • Workloads, die von RAG über statischen Korpus dominiert sind

DSGVO, Recht auf Löschung und die Audit-Story

Memory ist personenbezogenes Datum in dem Moment, in dem es etwas über eine identifizierbare Person speichert. Das ist der gesamte DSGVO-Stack, angewandt auf eine Systemarchitektur, die die meisten Mittelstands-IT-Teams bisher nicht steuern mussten. Die gute Nachricht: Die Pflichten sind konkret und die Muster sind gut verstanden.

Artikel 17 - das Recht auf Löschung

  • Was es praktisch heißt - Auf Antrag müssen Sie jeden Memory-Eintrag zur Person über alle Schichten, alle Stores und alle Backups innerhalb eines definierten Zeitfensters löschen24.
  • Architektonische Konsequenz - Jeder Memory-Eintrag muss mit Betroffenen-ID getaggt sein. Ohne dieses Tag können Sie den Antrag nicht erfüllen. Ohne ihn haben Sie ein Regulator-Problem.
  • Mittelstands-Aktion - DSGVO-Controller als erstklassigen Service bauen. Ein API-Call, ein Knopf, vollständige Löschung über Schichten.

Rechtsgrundlage und Zweckbindung

  • Was es heißt - Jede Memory-Schreibung braucht eine Rechtsgrundlage (Vertrag, Einwilligung, berechtigtes Interesse) und einen definierten Zweck. Der Agent darf nicht eigenmächtig entscheiden, sich etwas für eine spätere unrelated-Verwendung zu merken.
  • Architektonische Konsequenz - Memory-Schemata sollten den Zweck zur Schreibzeit kodieren. Memory, geschrieben für „Kundenservice-Historie“, kann später nicht für „Vertriebs-Targeting“ umgewidmet werden.
  • Mittelstands-Aktion - Memory-Zweck-Register führen, von Compliance und Datenschutzbeauftragtem abgezeichnet.

Aufbewahrungsgrenzen

  • Was es heißt - Memory darf nicht ewig aufbewahrt werden; Aufbewahrung nicht länger als für den Zweck nötig. Verschiedene Aufbewahrungsregeln pro Datenkategorie.
  • Architektonische Konsequenz - Zeitabklang- und Eviction-Policies sind nicht optional; sie sind DSGVO-vorgeschrieben.
  • Mittelstands-Aktion - Aufbewahrung pro Memory-Typ in einem Policy-Dokument kodifizieren, dann im Eviction-Worker implementieren.

Auftragsverarbeitung pro Memory-Anbieter

  • Was es heißt - Jeder externe Memory-Anbieter (Pinecone, Mem0 Cloud, Letta Cloud, OpenAI für Embeddings) braucht einen unterzeichneten AVV.
  • Architektonische Konsequenz - Anbieterliste kurz halten, Selbst- oder EU-Hosting bevorzugen, Datenflüsse dokumentieren.
  • Mittelstands-Aktion - Je kürzer die AVV-Liste, desto einfacher Compliance- und Betriebsrats-Gespräche.

EU-KI-Verordnung Artikel 4

  • Was es heißt - Angemessene KI-Kompetenz für alle Nutzer und Steuerer von KI-Tools, einschließlich derer, die Memory-Policy setzen25.
  • Architektonische Konsequenz - Memory-Governance ist Teil des KI-Kompetenz-Curriculums, nicht separater Track.
  • Mittelstands-Aktion - 30-Minuten-Memory-und-Datenschutz-Modul in die Artikel-4-Schulung aufnehmen.

Ein 90-Tage-Memory-Implementierungsplan

Die Arbeit teilt sich in drei 30-Tage-Sprints. Bis Tag 90 hat ein Mittelstands-Team Memory in einem produktiven Agenten live, mit Architektur, Governance und Audit-Story bereit zu skalieren.

Tage 0-30: Fundamente und ein Agent mit Memory

  • Framework wählen - Mem0 für „merke dir den Nutzer“, Letta für „autonomer Agent mit Langzeit-Kohärenz“. In Woche eins entscheiden.
  • Stores aufsetzen - Postgres für relationales Memory, pgvector oder Qdrant für semantisches, ein S3-artiges Bucket für Archival.
  • DSGVO-Controller verdrahten - Ein Service, eine API, mappt Betroffenen-IDs auf alle Memory-Einträge. Keine Ausnahmen.
  • Einen Agenten wählen - Den Use Case mit höchstem Memory-Payoff und niedrigstem Risiko. Interner Helfer, Vertriebs-Account oder B2B-Service sind typische Startpunkte.
  • Memory-Schema definieren - Episodisch, semantisch, prozedural pro Eintrag. Provenienz, Zeitstempel, Konfidenz, Zweck, Aufbewahrung.

Tage 31-60: Governance, Evaluation und Konsolidierung

  • Eviction-Policy schreiben - Zeitabklang für episodisch, Update-bei-Widerspruch für semantisch, versionierte Releases für prozedural. Im Worker kodifizieren.
  • Konsolidierungs-Job bauen - Wöchentlicher geplanter Lauf, der Recall in Archival komprimiert, Widersprüche dedupliziert, veraltete Einträge entfernt.
  • Memory-Metriken in die Evaluation - Recall-Genauigkeit, Widerspruchsrate, memory-getriebene Nutzerzufriedenheit, Wachstum pro Nutzer und Woche.
  • Artikel-4-Modul ausrollen - Memory- und Datenschutz-Schulung für alle Berührten.
  • Trust-Map durch Compliance und Betriebsrat - Memory macht den Agenten stateful; die Trust-Map braucht Update.

Tage 61-90: Härten und zweiter Agent

  • DSGVO-Controller stresstesten - Vollständige Löschung an einem Test-Nutzer durchspielen, über jeden Store und jedes Backup verifizieren. Das ist die Audit-Story.
  • Zweiten Agenten anschließen - Memory-Framework wiederverwenden, separater Namespace. Memory darf nicht über Agenten bluten.
  • Architektur dokumentieren - Ein-Seiten-Diagramm, Aufbewahrungs-Policy, Anbieterliste mit AVVs, Eskalationskontakte.
  • Quartals-Review-Kadenz setzen - Memory-Größe pro Schicht, Retrieval-Qualität, Widerspruchsrate, DSGVO-Antwortzeit.
  • Nächste zwei Agenten planen - Das Framework existiert; neue Agenten bringen Fähigkeit, keine Architektur.

Tag-90-Mindest-Memory-Stack

  • Memory-Framework gewählt und integriert (Mem0 oder Letta)
  • Drei-Schichten-Architektur in Betrieb (Core, Recall, Archival)
  • Postgres + Vektor-Index live, mit Provenienz-Feldern
  • Konsolidierungs-Worker geplant und überwacht
  • Eviction-Policy dokumentiert und durchgesetzt
  • DSGVO-Controller mit stress-getesteter Löschung
  • Memory-Schema mit Zweck und Aufbewahrung pro Eintrag
  • Audit-Log, das jede Schreibung und Lesung erfasst
  • Artikel-4-Memory-und-Datenschutz-Schulung ausgerollt
  • Quartals-Review-Kadenz mit benannten Eigentümern

Wie Superkind in die Memory-Schicht passt

Superkind baut maßgeschneiderte KI-Agenten für den Mittelstand, mit der Memory-Schicht als erstklassigem Architektur-Bestandteil statt Nachgedanke. Wir besitzen typischerweise die Memory-Framework-Integration, den DSGVO-Controller, den Konsolidierungs-Worker und die Trust-Map-Updates, die mit dem Stateful-Werden eines Agenten kommen.

  • Drei-Schichten-Memory-Architektur in Ihrem Tenant - Mem0 oder Letta in Ihrer Umgebung gehostet, mit EU-residenten Vektor- und relationalen Stores als Default.
  • DSGVO-Controller am ersten Tag gebaut - Ein Service, eine API, vollständige Löschung über Schichten und Backups. Vor dem ersten Produktivnutzer stresstetest.
  • Memory-Schema-Design mit Ihren Domänen-Experten - Episodische, semantische, prozedurale Felder auf Ihren tatsächlichen Use Case zugeschnitten. Keine generische Vorlage.
  • Konsolidierungs- und Eviction-Worker als Plattform-Bestandteil - Kein einmaliges Setup, sondern dauerhaftes Operating-Model-Stück.
  • Memory-Metriken im Eval-Harness - Recall-Genauigkeit, Widerspruchsrate, Wachstum pro Nutzer, Audit-Antwort-Latenz. Die Zahlen, die zeigen, ob Memory gesund ist.
  • MCP-basierte Anbindung interner Systeme - SAP, DATEV, SharePoint, eigene CRMs als Memory- und Tool-Quellen, gesteuert und auditiert.
  • Trust-Map- und Betriebsrats-Abstimmung - Das Stateful-Agenten-Gespräch, mit Compliance und Betriebsrat geführt, mit aktualisierter Trust-Map für Memory.
  • 90-Tage-Produktions-Meilenstein - Erster Memory-Agent in 90 Tagen live, DSGVO-konform, mit dokumentiertem ROI.

Wann Superkind der richtige Partner ist

  • Sie haben einen oder mehrere Agenten, die Memory brauchen, um produktiv zu werden
  • Sie brauchen EU-residentes Memory und eine saubere DSGVO-Story
  • Ihre Agenten müssen mit SAP, DATEV oder Legacy-Systemen integrieren
  • Sie wollen Memory einmal designen, über viele Agenten nutzen
  • Compliance- und Betriebsrats-Abstimmung zählt vom ersten Tag

Wo Sie eine andere Option vorziehen

  • Sie brauchen nur Anbieter-Memory (Claude oder ChatGPT für Einzelpersonen)
  • Ihr Use Case ist read-only, anonym, One-Shot
  • Sie haben ein eigenes ML-Plattform-Team, das das selbst baut
  • Sie wollen eine Black-Box-SaaS ohne Integration in Ihre Systeme

Entscheidungs-Framework: Braucht dieser Agent Memory?

Eine einfache Sechs-Dimensionen-Prüfung, die einer Mittelstands-IT-Führung hilft zu entscheiden, ob der Agent vor ihr die Memory-Investition wert ist.

DimensionMemory weglassenMemory hinzufügenMemory ist kritisch
WiederkehrrateEinmalig / anonymGelegentlichTäglich, derselbe Nutzer
Workflow-LängeEinzelne SitzungWenige TageWochen-Monate
Personalisierungs-WirkungNiedrigMittelHoch (Kundenergebnis)
Vergangene Entscheidungen zählenNeinManchmalImmer (Compliance, Audit)
Volumen der InteraktionenNiedrigMittelHoch (Konsolidierung wertvoll)
DSGVO-SensibilitätNiedrig (keine PII)Mittel (handhabbar)Hoch (Governance zuerst)

Ein Agent mit drei oder mehr „hinzufügen“- oder „kritisch“-Spalten verdient die Investition. Ein Agent mit drei oder mehr „weglassen“-Spalten braucht es vermutlich nicht - und die Disziplin, nein zu sagen, ist Teil des Operating Models.

Häufig gestellte Fragen

Persistenter Kontext ist alles, was der Agent über Sitzungen, Nutzer und Zeit hinweg behält - Fakten über den Nutzer, frühere Gespräche, gelernte Präferenzen, laufende Aufgaben und prozedurales Wissen, wie Dinge in Ihrer Umgebung erledigt werden. Er lebt außerhalb des LLM-Context-Windows in einem Memory-Store, wird auf Anforderung abgerufen und überlebt das Ende der Chat-Sitzung. Ohne persistenten Kontext beginnt jede Sitzung bei Null und der Agent fühlt sich jedes Mal wie ein Fremder an.

RAG (Retrieval Augmented Generation) zieht typischerweise aus einem statischen Korpus, den Sie steuern - Dokumente, Handbücher, Wissensbasis. Memory ist online, dynamisch und vom Agenten selbst geformt - er schreibt während der Interaktion neue Fakten, aktualisiert sie über die Zeit und entscheidet, was wert ist, behalten zu werden. RAG beantwortet "was steht im Handbuch?". Memory beantwortet "was hat dieser Kunde vor drei Monaten gefragt und was haben wir versprochen?".

Das von Letta/MemGPT inspirierte Muster, das 2026 Default geworden ist, teilt Memory in drei Schichten, der Computerarchitektur entlehnt: Core Memory lebt im Context Window wie RAM (klein, immer präsent, sofort verfügbar), Recall Memory hält durchsuchbare Gesprächshistorie außerhalb des Fensters wie ein Disk-Cache (per Tool-Call abgefragt), und Archival Memory ist Cold Storage für Langzeit-Fakten (per Vektorsuche abgefragt). Der Agent selbst entscheidet, was zwischen den Schichten befördert wird.

Vektor-Datenbanken (Pinecone, Qdrant, Weaviate, pgvector) sind stark bei Ähnlichkeitssuche - "finde alles zu diesem Thema". Graph-Datenbanken glänzen, wenn Beziehungen zählen - "finde jeden Vertrag dieses Kunden, jedes Ticket dazu, jeden Techniker, der daran gearbeitet hat". Die meisten produktiven Mittelstands-Agenten 2026 nutzen beides: einen Vektor-Index für semantischen Recall plus einen Graph- oder relationalen Store für Entitäts-Beziehungen und Transaktionen.

Für einen Mittelstands-Start ist Mem0 der richtige Default, wenn Ihr Use Case "Agent merkt sich Kunde oder Mitarbeitenden" lautet - es kommt mit sinnvollen Defaults und integriert in die meisten Agent-Frameworks. Letta ist die richtige Wahl für autonome Agenten, die feinkörnige Kontrolle brauchen, was im Kontext bleibt und was extern liegt. Eigenes nur, wenn ein domänenspezifischer Grund vorliegt (regulierte Branchen, souveränes Hosting, tiefe ERP-Integration) - und auch dann auf einem Open-Source-Memory-Framework, nicht von Null.

Memory ist personenbezogenes Datum in dem Moment, in dem es Information über eine identifizierbare Person speichert. Das löst den vollen DSGVO-Stack aus: Rechtsgrundlage pro Verarbeitung, Auskunftsanfragen, Recht auf Löschung, Aufbewahrungsgrenzen und Auftragsverarbeitungsverträge mit jedem externen Memory-Anbieter. Technische Konsequenz: Ihr Memory-Store muss gezielte Löschung pro Nutzer, pro Thema und pro Zeitraum unterstützen - und das Audit-Log muss zeigen, was wann abgerufen wurde. Vom ersten Tag an planen, nicht am Tag 200.

Drei Muster greifen zusammen. Erstens: Provenienz in jeden Memory-Eintrag schreiben - wer hat es gesagt, wann, in welchem Kontext, mit welcher Konfidenz. Zweitens: regelmäßiger Dedup- und Konsolidierungs-Lauf, der Widersprüche auflöst ("Kunde bevorzugt E-Mail" im März vs. "Kunde bevorzugt WhatsApp" im Oktober). Drittens: Human-in-the-Loop-Nutzer dürfen Memories explizit korrigieren. Schlechtes Memory wächst schneller als schlechte Prompts.

Für einen 200-Personen-Betrieb mit 5 bis 10 produktiven Agenten landet die Memory-Schicht typischerweise bei 800 bis 3.500 Euro pro Monat all-in. Das deckt eine Managed-Vektor-Datenbank ab (Pinecone Starter, Qdrant Cloud oder Weaviate Serverless), einen relationalen Store für episodisches Memory (Postgres reicht), ein Memory-Framework (Mem0 oder Letta Open-Source) und die Embedding-API-Kosten. Versteckte Kosten: Engineering-Zeit für Dedup, Konsolidierung und Eviction-Policy - zwei Engineering-Wochen pro Quartal einplanen.

Selektiv ja. Anthropic hat im April 2026 persistentes Memory zu Claude Managed Agents und zu Team- und Enterprise-Plänen hinzugefügt, OpenAI hat ChatGPT-Memory seit über einem Jahr, Google Gemini ebenso. Stark für individuelle Produktivität (Henri merkt sich seine Präferenzen sitzungsübergreifend). Nicht ausreichend für produktive Multi-User-Agenten, die in SAP, DATEV oder Ihr CRM integrieren - das Anbieter-Memory sieht diese Systeme nicht. Beide Schichten kombinieren.

Zu viel speichern, zu spät abrufen, nie vergessen. Die meisten frühen Agenten-Projekte kippen jede Konversation in einen Vektor-Store und meinen, Memory sei erledigt. Ergebnis: ein wachsender Berg, durch den Retrieval nicht navigieren kann, Latenz, die mit der Zeit steigt, und DSGVO-Exposition, die monatlich wächst. Gutes Memory ist geformt: weniger schreiben, strukturiert schreiben, entscheiden, was zählt, ausmustern, was nicht.

Memory wird zum geteilten Substrat, von dem Agenten unter Policy lesen und schreiben. Das richtige Muster ist namespaced Memory (pro Agent, pro Nutzer, pro Projekt) plus ein expliziter Handoff, der relevanten Kontext von einem Agenten zum nächsten übergibt, ohne alles zu kippen. Das falsche Muster ist globales Memory, in das jeder Agent schreiben und lesen darf - das wird in drei Monaten ein Korruptions-Pool.

Wenn derselbe Nutzer wiederkommt, wenn ein Workflow sich über Tage oder Wochen zieht, wenn Lernen aus vergangenen Ergebnissen zukünftige verbessert oder wenn der Agent sich Entscheidungen merken muss (und das Warum). Ein Read-only-Ersatzteil-Lookup-Agent braucht kein Memory. Ein Außendienst-Disponent, der seit zwei Jahren mit denselben Technikern arbeitet, unbedingt. Use Cases wählen, in denen Memory zahlt, und überspringen, wo es nicht zahlt - es ist kein Default für jeden Agenten.

Verwandte Artikel

Quellen

  1. Letta - Building Stateful Agents (Produktions-Evolution von MemGPT)
  2. GitHub - Letta (ehemals MemGPT)
  3. Letta Blog - MemGPT Is Now Part of Letta
  4. Letta Blog - Benchmarking AI Agent Memory: Is a Filesystem All You Need?
  5. Mem0 - State of AI Agent Memory 2026
  6. Vectorize - Mem0 vs Letta (MemGPT): AI Agent Memory Compared (2026)
  7. TokenMix - Mem0 vs Letta vs MemGPT 2026: AI Agent Memory Layer Comparison
  8. Hermes OS - AI Agent Memory Systems in 2026: Zep, Mem0, Letta and Dual-Layer Architectures
  9. Atlan - Best AI Agent Memory Frameworks in 2026: Compared and Ranked
  10. Analytics Vidhya - Architecture and Orchestration of Memory Systems in AI Agents (April 2026)
  11. Towards Data Science - A Practical Guide to Memory for Autonomous LLM Agents
  12. arXiv - Multi-Layered Memory Architectures for LLM Agents: Long-Term Context Retention
  13. arXiv - Benchmarking and Enhancing Long-Term Memory in LLMs
  14. OpenReview - ICLR 2026 Workshop: MemAgents - Memory for LLM-Based Agentic Systems
  15. Anthropic - Persistent Memory für Claude Managed Agents (Public Beta, April 2026)
  16. Bloomberg - Anthropic Tries to Win Users From ChatGPT With Memory Feature
  17. Reworked - Anthropic Adds Memory and Privacy Controls to Claude AI for Teams and Enterprises
  18. Anthropic - Model Context Protocol (MCP) Spezifikation
  19. DigitalApplied - Vector Databases for AI Agents 2026: 8 DBs Compared
  20. CallSphere - Vector Database Benchmarks 2026: pgvector, Qdrant, Weaviate, Milvus, LanceDB
  21. Firecrawl - Best Vector Databases in 2026: A Complete Comparison Guide
  22. PingCAP - Best Database for AI Agents 2026: Memory, State and RAG Guide
  23. Latent Space - Andrej Karpathy on Software 3.0 and LLM Memory Limitations
  24. DSGVO - Artikel 17: Recht auf Löschung (Recht auf Vergessenwerden)
  25. EU-KI-Verordnung - Artikel 4: KI-Kompetenz
  26. Bitkom - Künstliche Intelligenz in Deutschland Studienbericht 2026
  27. Gartner - Top Strategic Technology Trends for 2026
  28. Gartner - 40% of Enterprise Apps Will Feature Task-Specific AI Agents by 2026
Henri Jung, Co-Founder bei Superkind
Henri Jung

Co-Founder von Superkind. Henri hilft Mittelständlern und Konzernen, maßgeschneiderte KI-Agenten zu deployen, die wirklich zur Arbeitsweise ihrer Teams passen. Er brennt dafür, die Lücke zwischen dem, was KI kann, und dem Wert, den sie in echten Unternehmen schafft, zu schließen. Er glaubt, der Mittelstand hat alles, was er braucht, um in KI zu führen - er braucht nur den richtigen Ansatz.

Bereit, Ihren Agenten echtes Memory zu geben?

Wir helfen Mittelstands-IT-Teams, den Drei-Schichten-Memory-Stack und die DSGVO-Mechanik zu designen, die aus Stateless-Demos produktive Assistenten machen. Sprechen Sie mit Henri darüber, wie Ihre Memory-Schicht aussehen würde.

Demo buchen →