Der Moment, in dem ein IT-Leiter im Mittelstand merkt, dass sich etwas verschoben hat, ist meistens ein Dienstagnachmittag. Der neue KI-Agent läuft seit zwei Wochen. Eine Buchhalterin fragt: „Was ist unsere Richtlinie, wenn wir eine Kundengutschrift in DATEV stornieren wollen, während die Originalrechnung schon exportiert ist?“ Der Agent antwortet selbstbewusst. Die Antwort ist falsch. Die Forensik zeigt: der Agent hat die relevante Richtlinienseite nie erreicht - sie liegt drei Confluence-Klicks tief, in einem Screenshot eines SharePoint-Diagramms, in einem ausschließlich deutschen PDF, das der Agent nur als leeres Kästchen sehen konnte.
Der Agent hat nicht gelogen. Er hat gelesen, was er lesen konnte - eine Sidebar, einen Navigationsbaum, einen Marketing-Call-to-Action, drei halb geladene JavaScript-Widgets - und abgeleitet. Die eigentliche Richtlinie war unsichtbar. Der Agent hat mit einem Stapel Pixel und Chrome gearbeitet, wo eigentlich ein strukturiertes Dokument hätte stehen sollen. Das ist der Moment, in dem die meisten Mittelstands-Teams erkennen, dass ihr gesamter Dokumentationsbestand, seit 2008 liebevoll für menschliche Leser gepflegt, nie für den neuen primären Leser geschrieben wurde. Cloudflare hat es beim Launch von Markdown for Agents im April 2026 deutlich gesagt: „Rohes HTML an eine KI zu verfüttern ist, als würde man pro Wort dafür bezahlen, die Verpackung statt des Briefes zu lesen.“1
Dieser Leitfaden zeigt, was Agent-Native Documentation wirklich ist, warum das menschenzentrierte Wiki eine versteckte Steuer hat, die mit jedem zusätzlichen Agenten wächst, welche drei Oberflächen sich 2026 etabliert haben (llms.txt, Markdown-Endpoints, MCP-Server), wie ein 5.000-Seiten-Confluence agentenfähig wird, ohne ein zweites Doku-Team einzustellen, die sieben Fallen, die Mittelstands-Projekte zum Entgleisen bringen, und einen 90-Tage-Fahrplan. Geschrieben für IT-Leiter, Wissensmanager, Plattform-Engineers und den Geschäftsführer, der entscheiden muss, ob Dokumentation ein Projekt oder ein Produkt ist.
TL;DR
Dokumentation hat einen neuen primären Leser - KI-Agenten verbrauchen mittlerweile pro Tag mehr Doku-Seiten als Menschen, und sie lesen anders. Wikis, geschrieben für Klicks, Screenshots und Navigationsbäume, verschwenden 60 bis 80 Prozent ihrer Token auf HTML-Chrome und verschlechtern die Retrieval-Qualität.
Drei Oberflächen haben sich stabilisiert - llms.txt als öffentlicher Index, Markdown-Endpoints (Accept: text/markdown oder /index.md) als Lingua franca, MCP-Server als lebende, authentifizierte Schnittstelle. Cloudflare, Anthropic, Stripe, Vercel und Zapier liefern bis April 2026 mindestens zwei der drei aus.
Die Token-Ökonomie ist real - Cloudflare hat eine Token-Reduktion von 80 Prozent gemessen, als ein einzelner Blogartikel von HTML auf Markdown umgestellt wurde (16.180 zu 3.150)1. Für ein Mittelstands-Wiki ist das der Unterschied zwischen einer korrekten Antwort und einem Out-of-Context-Fehler.
llms.txt ist notwendig, aber nicht ausreichend - Es ist ein Index, kein Inhalt. Agenten holen llms-full.txt mehr als doppelt so oft wie den schlanken Index5. Interne Docs brauchen einen MCP-Server vor Confluence, SAP und DATEV - öffentliches Crawlen reicht nicht.
Die Mittelstand-spezifische Arbeit ist die Aufräumarbeit - Stabile Anker, Seiten-Konsolidierung, Screenshot-Ersatz, deutschsprachige Docs sichtbar machen. Die Umstellung eines 5.000-Seiten-Confluence ist 6 bis 10 Engineering-Wochen, das meiste automatisierbar; die strukturelle Aufräumarbeit braucht Urteil.
Das 12-Monats-Budget liegt bei 30.000 bis 90.000 Euro für die Docs-für-Agenten-Schicht (Markdown-Export-Pipeline, MCP-Server für interne Quellen, Governance). Der Payback ist die erste Agenten-Einführung, die funktioniert, weil sie lesen kann, was Ihr Team geschrieben hat.
Warum Agent-Native Documentation jetzt zählt
Sechs konkrete Gründe, warum Dokumentation vom stillen Backoffice-Projekt zur 2026-IT-Strategieentscheidung geworden ist.
- Agenten lesen mehr Docs als Menschen - Auf Doku-Seiten, die ihren Traffic instrumentiert haben, machen Agent- und Assistenten-Requests inzwischen die Mehrheit der Unique Reads aus. Der Cloudflare-Launch von Markdown for Agents bezieht sich direkt auf diese Verschiebung: Agenten sind der neue primäre Leser, und sie lesen strukturell, nicht visuell1.
- Markdown ist die Agent-Lingua-franca - Markdown ist zum universellen Austauschformat für Agenten und KI-Systeme geworden, mit expliziter Struktur, die Token-Verschwendung minimiert und Retrieval-Qualität maximiert2. Jeder moderne Coding-Agent (Claude Code, Cursor, OpenCode) sendet Accept-Header, die direkt Markdown anfordern.
- Die Token-Steuer summiert sich - Eine einzelne H2-Überschrift kostet rund drei Token in Markdown, in HTML zwölf bis fünfzehn. Über einen 50-Seiten-Confluence-Space ist der Unterschied sechsstellig in Token pro Agent-Run, und das Mittelstands-Team, das pro Token zahlt, sieht es innerhalb von Wochen auf der Rechnung1.
- llms.txt ist von experimentell zu erwartet gekippt - Bis April 2026 veröffentlichen Anthropic, Stripe, Zapier, Cloudflare, Vercel, Cursor, Postman und die meisten Entwicklertool-Docs eine llms.txt. Profound-Daten zeigen, dass Agenten llms-full.txt mehr als doppelt so oft holen wie den schlanken Index5.
- MCP ist von Spec zu Substrat geworden - Das Model Context Protocol hat im Q1 2026 die Marke von 97 Millionen monatlichen SDK-Downloads überschritten, mit Enterprise Readiness als oberster Roadmap-Priorität für 202612. MCP-Server sind der lebende, authentifizierte Weg, internes Confluence, SharePoint, SAP und DATEV für Agenten zugänglich zu machen.
- Der Mittelstands-Doku-Bestand ist besonders verwundbar - Mittelstands-Wikis sind typischerweise alt, tief, mehrsprachig, screenshotlastig und nebenbei gepflegt von den Leuten, die auch das Produkt liefern. Von allen Doku-Mustern ist das das teuerste, menschen-only zu lassen, und das lohnendste, agentenfähig zu machen.
Die definierende 2026-Statistik
Cloudflare hat eine Token-Reduktion von 80 Prozent gemessen, als derselbe Blogartikel von HTML auf Markdown umgestellt wurde - 16.180 Token auf 3.1501. Für ein Mittelstands-Wiki ist das der Unterschied zwischen einem Agenten, der korrekt antwortet, und einem, der mitten im Satz aus dem Kontextfenster läuft. Kein anderer Doku-Hebel im Jahr 2026 kommt an dieses Vielfache heran.
Die versteckte Steuer menschenzentrierter Dokumentation
Menschenzentrierte Dokumentation war nie falsch. Sie war richtig für die Zielgruppe, der sie diente. Das Problem ist, dass die Zielgruppe jetzt einen zweiten Leser mit komplett anderer Ergonomie umfasst, und die Muster, die Menschen begeistern, behindern Agenten aktiv. Sechs konkrete Muster, die sich zur versteckten Steuer addieren.
- HTML-Chrome ertränkt das Signal - Navigationsbäume, Sidebars, Breadcrumbs, Footer-Mega-Menüs, Cookie-Banner, Sharing-Widgets, Related-Content-Karussells. Nichts davon ist das Dokument; alles davon kostet Token. Cloudflares Messung von 16.180 Token HTML für 3.150 Token tatsächlichen Inhalt ist ein Fünf-zu-eins-Verhältnis von Chrome zu Substanz1.
- JavaScript-gerenderter Inhalt ist unsichtbar - Single-Page-App-Docs, die im Browser rendern, sind für die meisten Retrieval-Pipelines leer. Der Agent holt die URL, bekommt eine Hülle und sieht eine leere Seite. Bis das JS fertig ist, ist der Agent längst weiter.
- Screenshots und GIFs sind opak - Ein Visio-Prozessdiagramm als PNG eingebettet ist für einen reinen Text-Agenten unsichtbar und für ein Vision-Modell rund 1.500 bis 4.000 Token von nichts Verwertbarem. Die strukturierte Information, die das Diagramm vermittelt, fehlt, sofern niemand sie daneben in Text geschrieben hat.
- „Klicken Sie hier“-Navigation bricht Retrieval - „Siehe Troubleshooting-Bereich“ mit einem Hyperlink liest sich für einen Menschen wie eine Anweisung und für einen Agenten, der nur diese Seite geholt hat, wie eine Sackgasse. Der Agent weiß nicht, dass er dem Link folgen soll - und hätte nicht das Auth-Cookie, falls doch.
- GUI-Walkthroughs hängen von dem ab, was der Agent nicht sehen kann - „Klicken Sie das Zahnrad, dann Einstellungen, dann den zweiten Tab“ ist ohne die Screenshots nicht ausführbar. Ein Agent kann nicht klicken; er braucht den darunterliegenden API-Call, den Konfigurationsschlüssel, den Dateipfad. Jeder GUI-Walkthrough ist eine fehlende API-Doku, die noch geschrieben werden müsste.
- PDFs sind leise katastrophal - Ein gescanntes Richtlinien-PDF von 2014 ist eine Wand aus Pixeln, mit dem OCR, das Ihre Retrieval-Pipeline gerade hat. Tabellen werden zu Wortlisten. Mehrspaltige Layouts verschachteln Unsinn. Der Mittelstands-SOP-Bestand besteht zu grob 30 bis 70 Prozent aus PDFs, und jedes ist eine kleine Katastrophe.
Der definierende Test
Führen Sie curl gegen die wichtigste Seite Ihres Wikis aus, mit dem Header Accept: text/markdown. Wenn die Antwort HTML, ein Fehler oder ein Marketing-Redirect ist, ist Ihre Dokumentation nicht agent-native und Ihr Agent rät, wann immer er nach dieser Seite gefragt wird.
Warum die Steuer von innen schwer zu sehen ist
- Menschen kompensieren leise - Wenn ein Mensch etwas im Wiki nicht findet, fragt er einen Kollegen, sucht nochmal, oder lebt damit, es nicht zu wissen. Die Kompensation ist unsichtbar. Ein Agent kompensiert nicht; er antwortet falsch, mit Selbstbewusstsein.
- Die Wiki-Tools optimieren für Menschen - Confluence, SharePoint, Notion, MediaWiki - alle haben das letzte Jahrzehnt damit verbracht, das visuelle Leseerlebnis zu optimieren. Der Markdown-Export ist eine Nebensache, die API ist rate-limitiert, und das Seiten-Chrome ist schwer sauber zu strippen.
- Die Kosten leben in der Agent-Rechnung, nicht in der Wiki-Rechnung - Token-Verschwendung erscheint auf der OpenAI- oder Anthropic-Rechnung, nicht auf der Confluence-Rechnung. Das Team, das die Kosten zahlt, ist nicht das Team, dem das Wiki gehört, also wird die Optimierung nie priorisiert.
- Halluzinationen sehen aus wie korrekte Antworten - Wenn der Agent die echte Richtlinie nicht findet, produziert er etwas Richtlinien-Förmiges aus den Trainingsdaten. Das Mittelstands-IT-Team ohne eine Möglichkeit, Antworten gegen Ground Truth zu testen, merkt nie, dass der Agent sich Dinge ausdenkt.
Was Agent-Native Documentation wirklich ist
Wenn man die Vendor-Sprache abzieht, hat Agent-Native Documentation eine einfache Definition. Es ist derselbe Inhalt, den Ihre Menschen lesen, ausgeliefert über eine strukturierte Oberfläche, die ein Agent direkt aufnehmen kann, mit fünf Pflichteigenschaften.
- Markdown als kanonische Quelle - Markdown ist das Format, in dem das Dokument geschrieben ist oder verlustfrei dorthin exportiert. HTML, PDFs und GUI-Exporte sind abgeleitet; Markdown ist die Quelle der Wahrheit. Markdown ist zur Lingua franca für Agenten und KI-Systeme geworden2.
- Stabile, semantische Anker - Jeder Abschnitt hat ein stabiles URL-Fragment, das sich nicht ändert, wenn die Seite umorganisiert wird. Ein Agent, der letzte Woche /policies/credit-notes#cancellation abgerufen hat, kann diese Woche denselben Anker abrufen. Anker-Instabilität ist der stille Killer der Retrieval-Qualität.
- Strukturierte Überschriften, Tabellen und Listen - H2 und H3 tragen Bedeutung, nicht nur visuelles Gewicht. Tabellen sind Markdown-Tabellen, keine Bilder von Tabellen. Listen sind echte Bullet- oder nummerierte Listen. Die Struktur ist das, was der Agent nutzt, um das Dokument in abrufbare Stücke zu zerlegen.
- Maschinenadressierbarer Index - Eine llms.txt im Root, eine sitemap.xml, die die Markdown-URLs enthält, oder ein MCP-Server mit einem list_documents-Tool. Der Agent muss entdecken können, was existiert, ohne die ganze Menschen-Site zu crawlen.
- Auth-bewusste Auslieferung für interne Inhalte - Interne Docs laufen über einen MCP-Server, der die Benutzeridentität und Dokument-Permissions respektiert. Der Agent sieht immer nur die Chunks, die der aufrufende Benutzer sehen darf.
| Eigenschaft | Menschenzentriertes Wiki | Agent-Native Docs |
|---|---|---|
| Quellformat | HTML aus CMS gerendert | Markdown, kanonisch und exportierbar |
| Discovery | Navigationsbaum + Suchfeld | llms.txt + Sitemap + MCP list_documents |
| Anker | Auto-generiert, ändern sich | Stabil, slugifiziert, kuratiert |
| Visuals | Screenshots, Diagramme, GIFs | Markdown-Tabellen + beschriebene Schritte neben Bildern |
| Auslieferung | HTML über HTTPS für Browser | Accept: text/markdown oder /index.md, MCP für intern |
| Auth | Session-Cookie | OAuth 2.1 mit On-Behalf-of für interne Docs |
| Token-Kosten | 5- bis 10-fach Markdown-Baseline | Markdown-Baseline, 80 Prozent schlanker |
Die drei Oberflächen, die jeder Agent-Native-Stack braucht
Der 2026-Konsens, der sich in den Implementierungen von Cloudflare, Anthropic, Vercel, Stripe und Mintlify spiegelt, teilt Agent-Native Documentation in drei Oberflächen. Jede löst ein anderes Retrieval-Problem und hat ein anderes Governance-Modell. Sie als eine zu behandeln oder eine zu überspringen ist der häufigste Mittelstands-Fehler.
Oberfläche 1: llms.txt - der öffentliche Index
- Was es ist - Eine einfache Markdown-Datei unter /llms.txt, die die wichtigsten Dokumentationsseiten als Markdown-Links mit jeweils einer Zeile Beschreibung listet5. Optional gepaart mit /llms-full.txt, das den vollen Inhalt für One-shot-Ingestion inline enthält.
- Was es tut - Es teilt einem Agenten mit, was existiert, ohne ihn zu zwingen, die ganze Site zu crawlen. Wirkt als kuratierter Einstiegspunkt, nicht als vollständiges Inventar.
- Wo es hineinpasst - Öffentliche Dokumentation, Marketing-Seiten, die ein Agent kennen sollte, partnerorientierte Docs. Überall dort, wo ein menschenlesbarer Index auch sinnvoll wäre.
- Was es nicht tut - Es verbessert klassisches SEO nicht, und große KI-Anbieter haben sich nicht verpflichtet, es automatisch zu lesen5. Behandeln Sie es als Optimierung für Agenten, die ohnehin danach suchen.
Oberfläche 2: Markdown-Endpoints - die Lingua franca
- Was es ist - Jede Doku-Seite verfügbar als Markdown, entweder über Content-Negotiation-Header (Accept: text/markdown) oder über eine URL-Konvention (.md oder /index.md-Suffix)2.
- Was es tut - Liefert den tatsächlichen Inhalt, vom HTML-Chrome befreit, als Markdown, das der Agent direkt in den Kontext einfügen kann. Cloudflare hat 80 Prozent Token-Reduktion auf einem einzelnen Blogartikel gemessen; dasselbe gilt für Mittelstands-Wiki-Seiten.
- Wo es hineinpasst - Alle öffentliche Dokumentation. Die Mintlify-, Docusaurus- und Hugo-Ökosysteme machen das nahezu trivial; für eine selbstgebaute Doku-Site ist die Arbeit eine Middleware, die Chrome strippt und Markdown ausliefert.
- Was es ersetzt - HTML-Scraping-Pipelines, Custom-Crawl-and-Clean-Code und die fragilen Workarounds, die Mittelstands-Teams aktuell pflegen, um Wikis in RAG zu füttern.
Oberfläche 3: MCP-Server - die authentifizierte Schnittstelle
- Was es ist - Ein Model-Context-Protocol-Server vor Ihrer internen Dokumentation (Confluence, SharePoint, SAP-Hilfe, DATEV-Handbücher), der Suche, Retrieval und Listing als MCP-Tools bereitstellt11.
- Was es tut - Liefert chunked Markdown für eine Anfrage, respektiert die Benutzeridentität, wendet Dokument-ACLs an, und produziert einen Audit-Trail.
- Wo es hineinpasst - Interne Docs, alles hinter Auth, alles, was Query-Parameter oder Filter braucht, und alle Inhalte, die schneller wechseln, als Crawling mithalten kann.
- Standard-Stack - MCP-Authorization basiert auf OAuth 2.1 mit PKCE und RFC 8707 Resource Indicators16. Identitätspropagierung, damit der Audit-Trail bei einem Menschen endet, nicht beim Agenten.
| Oberfläche | Format | Auth | Geeignet für |
|---|---|---|---|
| llms.txt | Statischer Markdown-Index | Öffentlich | Discovery, öffentliche Docs |
| Markdown-Endpoint | Markdown via Header oder .md-URL | Öffentlich oder Token | Öffentliche Inhaltsauslieferung |
| MCP-Server | Tool-Calls liefern Markdown | OAuth 2.1 + On-Behalf-of | Intern, dynamisch, authentifiziert |
Der 2026-Stack: llms.txt, Markdown for Agents, MCP
Die drei Standards haben sich in spezifische Schichten gesetzt, die gut komponieren. Keiner ist neu; die Kombination ist neu - und das, was jedes Mittelstands-IT-Team beim Namen kennen muss.
llms.txt und llms-full.txt
- Was es ist - Jeremy Howards 2024er Vorschlag: eine /llms.txt-Datei am Site-Root, die die Top-Doku-Seiten als Markdown-Links auflistet, optional gepaart mit /llms-full.txt, das den gesamten Doku-Bestand inline enthält7.
- Warum es für den Mittelstand zählt - Es ist der billigste Agent-Readiness-Move überhaupt. Die meisten CMS- und Static-Site-Generatoren (Mintlify, Docusaurus, Astro) erzeugen llms.txt automatisch aus Sitemap und Frontmatter. Die Adoption durch Anthropic, Stripe, Vercel, Zapier und Cloudflare macht es zur De-facto-Baseline für Dokumentation 20265.
- Die ehrliche Einschränkung - llms.txt verbessert Suchrankings nicht, OpenAI und Perplexity verpflichten sich nicht, es zu lesen, und 8 von 9 gemessenen Sites verzeichneten keine Traffic-Veränderung nach der Veröffentlichung5. Veröffentlichen Sie es, weil Agenten, die es abrufen, besser performen, nicht weil Sie Magie erwarten.
- Das Mittelstands-Muster - Generieren Sie llms.txt automatisch aus Ihrer Sitemap. Generieren Sie llms-full.txt für jeden Doku-Space unter 200.000 Token Gesamtinhalt. Beide sind statische Dateien; Aktualisieren ist ein CI-Step.
Markdown for Agents
- Was es ist - Cloudflares April-2026-Launch, der jede Doku-Seite als Markdown verfügbar machte, über Accept: text/markdown-Header und /index.md-URL-Suffixe, mit Response-Headern, die die Token-Anzahl signalisieren1. Beta-frei verfügbar für Pro-, Business- und Enterprise-Pläne.
- Warum es für Agenten zählt - Coding-Agenten (Claude Code, Cursor, OpenCode) senden bereits Accept-Header, die Markdown anfordern. Wenn die Doku mit Markdown antwortet, bekommt der Agent sauberen, strukturierten Inhalt; wenn nicht, fällt er auf HTML zurück und zahlt die Token-Steuer.
- Was die Header beitragen - Der x-markdown-tokens-Header in der Response sagt dem Agenten, wie viel Kontext das Dokument verbrauchen wird, bevor er es anfordert - das ermöglicht intelligentes Kontext-Budgeting2. Content-Signal-Header (ai-train, search, ai-input) sagen dem Agenten, welche Nutzung erlaubt ist.
- Das Mittelstands-Muster - Für Sites, die schon auf Cloudflare laufen, Feature aktivieren. Für selbst gehostete Docs eine Content-Negotiation-Middleware ergänzen, die Markdown zurückgibt, wenn der Accept-Header danach fragt. Beides ist ein Engineering-Tag.
MCP-Authorization für interne Docs
- Was es ist - Die Model-Context-Protocol-Authorization-Spezifikation, basierend auf OAuth 2.1 mit PKCE und RFC 8707 Resource Indicators11. MCP-Server fungieren als OAuth-Resource-Server; Agenten präsentieren scoped, kurzlebige Token, um sie aufzurufen.
- Warum es für Dokumentation zählt - Interne Docs brauchen Authentifizierung. MCP gibt Ihnen einen einzigen, standardisierten, auditierbaren Weg, Confluence, SharePoint, SAP-Hilfe und DATEV-Handbücher für Agenten zugänglich zu machen, ohne pro Quelle ein Auth-Schema zu erfinden. Stand März 2026 hat MCP 97 Millionen monatliche SDK-Downloads überschritten12.
- Die 2026-Enterprise-Priorität - Die 2026er-MCP-Roadmap nennt Enterprise Readiness als oberen Fokusbereich, neben Transport-Evolution, Agent Communication und Governance Maturation13. Audit-Trails, SSO-integrierte Auth und Gateway-Verhalten sind die Lücken, die geschlossen werden.
- Das Mittelstands-Muster - Ein interner MCP-Server pro großer Quelle (Confluence, SAP, DATEV). Alle hinter demselben OAuth-2.1-Issuer. Identitätspropagierung durch den Agenten, damit der Audit-Trail bei einem Menschen endet.
„Markdown ist schnell zur Lingua franca für Agenten und KI-Systeme insgesamt geworden. KI-Agenten könnten die Komplexität von Intent-Analyse und Dokumentkonvertierung umgehen und stattdessen strukturiertes Markdown direkt erhalten.“
- Cloudflare-Engineering-Team zur Ankündigung von Markdown for Agents (April 2026)1
Wollen Sie Dokumentation, die Ihre Agenten wirklich lesen können?
Wir helfen Mittelstands-IT-Teams, Wikis, SAP-Handbücher und DATEV-Docs in agent-natives Markdown plus MCP-Server umzustellen - damit der nächste Agenten-Rollout beim ersten Mal funktioniert.

Eine Referenzarchitektur für Mittelstands-Agent-Native-Docs
Die Komponenten, die sich 2026 für produktionsreife Agenten-Dokumentation gesetzt haben. Keine ist neu; der Wert liegt in der sinnvollen Kombination für einen Mittelstands-Kontext und der Verdrahtung, die die nächste Wiki-Reorganisation überlebt.
- Eine kanonische Markdown-Quelle - Egal ob in Git, in einem Headless-CMS mit Markdown-Export (Sanity, Strapi) oder in Notion mit Markdown-Export. Die Quelle der Wahrheit ist Markdown; alles andere wird daraus gerendert.
- Static-Site-Generator für Menschen - Mintlify, Docusaurus, Astro oder Hugo. Rendert das Markdown zu HTML für menschliche Leser. Entscheidend: derselbe Generator emittiert llms.txt und die Markdown-Endpoints automatisch.
- llms.txt und llms-full.txt am Root - Automatisch aus Sitemap und Frontmatter generiert. Bei jedem Deploy aktualisiert. Indiziert von den Agenten-Plattformen, die danach suchen.
- Content-Negotiation-Middleware - Liefert Markdown, wenn Accept: text/markdown angefragt wird, sonst HTML. Fügt x-markdown-tokens-Response-Header für Kontext-Budgeting hinzu. Fünf Zeilen Code auf Cloudflare Workers, Vercel Edge oder jedem Reverse-Proxy.
- MCP-Server für interne Docs - Ein MCP-Server pro großer interner Quelle: Confluence-MCP, SharePoint-MCP, SAP-Hilfe-MCP, DATEV-MCP. Alle hinter einem einzigen OAuth-2.1-Issuer (Entra ID, Keycloak, Auth0).
- Identitätspropagierendes Gateway - Der Agent ruft den MCP-Server mit On-Behalf-of-User-Tokens. Der MCP-Server filtert Ergebnisse nach Dokument-ACL. Das Audit-Log erfasst Benutzer, Agent, Dokument, gelieferte Chunks.
- Markdown-Export-Pipeline - Nightly Job, der aus Confluence, SharePoint und DATEV über deren REST-APIs zieht, html-to-markdown plus strukturelle Aufräumarbeit ausführt und die Markdown-Quelle aktualisiert. Behandelt Screenshots durch Caption-Extraktion und OCR.
- Qualitätsmonitoring - 20 bis 50 kanonische Nutzerfragen, nightly durch den Agenten geschickt, gegen kuratierte korrekte Antworten bewertet. Regressionen via Slack oder E-Mail. Die Metrik, die Sie beobachten, ist „Antwortgenauigkeit“, nicht „indizierte Dokumente“.
| Komponente | Empfohlener Default | Souverän-EU-Option | Wann upgraden |
|---|---|---|---|
| Markdown-Quelle | Git-Repo, Branch-Protection | Self-Hosted Gitea oder GitLab | Immer; nicht verhandelbar |
| Static-Site-Generator | Mintlify oder Docusaurus | Astro oder Hugo, eigene llms.txt | Vom ersten Tag an |
| Markdown-Endpoint | Cloudflare Markdown for Agents | Self-Hosted-Middleware | Vor dem zweiten Agenten |
| MCP-Server | Outline-, Confluence-, Notion-MCP | Self-Hosted-MCP-Wrapper | Für jede interne Doku |
| Auth | Bestehendes Entra ID oder Okta | Keycloak self-hosted | Immer; vom IdP abgedeckt |
| Qualitätsmonitoring | Eigene Eval-Suite, 20-50 Prompts | Dasselbe, EU-gehostet | Vor erstem Produktiv-Rollout |
Der Mittelstands-Doku-Stack: Confluence, SharePoint, SAP, DATEV
Keine zwei Mittelstands-Doku-Bestände sehen gleich aus, aber die Quellsysteme schon. Fünf wiederkehrende Muster und wie sie in Agent-Native-Auslieferung übersetzen.
Confluence (das tiefe Wiki)
- Der Schmerz - 5.000 bis 50.000 Seiten, zehn Jahre angesammelte Struktur, tief verschachtelte Spaces, Screenshots aus alten UIs, halb veraltete Seiten, kein klarer Eigentümer pro Space.
- Das Agent-Native-Muster - Confluence-MCP-Server (Open-Source-Optionen auf mcp.directory17) plus nightly Markdown-Export nach Git für die kanonische Teilmenge. Der MCP-Server respektiert Confluence-Space- und Seiten-Permissions; der Markdown-Export deckt die 200 bis 500 Seiten ab, auf die das Geschäft tatsächlich angewiesen ist.
- Die Aufräumarbeit, die sich auszahlt - Seiten-Konsolidierung: Duplikate zusammenführen, Zombies archivieren, Anker korrigieren. Ein 5.000-Seiten-Confluence schrumpft oft auf 1.500 Seiten tatsächlich kanonischen Inhalts; der Rest ist Historie, die archiviert, nicht gelöscht werden sollte.
SharePoint (der Dokumentenfriedhof)
- Der Schmerz - Dokumentbibliotheken mit Tausenden von Word-, Excel- und PDF-Dateien. Mehrere Versionen derselben SOP. Ordnerstrukturen, die das Org-Chart von 2018 spiegeln, nicht das von 2026.
- Das Agent-Native-Muster - SharePoint-MCP-Server plus eine Markdown-Extraktions-Pipeline, die jedes Office-Dokument zu Markdown konvertiert (pandoc, docx-to-md, eigenes OCR für gescannte PDFs). Der MCP-Server respektiert SharePoint-Permissions über Microsoft Graph.
- Die Aufräumarbeit, die sich auszahlt - Pro-Dokument-Eigentümer und Letzte-Prüfung-Datum. Der Agent sollte alles Älteres als zwei Jahre und ohne Eigentümer als verdächtig behandeln und das dem Nutzer auch sagen.
SAP-Hilfe und DATEV-Handbücher (die Hersteller-Docs)
- Der Schmerz - Sie können sie nicht bearbeiten. Sie sind riesig. Sie sind für SAP-Basis-Administratoren oder DATEV-Berater geschrieben, nicht für die Mitarbeitenden, die das System nutzen. Die Information, die Sie brauchen, steckt in transaktionscode-spezifischen Notizen.
- Das Agent-Native-Muster - MCP-Wrapper um die Hersteller-Doku. SAP-MCP-Server existieren (K2View, Custom)20; DATEV-Pendants entstehen. Google hat Anfang 2026 einen Developer-Knowledge-MCP-Server genau für diese Problemklasse gelauncht14.
- Die Aufräumarbeit, die sich auszahlt - Kuratierte Overlay-Docs, die „unsere Art, X in unserem SAP zu tun“ festhalten - das Institutionswissen, das in Hersteller-Docs nicht steht. In Ihrer eigenen Markdown-Quelle abgelegt, neben den Hersteller-Docs ausgeliefert, im Retrieval höher gewichtet.
Notion und Coda (die neue Schicht)
- Der Schmerz - Schnell, leicht zu schreiben, organische Struktur, die in Monaten zum Labyrinth wird. Starker Einsatz von Datenbanken, eingebetteten Blöcken und Inline-Mentions, die nicht sauber exportieren.
- Das Agent-Native-Muster - Notion-MCP-Server (Notion liefert einen offiziellen) plus Markdown-Export-Pipeline für die kanonische Teilmenge. Der MCP-Server behandelt dynamische Queries; der Markdown-Export verankert die versionierte Quelle der Wahrheit.
- Die Aufräumarbeit, die sich auszahlt - Entscheiden, welche Notion-Datenbanken Referenzmaterial sind und welche Arbeitsentwürfe. Nur Referenzmaterial geht durch den Agenten; Entwürfe bleiben menschen-only, bis sie befördert werden.
PDF-SOPs und Richtlinien-Dokumente (der Long Tail)
- Der Schmerz - Hunderte PDFs, viele gescannt, viele nur auf Deutsch, viele mit Stempeln und Unterschriften. Die reichste Quelle für Richtlinien-Wahrheit und das schlechteste Format für Agenten.
- Das Agent-Native-Muster - Batch-OCR plus strukturierte Markdown-Extraktion. Moderne multimodale Modelle (GPT-4o, Gemini 2.5, Claude 3.7) machen das gut, aber das Ergebnis braucht menschliche Prüfung für die hochrelevanten Richtlinien. Markdown neben dem Original-PDF ablegen; das PDF ist das rechtliche Artefakt, das Markdown ist das, was der Agent liest.
- Die Aufräumarbeit, die sich auszahlt - Pro-PDF-Eigentümerzuordnung. Alles rechtlich Bindende bekommt einen benannten Eigentümer, der die Markdown-Extraktion alle sechs Monate prüft. Alles Historische kann wie es ist bleiben und als read-only markiert werden.
Vom PDF-Handbuch zur Copy-Paste-Spec: Das Umstellungs-Playbook
Die Umstellung von menschen-zentrierten zu agent-nativen Docs ist überwiegend Tooling und ein bisschen Urteilsvermögen. Sechs Schritte, die ein Mittelstands-Wiki in einem Quartal von leer zu agentenfähig bringen.
- Die kanonischen 10 Prozent identifizieren - Die meisten Wikis folgen einer Power-Law-Verteilung: 10 Prozent der Seiten beantworten 80 Prozent der Fragen. Identifizieren Sie sie über Analytics, Suchprotokolle oder durch Nachfragen beim Support-Team. Diese zuerst umstellen; der Long Tail kann warten.
- Markdown-Export - Confluence und SharePoint haben REST-APIs, die XHTML zurückgeben; pandoc konvertiert XHTML in 90 Prozent der Fälle verlustfrei zu Markdown. PDFs gehen durch OCR plus Markdown-Extraktion. Notion liefert nativen Markdown-Export.
- Chrome strippen - Navigations-Breadcrumbs, Related-Content-Widgets, Share-Buttons, Footer-Links, Edit-Metadaten entfernen. Nur den eigentlichen Inhalt behalten. Ein Regex-Pass erledigt das meiste; der Rest ist template-spezifisch.
- Screenshots durch strukturierten Text ersetzen - Für jeden Screenshot eine Markdown-Tabelle oder nummerierte Schritte schreiben, die dieselbe Information festhalten. Screenshot für Menschen behalten; der Agent liest den Text. KI-gestützter Alt-Text plus menschliche Prüfung skaliert das.
- Stabile Anker hinzufügen - Jede H2 und H3 bekommt einen kuratierten Anker: nicht nur „heading-1“, sondern „cancellation“. Mintlify und Docusaurus generieren Slugs automatisch; für handgepflegte Docs ein Frontmatter-Anker-Feld ergänzen.
- llms.txt und Markdown-Endpoints generieren - Ein CI-Step. Der Static-Site-Generator emittiert beides. Mit curl verifizieren. Fertig.
Umstellungs-Checkliste für einen Wiki-Space
- Top-50-Seiten via Analytics oder Support-Tickets identifiziert
- REST-API-Export zu XHTML konfiguriert und geplant
- Pandoc- oder html-to-markdown-Pipeline produziert sauberes Markdown
- Chrome-Strip-Regex angewandt und auf fünf Beispielseiten verifiziert
- Screenshot-Ersatz pro Seite entschieden (behalten, ersetzen oder beides)
- Kuratierte Anker für die Top-50-Seiten ergänzt
- llms.txt und llms-full.txt generiert und ausgeliefert
- Markdown-Endpoint via Accept-Header und /index.md erreichbar
- 20 kanonische Fragen vom Agenten korrekt beantwortet
- Seiten-Update-zu-Agent-Refresh-Zyklus gemessen (Ziel unter 1 Stunde)
Was Automatisierung übernimmt, was Menschen übernehmen
- Automatisierung übernimmt - HTML-zu-Markdown-Konvertierung, Sitemap-Generierung, llms.txt-Zusammenstellung, Anker-Slug-Generierung, Tabellen-Extraktion aus gut strukturiertem HTML, Alt-Text aus Bildern, OCR.
- Menschen übernehmen - Seiten-Konsolidierungs-Entscheidungen, Anker-Umbenennung für Stabilität, Screenshot-zu-Tabelle-Urteilsentscheidungen, Hersteller-Doc-Overlays, Richtlinien-Interpretation, Betriebsrat-Freigabe.
- Beide zusammen - Qualitätsbewertung: Menschen kuratieren das 20-Fragen-Test-Set, Automatisierung läuft nightly und meldet Regressionen.
Die 7 Dokumentations-Fallen, die Mittelstands-Projekte zum Entgleisen bringen
Das Versagensmuster ist konsistent genug, um es aufzulisten. Jede ist vermeidbar; fast alle passieren in den ersten sechs Monaten des Agenten-Rollouts, meistens weil niemand die Dokumentationsfrage explizit übernommen hat.
- Den Agenten ausliefern, bevor die Docs fertig sind - Der Agent geht live auf einem Confluence, das niemand umgestellt hat. Nutzer bekommen falsche Antworten, Vertrauen kollabiert, das Projekt wird gekillt, bevor die Docs aufholen. Lösung: Top-50-Seiten der relevanten Docs als Vorbedingung für den Go-Live umstellen, nicht als Follow-up.
- Zwei Wahrheitsquellen pflegen - Das Team schreibt in Confluence und pflegt separat eine Markdown-Kopie. Sie driften. Der Agent antwortet aus dem gestrigen Markdown, während der Mensch das heutige Confluence liest. Lösung: eine kanonische Quelle, zwei Oberflächen. Markdown-Quelle zu HTML für Menschen gerendert, als Markdown für Agenten ausgeliefert.
- Öffentliche llms.txt mit internem Inhalt - Das Team auto-generiert llms.txt aus der vollen Sitemap und veröffentlicht versehentlich interne Docs ins offene Web. Lösung: explizite Allowlist für llms.txt; interne Docs gehen über MCP, nicht über den öffentlichen Index.
- Screenshots und PDFs vergessen - Das Markdown sieht gut aus, bis der Agent auf das Richtlinien-Dokument trifft, das nur als gescanntes PDF existiert. Lösung: PDF-Inventar in Woche eins des Projekts; OCR plus strukturierte Markdown-Extraktion in Woche zwei.
- Identitätspropagierung im MCP-Server überspringen - Der MCP-Server liefert Dokumente, ohne die Permissions des aufrufenden Nutzers zu prüfen. Der Agent beantwortet Fragen, die eine Buchhalterin nicht stellen dürfen sollte, mit Inhalten aus dem Vorstands-Space. Lösung: OAuth 2.1 mit On-Behalf-of; der MCP-Server filtert nach der ACL des Nutzers, nicht des Agenten.
- Das Projekt als Einmalsache behandeln - Das Team liefert die Umstellung, erklärt den Sieg, geht weiter. Neue Seiten werden HTML-only geschrieben. In sechs Monaten rät der Agent wieder. Lösung: Doku-Richtlinien aktualisiert, CI-Checks für Markdown-Export, Neue-Seite-Checkliste mit Anker- und Ausschluss-Prüfung.
- Indizierte Seiten messen statt Antwortqualität - Das Dashboard zeigt 5.000 indizierte Seiten, der Agent gibt selbstbewusste falsche Antworten. Lösung: nightly Eval-Suite mit 20 bis 50 kanonischen Fragen und kuratierten korrekten Antworten. Die Zahl auf dem Dashboard ist „Antwortgenauigkeit“, nicht „ingestete Dokumente“.
Mittelstands-freundliche Doku-Wins
- Eine Markdown-Quelle, zwei Oberflächen gerendert
- llms.txt + Markdown-Endpoint + MCP-Server vom Tag 1 an
- Top-50-Seiten umgestellt vor erstem Agenten-Go-Live
- Identitätspropagierung in jedem MCP-Server erzwungen
- Nightly Eval-Suite trackt Antwortgenauigkeit, nicht Seitenzahl
Was zu vermeiden ist, auch unter Termindruck
- Den Agenten auf einem nicht umgestellten Wiki ausliefern
- HTML- und Markdown-Kopien parallel pflegen
- llms.txt ohne explizite Allowlist auto-veröffentlichen
- Screenshots und PDFs für den Agenten opak lassen
- Doku-Umstellung als einmaliges Projekt behandeln
„Der echte Wendepunkt für KI im Jahr 2026 ist nicht Autonomie, sondern die Reife der Infrastruktur - wo agentische Runtimes, GPU-Effizienz und Organisationsdesign entscheiden, wer gewinnt.“
- McKinsey Technology, Reimagining Tech Infrastructure for Agentic AI22
GoBD, EU-KI-Verordnung, DSGVO und der Betriebsrat
Agent-Native Documentation sitzt am Schnittpunkt dreier deutscher Mittelstands-Compliance-Regime. Keines davon erwähnt „Agent-Native Docs“ explizit; alle verlangen sie implizit, sobald ein Agent ein reguliertes Dokument liest.
EU-KI-Verordnung
- Artikel 4 (KI-Kompetenz) - Angemessene KI-Kompetenz für alle, die KI-Tools nutzen oder leiten25. Das Doku-Team schreibt jetzt für zwei Zielgruppen; das Agenten-Operating-Team muss verstehen, was die Doku-Oberfläche enthält. Kompetenz landet bei der Dokumentations-Governance, nicht nur beim Prompt Engineering.
- Artikel 14 (menschliche Aufsicht) - Eingebaute menschliche Aufsicht verlangt, dass Menschen Agenten-Antworten gegen Quelldokumente verifizieren können. Ohne Agent-Native Docs wird „die Antwort zur Richtlinie zurückverfolgen“ unmöglich, weil der Agent die Richtlinie nie direkt gelesen hat.
- Mittelstands-Aktion - Ein Absatz in Ihrer KI-Kompetenz-Schulung, der die Doku-Oberflächen (llms.txt, Markdown-Endpoint, MCP-Server) erklärt und was jede enthält.
DSGVO
- Auftragsverarbeitung (Artikel 28) - Jeder externe MCP-Server-Anbieter, jeder Doku-Hosting-Anbieter, jede Agenten-Plattform braucht einen unterschriebenen AVV. Liste kurz halten; jährlich prüfen.
- Auskunfts- und Löschrecht (Artikel 15 und 17) - Wenn ein Nutzer seine Daten anfragt, müssen Sie wissen, welche Dokumente der Agent in seinem Auftrag abgerufen hat. Identitätspropagierung durch den MCP-Server macht das technisch möglich.
- Mittelstands-Aktion - Identitätspropagierung als harte architektonische Anforderung. Das MCP-Audit-Log erfasst Nutzer, Dokument, Chunks. Löschanfragen erreichen sowohl das Quellsystem als auch die Observability der Agenten-Plattform.
GoBD und steuerrelevante Dokumentation
- Das Prinzip - Steuerrelevante Dokumente müssen unverändert, nachvollziehbar und reproduzierbar bleiben. Das BMF-Schreiben vom Juli 2025 hat die Regeln für digital gepflegte Aufzeichnungen präzisiert26. Dokumente, die der Agent liest, um steuerrelevante Fragen zu beantworten, gehören zur Doku-Kette.
- Mittelstands-Aktion - Das Original-PDF oder die Originalrechnung ist das GoBD-relevante Artefakt und muss in konformem Speicher archiviert werden. Die Markdown-Extraktion, die der Agent liest, ist eine Ableitung; markieren Sie sie als solche, verlinken Sie zurück zum Original, behalten Sie beides.
- Was Prüfer fragen - Zeigen Sie mir das Quelldokument, das der Agent zitiert hat, zeigen Sie mir den Trace, der die Agent-Antwort an diese Quelle bindet, zeigen Sie mir die Änderungshistorie der Markdown-Extraktion. Alle drei müssen zur Hand sein.
Betriebsrat
- Warum es zählt - Interne Doku enthält oft betriebsratsrelevante Inhalte (HR-Richtlinien, Leistungskriterien, Zeiterfassungs-Verfahren). Sie einem Agenten zugänglich zu machen heißt, dass Mitarbeitende Richtlinien-Interpretationen aus einer nicht-menschlichen Quelle erhalten können.
- Mittelstands-Aktion - Eine einseitige Vereinbarung mit dem Betriebsrat darüber, welche Doku-Spaces agentenlesbar sind, wie Richtlinien-Interpretationen attribuiert werden und welcher Eskalationsweg gilt, wenn eine Agent-Antwort ein Mitarbeitendenrecht berührt.
Ein 90-Tage-Implementierungs-Fahrplan
Die Arbeit teilt sich in drei 30-Tage-Sprints. Bis Tag 90 hat ein Mittelstands-Team die kanonischen 10 Prozent seiner Doku agent-native, mit llms.txt, Markdown-Endpoints und einem MCP-Server in Produktion für mindestens eine interne Quelle.
Tage 0-30: Inventar, Auswahl, erster Markdown-Export
- Doku-Bestand inventarisieren - Confluence-Spaces, SharePoint-Bibliotheken, Notion-Datenbanken, PDF-SOPs, Hersteller-Docs (SAP-Hilfe, DATEV-Handbücher). Eine Zeile pro Quelle, mit Größe, Eigentümer, Letzte-Prüfung-Datum.
- Die kanonischen 10 Prozent auswählen - Die Seiten, die 80 Prozent der Fragen beantworten. Über Analytics, Support-Tickets oder ein 30-minütiges Interview mit dem Support-Lead identifizieren.
- Markdown-Quell-Repo aufsetzen - Git-Repo, Branch-Protection, zwei Reviewer pro Merge. Hier lebt das kanonische Markdown.
- Erste Export-Pipeline - Ein Confluence-Space, über REST-API exportiert, mit pandoc konvertiert, in Git committed. Manuelle Aufräumarbeit auf den Top-20-Seiten.
- Die Richtlinie setzen - Einseitiges Dokument zu Markdown-als-Source-of-Truth, wer welchen Space besitzt, was öffentlich versus intern exportiert wird, Screenshot-zu-Tabelle-Richtlinien.
Tage 31-60: Oberflächen, MCP, erster Agent-Test
- Static-Site-Generator und llms.txt - Mintlify, Docusaurus oder Astro wählen. In eine Preview-Umgebung deployen. Verifizieren, dass llms.txt und llms-full.txt korrekt generiert und ausgeliefert werden.
- Markdown-Endpoint - Entweder Cloudflare Markdown for Agents oder eine eigene Middleware. Mit curl verifizieren, dass Accept: text/markdown sauberen Inhalt zurückgibt.
- Erster MCP-Server - Für eine interne Quelle (oft Confluence oder SharePoint). Hinter dem bestehenden OAuth-2.1-Issuer. Identitätspropagierung end-to-end getestet.
- 20-Fragen-Eval-Suite - 20 kanonische Nutzerfragen, kuratierte korrekte Antworten, nightly Run, der den Agenten bewertet. Das Dashboard, das das Team beobachtet.
- Erster End-to-End-Agent-Test - Pilot-Agent liest aus Markdown-Endpoint plus MCP-Server. Antwortqualität gegen das vorherige HTML-Scraping-Baseline vergleichen.
Tage 61-90: Härtung, zweite Welle, Operating Model
- PDF- und Screenshot-Konvertierung - Der Long-Tail-Inhalt. OCR-Pipeline plus strukturierte Markdown-Extraktion. Menschliche Prüfung für hochrelevante Richtlinien.
- Zweiter MCP-Server - Die nächste interne Quelle. Inzwischen ist das Plattform-Muster wiederholbar; weitere Server liefern schneller.
- CI-Checks für neue Seiten - Jede neue Doku-Seite durchläuft Markdown-Export, Anker-Check, Ausschluss-Listen-Check. Der Neue-Seite-Workflow enthält diese Gates.
- Qualitätsmonitoring skaliert - Eval-Suite auf 50 Fragen ausgebaut. Slack- oder E-Mail-Alarme bei Regressionen. Quartals-Review der Korrekt-Antwort-Kuration.
- Operating Model dokumentieren - Einseitiges Diagramm zu Quell-Repo, Generatoren, Oberflächen, MCP-Servern, Identitätspropagierung. Das Artefakt, mit dem der nächste Mitarbeitende beginnt.
Tag-90 minimal lebensfähige Agent-Native Docs
- Kanonische 10 Prozent der Docs in Markdown-Source-of-Truth
- Static-Site-Generator produziert sowohl HTML als auch llms.txt
- Markdown-Endpoint via Accept-Header und /index.md erreichbar
- Mindestens ein MCP-Server vor einer internen Quelle
- OAuth 2.1 mit On-Behalf-of-Identitätspropagierung
- Pro-Dokument-ACL vom MCP-Server respektiert
- 20+ Fragen Eval-Suite läuft nightly
- Seiten-Update-zu-Agent-Refresh-Zyklus unter 1 Stunde
- Artikel-4-Doku-Governance-Kompetenz vermittelt
- Operating-Model-Diagramm und einseitige Richtlinie vorhanden
Wo Superkind in Agent-Native Docs reinpasst
Superkind baut maßgeschneiderte KI-Agenten für den Mittelstand, mit Dokumentation als Teil der Architektur, nicht als separater Workstream. Wir übernehmen typischerweise die Markdown-Konvertierungs-Pipeline, die llms.txt- und Markdown-Endpoints, das MCP-Server-Design und das identitätspropagierende Gateway für die Agenten, die wir liefern.
- Doku-Umstellung als Teil des Agent-Builds - Wir liefern keinen Agenten auf nicht umgestellten Docs. Die kanonischen 10 Prozent sind Teil derselben Engagements, kein Folgeprojekt.
- Eine Markdown-Quelle, zwei Oberflächen - Quelle der Wahrheit in Git oder Ihrem Headless-CMS, gerendert zu HTML für Menschen und zu Markdown plus llms.txt für Agenten. Eine Quelle, kein Drift.
- MCP-Server für Confluence, SharePoint, SAP, DATEV - Off-the-Shelf, wo es einen gibt, Custom, wo nicht. Alles hinter Ihrem bestehenden OAuth-2.1-Issuer.
- Identitätspropagierung end-to-end - On-Behalf-of-User-Tokens durch jeden MCP-Server. Der Audit-Trail endet bei einem Menschen, nicht beim Agenten.
- PDF- und Screenshot-Pipeline - OCR plus strukturierte Markdown-Extraktion. Menschliche Prüfung bei hochrelevanten Richtlinien. Original-Artefakt für GoBD bewahrt.
- Qualitätsmonitoring als Service - 20 bis 50 kanonische Fragen, nightly Bewertung, Quartals-Kurations-Review mit Ihren Fachexperten.
- Compliance eingebaut - EU-KI-Verordnung Artikel-4-Kompetenz-Materialien zur Doku-Governance, DSGVO Artikel-28-AVV für jeden externen MCP-Anbieter, GoBD-Quelldokument-Verlinkung.
- Operating-Model-Übergabe - Wir hinterlassen Ihnen keine Black Box. Die CI-Checks, die Eval-Suite, der Neue-Seite-Workflow, das Diagramm - alles an Ihr Team für den Langfrist-Betrieb übergeben.
Wann Superkind der richtige Partner ist
- Sie haben einen Confluence-, SharePoint- oder DATEV-Bestand, den Agenten nicht lesen können
- Ihr IT-Team ist klein und die Markdown-Pipeline überfordert
- Ihre Agenten müssen mit SAP, DATEV oder ausschließlich deutschen PDFs integrieren
- Compliance- und Betriebsrats-Abstimmung zählen vom ersten Tag
- Sie wollen ein Doku-Muster, das über viele Agenten skaliert
Wo Sie eine andere Option vorziehen sollten
- Sie haben ein zehnköpfiges Doku-Team, das das selbst baut
- Ihre Docs sind bereits in Markdown mit stabilen Ankern
- Mintlify oder Docusaurus deckt schon alles ab, was Sie brauchen
- Sie wollen ein Black-Box-SaaS ohne Integration in Ihre Systeme
Entscheidungsrahmen: Sind unsere Docs wirklich agentenfähig?
Eine Sechs-Dimensionen-Prüfung, die einem Mittelstands-IT-Lead und Geschäftsführer hilft, die Reife-Frage in einer Steering-Sitzung zu beantworten - mit einem curl-Befehl statt einer Hersteller-Präsentation.
| Dimension | Nicht bereit | Skalierungsbereit | Audit-Niveau |
|---|---|---|---|
| Quellformat | HTML aus CMS gerendert | Markdown plus HTML | Markdown kanonisch, HTML abgeleitet |
| Discovery | Nur Sitemap | llms.txt veröffentlicht | llms.txt + llms-full.txt + MCP-Liste |
| Markdown-Auslieferung | Keine | .md-URL-Suffix | Accept-Header + .md + x-markdown-tokens |
| Interne Docs | Hinter Login, kein Agent-Pfad | MCP-Server, Basic Auth | MCP + OAuth 2.1 + On-Behalf-of |
| Qualitätsmonitoring | Keines | Manuelle Stichproben | Nightly Eval-Suite, 50 Fragen |
| Refresh-Zyklus | Tage | Stunden | Unter 60 Minuten |
Die meisten Mittelstands-Firmen landen 2026 in der „Nicht bereit“-Spalte auf vier oder mehr Dimensionen. Die richtige Antwort ist nicht zu warten. Die richtige Antwort ist, die Nicht-bereit-Spalten als die ersten 90 Tage Agent-Native Docs zu beheben, parallel zum ersten Agent-Rollout, nicht als Vorbedingung, die beides verzögert.
Häufig gestellte Fragen
Agent-Native Documentation ist so geschrieben und ausgeliefert, dass ein KI-Agent sie direkt aufnehmen kann, ohne HTML zu parsen, durch Menüs zu navigieren oder Screenshots zu interpretieren. Derselbe Inhalt kann weiterhin für Menschen gerendert werden, aber die kanonische Quelle der Wahrheit ist strukturiertes Markdown mit stabilen Ankern und einem maschinenadressierbaren Index. Normale Dokumentation geht davon aus, dass ein Mensch durch eine Navigationsstruktur klickt und nächste Schritte aus Layout-Hinweisen ableitet - nichts davon kann ein Agent zuverlässig.
Beides. Bis April 2026 veröffentlichen Anthropic, Stripe, Zapier, Cloudflare, Vercel und die meisten Entwicklertool-Dokumentationen llms.txt. KI-Agenten rufen llms-full.txt mehr als doppelt so oft ab wie den schlanken Index. Der Standard verbessert klassisches SEO nicht und OpenAI, Anthropic und Perplexity haben sich nicht verpflichtet, ihn automatisch zu lesen - behandeln Sie ihn also als Optimierung für Agenten, die ohnehin danach suchen, nicht als magisches Ranking-Signal.
Die Messung verglich einen ihrer eigenen Blogartikel als HTML mit derselben Inhalt als Markdown: 16.180 Token gegenüber 3.150 Token. Die Einsparung kommt vom Entfernen von div-Wrappern, Navigations-Chrome, Skript-Tags und Styling-Boilerplate. Eine einzelne H2-Überschrift kostet in Markdown rund drei Token, in HTML zwölf bis fünfzehn. Für ein Mittelstands-Wiki ist das der Unterschied zwischen einem Agenten, der korrekt antwortet, und einem, der mitten im Satz aus dem Kontextfenster läuft.
llms.txt ist eine statische, öffentliche Index-Datei. Ein MCP-Server ist eine lebende, aufrufbare Schnittstelle, die Inhalte gefiltert nach Benutzeridentität und Frage zurückgibt. llms.txt eignet sich für öffentliche Docs, die ein Agent crawlen kann. MCP eignet sich für interne Docs, Suche und Inhalte, die Autorisierung, Aktualität oder Query-Parameter brauchen. Die meisten produktiven Mittelstands-Stacks nutzen beides.
Ja. Das stabile Muster ist eine einzige Markdown-Quelle der Wahrheit, die für Menschen über einen Static-Site-Generator (Mintlify, Docusaurus, Astro) gerendert und für Agenten über llms.txt und einen MCP-Server bereitgestellt wird. Sie pflegen eine kanonische Quelle, die über zwei Oberflächen ausgeliefert wird.
Interne Docs gehören nicht in eine öffentliche llms.txt. Das Mittelstands-Muster ist ein interner MCP-Server vor Confluence, SharePoint oder DATEV-Handbüchern, mit OAuth-2.1-Autorisierung und On-Behalf-of-User-Identitätspropagierung. Der Agent sieht nur die Chunks, die der aufrufende Benutzer sehen darf. Deutsche Inhalte sind kein Problem; moderne LLMs beherrschen Deutsch nativ.
Geringer als die meisten Teams erwarten, weil das meiste automatisierbar ist. Confluence exportiert über die REST-API zu einem XHTML-Baum, der mit Standard-Tools (pandoc, html-to-markdown) zu Markdown konvertiert wird. Die nicht-automatisierbare Arbeit ist die strukturelle Aufräumarbeit: stabile Anker, Seiten-Konsolidierung, Screenshot-Ersatz. Ein typisches 5.000-Seiten-Wiki landet bei 6 bis 10 Engineering-Wochen für die erste agentenfähige Version.
Sie sind der größte einzelne Blocker. Ein Agent, der den Screenshot nicht sehen kann, muss raten, was die Visualisierung vermitteln sollte. Die Lösung ist zweigleisig: Screenshot für Menschen behalten, daneben eine strukturierte Markdown-Tabelle oder nummerierte Schritte ergänzen, die dieselbe Information in Text festhalten. Schreiben Sie das Markdown zuerst; wenn der Screenshot danach noch Mehrwert bringt, behalten Sie ihn. Die meisten tun das nicht.
Für Hersteller-Docs, die Sie nicht bearbeiten können, ist die Antwort ein MCP-Server davor, kein Umschreiben. Google hat Anfang 2026 einen Developer-Knowledge-MCP-Server genau aus diesem Grund gelauncht. Dasselbe Muster funktioniert für SAP-Docs (K2View, SAP MCP), DATEV-Handbücher (Custom-MCP-Wrapper) und jede Drittanbieter-Wissensbasis. Der Agent ruft den MCP-Server, der MCP-Server liefert chunked Markdown.
Artikel 4 (KI-Kompetenz) verlangt angemessene KI-Kompetenz für alle, die KI-Tools nutzen oder leiten. Agent-Native Documentation ist die Hälfte der Kompetenz-Geschichte: das Doku-Team muss verstehen, dass es für zwei Zielgruppen schreibt, und das Agent-Team muss verstehen, welche Docs der Agent erreichen kann. Die Kompetenzpflicht landet bei der Dokumentations-Governance, nicht nur beim Prompt Engineering.
Drei Effekte addieren sich. Erstens verschwenden Agenten 60 bis 80 Prozent ihres Kontext-Budgets auf HTML-Chrome. Zweitens leidet die Retrieval-Qualität, weil HTML-Struktur Chunking und Embedding verwirrt. Drittens halluziniert der Agent leise das, was er nicht finden konnte, und Ihr Team vertraut der Antwort, weil sie selbstbewusst klingt. Die Vercel-Markdown-for-Agents-Daten und LangChain-Benchmarks zeigen, dass strukturiertes Markdown plus llms.txt Vector-Search und Context-Stuffing deutlich übertrifft.
Vier praktische Metriken. Erstens der curl-Test: liefert Accept: text/markdown sauberen strukturierten Inhalt? Zweitens das Token-Verhältnis: wie viele Token kostet eine HTML-Seite gegenüber dem Markdown-Pendant? Drittens der Antwort-Test: 20 echte Nutzerfragen, durch den Agenten geschickt, gegen Experten-Antworten bewertet. Viertens der Frische-Test: wie lange braucht eine Doku-Änderung, bis der Agent sie kennt? Alles über einer Stunde ist für Produktion zu langsam.
Verwandte Artikel
- Agent Identity: Wie Mittelstands-IT Authentifizierung und Zugriff für KI-Agenten regelt
- Persistenter Kontext für KI-Agenten: Was Mittelstands-IT-Teams 2026 zum Memory-Design wissen müssen
- Software 3.0 im Mittelstand: Warum Programmieren jetzt Prompten ist
- Von SharePoint zur KI-gestützten Wissensbasis für den Mittelstand
- SAP und KI-Agenten: Der pragmatische Weg durch S/4HANA, ECC und Business One
- KI für Wissenstransfer: Wie Sie das Wissen ausscheidender Boomer sichern
- Intelligente Dokumentverarbeitung: Wie der Mittelstand OCR durch KI-Agenten ersetzt
- EU-KI-Verordnung Artikel 4: KI-Kompetenz für den Mittelstand
Quellen
- Cloudflare - Introducing Markdown for Agents (April 2026)
- Cloudflare - Markdown for Agents Documentation Reference
- Cloudflare - Docs for Agents
- ALM Corp - Cloudflare Markdown for Agents: Complete Technical Guide and 80% Token Reduction
- Mintlify - What is llms.txt? Breaking Down the Skepticism
- Mintlify - Real llms.txt Examples From Leading Tech Companies
- llms.txt-Spezifikation - Originalvorschlag von Jeremy Howard
- Anthropic - llms.txt-Index für Dokumentation
- Vercel - llms.txt für Dokumentation
- Stripe - llms.txt-Index
- Anthropic - Model Context Protocol Authorization Specification
- Model Context Protocol - 2026 MCP Roadmap
- WorkOS - MCP 2026 Roadmap macht Enterprise Readiness zur Top-Priorität
- Google Developers Blog - Developer Knowledge API und MCP-Server
- Microsoft Learn - MCP Server Overview
- Stack Overflow Blog - Authentication and Authorization in Model Context Protocol
- mcp.directory - Best Documentation MCP Servers: Outline, Confluence, Notion und mehr
- Docsie - MCP Docs Integration: Was 2026 wirklich funktioniert
- Document360 - Cloudflare Markdown for AI Agents: Grenzen und besserer Ansatz
- K2View - SAP MCP: SAP-Datenzugriff für KI-Agenten
- Kai Waehner - Data Ownership in the Age of Agentic AI: SAP API Policy
- McKinsey - Reimagining Tech Infrastructure for Agentic AI
- Karpathy - 2025 LLM Year in Review
- Karpathy - Sequoia Ascent 2026 Summary
- EU-KI-Verordnung - Artikel 4: KI-Kompetenz
- BMF - GoBD-Schreiben (Juli 2025)
- Bitkom - KI im Mittelstand 2026 Studie
- Postman - The New Postman: AI-Native and Built for the Agentic Era
Bereit, Ihr Wiki zu etwas zu machen, das Agenten wirklich lesen können?
Wir helfen Mittelstands-IT-Teams, Confluence, SharePoint und DATEV-Docs in agent-natives Markdown plus MCP-Server umzustellen - damit der nächste Agent-Rollout funktioniert, weil er lesen kann, was Ihr Team geschrieben hat. Sprechen Sie mit Henri darüber, wie Ihre Docs aussehen sollten.
Demo buchen →
