Wenn KI einkauft: So machen KMU ihre Website fit für autonome Agenten

Wenn KI einkauft, was passiert dann? Kann eine KI wie Perplexity oder ChatGPT deine Preise lesen? Deine Lieferzeiten? Deinen Firmensitz? Falls du das nicht weißt, bist du damit nicht allein – aber es wird zunehmend zum Problem. Denn immer öfter kauft KI selbstständig ein, ohne dass ein Mensch dabei auf eine Website klickt. Klassische Suchmaschinen sind auf den menschlichen Klick ausgelegt. KI-Agenten arbeiten anders: Sie extrahieren Fakten direkt aus dem Quellcode einer Website. Steht dort nichts Verwertbares, existierst du für diesen Agenten schlicht nicht.

Wenn KI einkauft
Wenn KI einkauft, so sieht es Nano Banana 2 von Google

Kurzfassung

KI-Agenten kaufen zunehmend selbstständig ein – ohne Klick, ohne Formular, direkt über maschinenlesbare Daten.
Wer seine Website nicht mit strukturierten Daten (Schema.org) und GEO ausstattet, ist für autonome Einkaufssysteme unsichtbar.
⚠️ robots.txt, Server-Side Rendering und ein gepflegtes Autorenprofil sind die drei wichtigsten Schritte, wenn KI einkauft, umsetzbar ohne Entwicklerbudget.

Drei Beispiele, die zeigen, wie nah das bereits ist

Das klingt abstrakt. Ist es aber nicht. Hier drei reale Szenarien, die zeigen, was passiert, wenn KI einkauft:

Druckerpatronen: Eine Assistentin gibt ihrer KI den Auftrag, kompatible Patronen für den Bürodrucker zu finden, Preise zu vergleichen und die günstigste Option mit Zwei-Tage-Lieferung zu bestellen. Die KI durchsucht mehrere Anbieter, liest Preise und Lieferzeiten aus – und kauft beim Anbieter, dessen Website diese Daten sauber bereitstellt. Wer technisch nicht lesbar ist, geht leer aus. Kein Klick, kein Vergleich, kein Umsatz.

Bürostuhl: Ein Unternehmen sucht fünf ergonomische Bürostühle unter 400 Euro mit guten Bewertungen. Der zuständige Mitarbeiter delegiert die Recherche an einen KI-Agenten. Dieser vergleicht Preise, Bewertungen und Verfügbarkeit quer über mehrere Shops – und legt das beste Ergebnis direkt in den Warenkorb. Shops ohne maschinenlesbare Produktdaten tauchen in diesem Prozess gar nicht erst auf.

Bürokaffee: Amazon Alexa bestellt seit Jahren automatisch Nachschub, wenn der Kaffee zur Neige geht. KI-Agenten machen das heute komplexer: Sie vergleichen vorher aktiv Preise, Abo-Konditionen und Lieferbedingungen verschiedener Anbieter – und kaufen dort, wo die Daten am klarsten strukturiert sind.

Das verbindende Muster: Die KI klickt nicht, sie liest. Und was sie nicht lesen kann, kauft sie nicht.

Was Studien zum autonomen Einkaufen tatsächlich sagen

Zahlen zu KI und Einkauf gibt es gerade viele – nicht alle sind belastbar. Hier die Quellen, die ich für zitierfähig halte, mit einer ehrlichen Einordnung dazu:

QuelleKernaussageEinordnung
ECC Köln / dotSource (2025/26)64% der B2B-Einkäufer erwarten KI-Agenten als Standard in der Beschaffung; 81% sehen klare EffizienzvorteileDeutschsprachige Befragung von B2B-Praktikern – für den DACH-Kontext die relevanteste Quelle
McKinsey (Januar 2026)KI-Agenten könnten bis 2030 weltweit 3–5 Billionen USD im Handel vermittelnSeriöse Quelle, aber Prognose – kein gesicherter Fakt
PwC (2026)Bis 2030 könnten KI-Agenten bis zu 15% der europäischen E-Commerce-Ausgaben ausmachenEuropa-Fokus, gut für DACH-Kontext – ebenfalls Prognose
Gartner (2025)Bis 2028 sollen 90% aller B2B-Käufe von KI-Agenten abgewickelt werdenMeistzitierte Zahl im Umlauf – mit Vorsicht verwenden, da Gartner-Prognosen erfahrungsgemäß optimistisch ausfallen

Die ECC-Köln-Zahl ist die einzige, die auf einer direkten Befragung von Einkaufspraktikern basiert. Die anderen sind Marktprognosen – sie zeigen eine Richtung, was passiert, wenn KI einkauft, aber sie bieten keine Gewissheit.

In der aktuellen Studie „Agentic Readiness im B2B Commerce“ (März 2026) gaben 64% der befragten B2B-Beschaffer an, dass sie fest damit rechnen, dass sich KI-Agenten als Standard in der Beschaffung etablieren – 81% erwarten zudem deutliche Effizienzsteigerungen.

Der Wandel im B2B-Einkauf: Von der Suchmaschine zum KI-Agenten

Hinter diesen Szenarien steckt eine technische Entwicklung, die im B2B-Bereich schneller voranschreitet als im Endkundengeschäft. Einkäufer in Unternehmen sind unter Zeitdruck. Wenn ein KI-Agent die Lieferanten-Vorauswahl übernehmen kann, wird er es tun. Und zwar nicht mit einem Google-Klick, sondern mit einem direkten Datenabruf.

Diese Agenten erhalten einen Befehl – zum Beispiel: „Finde drei DSGVO-konforme Newsletter-Tools aus Deutschland unter 50 Euro im Monat“ – und führen ihn aus. Keine Werbeanzeige, kein SEO-Ranking, kein Klickpfad. Wenn KI einkauft, liefert deine Website entweder verwertbare Daten, oder sie tut es nicht.

GEO, AEO, LLMO: Die neuen Begriffe kurz erklärt

Rund um dieses Thema kursieren aktuell viele Abkürzungen. Hier die kurze Einordnung ohne Umwege:

  • GEO (Generative Engine Optimization): Das Pendant zum klassischen SEO. Statt für Google optimierst du Inhalte so, dass KI-Modelle diese bevorzugt als Quelle in ihren Antworten nutzen.
  • AEO (Answer Engine Optimization): Ein Teilbereich von GEO. Ziel ist es, direkte und präzise Antworten auf Nutzerfragen zu liefern, damit die KI diese übernehmen kann – ohne dass der Nutzer auf deine Website klicken muss.
  • LLMO (Large Language Model Optimization): Ein Überbegriff für die technische und inhaltliche Anpassung an große Sprachmodelle wie GPT oder Claude.

Warum klassisches SEO für Maschinen nicht mehr ausreicht

Beim klassischen SEO ging es darum, Menschen über Google auf die eigene Website zu locken. Man optimierte auf Keywords, baute Backlinks auf, achtete auf schnelle Ladezeiten. Das Ziel war der Klick.

Wenn KI einkauft geschieht etwas Neues, denn KI-Modelle ticken anders. Sie klicken nicht, sie extrahieren. Sie werten sogenannte Entitäten aus – Personen, Unternehmen, Konzepte – und suchen nach verifizierten Fakten. Eine KI liest keinen fließenden Werbetext, um den Preis eines Produkts herauszufinden. Sie sucht nach einem strukturierten Datenpunkt im Hintergrund der Seite. Findet sie keinen, zieht sie weiter zum nächsten Anbieter.

4 technische Schritte zur Maschinenlesbarkeit

Der Umbau zu einer maschinenlesbaren Infrastruktur muss nicht teuer sein. Für KMU und Soloselbstständige reichen oft wenige gezielte Anpassungen.

Schritt 1: Crawlability prüfen (robots.txt & JavaScript-Fallen)

Das größte Hindernis bauen Unternehmen oft unbewusst selbst auf. In der Datei robots.txt legst du fest, welche Bots deine Website durchsuchen dürfen. Viele Standard-Einstellungen blockieren KI-Crawler wie den GPTBot von OpenAI oder den ClaudeBot von Anthropic. Prüfe diese Datei und gib die relevanten Bots frei, sofern du in KI-Antworten auftauchen willst.

Ein weiteres Problem ist JavaScript. Viele KI-Agenten laden Websites ohne JavaScript. Wenn deine Seite erst im Browser des Nutzers aufgebaut wird (Client-Side Rendering), sieht der Bot nur eine leere weiße Seite – egal wie gut dein Inhalt ist. Sorge zwingend für Server-Side Rendering (SSR), damit der HTML-Code bereits lesfertig ausgeliefert wird. Bei WordPress ist das in der Regel der Standard, bei modernen JavaScript-Frameworks wie Next.js oder Nuxt hingegen eine bewusste Konfigurationsentscheidung.

Schritt 2: Strukturierte Daten (Schema.org) sauber auszeichnen

Woher weiß die KI, ob die Zahl „49″ auf deiner Website das Alter des Geschäftsführers, eine Hausnummer oder der Preis deines Produkts ist? Die Antwort lautet: Schema.org.

Über diese strukturierten Daten markierst du im Hintergrund der Website exakt, um was es sich handelt. Für den Bürostuhl-Shop bedeutet das: Produktname, Preis, Verfügbarkeit, Bewertung und Lieferzeit werden nicht nur angezeigt, sondern auch maschinenlesbar ausgezeichnet. SEO-Plugins für WordPress wie Rank Math bieten diese Funktion standardmäßig an – ohne Programmierkenntnisse.

Schritt 3: Entitäten verknüpfen (Der Knowledge Graph für Einsteiger)

Ein Knowledge Graph verknüpft Informationen logisch miteinander. Für ein KMU bedeutet das praktisch: Verbinde deine Inhalte sinnvoll. Wenn du einen Fachartikel veröffentlichst, verknüpfe ihn mit einem sauberen Autorenprofil. Zeige dort auf, warum diese Person Expertise hat – das nennt sich E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness). KI-Agenten bewerten Aussagen stärker, wenn sie den Urheber als Fachexperten einstufen können.

Das klingt aufwendig, ist es aber nicht zwingend. Ein gepflegtes Autorenprofil, ein verlinkter LinkedIn-Auftritt und konsistente Angaben zu deinem Unternehmen quer über alle Kanäle – das ist ein solider Anfang.

Schritt 4: Erste Vorbereitungen für API-Schnittstellen

Dieser Schritt ist eher für die Zukunft relevant, aber wichtig zu kennen. Wenn KI-Agenten nicht nur suchen, sondern auch direkt einkaufen sollen (Agentic Commerce), brauchen sie direkte Datenschnittstellen (APIs). Über diese können sie in Echtzeit Lagerbestände abfragen oder Bestellungen auslösen – ohne jemals einen Browser zu öffnen. Wer jetzt schon strukturierte Produktdaten pflegt, hat dann einen klaren Vorsprung. Wer erst dann anfängt, wenn KI kauft, läuft hinterher.

DSGVO und Schutz: Welche Daten dürfen Bots eigentlich sehen?

Die Anpassung an KI-Agenten birgt ein handfestes Dilemma. Einerseits willst du gefunden werden. Andererseits willst du nicht, dass deine mühsam erstellten Inhalte oder Produktdaten kostenlos zum Training fremder KI-Modelle landen.

Gratwanderung zwischen Auffindbarkeit und Datenklau

Wenn du einen Bot in der robots.txt blockierst, trainiert er zwar nicht mit deinen Daten – du tauchst aber auch nicht mehr in seinen Suchergebnissen auf. Beides gleichzeitig zu erreichen ist technisch schwierig, weil viele Systeme nicht sauber zwischen Training-Crawl und Live-Abfrage trennen.

Die pragmatische Lösung: Trenne klar, was öffentlich sein soll und was nicht. Preise, Produktbeschreibungen und allgemeine FAQs müssen öffentlich und maschinenlesbar sein. Internes Know-how, Kundendaten und vertrauliche Dokumentationen gehören zwingend hinter einen Login.

Wenn du künftig Transaktionen über APIs für KI-Agenten freigibst, brauchst du zudem ein striktes Rechtemanagement – zum Beispiel über OAuth 2.0. Es muss klar geregelt sein, welcher Agent im Namen welchen Kunden mit welchem Budget einkaufen darf. Ein menschlicher Freigabeschritt (Human-in-the-Loop) ist hier nicht optional, sondern dringend zu empfehlen. Unkontrollierte Agenten-Einkäufe sind sonst nicht nur teuer, sondern rechtlich heikel.

Fazit: Pragmatisch vorbereiten, Panik vermeiden

Klassisches SEO stirbt nicht über Nacht. Aber wer wartet, bis KI-Agenten im eigenen Markt angekommen sind, fängt zu spät an. Laut der aktuellen ECC-Köln-Studie (März 2026) rechnen bereits 64 Prozent der B2B-Einkäufer damit, dass KI-Agenten sich als Standard in der Beschaffung etablieren. Das ist keine ferne Prognose mehr – das ist der aktuelle Stand bei deinen potenziellen Kunden.

Der nächste Schritt muss kein Großprojekt sein. Öffne deine robots.txt und prüfe, ob GPTBot oder ClaudeBot blockiert sind. Installiere das Schema.org-Markup über Rank Math und trage Preise, Lieferzeiten und Produktbeschreibungen sauber ein. Pflege dein Autorenprofil. Das sind drei Maßnahmen, die kein Entwicklerbudget brauchen – aber den Unterschied machen, ob ein KI-Agent dein Angebot findet oder nicht.

APIs und vollautonome Transaktionssysteme kommen. Aber die Grundlage dafür baust du heute. Sei gerüstet, wenn KI einkauft.


FAQ: Wenn KI einkauft – GEO, AEO und maschinenlesbare Websites

Was ist der Unterschied zwischen SEO und GEO?

Beim SEO optimierst du für Google, um Klicks auf deine Website zu generieren. Bei GEO bereitest du Daten so auf, dass KI-Modelle diese lesen, verstehen und direkt in ihre Antworten einbauen können – ohne dass der Nutzer noch auf deine Seite klicken muss.

Muss ich meine robots.txt jetzt anpassen?

Ja, wenn du möchtest, dass KI-Suchmaschinen dein Angebot finden und in ihren Antworten berücksichtigen. Prüfe, ob Crawler wie GPTBot oder ClaudeBot in deiner robots.txt blockiert sind und gib sie gezielt frei.

Kaufen KI-Agenten aktuell schon völlig selbstständig ein?

Nein, nicht vollständig. Aktuell übernehmen KI-Agenten vor allem die Recherche, den Vergleich und die Vorauswahl. Die finale Budgetfreigabe und der tatsächliche Kaufabschluss erfolgen in der Regel noch durch einen Menschen.

Wie setze ich strukturierte Daten als kleines Unternehmen um?

Mit WordPress und einem Plugin wie Rank Math brauchst du dafür keine Programmierkenntnisse. Das Plugin bietet fertige Module, um Produkte, Preise oder FAQs mit wenigen Klicks als Schema.org-Daten zu markieren.

Darf ich Bots blockieren, um meine Daten vor KI-Training zu schützen?

Technisch ja. Aber beachte: KI-Agenten, die du für das Training blockierst, zeigen dich in der Regel auch nicht mehr als Quelle in ihren Live-Suchanfragen an. Du machst dich für dieses Ökosystem dann komplett unsichtbar.

Foto Christa Lindau removebg preview

Dipl.-Wirtschaftsingenieur, KI-Enthusiast, Autor
Mit 50 Jahren Erfahrung im IT-Bereich, beschäftige ich mich intensiv mit Künstlicher Intelligenz und ihren vielfältigen Anwendungen in Wirtschaft, Marketing und Alltag. Mit praxisnahen, verständlichen Beiträgen zeige ich, wie KI unseren Wandel gestaltet und wie du die Technologie sinnvoll nutzt. Für meine Arbeit erhalte ich teilweise eine kleine Aufwandsentschädigung.