Agentic Commerce und AI Procurement Wenn KI-Agenten im B2B einkaufen

Ein Gastbeitrag von Natalia Schmidt* 6 min Lesedauer

Anbieter zum Thema

Sie vergleichen Preise, verhandeln Konditionen und kaufen für uns ein: KI-Agenten. Sie werden damit zum sichtbaren und vor allem bereits spürbaren B2B Akteur. Wie aber lassen sie sich sinnvoll einsetzen, ohne Transparenz und Vertrauen bei menschlichen Akteuren aufs Spiel zu setzen?

Agenten, die im Verborgenen Informationen sammeln, Angebote scannen und Entscheidungen für ihre Vorgesetzten vorbereiten – das alles klingt nach 007.(Bild:  frei lizenziert / Unsplash)
Agenten, die im Verborgenen Informationen sammeln, Angebote scannen und Entscheidungen für ihre Vorgesetzten vorbereiten – das alles klingt nach 007.
(Bild: frei lizenziert / Unsplash)

Auch ohne dass der Name Bond fiel, erinnerten ihre ersten Einsätze beinahe ein wenig an klassische Spionagefilme: Agenten, die im Verborgenen Informationen sammeln, Angebote scannen und Entscheidungen für ihre Vorgesetzten vorbereiten. Doch diese „Secret Agents“ sind eben längst keine geheimen Figuren mehr. „Bald kaufen Maschinen für Menschen ein“, titelte n-tv im Sommer 2025. Damit hat das Nachrichtenportal in einer Schlagzeile nicht weniger als den Übergang von der Idee zum etablierten Marktphänomen zusammengefasst und auf den Punkt gebracht.

Denn: Was im Artikel noch wie eine Randnotiz aus dem Konsumentenbereich wirken mag, entfaltet im B2B eine ganz andere Dimension. Hier geht es nicht um den Einkauf einzelner Produkte, sondern um die Orchestrierung komplexer Lieferketten, Rahmenverträge und Investitionsgüter. Man denke nur an die nicht allzu lang zurückliegenden Herausforderungen im Supply Chain Management … Agenten werden damit zu marktrelevanten Akteuren, sowohl durch ihr Zusammenspiel als auch durch ihre ökonomische Tragweite. Sie übernehmen nicht nur Aufgaben – sie sind mindestens Anlass, dass sich die Spielregeln verändern.

Einkaufsagenten: mehr als ein Convenience-Tool

Zunächst einmal sei jedoch gesagt: Wer KI-Agenten lediglich als Helferlein für bequemeres oder bestenfalls effizienteres Arbeiten versteht, verkennt deren Potenzial. Denn es geht nicht nur darum, Prozesse zu automatisieren o. ä. Agenten verändern Wertschöpfungsketten und Geschäftsmodelle: Wenn sich Einkaufsentscheidungen zunehmend zwischen Softwareagenten abspielen, verschieben sich die Spielregeln im Marketing und Sales, ja des geschäftlichen Menschseins, grundlegend: Das klassische Sender-Empfänger-Modell tritt zumindest in den Hintergrund.

Stattdessen muss Kommunikation so gestaltet sein, dass sie maschinenlesbar, prüfbar und vertrauenswürdig ist. Accenture spricht in seiner Tech Vision 2024 zum Beispiel bereits von einer „Agentic Shift“ – einer Entwicklung, die weit über Automatisierung hinausgeht. KI-Agenten werden nicht als Werkzeuge wahrgenommen, sondern als eigenständige Marktteilnehmer. Das bedeutet: Unternehmen müssen lernen, mit diesen Agenten zu kommunizieren, genauso wie mit den Menschen, die sie einsetzen. Das Bild vom „Kollegen KI“ wird damit erweitert um den „Kunden KI“.

Risiko bei KI-Agenten im Einkauf: Black Box

Mit der so gewonnenen neuen Effizienz geht jedoch ein nicht zu unterschätzendes Risiko in Sachen Transparenz einher. Denn Kollege Agent trifft Entscheidungen auf Basis komplexer Modelle. Für „Außenstehende“ – also die menschlichen User – ist deren Logik nicht immer unmittelbar nachvollziehbar. Die Gefahr der Black Box ist damit real. Studien zeigen, wie sehr Vertrauen leidet, wenn Ergebnisse nicht transparent sind. Wird nicht klar, warum eine Entscheidung getroffen wurde, zweifeln menschliche Anwender an Fairness und Verlässlichkeit. Um die eingangs verwendete Metapher zu bemühen: Damit liefe der Agent Gefahr, wieder in alte Geheimdienstmuster zu verfallen.

Was im B2C der Endkunde qua individuellem Überblick noch einigermaßen selbst zu prüfen vermag, kann im komplexen, verzweigten B2B-Umfeld drastische Folgen haben. So gut ein Modell auch aufgesetzt sein mag: Ein digitaler Agent im Einkauf könnte etwa unbemerkt einen Anbieter bevorzugen, weil dessen Daten besser strukturiert sind – und nicht, weil das Angebot objektiv besser wäre. Oder er könnte algorithmischen Mustern folgen, die für den Anwender nicht mehr überprüfbar sind. Denn die Agenten sind zwar nicht „frei“, sondern arbeiten gemäß ihrer Programmierung – doch in einer dynamischen Welt lässt sich erratisches Verhalten nicht völlig ausschließen. Daher ist die Einhaltung des „Human-in-the-Loop“-Prinzips von entscheidender Bedeutung, und eine menschliche Autorisierung sowie abschließende Bestätigung der Maßnahmen bleiben derzeit unerlässlich.

Transparenz ist damit die einzige Möglichkeit für einen Eingriff und damit Ausweg aus diesem Dilemma, da sie Unsicherheit reduziert: Anwender müssen jederzeit sehen können, ob eine Empfehlung von einem Agenten stammt, welche Kriterien er berücksichtigt hat und welche Eingriffsmöglichkeiten bestehen. Best Practices zeigen: Hybride Modelle sind in den meisten Fällen das zu präferierende Szenario: Procurement AI übernimmt die Routine – die finale Entscheidung liegt bei Menschen, zumindest in kritischen Fällen. Parallel soll eine offene Kommunikation Vertrauen zusätzlich stärken. Eine solche kann etwa in Form von Hinweisen wie „Diese Empfehlung basiert auf Agentenanalyse, Sie können jederzeit eingreifen“ stattfinden.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Fiktiver Use Case: Einkaufsagent im Maschinenbau

Ein mittelständischer Maschinenbauer setzt einen KI-Agenten für die Beschaffung von Normteilen ein.

  • Aufgabe des Agenten: Er durchsucht regelmäßig die Datenbanken von fünf zertifizierten Lieferanten, prüft Preise, Lieferzeiten und Nachhaltigkeitskennzahlen.
  • Vorgehen: Der Agent erstellt täglich eine Shortlist, dokumentiert alle Entscheidungen und markiert Abweichungen (z. B. plötzlich längere Lieferzeiten).
  • Governance: Jede Shortlist wird revisionssicher protokolliert, monatlich stichprobenartig von einem Einkäufer geprüft und durch Audit-Logs abgesichert.
  • Human-in-the-Loop: Bei Bestellungen über 50.000 € muss ein Einkäufer final zustimmen, bei Standardteilen bis 500 € darf der Agent eigenständig auslösen, im Intervall dazwischen kann eine Sichtung vorgesehen sein.

Ein solches Projekt ließe sich mit einer Kombination aus API-Anbindungen zu den Lieferanten-Systemen, einem Agenten-Framework auf Basis von Large Language Models (LLMs) sowie einer Validierungsschicht (eigener Service oder Validierungs-Agent) zwischen Lieferanten-APIs und Agenten-Logik realisieren. Entscheidungsprotokolle werden in einem revisionssicheren Log-System gespeichert, ergänzt um ein rollenbasiertes Berechtigungskonzept gemäß Least Privilege für alle Zugriffe rund um den Agentenprozess, also Service zu Service und menschliche Rollen. So entsteht eine Architektur, die sowohl Automatisierung als auch Compliance-Anforderungen abdeckt. Das Beispiel zeigt, wie Agenten operative Routineaufgaben übernehmen, während Governance und menschliche Kontrolle erhalten bleiben.

Governance im Agent-to-Agent-Commerce

Jenseits der Vertrauensfrage gilt es, auch die regulativen Aspekte zu beleuchten: Wie lassen sich Governance und Compliance sichern, wenn Agenten mit Agenten verhandeln? Ein Ansatz liegt in der lückenlosen Nachvollziehbarkeit. Jeder Schritt, jede Empfehlung und jede Entscheidung eines Agenten müssen protokolliert werden; und das auf eine Art und Weise, die den juristischen Beweiswert maximiert – etwa durch revisionssicher Archivierung, ein valides Rechte- und Rollenkonzept sowie systemische Nachvollziehbarkeit. Dabei muss nicht jederzeit jedes Detail offengelegt werden – aber es muss im Nachhinein überprüfbar sein, auf welcher Basis eine Auswahl getroffen wurde. Darüber hinaus sind entsprechend regelmäße Auswertungen und Stichproben ratsam, etwa in Verbindung mit monatlichen Audits. Zudem braucht es klare Regeln für Datenqualität und Zugriffsrechte.

Wenn ein Einkaufsagent mit vertraulichen Informationen arbeitet, müssen dieselben Standards gelten wie im klassischen Beschaffungswesen. Denn eine KI im Beschaffungswesen, die ohne Kontrolle Daten sammelt oder weitergibt, gefährdet neben Vertrauen auch die Einhaltung regulatorischer Vorgaben wie DSGVO oder NIS2 – eine kurzfristige bußgeldrelevante Aktivität als der mittelfristige Umsatzverlust durch Reputationsverlust. Das Weltwirtschaftsforum fordert daher auch „Trust Mechanisms for Agents“, also Identitäts- und Reputationssysteme, die Agenten im Markt eindeutig erkennen und ihre Historie bewerten. Ohne solche Mechanismen bliebe Agent-to-Agent-Commerce unkontrolliert. Bis entsprechende anerkannte Siegel, Zertifikate o. ä. vorhanden sind, können Unternehmen durch klare, offene Kommunikation der Agenten-Arbeitsweise entsprechende Grundlage bereitstellen.

Wie Unternehmen vorgehen können:

  • Pilotieren: Erste Projekte im überschaubaren Rahmen aufsetzen, um Erfahrungen mit Agentic Commerce zu sammeln.
  • Governance etablieren: Von Beginn an Mechanismen zur Nachvollziehbarkeit und Compliance einführen.
  • Vertrauen sichern: Transparente Kommunikation und hybride Entscheidungsmodelle in den Vordergrund stellen.

Fazit: Vom Geheimagent zum verlässlichen Partner

Die neuen Einkaufsagenten sind längst keine unsichtbaren Helfer mehr. Sie treten vermehrt und verstärkt aus dem Schatten, und sie verändern den B2B-Handel nachhaltig. Ihr Potenzial entfalten sie am besten, wenn Transparenz und Vertrauen sowie Governance fest verankert sind. Für Marketing- und Vertriebsentscheider bedeutet das: Es reicht nicht, Agenten einzukaufen und implementieren zu lassen. Sie müssen sie in eine neue Vertrauenskultur einbetten, und sie müssen sie in eine rechtssichere Struktur bringen. Nur so wird aus dem Agenten ein verlässlicher Partner – und aus einem Convenience-Tool ein strategisches Asset.

*Natalia Schmidt ist Director Data & AI bei Avanade Deutschland GmbH.

(ID:50593043)