KI-Lead-Scoring, Forecasting und das EU-KI-Gesetz: Eine RevOps-Compliance-Checkliste

Thumbnail image

Wenn Ihr RevOps-Stack KI-gestütztes Lead-Scoring, Pipeline-Forecasting oder automatisiertes Deal-Routing enthält – was inzwischen bei den meisten der Fall ist – betreiben Sie möglicherweise unwissentlich Hochrisiko-KI-Systeme gemäß dem EU-KI-Gesetz. Die Durchsetzungsfrist für diese Systeme ist der 2. August 2026. Das sind ungefähr vier Monate.

Laut einer regulatorischen Analyse von LegalNodes umfassen die Hochrisiko-KI-Bestimmungen des EU-KI-Gesetzes Systeme für Kreditbewertungen und Scoring-Entscheidungen – eine Kategorie, die weiter in Vertriebs- und Revenue-Operations-Workflows hineinreicht, als die meisten RevOps-Führungskräfte berücksichtigt haben. Die Verordnung gilt nicht nur für KI-Unternehmen. Sie gilt für jeden, der KI einsetzt, die konsequente Entscheidungen über Einzelpersonen oder Organisationen informiert.

Wenn Ihr Unternehmen in der EU tätig ist, an EU-ansässige Unternehmen verkauft oder KI-Tools von EU-regulierten Anbietern verwendet, gilt dieser Rahmen für Sie. Die Strafstruktur (bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes) macht „wir wussten es nicht" zu einer kostspieligen Position.

Die RevOps-Tools, die am wahrscheinlichsten betroffen sind

Nicht jede KI-Funktion in Ihrem Stack löst eine Compliance-Kennzeichnung aus. Die Risikoklassifizierung des EU-KI-Gesetzes basiert darauf, was die KI tut und welche Entscheidungen sie informiert – nicht darauf, wie anspruchsvoll das zugrundeliegende Modell ist. So ordnen sich gängige RevOps-Anwendungsfälle den Kategorien der Verordnung zu:

Lead-Scoring-Systeme. KI-Tools, die einzelne Leads oder Accounts einordnen, priorisieren oder bewerten, sind die wahrscheinlichsten RevOps-Kandidaten für eine Hochrisiko-Klassifizierung. Der entscheidende Faktor ist, ob das Scoring konsequente Entscheidungen über eine Person beeinflusst – insbesondere wenn diese Entscheidungen Kreditkapazität oder Zugang zu Diensten berühren. Ein B2B-Lead-Scoring-System, das bestimmt, welche Accounts menschliche Vertriebsaufmerksamkeit erhalten, befindet sich in einer Grauzone. Ein Lead-Score, der in Kreditlinien- oder Zahlungsbedingungsentscheidungen für potenzielle Kunden einfließt, liegt klar im Hochrisikobereich.

Pipeline-Forecasting-Tools. Forecasting-Tools, die Pipeline-Daten aggregieren und analysieren, sind allgemein risikoärmer als Scoring-Tools. Sie informieren interne Geschäftsentscheidungen, keine Entscheidungen über Einzelpersonen. Wenn Ihr Forecasting-System jedoch direkt in Kreditgenehmigungsworkflows oder Gebietszuweisungsentscheidungen für einzelne Accounts einfließt, ändert sich das Risikoprofil.

Automatisiertes Deal-Routing und Priorisierung. Systeme, die Leads, Accounts oder Deals automatisch anhand KI-gesteuerter Kriterien Vertretern zuweisen, sind es wert, untersucht zu werden. Wenn die Routing-Logik Faktoren verwendet, die diskriminierende Kriterien darstellen könnten, ist das eine Compliance-Überlegung.

Kreditähnliche Entscheidungen in Vertriebsworkflows. Dies ist die Hochrisikokategorie für RevOps. Jedes KI-Tool, das Entscheidungen über Zahlungskonditionen, Kreditlinien oder Finanzierungen für B2B-Kunden informiert – ob als internes System oder als KI-Funktion in Ihrem CRM oder CPQ – fällt unter die Kreditbewertungskategorie des EU-KI-Gesetzes.

Die entscheidende Unterscheidung: Informieren vs. Automatisieren

Die Compliance-Last unterscheidet sich erheblich je nachdem, ob Ihre KI-Tools menschliche Entscheidungen informieren oder automatisieren.

Ein KI-System, das einem Vertriebsmitarbeiter einen Lead-Score zur Überprüfung präsentiert, der dann entscheidet, ob er das Account priorisiert, liegt am unteren Ende des Risikospektrums. Ein Mitarbeiter überprüft den Score, wendet Urteilsvermögen an und trifft die Entscheidung. Menschliche Aufsicht ist vorhanden.

Ein KI-System, das Leads automatisch weiterleitet, Kreditlimits einschränkt oder Accounts ohne sinnvolle menschliche Überprüfung von bestimmten Angeboten ausschließt, liegt am oberen Ende. Wie Ihre Lead-Routing-Automatisierung heute konfiguriert ist, bestimmt, ob Sie eine Dokumentationslücke oder eine Prozesslücke haben – und diese erfordern unterschiedliche Abhilfemaßnahmen.

Der regulatorische Rahmen der EU verlangt, dass Hochrisiko-KI-Systeme so gestaltet werden, dass eine menschliche Überprüfung vor der Ausführung endgültiger Entscheidungen möglich ist.

Was Sie tatsächlich nachweisen müssen

Für alle RevOps-Tools, die als Hochrisiko gelten, verlangt das EU-KI-Gesetz von Betreibern dokumentierte Prozesse. Die Kernzanforderungen für RevOps-Teams umfassen:

Dokumentation des Systemzwecks und der Logik. Sie müssen beschreiben können, was Ihr KI-Scoring- oder Routing-Tool tut, welche Dateneingaben es verwendet und welche Ausgaben es erzeugt. Das klingt grundlegend, aber viele Teams betreiben KI-Tools, die sie einmal konfiguriert und seitdem nicht dokumentiert haben. Ihre Lead-Datenverwaltungspraktiken bestimmen direkt, ob Sie Regulatoren Datenqualität nachweisen können.

Nachweis menschlicher Aufsicht. Für Hochrisikoentscheidungen müssen Sie nachweisen, dass ein Mensch mit ausreichendem Kontext und Autorität KI-Outputs überprüft, bevor endgültige Entscheidungen getroffen werden.

Datensicherung. Die Verordnung verlangt, dass in Hochrisiko-KI-Systemen verwendete Daten korrekt, relevant und so frei von Verzerrungen wie möglich sind.

Anbieter-Compliance-Verifizierung. Sie benötigen Dokumentation von Ihren KI-Tool-Anbietern, die deren eigene Compliance bestätigt. Fragen Sie konkret, ob ihre Tools in der EU-Hochrisiko-KI-Datenbank registriert sind.

Eine RevOps-Compliance-Checkliste

Arbeiten Sie diese Punkte vor August 2026 durch. Beziehen Sie Ihr Rechtsteam für die abschließende Bewertung ein:

Schritt 1: Listen Sie jedes KI-Tool und jede KI-Funktion in Ihrem RevOps-Stack auf. Einschließlich KI-Funktionen innerhalb Ihres CRM, Ihrer Marketing-Automatisierungsplattform, CPQ, Forecasting-Tools und aller Punktlösungen für Scoring, Routing oder Priorisierung.

Schritt 2: Kennzeichnen Sie alle Tools, die individuelles Scoring, kreditähnliche Entscheidungen oder automatisiertes Routing berühren. Das sind Ihre Kandidaten für eine Hochrisiko-Klassifizierungsüberprüfung. Im Zweifelsfall kennzeichnen. Die Kosten einer Übermarkierung sind eine Rechtsüberprüfung. Die Kosten einer Untermarkierung sind regulatorisches Risiko.

Schritt 3: Beurteilen Sie, ob KI-Outputs konsequente Entscheidungen informieren oder automatisieren. Dokumentieren Sie für jedes gekennzeichnete Tool, wie der KI-Output durch Ihren Workflow fließt. Gibt es einen menschlichen Entscheidungspunkt zwischen KI-Output und konsequenter Aktion? Ist diese menschliche Überprüfung bedeutsam oder nominal?

Schritt 4: Fordern Sie Compliance-Dokumentation von Anbietern an. Fragen Sie konkret: „Ist dieses Tool als Hochrisiko-KI-System gemäß dem EU-KI-Gesetz registriert? Können Sie Dokumentation Ihres Compliance-Status vorlegen?" Bewahren Sie die Antworten auf.

Schritt 5: Identifizieren und schließen Sie Lücken bei der menschlichen Aufsicht. Wenn einer Ihrer Workflows KI-endgültige Entscheidungen ohne substanziellen menschlichen Überprüfungsschritt trifft, gestalten Sie den Prozess jetzt um.

Schritt 6: Dokumentieren Sie alles. Risikobewertungen, Datenqualitätsprüfungen, Aufsichtsprozesse, Anbieterkorrespondenz: Halten Sie schriftliche Aufzeichnungen. Wenn Sie jemals aufgefordert werden, Compliance nachzuweisen, ist die Dokumentation das, was Sie vorlegen.

Was Sie diese Woche tun sollten

Ziehen Sie Ihr aktuelles RevOps-Tool-Inventar: die Liste aller KI-aktivierten Tools, die Ihr Team verwendet. Erweitern Sie es um KI-Funktionen, die in bereits vorhandenen Tools eingebettet sind (CRM-KI-Scoring, Forecasting-KI, automatisierte Sequenz-Tools mit KI-Routing). Für den CEO-Kontext zu dieser Compliance-Frist deckt die EU-KI-Gesetz-Durchsetzungsübersicht den August-2026-Zeitplan und die Strafstruktur vollständig ab.

Kennzeichnen Sie alles, was individuelles Scoring, Routing oder kreditähnliche Entscheidungen berührt. Senden Sie dann eine kurze Notiz an Ihr Rechtsteam: „Ich habe begonnen, unsere KI-Tools den Hochrisikokategorien des EU-KI-Gesetzes zuzuordnen. Können wir 30 Minuten finden, um die Liste zu überprüfen?"

Dieses Gespräch, Inventar in der Hand, ist produktiv. Dasselbe Gespräch ohne Inventar ist allgemein und leicht zu verschieben. Wollen Sie die substanzielle Version, bevor der August noch näher rückt.


Quellen: EU AI Act 2026 Updates (LegalNodes) und EU Digital Strategy Regulierungsrahmen. Dieser Artikel ist ein operatives Bewusstseinsbriefing, keine Rechtsberatung. Wenden Sie sich an qualifizierte Rechtsanwälte für Ihre spezifische Situation und Gerichtsbarkeit.