Wie der EU AI-Act CRM-Anbieter vor neue Compliance-Herausforderungen stellt

Wie der EU AI-Act CRM-Anbieter vor neue Compliance-Herausforderungen stellt

Softwareauswahl, so einfach wie nie.

Unsere KI analysiert automatisch dein Unternehmen und erstellt einen personalisierten Vergleich geeigneter HR-Systeme:

CRM
CRM

Bitte gib eine URL ein.

Ungültiges URL-Format.

Die URL enthält nicht die erwarteten Inhalte.

Keine URL parat? Teste jetzt das Matching mit: https://mechatronix.illuminai.de
Wir verarbeiten personenbezogene Daten gemäß DSGVO und BDSG. Details finden Sie in unserer Datenschutzerklärung.

Inhaltsverzeichnis

Das Wichtigste in Kürze

  • KI-basierte CRM-Funktionen mit Empfehlungs-, Priorisierungs- oder Automatisierungslogik können früh in den Anwendungsbereich des AI Acts fallen.
  • Unklare Datenherkunft und fehlende Nachvollziehbarkeit erhöhen das Compliance-Risiko und machen Dokumentation zum Produktmerkmal.
  • CRM-Anbieter sollten Funktionen nach Entscheidungsnähe, Datenabhängigkeit und Erklärbarkeit bewerten, um Risikoklassen früh einzuordnen.

Warum KI-basierte CRM-Funktionen schneller unter den EU AI Act fallen als viele Anbieter erwarten

Wenn ein CRM-Modul Empfehlungen ausspielt, Leads priorisiert oder Antworten automatisiert formuliert, entsteht das eigentliche Risiko nicht im Frontend. Es entsteht dort, wo die Datenherkunft unklar bleibt und niemand sauber erklären kann, warum das System genau diese Entscheidung getroffen hat. Genau diese Blackbox-Logik ist regulatorisch heikel, weil der AI Act KI-Systeme risikobasiert bewertet und die Einordnung je nach Funktion und Einsatzkontext unterschiedlich ausfallen kann [1].

Für CRM-Anbieter ist das unbequem, aber klar: Sobald KI in Kernprozesse eingreift, rutscht die Funktion aus der Komfortzone eines reinen Software-Add-ons. Das betrifft etwa Systeme, die Kundenanfragen vorsortieren, Next-Best-Action-Vorschläge generieren oder Inhalte für Sales und Service automatisiert vorbereiten. Dann reichen gute UX und Modellqualität nicht mehr aus. Die Herkunft der Trainings- und Eingangsdaten, die Nachvollziehbarkeit der Ausgabe und die Einordnung in den Risikorahmen werden Teil des Produktdesigns [1].

Achtung: Die folgende Einordnung beschreibt den regulatorischen Rahmen in allgemeiner Form. Dieser Beitrag ersetzt keine Rechtsberatung; für die konkrete Einstufung einzelner CRM-Funktionen sollten Rechts- und Compliance-Experten hinzugezogen werden.

CRM-KI sitzt näher an geschäftsrelevanten Entscheidungen als viele andere Funktionen

CRM-Systeme verwalten nicht nur Kontakte. Sie steuern Workflows, die im Alltag direkt in Vertriebs-, Service- und Governance-Prozesse hineinwirken. Genau deshalb trifft der AI Act CRM-Anbieter nicht erst dann, wenn sie ein explizites „AI-Produkt“ verkaufen. Er kann bereits dann relevant werden, wenn KI-Funktionen in einer professionellen Umgebung eingesetzt werden und damit unter die allgemeine Regulierung von KI-Systemen fallen [1].

Achtung: CRM-Anbieter unterschätzen häufig, dass KI-Funktionen, die in Kernprozesse eingreifen, unter Umständen strengere Compliance-Pflichten auslösen können. Unklare Datenherkunft und fehlende Nachvollziehbarkeit erhöhen das regulatorische Risiko.

Für Produktverantwortliche ist das die eigentliche Zäsur. Eine KI-gestützte Priorisierung im Lead-Management ist regulatorisch nicht automatisch unkritisch, nur weil sie intern läuft. Entscheidend ist, dass die Software in einem Geschäftskontext Entscheidungen vorbereitet oder beeinflusst. Der AI Act unterscheidet dafür vier Risikostufen plus eine zusätzliche Kategorie für General-Purpose AI. Systeme mit höherem Risiko müssen deutlich strengere Anforderungen erfüllen als minimale oder nur begrenzt riskante Anwendungen [1].

Warum die Risikobetrachtung bei CRM-Funktionen früh ansetzt

Viele Anbieter unterschätzen, wie schnell eine vermeintlich kleine Funktion in die regulatorische Bewertung hineinlaufen kann. Schon die Frage, ob ein Modell auf Basis historischer Kundendaten personalisierte Empfehlungen erzeugt oder Inhalte dynamisch anpasst, zwingt zu einer strukturierten Einordnung. Für CRM-Teams bedeutet das: Architektur, Datenflüsse und Modellverwendung müssen von Beginn an sauber beschrieben werden, damit spätere Prüfungen nicht an verstreuten Tickets, Integrationen und Prompt-Logs scheitern. Die Verordnung verlangt nach den verfügbaren Quellen Transparenz und Dokumentation für risikoreichere KI-Anwendungen [1][2].

Der regulatorische Druck entsteht zusätzlich dadurch, dass der AI Act laut den verfügbaren Quellen für die meisten KI-Systeme in der EU gilt und nur begrenzte Ausnahmen kennt, etwa für militärische, nationale Sicherheits-, Forschungs- oder rein private Nutzung [1]. Wer CRM-Funktionen für den professionellen Einsatz entwickelt, bewegt sich damit sehr schnell im Anwendungsbereich der Verordnung. Für Anbieter ist das kein Randthema, sondern ein Produkt- und Betriebsrisiko. Wer jetzt nur auf Feature-Freigaben schaut, verpasst die Frage, welche CRM-KI-Funktion später als regulierte KI behandelt werden kann [1].

Welche CRM-KI-Funktionen potenziell in höhere Risikoklassen geraten können

Das Risiko steckt bei CRM nicht im Label der Funktion, sondern in ihrer Wirkung. Sobald ein System Kundendaten auswertet, Profile bildet, Prioritäten setzt oder Entscheidungen vorbereitet, arbeitet es nicht mehr nur als Datenablage. Der AI Act bewertet KI-Systeme risikobasiert. Anwendungen mit hohem Risiko müssen Sicherheits-, Transparenz- und Qualitätsanforderungen erfüllen und sich unter Umständen einer Konformitätsbewertung stellen [1]. Für CRM-Anbieter ist das relevant, weil viele typische KI-Funktionen genau an der Schnittstelle zwischen Nutzerverhalten, Vertriebssteuerung und Serviceentscheidungen sitzen.

Praktisch betrifft das vor allem Funktionen, die aus historischen Interaktionen Muster ableiten und daraus Handlungsvorschläge erzeugen. Dazu zählen Lead-Scoring, Opportunity-Priorisierung, Service-Triage, automatische Antwortvorschläge oder die Klassifizierung von Kundenanliegen. Je stärker eine Funktion in operative Entscheidungen eingreift, desto eher rückt die Frage nach Erklärbarkeit, Dokumentation und Nachvollziehbarkeit in den Vordergrund. Für Hochrisiko-KI nennt die Fachdebatte genau diese Punkte als zentrale Pflichten: robuste Systeme, Transparenz, Dokumentation und Überwachung der Algorithmen [3].

Für CRM-Anbieter liegt die Herausforderung in der Grauzone dazwischen. Nicht jede KI-Funktion landet automatisch in einer hohen Risikoklasse. Aber sobald ein Modell systematisch priorisiert, filtert oder Menschen in ihrer Bearbeitungsreihenfolge beeinflusst, steigt der regulatorische Druck. Wer solche Funktionen entwickelt, sollte sie deshalb nicht nur nach Produktnutzen, sondern nach Entscheidungsnähe, Datenabhängigkeit und Erklärbarkeit bewerten [1][3].

Deep Dive: Für die Risikoeinschätzung hilft eine einfache Prüflogik: Wie nah liegt der KI-Output an einer operativen Entscheidung? Wie stark hängt er von Kundendaten ab? Und kann ein Mensch die Empfehlung noch plausibilisieren? Je enger diese drei Punkte zusammenliegen, desto früher braucht die Funktion einen Compliance-Review.

Lead- und Opportunity-Scoring auf Basis generischer Modelle

Lead- und Opportunity-Scoring gehört zu den typischen CRM-Funktionen, die heute oft mit generischen Modellen oder LLMs angereichert werden. Das System verdichtet Interaktionshistorien, E-Mail-Signale, Webaktivitäten oder Kampagnenreaktionen zu einem Score. Genau dort beginnt die Transparenzfrage. Wenn ein Anbieter ein GPAI-Modell oder LLM in diesen Prozess einbindet, greifen nach den verfügbaren Quellen Anforderungen an allgemeine KI-Modelle. Für solche Modelle gelten Transparenzpflichten; für leistungsstarke Modelle kommen zusätzliche Evaluationsanforderungen hinzu [4][2].

Experten-Tipp: Bewerten Sie CRM-KI-Funktionen nicht nur nach Produktnutzen, sondern auch nach Entscheidungsnähe, Datenabhängigkeit und Erklärbarkeit. Genau dort entsteht später der Prüfaufwand.

Für Produktteams heißt das: Ein Score darf nicht als bloße Zahl im Dashboard stehen bleiben. Wenn er Vertriebsaktivitäten steuert, muss nachvollziehbar bleiben, auf welcher Datenbasis er entsteht und welche Rolle das Modell im Prozess spielt. Die öffentliche Diskussion über den AI Act behandelt solche CRM-Szenarien kaum, obwohl sie sehr nah an den Stellen liegen, an denen der Compliance-Aufwand später konkret wird [1][4][2].

Automatisierte Service-Priorisierung und Routing

Service-Priorisierung und Routing klingen operativ harmlos, sind regulatorisch aber sensibel. Sobald ein CRM-System Tickets automatisch nach Dringlichkeit ordnet, Anfragen bestimmten Teams zuweist oder Kunden in Bearbeitungscluster sortiert, beeinflusst der Algorithmus die Servicequalität unmittelbar. Die Fachquellen heben bei riskanten KI-Systemen ausdrücklich Transparenz, Erklärbarkeit sowie laufende Dokumentation und Überwachung hervor [3].

Das Problem entsteht vor allem dann, wenn ein Anbieter den Entscheidungsweg nicht erklären kann. Welche Merkmale hat das Modell berücksichtigt? Warum erhält ein Ticket Priorität A statt B? Wurde auf Sprachmuster, Historie oder Kundenwert geachtet? Ohne belastbare Antwort wird aus einer Komfortfunktion ein Audit-Thema. Für CRM-Anbieter ist das deshalb ein Architekturthema und kein reines Supportproblem [3].

Analyse von Interaktionsdaten durch General-Purpose-Modelle

Viele CRM-Plattformen nutzen heute General-Purpose-Modelle, um Gesprächsverläufe, Chattranskripte oder Antwortentwürfe zu analysieren. Damit verschiebt sich die Funktion vom klassischen Regelwerk hin zu einem Modell mit breiter Zweckbestimmung. Für GPAI-Modelle gelten im EU-Kontext Transparenzanforderungen, und für hochfähige Modelle kommen zusätzliche Evaluationspflichten hinzu. Die Quellen nennen dafür die Stichtage 2025 und 2026 als maßgebliche Anlaufpunkte [4][2].

Für CRM-Anbieter ist das doppelt relevant. Erstens reicht es nicht, nur die Anwendung zu beschreiben. Auch das zugrunde liegende Modell und seine Einbindung in den Datenfluss müssen dokumentiert werden. Zweitens steigt der Aufwand für Modellkontrolle, wenn Interaktionsdaten als Trainings-, Prompt- oder Kontextmaterial dienen. Wer diese Nutzung nicht sauber abgrenzt, riskiert später Nachfragen zu Transparenz und Governance [4][2].

Genau an dieser Stelle verschiebt sich die Diskussion von der Produktfunktion zur Organisation. Sobald eine CRM-Funktion potenziell höher eingestuft wird, entstehen neue Aufgaben für Compliance, Architektur und Betrieb.

Die neuen Pflichten für CRM-Anbieter: Was der Gesetzestext konkret verlangt und was offen bleibt

Für CRM-Anbieter ist der AI Act kein abstraktes EU-Thema, sondern eine Produktregulierung. Er richtet Pflichten an Anbieter und an Organisationen, die KI im professionellen Kontext nutzen [1]. Genau das verschiebt die Verantwortung aus der Rechtsabteilung in Produkt, Engineering und Betrieb. Wer KI-Module in CRM-Funktionen integriert, muss deshalb nicht nur das Feature ausrollen, sondern auch dokumentieren, wie es funktioniert, welche Rolle es im Prozess spielt und welche Risiken es erzeugt [1][2].

Für Produktteams ist besonders relevant, dass die Verordnung schrittweise in Kraft tritt. Die erste Phase läuft ab 2025 an, weitere Regelungen für General-Purpose AI greifen ab 2026 [1][4]. Das heißt praktisch: Ein CRM-Release, das heute geplant wird, kann bereits in die nächste Verpflichtungswelle hineinlaufen. Wer nur auf die aktuelle Produktroadmap schaut, plant am regulatorischen Takt vorbei [1][4].

Offen bleibt an mehreren Stellen die operative Auslegung. Die verfügbaren Quellen nennen Transparenz, Dokumentation und Evaluationspflichten, aber nicht jede Detailfrage für jede CRM-Funktion [1][2]. Genau darin liegt das Risiko für Anbieter. Sie müssen ihre Architektur so aufsetzen, dass sie später belastbar nachweisen können, wie eine KI-Funktion trainiert, eingebunden und überwacht wurde [1][2].

Transparenz und Dokumentation für KI-Module

Der AI Act verlangt bei risikoreicheren KI-Anwendungen Transparenz, Dokumentation und, je nach Einordnung, Evaluationspflichten [1][2]. Für CRM-Anbieter heißt das konkret: Ein KI-Modul darf nicht als anonyme Blackbox im Produkt verschwinden. Es braucht nachvollziehbare Unterlagen zur Modellverwendung, zur Datenbasis und zur Einbindung in den Prozess. Wenn ein Modell etwa Leads priorisiert oder Serviceanfragen klassifiziert, muss später erkennbar bleiben, wie die Ausgabe zustande kommt [1][2].

Experten-Tipp: Legen Sie eine gemeinsame Dokumentation für Fachbereich, Entwicklung und Compliance an. Darin sollten Modellzweck, Eingabedaten, Grenzen der Nutzung und die Stellen stehen, an denen das System menschliche Entscheidungen beeinflusst.

Für die Praxis reicht ein technisches Readme nicht aus. Produktteams brauchen eine Dokumentation, die Fachbereich, Entwicklung und Compliance gemeinsam lesen können. Das betrifft insbesondere Modellzweck, Eingabedaten, Grenzen der Nutzung und die Stellen, an denen das System menschliche Entscheidungen beeinflusst [1][2]. Ohne diese Struktur wird jede spätere Prüfung zur Rekonstruktion aus verstreuten Tickets, Commits und Prompt-Logs.

Kompetenzpflichten für Anbieter und Betreiber

Der AI Act verpflichtet Anbieter und Betreiber außerdem dazu, KI-Kompetenzen in ihren Teams sicherzustellen. Artikel 4 greift nach den verfügbaren Quellen ab dem 2. Februar 2025 [5]. Für CRM-Anbieter ist das keine Randnotiz. Wer KI-Funktionen entwickelt oder integriert, muss sicherstellen, dass die beteiligten Personen die Systeme sachkundig einsetzen und Risiken einschätzen können [5].

Das betrifft nicht nur Data-Science-Teams. Auch Produktmanagement, QA, Support und Compliance brauchen ein Mindestmaß an KI-Verständnis, sonst bleiben Freigaben, Eskalationen und Incident-Handling Stückwerk. Die Verordnung schreibt zwar vor, dass Kompetenz vorhanden sein muss, aber nicht detailliert, wie Unternehmen das intern organisieren sollen [5]. Genau diese Lücke müssen CRM-Anbieter selbst schließen. Damit wird klar, dass sie interne Teams, Prozesse und Release-Planungen anpassen müssen, bevor die nächsten AI-Act-Stufen greifen.

Warum CRM-Anbieter stärker betroffen sind als andere Softwaresegmente

CRM ist kein isoliertes Frontend für Kontakte. Das System bündelt Kundenhistorie, Vertriebsaktivitäten, Servicefälle und oft auch finanzielle oder andere sensible Merkmale in einer einzigen Plattform. Gerade im Banking wird CRM deshalb als regulatorisch komplex beschrieben, weil dort hochsensible personenbezogene und finanzielle Daten verarbeitet werden [6]. Für CRM-Anbieter verschärft das die AI-Act-Frage deutlich. Eine KI-Funktion steht nicht neben dem Kerngeschäft. Sie greift direkt in Prozesse ein, die Kundenerlebnis, Priorisierung und Kommunikation beeinflussen.

Der Unterschied zu vielen anderen Softwaresegmenten liegt in der Schaltstellenfunktion. CRM verbindet Marketing, Vertrieb und Service. Wenn eine KI hier Leads bewertet, Tickets routet oder Antwortvorschläge priorisiert, endet die Wirkung nicht im Datensatz. Sie verändert, wie schnell ein Kunde bedient wird, welcher Ansprechpartner reagiert und welche Informationen intern weitergeleitet werden. Genau an solchen Punkten steigt der Druck auf Transparenz und Nachvollziehbarkeit [1][3].

Für Anbieter bedeutet das: Jede KI-gestützte Entscheidung im CRM kann mehrere Fachbereiche gleichzeitig betreffen. Was im Marketing als Segmentierungslogik beginnt, landet im Vertrieb als Priorisierung und im Service als Eskalationsentscheidung. Aus einer technischen Funktion wird damit unter Umständen ein Compliance-Fall [1][6][3].

Schnittstellen zwischen CRM und operativen Systemen

Die Risiken steigen an den Systemgrenzen. Ein CRM liefert selten nur eine Empfehlung. Es übergibt Daten an ERP, Ticketing, Workforce-Management oder Kampagnensysteme. Sobald eine KI dort ein Ranking, eine Klassifikation oder eine automatische Zuordnung erzeugt, beeinflusst sie operative Abläufe außerhalb des CRM selbst. In regulierungssensiblen Branchen gilt CRM ohnehin als komplex, weil es tief in geschäfts- und aufsichtsrelevante Prozesse eingebunden ist [6].

Achtung: Je stärker ein CRM mit operativen Systemen gekoppelt ist, desto schneller wird aus einer Komfortfunktion ein auditierbarer Entscheidungsprozess. Genau dort entstehen die späteren Nachweispflichten.

Für den AI Act ist genau diese Kopplung relevant. Je näher ein KI-Output an einer operativen Entscheidung liegt, desto schwieriger wird es, Verantwortung klar abzugrenzen. Wenn das CRM einen Kundenfall als „hoch priorisiert“ markiert und das Serviceteam diesen Status ungeprüft übernimmt, hängt die Wirkung nicht mehr nur an der Modellqualität. Dann zählen auch Datenflüsse, Berechtigungen und die Frage, ob Menschen den Output überhaupt noch plausibilisieren können [1][3].

Konflikte zwischen KI-Output und realen Kundeninteraktionen

CRM-KI steht immer im Kontakt mit Menschen. Deshalb fallen Fehler nicht nur in Logs auf, sondern im Kundengespräch. Ein erklärungsbedürftiger Score, eine unpassende Priorisierung oder eine fehlerhafte Antwortempfehlung kann unmittelbar als unfair, willkürlich oder diskriminierend wahrgenommen werden. Die Fachdebatte zum AI Act hebt bei riskanten Systemen deshalb ausdrücklich Transparenz, Erklärbarkeit sowie laufende Dokumentation und Überwachung hervor [3].

Das ist für CRM-Anbieter besonders heikel, weil Kundenerlebnisse stark von der Reihenfolge der Bearbeitung, vom Ton der Antwort und von der Auswahl des nächsten Schritts abhängen. Wenn der KI-Output nicht nachvollziehbar bleibt, entsteht ein Konflikt zwischen Systemlogik und realer Interaktion. In sensiblen Prozessen reicht es dann nicht, dass das Modell technisch korrekt arbeitet. Es muss auch fachlich begründbar sein, warum ein Kunde diesen Weg und nicht einen anderen bekommen hat [3].

Aus dieser höheren Betroffenheit ergeben sich konkrete Implementierungsrisiken, die im nächsten Kapitel systematisch aufgearbeitet werden.

Die größten Fallstricke in der Praxis: Architektur, Data Governance, Modellkontrolle

Die größten Probleme entstehen selten im sichtbaren CRM-Frontend. Sie entstehen in der Kette dahinter: unklare Datenflüsse, fehlende Protokollierung und KI-Funktionen, die produktiv laufen, ohne dass Produkt, Engineering und Compliance denselben Blick auf Modell, Daten und Verantwortung haben. Genau das wird unter dem AI Act schnell zum Risiko, weil die Verordnung auf Transparenz, Dokumentation und Nachvollziehbarkeit abstellt [1][2].

Was viele Teams unterschätzen: Mit den neuen Regulierungen steigt nicht nur der Dokumentationsbedarf. Auch der Bedarf an internem Fachwissen wächst. Ein Fachbeitrag warnt bereits vor zusätzlichem Fachkräftemangel durch den EU AI Act, weil Unternehmen für die Umsetzung von Compliance und Kontrolle geeignete Ressourcen aufbauen müssen [3]. Dazu kommt die Kompetenzpflicht ab dem 2. Februar 2025: Anbieter und Betreiber sollen sicherstellen, dass ihre Teams die KI sachkundig einsetzen können [5]. Für CRM-Anbieter ist das ein Doppelproblem. Ohne Know-how bleibt selbst eine saubere Architektur auf dem Papier stehen.

Modellrisiken durch externe GPAI-Integrationen

Viele CRM-Anbieter binden heute externe General-Purpose-AI-Modelle als Plug-in in Benutzeroberflächen, Assistenten oder Vorschlagsfunktionen ein. Das reduziert zwar die Time-to-Market, verschiebt die Verantwortung aber nicht automatisch auf den Modellanbieter. Für GPAI-Modelle gelten im AI Act eigene Pflichten, deren Anforderungen ab 2025 und 2026 greifen sollen [4][2]. Sobald ein CRM-Produkt ein solches Modell in den eigenen Prozess einbettet, muss der Anbieter seine Nutzung dokumentieren, den Zweck der Funktion beschreiben und die Grenzen der Ausgabe kontrollierbar halten [1][2].

Achtung: Externe General-Purpose-AI-Modelle entbinden CRM-Anbieter nicht von der Verantwortung. Sie müssen die Nutzung dokumentieren, den Zweck beschreiben und die Ausgabegrenzen kontrollierbar halten.

Das heikle Detail: Für die Aufsicht zählt nicht nur das Basismodell. Entscheidend ist auch, wie der CRM-Anbieter es einsetzt, welche Daten in den Prompt fließen und an welcher Stelle die Ausgabe in einen Geschäftsprozess übergeht [1][2]. Wer hier nur auf den Vendor verweist, wird bei Audits kaum weit kommen. Externe Modelle senken also nicht den Compliance-Aufwand. Sie machen ihn oft nur weniger sichtbar.

Datenqualität, Protokollierung und Audit-Trails

CRM-Daten wirken sauber, sind aber operativ oft fragmentiert. Ein Kontakt stammt aus Marketing, der Servicefall aus dem Ticketsystem, die Priorisierung aus einer Regel-Engine und der finale Kundenstatus aus manuellen Eingriffen. Für eine KI-Ausgabe reicht diese Mischung nur dann aus, wenn die Herkunft der Daten sauber nachvollziehbar bleibt. Genau daran scheitern viele CRM-Umgebungen: Die Traceability über Tabellen, Integrationen und Workflows hinweg ist häufig lückenhaft [6][3].

Für robuste und dokumentierte Hochrisiko-KI wird aber gerade diese Nachvollziehbarkeit verlangt. Wer später belegen soll, warum ein Modell eine Empfehlung gegeben hat, braucht Audit-Trails für Eingabedaten, Modellversionen, Freigaben und menschliche Eingriffe [3]. Fehlen diese Spuren, lässt sich ein Fehler kaum eingrenzen. Dann wird aus einer fachlichen Abweichung schnell ein Compliance-Thema. Für CRM-Anbieter heißt das: Logging ist keine Betriebsnebensache, sondern Teil der Produktarchitektur.

Nachdem die Risiken benannt sind, folgt nun der pragmatische Teil: Wie Anbieter Compliance in ihre Roadmaps integrieren.

Roadmap-Empfehlung: Wie CRM-Anbieter sich jetzt strukturiert vorbereiten

Wenn KI-Funktionen bereits in Lead-Scoring, Antwortvorschlägen oder Routing-Regeln laufen, reicht ein späteres Compliance-Projekt nicht mehr aus. Dann müssen Produkt, Engineering und Compliance dieselben Fragen zur Funktion, zum Datenfluss und zur Verantwortlichkeit beantworten. Der Zeitdruck ist real: Am 5. Februar 2025 greifen die ersten Regelungen zu KI-Kompetenz und Verboten bestimmter KI-Systeme [4][5]. Für GPAI-Modelle werden ab dem 2. August 2025 weitere Pflichten relevant, und ab dem 2. August 2026 greifen Transparenzpflichten sowie Sanktionen bei Nichtbeachtung [4].

Die richtige Reihenfolge ist deshalb nicht „erst dokumentieren, dann verstehen“. CRM-Anbieter sollten zuerst ihren Produktbestand inventarisieren. Welche Funktionen nutzen KI? Wo fällt eine Vorentscheidung im Workflow an? Welche Modelle laufen extern, welche intern? Welche Daten fließen in den Prompt oder in die Klassifikation? Erst wenn diese Punkte sauber erfasst sind, lässt sich das Risiko pro Funktion bewerten [1][4].

Für die Praxis hat sich eine einfache Bewertungslogik bewährt: Relevanz der Entscheidung, Nähe zum operativen Prozess, Datenkritikalität und Grad der Automatisierung. Je höher die Kombination dieser vier Faktoren, desto früher braucht die Funktion einen Compliance-Review. Das gilt besonders für CRM-Module, die Priorisierung, Segmentierung oder Antwortgenerierung mit Kundendaten verbinden. Diese Logik ersetzt keine rechtliche Einordnung, hilft aber dabei, die produktseitigen Risiken früh zu priorisieren [1][3].

Vier Arbeitspakete für die nächsten 90 Tage

Erstens: Legen Sie ein Funktionsverzeichnis an. Darin sollten alle KI-gestützten CRM-Features mit Zweck, Datenquelle, Modelltyp und Prozesskontaktpunkt stehen. Zweitens: Trennen Sie Produkt- und Risikobewertung nicht voneinander. Die Produktteams kennen den realen Workflow, Compliance kennt die Nachweispflichten. Drittens: Prüfen Sie, ob Ihre Teams die notwendige KI-Kompetenz besitzen. Artikel 4 des AI Acts verlangt genau diese Befähigung für Anbieter und Betreiber [5]. Viertens: Bauen Sie Logging und Versionierung so ein, dass spätere Prüfungen nicht an fehlenden Audit-Trails scheitern [3].

Experten-Tipp: Verbinden Sie Ihre AI-Act-Vorbereitung mit einer produktnahen Checkliste. Prüfen Sie pro Funktion mindestens Zweck, Datenherkunft, Modellabhängigkeit, menschliche Kontrolle und Protokollierung. Eine solche interne Compliance-Checkliste strukturiert die Arbeit ohne Zusatztools.

Ein typischer Fehler ist die Annahme, dass ein externer Modellanbieter die Verantwortung übernimmt. Das stimmt nicht. Der AI Act adressiert Anbieter und Betreiber, also auch den CRM-Hersteller, der eine Funktion in sein Produkt integriert [1][2]. Wer jetzt nur auf Vertragsanhänge setzt, löst das operative Problem nicht. Entscheidend ist, ob das Produkt selbst den Einsatz kontrollierbar macht.

Wo Sie intern priorisieren sollten

Beginnen Sie mit den CRM-Funktionen, die Entscheidungen beschleunigen oder selektieren. Dort ist die regulatorische Relevanz am höchsten. Danach folgen Features mit externer Modellanbindung und solche, die Kundendaten aus mehreren Quellen zusammenführen. Wenn Sie parallel Ihren Marktauftritt schärfen wollen, lohnt sich ein Blick auf CRM-Systeme vergleichen. Dort wird deutlich, welche Leistungsversprechen im Markt schon heute als Differenzierungsmerkmal gelten und welche Funktionen künftig auch aus Compliance-Sicht erklärt werden müssen.

Wer strategisch auf die nächsten Produktzyklen schaut, sollte außerdem die Aktuelle CRM-Trends im Blick behalten. Genau dort entstehen oft die KI-Funktionen, die später unter den AI Act fallen können. Das betrifft vor allem Assistenzfunktionen, Automatisierung im Kundenservice und generative Inhalte im Sales-Kontext [1][4].

Experten-Tipp: Nutzen Sie die Vorbereitung auf den AI Act als Produktinventur. Wenn Sie jede KI-Funktion mit Zweck, Datenquelle, Modelltyp, Entscheidungsnähe und Protokollierung erfassen, entsteht daraus zugleich die Basis für Ihre interne Compliance-Checkliste.

Wer diese Schritte jetzt strukturiert angeht, reduziert nicht nur spätere Nacharbeit. Er schafft auch die Grundlage, um KI-Funktionen im CRM weiterzuentwickeln, ohne bei der nächsten Regulierung wieder bei Null zu starten.

Häufige Fragen

Wann fallen KI-Funktionen in CRM-Systemen unter den EU AI Act?

Sobald KI in CRM-Workflows Entscheidungen vorbereitet, priorisiert oder automatisiert beeinflusst, kann sie in den Anwendungsbereich des AI Acts fallen. Der Artikel nennt dafür vor allem Funktionen wie Lead-Scoring, Service-Triage, automatische Antwortvorschläge oder Next-Best-Action-Empfehlungen. Entscheidend ist nicht das Label „KI“, sondern die tatsächliche Wirkung im geschäftlichen Prozess.

Welche CRM-KI-Funktionen sind aus Compliance-Sicht besonders kritisch?

Besonders kritisch sind Funktionen, die Kundendaten auswerten und daraus Prioritäten oder Handlungsempfehlungen ableiten. Dazu zählen etwa die Priorisierung von Leads, die Klassifizierung von Kundenanliegen, die automatische Vorsortierung von Anfragen und generierte Antwortvorschläge. Je stärker eine Funktion in operative Entscheidungen eingreift, desto wichtiger werden Erklärbarkeit, Dokumentation und Nachvollziehbarkeit.

Warum sind CRM-Anbieter vom EU AI Act stärker betroffen als viele denken?

CRM-Systeme sitzen nah an Vertriebs-, Service- und Governance-Prozessen und beeinflussen damit oft geschäftsrelevante Entscheidungen. Der Artikel betont, dass die Regulierung nicht erst bei einem expliziten „AI-Produkt“ relevant wird, sondern auch bei KI-Funktionen, die in professionellen Umgebungen eingesetzt werden. Dadurch werden Architektur, Datenflüsse und Modellverwendung schnell zu Compliance-Themen.

Welche Anforderungen stellen sich für Softwareanbieter im CRM-Bereich besonders früh?

Laut Artikel müssen CRM-Anbieter früh klären, wie sie Funktionen nach Entscheidungsnähe, Datenabhängigkeit und Erklärbarkeit einordnen. Dazu kommen Transparenz und Dokumentation, vor allem bei risikoreicheren KI-Anwendungen. Unklare Datenherkunft und fehlende Nachvollziehbarkeit erhöhen das Compliance-Risiko deutlich.

Was sollten CRM-Anbieter jetzt tun, um sich auf den AI Act vorzubereiten?

CRM-Anbieter sollten ihre KI-Funktionen systematisch inventarisieren und prüfen, welche davon Entscheidungen beeinflussen oder vorbereiten. Wichtig sind eine saubere Beschreibung von Datenflüssen, Modellnutzung und Erklärbarkeit, damit spätere Prüfungen nicht an verstreuten Logs oder Tickets scheitern. Der Artikel verweist außerdem auf eine downloadbare Compliance-Checkliste zur Vorbereitung auf den EU AI Act.

Quellen

Bild von Dr. Marcel Panzer

Dr. Marcel Panzer

Durch zahlreiche erfolgreich abgeschlossene Auswahlprojekte hat Marcel Geschäftsprozesse in Start-ups, mittelständischen Unternehmen und Konzernen digitalisiert. Er entwickelte mehrere KI-Tools und promovierte im Bereich Deep Learning / Reinforcement Learning, wobei er klassische Heuristiken mit State-of-the-Art-Algorithmen verknüpfte. So verbindet er technische Exzellenz mit praxisnaher Software-Expertise, um Unternehmen schnell die am besten passende Software zu finden.

Hier weiterlesen