
Die zunehmende Integration von Künstlicher Intelligenz (KI) in AML-Prozesse verändert die Anforderungen an Geldwäscheprävention grundlegend. Die neue EU-Verordnung zur Bekämpfung von Geldwäsche (AMLR) und der AI Act treten 2025 in Kraft – und stellen insbesondere Compliance Officer, Geldwäschebeauftragte und Geschäftsführer vor komplexe rechtliche und technische Herausforderungen.
Wer zukünftig automatisierte KI-Systeme zur Kundenidentifikation oder Transaktionsüberwachung einsetzt, muss deren Risiken regulatorisch bewerten, intern dokumentieren und nachvollziehbar prüfen – oder persönlich haften.
Neue regulatorische Anforderungen ab 2025
1. EU-AI Act: Hochrisiko-KI in der Geldwäscheprävention
-KI-Systeme zur Identifizierung von Kunden (KYC), Transaktionsüberwachung und PEP-/Sanktionslistenprüfung gelten als „Hochrisiko-KI“.
-Unternehmen müssen die Systeme technisch nachvollziehbar dokumentieren – inklusive Datengrundlage, Modelllogik und Entscheidungsgrenzen.
-Es gelten neue Audit- und Transparenzpflichten: Jede automatisierte Bewertung muss manuell nachvollziehbar gemacht werden.
-Compliance Officer haften, wenn KI-Systeme falsche Risikoeinstufungen erzeugen und keine ausreichenden Kontrollmechanismen bestehen.
2. AMLR: Verschärfte KYC-Pflichten und persönliche Haftung
Die neue EU-Geldwäscheverordnung (AMLR) ersetzt ab 2025 nationale Gesetze und gilt unmittelbar für alle Finanzunternehmen und verpflichteten Stellen.
Zentrale Neuerung: erweiterte KYC-Pflichten – Unternehmen müssen bei jedem Kunden eine risikobasierte Identitätsprüfung durchführen, inkl. kontinuierlicher Überwachung.
Für Hochrisikokunden ist verpflichtend eine Enhanced Due Diligence (EDD) erforderlich.
Fehlerhafte oder lückenhafte KYC-Verfahren – insbesondere durch nicht validierte KI-Modelle – gelten als Organisationsverschulden.
Die Verantwortung für die Einhaltung dieser Pflichten liegt bei den Geldwäschebeauftragten und der Geschäftsleitung.
3. Compliance & Haftung: Neue Führungsaufgaben in der Regulatorik
Die Kombination von KI und AML-Prozessen verlangt eine interdisziplinäre Governance-Struktur – Technik, Recht und Aufsicht müssen zusammenspielen.
Compliance Officer haften bei fehlenden Prüfprozessen oder unklarer Risikoverteilung – auch bei ausgelagerten AML-Systemen.
Die Anforderungen an technisches und regulatorisches Verständnis steigen deutlich: Begriffe wie Explainable AI, Modellvalidierung oder Bias Detection gehören künftig zur Basiskompetenz.
Auch Vorstände und Geschäftsführer sind in der Pflicht, eine funktionsfähige Compliance-Struktur sicherzustellen
4. Handlungsempfehlungen für das Management und Compliance Officer
-Verantwortlichkeiten klären: Governance-Strukturen für KI-gestützte AML-Systeme definieren und Rollen dokumentieren.
-Risikobewertungen und Validierungspflichten ernst nehmen: Jede eingesetzte KI muss einem internen Audit und einer nachvollziehbaren Risikoanalyse unterzogen werden.
-KYC-Prozesse modernisieren: Risikoklassifizierung und kontinuierliche Kundenüberwachung müssen 2025 regulatorischen Standards entsprechen.
-Schulungen frühzeitig einplanen: Compliance-Verantwortliche benötigen nicht nur rechtliches, sondern auch technisches Verständnis.
Fazit: Compliance braucht KI-Kompetenz – und klare Haftungsgrenzen
Ab 2025 verändert sich der Compliance-Alltag grundlegend. Die direkte Wirksamkeit der AML-Verordnung und des AI Acts verschärft die Haftungsrisiken für Compliance Officer und Geschäftsleitung. Wer KI nutzt, ohne ihre Risiken zu kennen und kontrollieren zu können, gefährdet nicht nur das Unternehmen – sondern haftet persönlich.
Nur wer jetzt in Schulungen, Governance-Strukturen und Validierungsprozesse investiert, kann Haftungsrisiken wirksam begrenzen – und die Chancen der digitalen Transformation sicher nutzen.