• Praxisbeispiele für Agentic-AI-Einsatz
• Anforderungen an Datenarchitektur, Governance und Compliance (inkl. EU AI Act) für sicheren Betrieb
• Strategische Schritte für die Skalierung von Pilotprojekten zu produktiven, unternehmenskritischen Systemen
KI ist überall. Doch der Nutzen von KI ist nur so gut wie die Daten, mit denen sie gespeist wird. In dieser Session werden wir diskutieren, welche Strategien für eine KI-getriebene Datenarchitektur am effektivsten sind. Darüber hinaus betrachten wir die Bedeutung von Metadaten und wie ein effektives Metadatenmanagement die Wirksamkeit von KI steigern kann. In der Diskussion werden wir Fallstudien aus dem Finanzdienstleistungssektor analysieren und diese mit anderen Branchen vergleichen.
• Datenarchitektur-Modelle, die KI-Initiativen in Banken und Versicherungen skalierbar, sicher und geschäftsrelevant machen
• Governance, Compliance und Data Ownership als Basis für vertrauenswürdige KI-Anwendungen
• Verbindung von Business-Strategie und Datenstrategie, um KI-Use-Cases schnell und wirkungsvoll umzusetzen • Rolle von Data Products und Self-Service-Ansätzen für die Befähigung von Fachbereichen
• Kultureller Wandel und Skill-Aufbau: Wie Menschen und Organisation auf den KI-Einsatz vorbereitet werden
• Mehr als nur Chatbots. Was unterscheidet Agentic AI von bisherigen Technologien?
• Kommunikation statt Formulare. Wie sieht der Finanzsektor im Jahr 2030 aus?
• Technologische und gesellschaftliche Treiber machen den Wandel unvermeidbar. Ist jetzt der richtige Zeitpunkt für Agentic AI in Finance?
• Herausforderungen bei der Umsetzung von BCBS 239 im Kreditrisikomanagement
• Aufbau und Weiterentwicklung von Datenqualitätsprozessen in der Kreditanalyse
• Governance-Strukturen, Verantwortlichkeiten und Lessons Learned aus Projekten
• Key elements of the ECB’s “Next-Level Supervision” initiative and its impact on regulatory reporting
• Upcoming changes to data request processes, materiality thresholds, and expectations for data quality
• Strategic implications for banks’ internal coordination across risk, finance, and IT
• Umsetzung der BCBS-239-/RDARR-Anforderungen in komplexen Bankarchitekturen – von der Definition kritischer Daten¬elemente bis zur fachlich und technisch vollständigen Nachvollziehbarkeit
• Aufbau und Pflege einer durchgängigen Data Lineage – fachlich, logisch und physisch – inklusive Schnittstellen zu regulatorischen Reporting-Systemen
• Erwartungen der Aufsicht an Dokumentation, Governance und Prüfungsfähigkeit – Lessons Learned aus laufenden und abgeschlossenen Projekten Reserviert für einen unserer Geschäftspartner
• Umgang mit regulatorischen Anforderungen durch eine integrierte Datenmanagement-Plattform
• Wie eine innovative, ganzheitliche Datenarchitektur ein konsistentes Framework für das Management BCBS- 239-relevanter Daten ermöglicht
• Datenmanagement als unterschätzter Erfolgsfaktor für Compliance im Zeitalter von Agentic AI
• Vergleich zentraler, hybrider und dezentraler Governance-Modelle zur Erfüllung von RDARRAnforderungen. • Technische Umsetzung von fachlicher und technischer Data Lineage sowie Definition von Critical Data Elements (CDEs). • Prüfungserfahrungen der Aufsicht inklusive typischer Findings und Erwartungen bei RDARR-Audits. • Organisatorische Best Practices für klare Verantwortlichkeiten und effektive Schnittstellen zwischen Fachbereich, IT und Compliance. • Balance zwischen regulatorischer Nachvollziehbarkeit und operativer Flexibilität bei Self-Service- Datenzugriff.
• Vorgehen bei der umfassenden Metadatenerhebung über die gesamte Systemlandschaft und Lessons Learned aus zwei Jahren Umsetzung
• Aufbau eines Datenqualitäts-Frameworks: Definition von Anforderungen, Messung von Kontrollabdeckung und Integration in die Data Lineage
• Nutzung der Metadatenarbeit für Architekturverbesserungen und nachhaltige Governance im Risikodatenmanagement
• SAP als zentrale Governance- und Reporting-
Plattform kombiniert mit Databricks für agile Analysen
und Self-Service – eine Architektur, die flexible
Datenbereitstellung und BCBS-239-Konformit.t
gleichzeitig erm.glicht
• Integration beider Systeme: klare Verantwortlichkeiten,
konsistente Datenmodelle, geregelte Zugriffe, stabile
Datenqualit.t und Compliance-by-Design entlang der
gesamten Pipeline
• Praxisbeispiele zeigen, wie Automatisierung und eine
gemeinsame Datenbasis regulatorische Anforderungen
erfüllen und zugleich neue analytische und
datengetriebene Use Cases ermöglichen
• Nutzung der für DORA verbesserten CMDB und Erweiterung dieser um Daten/Informationsobjekte
• Unterstützung von Regulatorik (z. B. BCBS 239, RDARR, ESG-Reporting) durch klare Data Lineage, Zugriffskontrollen und Auditierbarkeit
• Beschleunigung von Business- und KI-Initiativen durch flexible Datenbereitstellung für Fachbereiche ohne Verzicht auf Governance und Sicherheit
• Data Mesh vs. Data Fabric: Welche Architekturansätze setzen sich durch und wie kombinieren Banken zentrale Steuerung mit dezentralem Data Ownership?
• Self-Service, Datenprodukte und Kataloge: Wie gelingt der Spagat zwischen Nutzerfreundlichkeit, Governance und regulatorischer Nachvollziehbarkeit?
• KI-Readiness: Welche Architekturkomponenten sind entscheidend für den produktiven Einsatz von GenAI und Agentic AI?
• Integration von Cloud-First-Strategien mit Legacy- Systemen: Wie bauen Banken zukunftsfähige hybride Landschaften?
• Lessons Learned: Erfolgreiche Implementierungsbeispiele und nächste Evolutionsschritte für hybride Architekturen im Finanzsektor
The establishment of an Enterprise Information Architecture (EIA), also known as a Semantic Layer or Data Fabric, is now recognised as the definitive methodology for delivering high-quality, reliable data applications. Beyond traditional data management, this architecture is instrumental in grounding and optimising AI-enriched applications. This presentation introduces the core components of an EIA and demonstrates how it delivers end-to-end data lineage and provenance. We will explore how this framework ensures regulatory readiness for global financial institutions, with a specific focus on meeting the rigorous demands of BCBS 239 and RDAR auditing.
• Von Anayltics zu Simulation,
• Use Cases, wie man es angehen kann
• Von Informationen zu Entscheidungen
• Wie sich KI-gestützte Ansätze auf Marketingprozesse und Dialogsteuerung auswirken können
• Welche Implikationen hat dies auf die Organisation und Wertschöpfung
• Erfahrungen und Insights aus der Praxis der CRONBANK
• Einordnung von GenAI und LLMs in bestehende AI Assurance und Governance Frameworks
• GenAI spezifische Controls wie Prompt Governance, Human in the loop und Audit Logging
• Architektur und Betriebsmodelle für produktive, DORA konforme und skalierbare GenAI Systeme
• Typische Prüfungsschwerpunkte und Erwartungshaltungen bei der Validierung von Risikodatenaggregation und Reporting-Prozessen.
• Erfahrungen aus internen und externen Prüfungen: häufige Findings, Interpretationsspielräume und wiederkehrende Schwachstellen.
• Austausch zu Best Practices für nachhaltige BCBS- 239-Compliance, insbesondere im Zusammenspiel von Fachbereich, IT und Governance.
• Governance- versus Validierungsfunktion - wie lassen sich Synergien optimal nutzen?
• Praktische Herausforderungen für kleinere und nicht-komplexe Banken beim heutigen regulatorischen Rahmen – wo drückt der Schuh am meisten?
• Welche Vereinfachungen bei Kapitalanforderungen, Meldewesen und Governance wären realistisch und würden spürbar entlasten?
• Wettbewerbsperspektive: Wie können kleine Banken trotz knapper Ressourcen innovativ und regelkonform bleiben?
• Chancen und Risiken für die Branche: Entlastung nutzen, ohne Vertrauen und Stabilität zu gefährden.
• Dialog mit größeren Instituten und Dienstleistern: Welche Kooperationen und Standards könnten helfen?
• Wie sich Banken und Förderinstitute auf DORAPrüfungen vorbereiten
• Rolle der internen Revision bei der Bewertung von ICTRisiken und Governance-Strukturen
• Austausch zu Prüfmethoden, Dokumentationsanforderungen und Aufsichtserwartungen im DORA-Kontext
• Steigende regulatorische Anforderungen an ESG-Datenqualität (z. B. durch Omnibusverfahren, EBA Guidelines on the Management of ESG Risks)
• Spannungsfeld zwischen interner Datensammlung, existierenden Kundendaten und externen Providern
• Intelligente Ansätze zur ESGDatenerhebung (z.B., KI-gestützte Verfahren, Proxy-Daten, ESGDatenplattformen)
• Aufsichtsperspektive: Welche Erwartungen stellen EZB, Bundesbank & Co. an Datenqualit.t, Messung und Korrekturen?
• Intraday-Korrekturen und automatisierte Qualit.tskontrollen – wie weit sind Pilotprojekte und was bedeutet das für den Alltag?
• Governance-Fragen: Rollenverteilung zwischen zentralen Teams und Fachbereichen im Self-Service Reporting
• Technologische Ans.tze: Einsatz von AI, Agentic AI und automatisierten Workflows zur Sicherstellung von Datenqualit.t • Erfahrungen aus Prüfungen: Wo scheitern Banken noch und welche Best Practices setzen sich durch?
• Aufbau eines strukturierten, wiederholbaren Prozesses zur Erfassung, Bearbeitung und Nachverfolgung von Datenqualitätsproblemen als Bestandteil des Data Governance Frameworks.
• Klare Rollen- und Verantwortlichkeitsmodelle für Data Stewards, Data Owners und Governance-Teams zur nachhaltigen Steuerung von Datenqualität.
• Etablierung eines transparenz- und effizienzorientierten Workflows, der Datenqualität messbar verbessert – auch in Organisationen, in denen Governance-Strukturen noch im Aufbau sind.
• Datenqualität als Teil operativer Prozesse: Kontrolle, Validierung und Verantwortlichkeit entstehen bereits an der Quelle
• Prozessorientierter Governance-Ansatz: klare Zuordnung von Datenquellen, Zuständigkeiten und bereichsübergreifender Zusammenarbeit
• Flexibles Framework zur effizienten Integration neuer regulatorischer Anforderungen mit Fokus auf praktische Umsetzbarkeit und Nachhaltigkeit
• Umsetzung von Intraday-Korrekturprozessen zur schnellen Erkennung und Behebung von Datenfehlern vor regulatorischem oder internem Reporting
• Aggregation und Auswertung von Qualitätskennzahlen über verschiedene Systeme zur kontinuierlichen Verbesserung der Datenbasis
• Aufbau einer kontrollierten Zugriffsschicht und klar definierter Datenräume, um Self-Service-Reporting mit gleichbleibend hoher Qualität zu gewährleisten
• Vorstellung eines automatisierten Ansatzes zur Erkennung von Datenanomalien in laufenden Datenstr.men – integriert in die produktive Data Pipeline.
• Labeling, Kalibrierung und kontinuierliche Optimierung als Kernelemente eines selbstlernenden Qualit.tsmanagements.
• Beitrag zur Stabilit.t und Verl.sslichkeit von Reporting- und Steuerungsprozessen durch frühzeitige Identifikation und Korrektur von Datenfehlern.
• Integration von ESG-Kennzahlen in zentrale Systeme und Datenhaushalte Herausforderungen bei Qualit.t, Konsistenz und Nachvollziehbarkeit
• Aufbau von klaren Verantwortlichkeiten und Prozessen für ESG-Daten zwischen ESG-Team, Datenmanagement, Finance und Risk
• Praktische Erfahrungen aus Projekten: Datenqualit.t sichern, Schnittstellen managen und regulatorische Anforderungen effizient erfüllen
Erfahren Sie, wie die DZ CompliancePartner GmbH ausgelagerte Compliance-Prozesse bereits heute mit KI-Agenten intelligent automatisiert. Im Fokus stehen folgende Fragestellungen:
• Wie können KI-Agenten die Einhaltung von Compliance- Anforderungen wie IKT-Compliance, Datenschutz oder WpHG-Compliance effektiv unterstützen und automatisieren?
• Wie lassen sich lokale Sprachmodelle (LLMs) nutzen, um komplexe Dokumente wie Vertragswerke sicher und nachvollziehbar On-Prem zu analysieren und zu prüfen?
• Welche Herausforderungen und Lösungen ergeben sich bei der Steuerung sowie Überwachung KI-gestützter Prozesse und welchen messbaren Mehrwert erzielen Banken dabei bereits heute?
• Welche Herausforderungen stellt die Erhebung von ESG-Daten derzeit – auch im Lichte des EU-Omnibus-Pakets?
• Welche Chance bietet die KI-gestützte Extraktion von ESG-Daten aus Unternehmensberichten?
• Welchen Nutzen leistet dieser Ansatz für Kunden, Vertrieb und Risikomanagement?
• Worauf ist bei der Verwendung dieser KI-Lösung besonders zu achten?
Matthias Frisch
Product Owner | ESG Data Collection, ESG Data Hub & EU Taxonomy Methodology
Raiffeisenbank International
• Architecture of multi-agent credit-risk systems: orchestration, data-flow design, and human-in-theloop control
• Practical lessons from building a real-time credit-risk engine for SME financing
• The future of Agentic AI in risk modelling – transparency, governance, and regulatory alignment
Die Masterclass adressiert die anhaltenden Herausforderungen bei der Umsetzung von RDARR und BCBS 239, insbesondere im Spannungsfeld zwischen aufsichtsrechtlichen Erwartungen und praktischer Umsetzbarkeit in Banken. Im Mittelpunkt steht der strukturierte Austausch zwischen Aufsicht und Instituten, mit Fokus auf Data Lineage, Proportionalität und prüfungsrelevante Fragestellungen.
• Aufsichtsrechtliche Erwartungshaltung an Data Lineage: End-to-End-Sicht, Granularität bis auf Attributebene und Einordnung aktueller Leitlinien.
• Umsetzungsrealität in Banken: Herausforderungen mit Legacy-Systemen, Abgrenzung von Datenebenen (Attribut vs. Dataset) und Auswirkungen auf Datenqualitätsmonitoring.
• CDEs, Materialität und Proportionalität: Diskussion zu praktikablen Ansätzen bei der Identifikation kritischer Datenelemente und zu Grenzen quantitativer Sensitivitätsanalysen.
• Validierung und Prüfung: Typische Fragestellungen aus Prüfungen, Interpretationsspielräume und Erfahrungen aus dem Zusammenspiel von Governance, IT und Fachbereichen.
Format der Masterclass: Kurze Einführung durch Herrn Seifer zu den aufsichtsrechtlichen Erwartungen (ca. 15–20 Minuten), gefolgt von einer moderierten Podiumsdiskussion mit Bankenvertretern und aktiver Einbindung des Publikums.
Banken und Versicherungen stehen heute vor einem Paradoxon: Einerseits zwingen Regulatorik (DORA, AI Act) und geopolitische Abhängigkeiten zu maximaler Kontrolle und digitaler Souveränität. Andererseits verspricht die Evolution von Generative AI hin zu Agentic AI immense Effizienzsprünge – droht jedoch in einem unkontrollierten „Agentic Mess“ aus isolierten Schatten-KIs zu enden.
In dieser Masterclass zeigen wir, wie sich ein Agentic Mesh als Governance-first- Betriebsmodell nutzen lässt, und beleuchten die strategische Frage der Data- & AISovereignty. Teilnehmende nehmen einen kompakten Blueprint mit: Target Picture, Controls („Governance in Code“) sowie ein Vorgehen, um bestehende Use Cases zu einem skalierbaren Agenten-Portfolio zu verbinden. Grundlage sind die [at] Agentic- Mesh Building Blocks (Semantic Layer / Knowledge Graph / Kataloge / Zugriff / Process Layer) sowie eine pragmatische Souveränitäts-Checkliste für den Finanzsektor.