• Praxisbeispiele für Agentic-AI-Einsatz
• Anforderungen an Datenarchitektur, Governance und Compliance (inkl. EU AI Act) für sicheren Betrieb
• Strategische Schritte für die Skalierung von Pilotprojekten zu produktiven, unternehmenskritischen Systemen
• Datenarchitektur-Modelle, die KI-Initiativen in Banken und Versicherungen skalierbar, sicher und geschäftsrelevant machen
• Governance, Compliance und Data Ownership als Basis für vertrauenswürdige KI-Anwendungen
• Verbindung von Business-Strategie und Datenstrategie, um KI-Use-Cases schnell und wirkungsvoll umzusetzen • Rolle von Data Products und Self-Service-Ansätzen für die Befähigung von Fachbereichen
• Kultureller Wandel und Skill-Aufbau: Wie Menschen und Organisation auf den KI-Einsatz vorbereitet werden
• Herausforderungen bei der Umsetzung von BCBS 239 im Kreditrisikomanagement
• Aufbau und Weiterentwicklung von Datenqualitätsprozessen in der Kreditanalyse
• Governance-Strukturen, Verantwortlichkeiten und Lessons Learned aus Projekten
• Key elements of the ECB’s “Next-Level Supervision” initiative and its impact on regulatory reporting
• Upcoming changes to data request processes, materiality thresholds, and expectations for data quality
• Strategic implications for banks’ internal coordination across risk, finance, and IT
• Kombination aus zentralem Data-Governance- Framework und dezentraler Verantwortung für Datenqualität
• Umsetzung fachlicher und technischer Data Lineage im Rahmen von RDARR-/BCBS-239-Anforderungen
• Balance zwischen Self-Service-Datenzugriff und regulatorischer Nachvollziehbarkeit
• Umsetzung der BCBS-239-/RDARR-Anforderungen in komplexen Bankarchitekturen – von der Definition kritischer Daten¬elemente bis zur fachlich und technisch vollständigen Nachvollziehbarkeit
• Aufbau und Pflege einer durchgängigen Data Lineage – fachlich, logisch und physisch – inklusive Schnittstellen zu regulatorischen Reporting-Systemen
• Erwartungen der Aufsicht an Dokumentation, Governance und Prüfungsfähigkeit – Lessons Learned aus laufenden und abgeschlossenen Projekten Reserviert für einen unserer Geschäftspartner
• Vergleich zentraler, hybrider und dezentraler Governance-Modelle zur Erfüllung von RDARRAnforderungen. • Technische Umsetzung von fachlicher und technischer Data Lineage sowie Definition von Critical Data Elements (CDEs). • Prüfungserfahrungen der Aufsicht inklusive typischer Findings und Erwartungen bei RDARR-Audits. • Organisatorische Best Practices für klare Verantwortlichkeiten und effektive Schnittstellen zwischen Fachbereich, IT und Compliance. • Balance zwischen regulatorischer Nachvollziehbarkeit und operativer Flexibilität bei Self-Service- Datenzugriff.
• Verbindung von RDARR-/BCBS-239-Anforderungen mit IReF-, COREP- und FINREP-Reportingprozessen
• Aufbau einer durchgängigen Datenarchitektur vom Quellsystem bis zum regulatorischen Output
• Nutzung von Data Governance, Lineage und Qualitätsmetriken zur Optimierung von Reporting- Genauigkeit und -Effizienz
• SAP als zentrale Governance- und Reporting-
Plattform kombiniert mit Databricks für agile Analysen
und Self-Service – eine Architektur, die flexible
Datenbereitstellung und BCBS-239-Konformit.t
gleichzeitig erm.glicht
• Integration beider Systeme: klare Verantwortlichkeiten,
konsistente Datenmodelle, geregelte Zugriffe, stabile
Datenqualit.t und Compliance-by-Design entlang der
gesamten Pipeline
• Praxisbeispiele zeigen, wie Automatisierung und eine
gemeinsame Datenbasis regulatorische Anforderungen
erfüllen und zugleich neue analytische und
datengetriebene Use Cases ermöglichen
• Einsatz von Data Virtualization und föderierten Architekturen, um Daten aus verteilten Quellen in Echtzeit zugänglich zu machen
• Unterstützung von Regulatorik (z. B. BCBS 239, RDARR, ESG-Reporting) durch klare Data Lineage, Zugriffskontrollen und Auditierbarkeit
• Beschleunigung von Business- und KI-Initiativen durch flexible Datenbereitstellung für Fachbereiche ohne Verzicht auf Governance und Sicherheit Reserviert für einen unserer Geschäftspartner
• Data Mesh vs. Data Fabric: Welche Architekturansätze setzen sich durch und wie kombinieren Banken zentrale Steuerung mit dezentralem Data Ownership?
• Self-Service, Datenprodukte und Kataloge: Wie gelingt der Spagat zwischen Nutzerfreundlichkeit, Governance und regulatorischer Nachvollziehbarkeit?
• KI-Readiness: Welche Architekturkomponenten sind entscheidend für den produktiven Einsatz von GenAI und Agentic AI?
• Integration von Cloud-First-Strategien mit Legacy- Systemen: Wie bauen Banken zukunftsfähige hybride Landschaften?
• Lessons Learned: Erfolgreiche Implementierungsbeispiele und nächste Evolutionsschritte für hybride Architekturen im Finanzsektor
• Integration von ESG-Kennzahlen in zentrale Datenhaushalte und bestehende Bankarchitekturen
• Sicherstellung von Verlässlichkeit, Genauigkeit und Nachvollziehbarkeit der Daten – unter Anwendung bewährter Datenqualitätsprinzipien aus dem regulatorischen Umfeld
• Governance-Modelle zur klaren Rollenverteilung und kontinuierlichen Qualitätssicherung von ESGIndikatoren Reserviert für einen unserer Geschäftspartner
• Einsatz von Agentic AI zur Unterstützung der Zusammenführung mehrerer Marken in einer Organisation
• Ein KI-Agent verfolgt Data Lineage über Altsysteme hinweg, um schnelle Einblicke zu ermöglichen und Migrationen zu erleichtern
• Ein Policy-Agent analysiert und vergleicht Richtlinien, um ein gemeinsames Glossar zu erstellen und Duplikate bzw. Überschneidungen in Definitionen zu identifizieren
• Vorstellung der Architektur und Designmuster hinter diesen KI-Agenten
• Einsatz von KI-Agenten zur End-to-End- Automatisierung in Prozessen wie Kreditbearbeitung, Schadenregulierung, Compliance-Prüfungen und Reporting
• Integration von Agentensystemen in bestehende Kernund Fachanwendungen, um manuelle Schnittstellen zu eliminieren und Durchlaufzeiten zu verkürzen
• Sicherstellung von regulatorischer Konformität, Transparenz und Auditierbarkeit bei automatisierten Reserviert für einen unserer Geschäftspartner
• Wie sich KI-gestützte Ansätze auf Marketingprozesse und Dialogsteuerung auswirken können
• Welche Implikationen hat dies auf die Organisation und Wertschöpfung
• Erfahrungen und Insights aus der Praxis der CRONBANK
• Wie sich Kundenservice-Modelle von Inhouse- Strukturen hin zu skalierbaren Offshore-Setups entwickeln.
• Einsatz von KI in Verbindung mit Genesys für Routing, Qualitätsmanagement und Prozessoptimierung.
• Ausblick: Avatare und Chatbots als nächste Stufe der dig italen Kundenkommunikation.
• Wie finde man die „richtige“ Datenqualität • Was sind die Komponenten einer erfolgreichen Qualitätsstrategie
• Wie funktioniert die DQ-Plattform
• Wie integriert sich die DQ-Plattform in die Gesamtarchitektur
• Praktische Herausforderungen für kleinere und nicht-komplexe Banken beim heutigen regulatorischen Rahmen – wo drückt der Schuh am meisten?
• Welche Vereinfachungen bei Kapitalanforderungen, Meldewesen und Governance wären realistisch und würden spürbar entlasten?
• Wettbewerbsperspektive: Wie können kleine Banken trotz knapper Ressourcen innovativ und regelkonform bleiben?
• Chancen und Risiken für die Branche: Entlastung nutzen, ohne Vertrauen und Stabilität zu gefährden.
• Dialog mit größeren Instituten und Dienstleistern: Welche Kooperationen und Standards könnten helfen?
• Wie sich Banken und Förderinstitute auf DORAPrüfungen vorbereiten
• Rolle der internen Revision bei der Bewertung von ICTRisiken und Governance-Strukturen
• Austausch zu Prüfmethoden, Dokumentationsanforderungen und Aufsichtserwartungen im DORA-Kontext
• Steigende regulatorische Anforderungen an ESG-Datenqualität (z. B. durch Omnibusverfahren, EBA Guidelines on the Management of ESG Risks)
• Spannungsfeld zwischen interner Datensammlung, existierenden Kundendaten und externen Providern
• Intelligente Ansätze zur ESGDatenerhebung (z.B., KI-gestützte Verfahren, Proxy-Daten, ESGDatenplattformen)
• Veränderung von Rollen, Verantwortlichkeiten und Entscheidungswegen durch KIEinführung
• Erfolgsfaktoren im Change Management: Kommunikation, Training, Stakeholder- Engagement
• Umgang mit Widerständen und Förderung einer innovationsfreundlichen Unternehmenskultur
• Vorgehen bei der umfassenden Metadatenerhebung über die gesamte Systemlandschaft und Lessons Learned aus zwei Jahren Umsetzung
• Aufbau eines Datenqualitäts-Frameworks: Definition von Anforderungen, Messung von Kontrollabdeckung und Integration in die Data Lineage
• Nutzung der Metadatenarbeit für Architekturverbesserungen und nachhaltige Governance im Risikodatenmanagement
• Aufbau eines strukturierten, wiederholbaren Prozesses zur Erfassung, Bearbeitung und Nachverfolgung von Datenqualitätsproblemen als Bestandteil des Data Governance Frameworks.
• Klare Rollen- und Verantwortlichkeitsmodelle für Data Stewards, Data Owners und Governance-Teams zur nachhaltigen Steuerung von Datenqualität.
• Etablierung eines transparenz- und effizienzorientierten Workflows, der Datenqualität messbar verbessert – auch in Organisationen, in denen Governance-Strukturen noch im Aufbau sind.
• Datenqualität als Teil operativer Prozesse: Kontrolle, Validierung und Verantwortlichkeit entstehen bereits an der Quelle
• Prozessorientierter Governance-Ansatz: klare Zuordnung von Datenquellen, Zuständigkeiten und bereichsübergreifender Zusammenarbeit
• Flexibles Framework zur effizienten Integration neuer regulatorischer Anforderungen mit Fokus auf praktische Umsetzbarkeit und Nachhaltigkeit
• Design und Implementierung von Schnittstellen mit Linked Data
• Integrierte Modell Prüfung und Data Qualitätsvalidierung
• Semantische Verknüpfung zwischen divisionalen Modellen und Konzernmodell
• Umstellung von einer rein Lineage-basierten Glossarpflege auf ein Top-down-Modell mit erwarteten Datenflüssen als Strukturgeber
• Sicherstellung von Konsistenz, Rückverfolgbarkeit und betriebswirtschaftlicher Nachvollziehbarkeit über den gesamten Datenfluss
• Integration des Glossars in Governance- und Qualitätsprozesse, um die Erfüllung regulatorischer Anforderungen (z. B. BCBS 239) nachhaltig zu unterstützen
• dentifikation von Datenbereichen und Aufbau eines zentralen Governance- Rahmens mit klaren Prozessen und Richtlinien.
• Implementierung eines Datenkatalogs, Festlegung von Qualitätsstandards, und Nutzung geeigneter Plattformen zur Effizienzsteigerung.
• Unterstützung von Data Owners, Priorisierung von Sicherheit und Datenschutz, sowie Förderung von Zusammenarbeit und Kommunikation
• Architecture of multi-agent credit-risk systems: orchestration, data-flow design, and human-in-theloop control
• Practical lessons from building a real-time credit-risk engine for SME financing
• The future of Agentic AI in risk modelling – transparency, governance, and regulatory alignment
• Technische und organisatorische Voraussetzungen, um Multi-Agenten-Architekturen stabil in größerem Umfang zu betreiben
• Umgang mit Abhängigkeiten, Koordination und Schnittstellen zwischen Agenten in komplexen Geschäftsprozessen
• Skalierungsstrategien aus der Praxis: Monitoring, Steuerungslogik und Grenzen heutiger Agentenframeworks
• KI-gestützter Use Case zur automatisierten Erfassung ESG-relevanter Informationen aus Sustainability Reports
• Ziel: Reduktion manueller Datennachfragen bei Kunden, verbesserte Datenverfügbarkeit für ESG Scoring und Berichterstattung
• Live-Anwendung im produktiven Einsatz – Einblicke in Architektur, Umsetzung und regulatorische Einbindung
Die Anforderungen aus RDARR und BCBS 239 an technische Data Lineage stellen viele Institute weiterhin vor große Herausforderungen – insbesondere im Hinblick auf Nachvollziehbarkeit, Tooling, Data Ownership und Relevanzfilter. In diesem interaktiven Workshop diskutieren Banken, Aufsicht und gegebenenfalls Berater/ Tool-Anbieter gemeinsam konkrete Umsetzungshürden, Lösungsansätze und Prioritäten.
Teil 1 – Einstieg & Perspektivabgleich
• Vorstellung der regulatorischen Erwartungslage • Bankenseitige Perspektive: Welche Anforderungen sind realistisch umsetzbar, welche nicht?
• Ziel: Verständnis schaffen für die Differenz zwischen regulatorischer Intention und bankfachlicher Realität
Teil 2 – Umsetzungshürden & Lösungsansätze
• Diskussion über konkrete Herausforderungen:
• Technische Lineage vs. dokumentierte Lineage • Auswahl kritischer Daten
• Tracability & Governance entlang der Toolchain • Good Practices und Ansätze: Welche Modelle, Tools oder Zwischenlösungen funktionieren?
Teil 3 – Gemeinsame Reflexion & Ausblick
• Welche Form von Guidance, Austausch oder Standardisierung wäre hilfreich?
• Wie könnte ein kontinuierlicher Dialog zwischen Aufsicht und Banken gestaltet werden?
• Ziel: Herausarbeitung von Vorschlägen für praktikable nächste Schritte (z. B. Followup- Gespräch mit EDM Council, interne Pilotierungen, neue Rollenmodelle)
Diese Masterclass vermittelt praxisorientierte Einblicke in den Einsatz von Agentic AI im Finanzsektor – von der Automatisierung komplexer Entscheidungsprozesse bis hin zu neuen Anwendungsmodellen in Banking und Insurance. Teilnehmer:innen lernen, wie Agentic AI-Architekturen aufgebaut werden, welche regulatorischen Aspekte zu beachten sind und wo die größten Potenziale und Grenzen liegen. Schwerpunkte:
• Grundlagen und Funktionsweise von Agentic AI im Unterschied zu klassischer Generative AI
• Praxisbeispiele: Bonitätsprüfung, Transaktionsüberwachung, Schadensfallbearbeitung, ESG-Datenanalyse
• Architekturansätze für Integration, Orchestrierung und Governance von Agentic- Systemen
• Regulatorische Anforderungen (u. a. EU AI Act) und Compliance-Absicherung im agentischen Kontext • Change Management: Kulturwandel, Rollenveränderung und Mitarbeiterbefähigung bei KI-Einführung