• Praxisbeispiele für Agentic-AI-Einsatz
• Anforderungen an Datenarchitektur, Governance und Compliance (inkl. EU AI Act) für sicheren Betrieb
• Strategische Schritte für die Skalierung von Pilotprojekten zu produktiven, unternehmenskritischen Systemen
KI ist überall. Doch der Nutzen von KI ist nur so gut wie die Daten, mit denen sie gespeist wird. In dieser Session werden wir diskutieren, welche Strategien für eine KI-getriebene Datenarchitektur am effektivsten sind. Darüber hinaus betrachten wir die Bedeutung von Metadaten und wie ein effektives Metadatenmanagement die Wirksamkeit von KI steigern kann. In der Diskussion werden wir Fallstudien aus dem Finanzdienstleistungssektor analysieren und diese mit anderen Branchen vergleichen.
• Datenarchitektur-Modelle, die KI-Initiativen in Banken und Versicherungen skalierbar, sicher und geschäftsrelevant machen
• Governance, Compliance und Data Ownership als Basis für vertrauenswürdige KI-Anwendungen
• Verbindung von Business-Strategie und Datenstrategie, um KI-Use-Cases schnell und wirkungsvoll umzusetzen • Rolle von Data Products und Self-Service-Ansätzen für die Befähigung von Fachbereichen
• Kultureller Wandel und Skill-Aufbau: Wie Menschen und Organisation auf den KI-Einsatz vorbereitet werden
• Mehr als nur Chatbots. Was unterscheidet Agentic AI von bisherigen Technologien?
• Kommunikation statt Formulare. Wie sieht der Finanzsektor im Jahr 2030 aus?
• Technologische und gesellschaftliche Treiber machen den Wandel unvermeidbar. Ist jetzt der richtige Zeitpunkt für Agentic AI in Finance?
• Herausforderungen bei der Umsetzung von BCBS 239 im Kreditrisikomanagement
• Aufbau und Weiterentwicklung von Datenqualitätsprozessen in der Kreditanalyse
• Governance-Strukturen, Verantwortlichkeiten und Lessons Learned aus Projekten
• Key elements of the ECB’s “Next-Level Supervision” initiative and its impact on regulatory reporting
• Upcoming changes to data request processes, materiality thresholds, and expectations for data quality
• Strategic implications for banks’ internal coordination across risk, finance, and IT
• Umsetzung der BCBS-239-/RDARR-Anforderungen in komplexen Bankarchitekturen – von der Definition kritischer Daten¬elemente bis zur fachlich und technisch vollständigen Nachvollziehbarkeit
• Aufbau und Pflege einer durchgängigen Data Lineage – fachlich, logisch und physisch – inklusive Schnittstellen zu regulatorischen Reporting-Systemen
• Erwartungen der Aufsicht an Dokumentation, Governance und Prüfungsfähigkeit – Lessons Learned aus laufenden und abgeschlossenen Projekten Reserviert für einen unserer Geschäftspartner
• Umgang mit regulatorischen Anforderungen durch eine integrierte Datenmanagement-Plattform
• Wie eine innovative, ganzheitliche Datenarchitektur ein konsistentes Framework für das Management BCBS- 239-relevanter Daten ermöglicht
• Datenmanagement als unterschätzter Erfolgsfaktor für Compliance im Zeitalter von Agentic AI
• Vergleich zentraler, hybrider und dezentraler Governance-Modelle zur Erfüllung von RDARRAnforderungen. • Technische Umsetzung von fachlicher und technischer Data Lineage sowie Definition von Critical Data Elements (CDEs). • Prüfungserfahrungen der Aufsicht inklusive typischer Findings und Erwartungen bei RDARR-Audits. • Organisatorische Best Practices für klare Verantwortlichkeiten und effektive Schnittstellen zwischen Fachbereich, IT und Compliance. • Balance zwischen regulatorischer Nachvollziehbarkeit und operativer Flexibilität bei Self-Service- Datenzugriff.
• SAP als zentrale Governance- und Reporting-
Plattform kombiniert mit Databricks für agile Analysen
und Self-Service – eine Architektur, die flexible
Datenbereitstellung und BCBS-239-Konformit.t
gleichzeitig erm.glicht
• Integration beider Systeme: klare Verantwortlichkeiten,
konsistente Datenmodelle, geregelte Zugriffe, stabile
Datenqualit.t und Compliance-by-Design entlang der
gesamten Pipeline
• Praxisbeispiele zeigen, wie Automatisierung und eine
gemeinsame Datenbasis regulatorische Anforderungen
erfüllen und zugleich neue analytische und
datengetriebene Use Cases ermöglichen
• Nutzung der für DORA verbesserten CMDB und Erweiterung dieser um Daten/Informationsobjekte
• Unterstützung von Regulatorik (z. B. BCBS 239, RDARR, ESG-Reporting) durch klare Data Lineage, Zugriffskontrollen und Auditierbarkeit
• Beschleunigung von Business- und KI-Initiativen durch flexible Datenbereitstellung für Fachbereiche ohne Verzicht auf Governance und Sicherheit
• Data Mesh vs. Data Fabric: Welche Architekturansätze setzen sich durch und wie kombinieren Banken zentrale Steuerung mit dezentralem Data Ownership?
• Self-Service, Datenprodukte und Kataloge: Wie gelingt der Spagat zwischen Nutzerfreundlichkeit, Governance und regulatorischer Nachvollziehbarkeit?
• KI-Readiness: Welche Architekturkomponenten sind entscheidend für den produktiven Einsatz von GenAI und Agentic AI?
• Integration von Cloud-First-Strategien mit Legacy- Systemen: Wie bauen Banken zukunftsfähige hybride Landschaften?
• Lessons Learned: Erfolgreiche Implementierungsbeispiele und nächste Evolutionsschritte für hybride Architekturen im Finanzsektor
• Integration von ESG-Kennzahlen in zentrale Datenhaushalte und bestehende Bankarchitekturen
• Sicherstellung von Verlässlichkeit, Genauigkeit und Nachvollziehbarkeit der Daten – unter Anwendung bewährter Datenqualitätsprinzipien aus dem regulatorischen Umfeld
• Governance-Modelle zur klaren Rollenverteilung und kontinuierlichen Qualitätssicherung von ESGIndikatoren Reserviert für einen unserer Geschäftspartner
• Wie sich KI-gestützte Ansätze auf Marketingprozesse und Dialogsteuerung auswirken können
• Welche Implikationen hat dies auf die Organisation und Wertschöpfung
• Erfahrungen und Insights aus der Praxis der CRONBANK
Einordnung von GenAI und LLMs in bestehende AI Assurance und Governance Frameworks
GenAI spezifische Controls wie Prompt Governance, Human in the loop und Audit Logging
Architektur und Betriebsmodelle für produktive, DORA konforme und skalierbare GenAI Systeme
• Typische Prüfungsschwerpunkte und Erwartungshaltungen bei der Validierung von Risikodatenaggregation und Reporting-Prozessen.
• Erfahrungen aus internen und externen Prüfungen: häufige Findings, Interpretationsspielräume und wiederkehrende Schwachstellen.
• Austausch zu Best Practices für nachhaltige BCBS- 239-Compliance, insbesondere im Zusammenspiel von Fachbereich, IT und Governance.
• Governance- versus Validierungsfunktion - wie lassen sich Synergien optimal nutzen?
• Praktische Herausforderungen für kleinere und nicht-komplexe Banken beim heutigen regulatorischen Rahmen – wo drückt der Schuh am meisten?
• Welche Vereinfachungen bei Kapitalanforderungen, Meldewesen und Governance wären realistisch und würden spürbar entlasten?
• Wettbewerbsperspektive: Wie können kleine Banken trotz knapper Ressourcen innovativ und regelkonform bleiben?
• Chancen und Risiken für die Branche: Entlastung nutzen, ohne Vertrauen und Stabilität zu gefährden.
• Dialog mit größeren Instituten und Dienstleistern: Welche Kooperationen und Standards könnten helfen?
• Wie sich Banken und Förderinstitute auf DORAPrüfungen vorbereiten
• Rolle der internen Revision bei der Bewertung von ICTRisiken und Governance-Strukturen
• Austausch zu Prüfmethoden, Dokumentationsanforderungen und Aufsichtserwartungen im DORA-Kontext
• Steigende regulatorische Anforderungen an ESG-Datenqualität (z. B. durch Omnibusverfahren, EBA Guidelines on the Management of ESG Risks)
• Spannungsfeld zwischen interner Datensammlung, existierenden Kundendaten und externen Providern
• Intelligente Ansätze zur ESGDatenerhebung (z.B., KI-gestützte Verfahren, Proxy-Daten, ESGDatenplattformen)
• Veränderung von Rollen, Verantwortlichkeiten und Entscheidungswegen durch KIEinführung
• Erfolgsfaktoren im Change Management: Kommunikation, Training, Stakeholder- Engagement
• Umgang mit Widerständen und Förderung einer innovationsfreundlichen Unternehmenskultur
• Vorgehen bei der umfassenden Metadatenerhebung über die gesamte Systemlandschaft und Lessons Learned aus zwei Jahren Umsetzung
• Aufbau eines Datenqualitäts-Frameworks: Definition von Anforderungen, Messung von Kontrollabdeckung und Integration in die Data Lineage
• Nutzung der Metadatenarbeit für Architekturverbesserungen und nachhaltige Governance im Risikodatenmanagement
• Aufbau eines strukturierten, wiederholbaren Prozesses zur Erfassung, Bearbeitung und Nachverfolgung von Datenqualitätsproblemen als Bestandteil des Data Governance Frameworks.
• Klare Rollen- und Verantwortlichkeitsmodelle für Data Stewards, Data Owners und Governance-Teams zur nachhaltigen Steuerung von Datenqualität.
• Etablierung eines transparenz- und effizienzorientierten Workflows, der Datenqualität messbar verbessert – auch in Organisationen, in denen Governance-Strukturen noch im Aufbau sind.
• Datenqualität als Teil operativer Prozesse: Kontrolle, Validierung und Verantwortlichkeit entstehen bereits an der Quelle
• Prozessorientierter Governance-Ansatz: klare Zuordnung von Datenquellen, Zuständigkeiten und bereichsübergreifender Zusammenarbeit
• Flexibles Framework zur effizienten Integration neuer regulatorischer Anforderungen mit Fokus auf praktische Umsetzbarkeit und Nachhaltigkeit
• Design und Implementierung von Schnittstellen mit Linked Data
• Integrierte Modell Prüfung und Data Qualitätsvalidierung
• Semantische Verknüpfung zwischen divisionalen Modellen und Konzernmodell
• Umstellung von einer rein Lineage-basierten Glossarpflege auf ein Top-down-Modell mit erwarteten Datenflüssen als Strukturgeber
• Sicherstellung von Konsistenz, Rückverfolgbarkeit und betriebswirtschaftlicher Nachvollziehbarkeit über den gesamten Datenfluss
• Integration des Glossars in Governance- und Qualitätsprozesse, um die Erfüllung regulatorischer Anforderungen (z. B. BCBS 239) nachhaltig zu unterstützen
• dentifikation von Datenbereichen und Aufbau eines zentralen Governance- Rahmens mit klaren Prozessen und Richtlinien.
• Implementierung eines Datenkatalogs, Festlegung von Qualitätsstandards, und Nutzung geeigneter Plattformen zur Effizienzsteigerung.
• Unterstützung von Data Owners, Priorisierung von Sicherheit und Datenschutz, sowie Förderung von Zusammenarbeit und Kommunikation
• Technische und organisatorische Voraussetzungen, um Multi-Agenten-Architekturen stabil in größerem Umfang zu betreiben
• Umgang mit Abhängigkeiten, Koordination und Schnittstellen zwischen Agenten in komplexen Geschäftsprozessen
• Skalierungsstrategien aus der Praxis: Monitoring, Steuerungslogik und Grenzen heutiger Agentenframeworks
• Architecture of multi-agent credit-risk systems: orchestration, data-flow design, and human-in-theloop control
• Practical lessons from building a real-time credit-risk engine for SME financing
• The future of Agentic AI in risk modelling – transparency, governance, and regulatory alignment
Die Anforderungen aus RDARR und BCBS 239 an technische Data Lineage stellen viele Institute weiterhin vor große Herausforderungen – insbesondere im Hinblick auf Nachvollziehbarkeit, Tooling, Data Ownership und Relevanzfilter. In diesem interaktiven Workshop diskutieren Banken, Aufsicht und gegebenenfalls Berater/ Tool-Anbieter gemeinsam konkrete Umsetzungshürden, Lösungsansätze und Prioritäten.
Teil 1 – Einstieg & Perspektivabgleich
• Vorstellung der regulatorischen Erwartungslage • Bankenseitige Perspektive: Welche Anforderungen sind realistisch umsetzbar, welche nicht?
• Ziel: Verständnis schaffen für die Differenz zwischen regulatorischer Intention und bankfachlicher Realität
Teil 2 – Umsetzungshürden & Lösungsansätze
• Diskussion über konkrete Herausforderungen:
• Technische Lineage vs. dokumentierte Lineage • Auswahl kritischer Daten
• Tracability & Governance entlang der Toolchain • Good Practices und Ansätze: Welche Modelle, Tools oder Zwischenlösungen funktionieren?
Teil 3 – Gemeinsame Reflexion & Ausblick
• Welche Form von Guidance, Austausch oder Standardisierung wäre hilfreich?
• Wie könnte ein kontinuierlicher Dialog zwischen Aufsicht und Banken gestaltet werden?
• Ziel: Herausarbeitung von Vorschlägen für praktikable nächste Schritte (z. B. Followup- Gespräch mit EDM Council, interne Pilotierungen, neue Rollenmodelle)
Diese Masterclass vermittelt praxisorientierte Einblicke in den Einsatz von Agentic AI im Finanzsektor – von der Automatisierung komplexer Entscheidungsprozesse bis hin zu neuen Anwendungsmodellen in Banking und Insurance. Teilnehmer:innen lernen, wie Agentic AI-Architekturen aufgebaut werden, welche regulatorischen Aspekte zu beachten sind und wo die größten Potenziale und Grenzen liegen. Schwerpunkte:
• Grundlagen und Funktionsweise von Agentic AI im Unterschied zu klassischer Generative AI
• Praxisbeispiele: Bonitätsprüfung, Transaktionsüberwachung, Schadensfallbearbeitung, ESG-Datenanalyse
• Architekturansätze für Integration, Orchestrierung und Governance von Agentic- Systemen
• Regulatorische Anforderungen (u. a. EU AI Act) und Compliance-Absicherung im agentischen Kontext • Change Management: Kulturwandel, Rollenveränderung und Mitarbeiterbefähigung bei KI-Einführung