Die steigenden Datenmengen und Komplexität der Organisation hat zu Notwendigkeit für Innovation in der Architektur und der gesamten Datenorganisation geführt. Das Data Mesh Konzept wurde von einigen Jahren von Zhamak Dehghani eingeführt und ist bereits in vielen Industrien umgesetzt worden.
Die hochregulierte Natur der Bankenindustrie macht die Implementierung dieses Konzeptes sehr schwer. In diesem Workshop schauen wir und das Data Mesh Konzept und mehr allgemein den Dezentralisierungsansatz an und besprechen mögliche Roadmaps.Self-Service Data
• Self-Service für Datennutzung: Demokratisierung von Daten
• Nachhaltigkeit durch Effizienz in der Datennutzung
• Effiziente Verwaltung von Daten und Anwendungsfällen
• Veränderung der Arbeitskultur Data as a Product
• Dokumentation, Qualität, Zugriff – Richtlinien für die Datenverarbeitung
• Data Mesh in zentralen Datensystemen nutzen (Knotenpunkte)
• Data as the new Product
• Dezentralisierung der Daten
• Self-Service für Datennutzung: Demokratisierung von Daten & verbesserte UX
• Nachhaltigkeit durch Effizienz in der Datennutzung
• Skalierbare Entwicklung von Daten-Anwendungen
• Implementierung der Skalierungsstrategie
• Von Hybrid-Modelle bis hin zu Data Mesh: die beste Lösung für eine Bank?
• Richtige Data Governance Strategie implementieren (federated Data Governance).
• Neue Arten von Daten integrieren in Zeiten von ESG
• Daten-Domänmodell und Kulturwandel bei einem Datengetriebenen
• Einheitlicher Datenhaushalt ist der Schlüssel zum Erfolg – Was sind die fachlichen und technischen Voraussetzungen?
• Nachvollziehbarkeit und einheitliche Rechenmethoden – Wie kann man den Kernanforderungen von BCBS239 begegnen?
• ESG fordert Daten aus den verschiedensten Bereichen einer Bank – Wie und wo bringt man diese effizient zusammen?
• Ausgangslage und Cloud-Vision im Datenumfeld
• Architektur der neuen Data & Analytics Plattformen (von DWH bis Data Science)
• Mehrwert für die Bank und den einzelnen Mitarbeiter
• Vorgehen und Roadmap
• Schaffung eines Rahmens für die DORA-Compliance
• Zusammenarbeit IT und Fachbereich, Change und Mindset zur Minimierung der Risiken
• Praktische Erfahrungen bei der Implementierung und Lessons Learned
• Schlüsselanforderungen für Banken entlang des KI-Lebenszyklus
• Möglichkeiten zur Durchsetzung von Compliance und Governance
• Ganzheitliche Sicht für vertrauenswürdige KI: Von den Daten bis zur Entscheidung
• Schaffung eines Rahmens für die DORA-Compliance
• Zusammenarbeit IT und Fachbereich, Change und Mindset zur Minimierung der Risiken
• Praktische Erfahrungen bei der Implementierung und Lessons Learned
· Wie kam es zur Einführung eines Data Catalogs bei der Berlin Hyp?
· Was sind Ziele und Mehrwerte einer solchen Einführung?
· Wie schafft es die Berlin Hyp, die nötigen Prozesse in ihrer Organisationsstruktur sowie in den Köpfen der Mitarbeiter zu verankern?
• Datenherausforderungen in der Branche
• Alleinstellungsmerkmale eines Data Fabric und Abgrenzung zu anderen Architekturmodellen
• Was macht ein Smart Data Fabric aus? Und was brauche ich dafür?
• Für welche Anwendungsfälle eignet sich ein Smart Data Fabric?
• Success Stories aus der Praxis: Bedeutsame Performance-Verbesserung bei nur
30% der Infrastruktur? Signifikante Einsparungspotenziale? Erfahren Sie, wie andere
Finanzdienstleister von einem Smart Data Fabric profitiert haben
• vom Datendomänenmodell zum Single Point of Truth als Basis für das Reporting
• Datenmanagement vs. Data Governance: Ableitung des Themenfelds Metadatenmanagement und Datenarchitektur aus den Fachbereichsanforderungen
• Wie „denkt“ die Bank? Ausgangspunkt Datendomänenmodell
• Was „benötigt“ die Bank? Entwicklung datenarchitektonisches Zielbild und Rahmen Single Point of Truth
• Praxisbeispiel: Erarbeitung Datendomänenmodell als struktureller Ausgangspunkt
• Praxisbeispiel: Vorgehensmodell Modernisierung der Datenstrukturen zur Erreichung "des" Single Point of Truth
• Weshalb Sie auf Datenprodukte als demokratisierte Datenbasis für die KI-Implementierung setzen sollten.
• Wie Fachbereiche & IT Daten in wertvolle Assets (Datenprodukte) transformieren.
• Wie Sie Domain-driven Architektur-Prinzipien (wie Data Mesh) mit Denodo umsetzen.
• BCBS progress report on BCBS 239 implementation
• ECB Guide on risk data aggregation and risk reporting
• Erfahrungen aus der Prüfungspraxis
• Ausblick
• Der neue Guide der EZB – Aufklärung
• Auswirkungen auf Bankensteuerung, Controlling, Data Governance,
Datenqualitätsmanagement und die IT-Architektur
• Erfahrung bei den Prüfungen und Sicht der Aufsicht
• IReF „Kurz erklärt“
• Complementary Cost-benefit assessment questionnaire Ergebnisse
• IReF Datenmodel
• Ausblick
• Airbnb`s DQ-Management angewandt auf die Finanzindustrie
• Beispielhafte Darstellung des Zusammenspiels der Datenmanagement-Bausteine
• Sicherstellung der Verlässlichkeit der Daten im daily business – lohnt sich die Mühe
einer Zertifizierung der Datenprodukte?
• ESRS/CSRD Implementierung
• Auswirkungen aufs Datenmanagement und Datenmodell
• Mindset und Kultur im Implementierungsprojekt
· Verantwortungsbewusster Umgang mit Daten: Fehler minimieren, strategische Entscheidungen unterstützen, Vertrauen aufbauen.
· Datenschutzentwicklung: Von Compliance zu Kundenvertrauen über den Lebenszyklus von Daten.
· Datenschutzprogramme weiterentwickeln: Vertrauensbasierte, personalisierte Erlebnisse ermöglichen.
· Daten-Governance im Finanzsektor: Richtlinien für Verwaltung, Schutz und Qualitätssicherung von sensiblen Finanzdaten implementieren.
• Ausgangspunkt: Regulatorische Anforderungen nach MaRisk & BAIT
• IKT-Drittanbieter prüfen und überwachen Prüfungsschwerpunkte und Handlungsempfehlungen
• Umsetzung gemäß Target Operating Modell – 2024 Updates
• FAIR data approach
• Linked Data als Schlüssel zum Erfolg
• Daten Modelle und End-to-End Daten Qualität
• Definition der Data Governance-Organisation
• Metadaten als Grundlage für Datenqualitätsmanagement und Fachdatenmanagement
• Definition des Datenqualitätsmanagements- und Fachdatenmanagements- Lifecycles
• Vereinfachung der komplexen Datenlandschaft
• weitere strategische (Daten-)Pläne
In einer Welt, in der die Bedeutung der Künstlichen Intelligenz stetig zunimmt, ist es für Führungskräfte und Entscheidungsträger in der Bankenbranche wesentlich, sich kontinuierlich mit den neuesten technologischen Entwicklungen auseinanderzusetzen. Entdecken Sie die Zukunft der Bankenbranche in unserer exklusiven GenAI Masterclass! Tauchen Sie ein in die transformative Welt der Generative AI und erfahren Sie von führenden Experten, wie diese Technologie nicht nur neue Perspektiven eröffnet, sondern auch effektiv und sicher integriert werden kann. Ziel der [at]-Masterclass ist es, ein umfassendes Verständnis für die praktischen Anwendungen von GenAI zu entwickeln und gleichzeitig ein Forum für den Austausch von Ideen und Best Practices zu bieten.
Inhaltsverzeichnis:
1 Einführung in GenAI
2 GenAI im Banking
a Typische Anwendungsfälle von GenAI in der Bankenbranche
b Regulatorik im Kontext GenAI in der Bankenbranche
c Sicherheitsaspekte bei der Anwendung von GenAI
d GenAI im Betrieb
3 Live-Demo: GenAI im Kreditvergabe-Prozess
a Technische Einblicke in die Nutzung von GenAI
b Prompting-Techniken und ihre Anwendung
4 Diskussion und Ausblick
a Hot Seat
b Offene Diskussion und Fragen