Podcast
Questions and Answers
Welche der folgenden Aussagen beschreibt am besten das Ziel der ERGO Group in Bezug auf Daten?
Welche der folgenden Aussagen beschreibt am besten das Ziel der ERGO Group in Bezug auf Daten?
- Die Umwandlung von Daten in ein strategisches Asset, das für das Unternehmen wertstiftend ist. (correct)
- Die Auslagerung des Datenmanagements an externe Dienstleister, um sich auf das Kerngeschäft zu konzentrieren.
- Die Reduzierung des Datenvolumens, um Speicherkosten zu senken.
- Die Begrenzung des Zugriffs auf Daten, um die Datensicherheit zu erhöhen.
Welchen Vorteil bietet die konzernweite Harmonisierung des Datenmanagements und der Governance?
Welchen Vorteil bietet die konzernweite Harmonisierung des Datenmanagements und der Governance?
- Die Förderung der Datenkompetenz im gesamten Unternehmen. (correct)
- Die Erschwerung des Zugriffs auf Daten für bestimmte Abteilungen.
- Die Verringerung der Datenqualität.
- Die Isolierung von Datensilos.
Welche der folgenden Massnahmen ist am wichtigsten, um das Vertrauen in KI-Systeme und deren schnelle Umsetzung zu gewährleisten?
Welche der folgenden Massnahmen ist am wichtigsten, um das Vertrauen in KI-Systeme und deren schnelle Umsetzung zu gewährleisten?
- Das Ignorieren von Sicherheitsbedenken, um die Entwicklung zu beschleunigen.
- Die Einführung einer Cloud-Governance. (correct)
- Das Outsourcing der KI-Entwicklung, um Kosten zu sparen.
- Die Beschränkung des Zugriffs auf Daten für Entwickler.
Was bedeutet der Begriff 'Data Literacy' im Kontext der Data Culture?
Was bedeutet der Begriff 'Data Literacy' im Kontext der Data Culture?
Welche Rolle spielt die 'AI Factory' im Kontext der KI-Implementierung bei ERGO?
Welche Rolle spielt die 'AI Factory' im Kontext der KI-Implementierung bei ERGO?
Was ist das Hauptziel der ERGO AI Factory im Hinblick auf die Nutzung von KI?
Was ist das Hauptziel der ERGO AI Factory im Hinblick auf die Nutzung von KI?
Welchen Vorteil bietet die strikte Trennung von Modellentwicklung und Operationalisierung?
Welchen Vorteil bietet die strikte Trennung von Modellentwicklung und Operationalisierung?
Welches Ziel wird mit der Einführung eines konzernweiten, einheitlichen Vorgehens bei ERGO verfolgt?
Welches Ziel wird mit der Einführung eines konzernweiten, einheitlichen Vorgehens bei ERGO verfolgt?
Welche Bedeutung hat die Datenqualität im Kontext der Datenvision von ERGO?
Welche Bedeutung hat die Datenqualität im Kontext der Datenvision von ERGO?
Welche der folgenden Aktivitäten gehört nicht zum Eingangsprozess im Kontext des Eingangsmanagements?
Welche der folgenden Aktivitäten gehört nicht zum Eingangsprozess im Kontext des Eingangsmanagements?
Welcher Schritt folgt auf die Modellentwicklung im erweiterten Vorgehensmodell von ERGO zur Umsetzung von KI Use Cases?
Welcher Schritt folgt auf die Modellentwicklung im erweiterten Vorgehensmodell von ERGO zur Umsetzung von KI Use Cases?
Welche der folgenden Phasen gehört nicht zu den vier Hauptphasen der Inside AI Factory?
Welche der folgenden Phasen gehört nicht zu den vier Hauptphasen der Inside AI Factory?
Welchem Zweck dient die Protokollierung aller Datenzugriffe?
Welchem Zweck dient die Protokollierung aller Datenzugriffe?
Was ist das Ziel der Operationalisierung nach der Entwicklung eines KI-Modells?
Was ist das Ziel der Operationalisierung nach der Entwicklung eines KI-Modells?
Was ist ein wichtiger Aspekt des Datenmanagements im 'Datenzeitalter'?
Was ist ein wichtiger Aspekt des Datenmanagements im 'Datenzeitalter'?
Was ist die Konsequenz der Verwendung von Daten?
Was ist die Konsequenz der Verwendung von Daten?
Welche der folgenden Möglichkeiten gehört nicht zu den Vorteilen für Versicherer?
Welche der folgenden Möglichkeiten gehört nicht zu den Vorteilen für Versicherer?
Welche Aussage beschreibt eines der Datenvisionen der Ergo?
Welche Aussage beschreibt eines der Datenvisionen der Ergo?
Welche Hauptbereiche sind im Organisationsaufbau der Advanced Analytics Abteilung ('ADA') enthalten?
Welche Hauptbereiche sind im Organisationsaufbau der Advanced Analytics Abteilung ('ADA') enthalten?
Was ist die empfohlene Vorgehensweise beim Umgang mit neuen technologischen Herausforderungen im Bereich Daten?
Was ist die empfohlene Vorgehensweise beim Umgang mit neuen technologischen Herausforderungen im Bereich Daten?
Warum ist die Analyse riesiger Datenmengen ein Potenzial für Versicherer?
Warum ist die Analyse riesiger Datenmengen ein Potenzial für Versicherer?
Welches dieser Beispiele ist ein 'Use Case' das ERGO bereits verwendet?
Welches dieser Beispiele ist ein 'Use Case' das ERGO bereits verwendet?
Wozu dient der 'Initial Assessment' Schritt im erweiterten Vorgehensmodell von ERGO?
Wozu dient der 'Initial Assessment' Schritt im erweiterten Vorgehensmodell von ERGO?
Flashcards
Daten bei ERGO
Daten bei ERGO
Schlüsselressource für komplexes Geschäftsmodell entlang der Wertschöpfungskette.
Ziele von ERGO mit Daten
Ziele von ERGO mit Daten
Einheitliches Vorgehen, wertorientierte Sicht, Auflösung von Silos, Förderung der Nutzung.
ERGOs Weg zur Dateneffizienz
ERGOs Weg zur Dateneffizienz
Skalierung, Use-Case-Implementierung, Data Management, Governance, Datenkompetenz.
Abstimmung und Freigabe
Abstimmung und Freigabe
Signup and view all the flashcards
Log Management und Alarmierung
Log Management und Alarmierung
Signup and view all the flashcards
Offizielle ERGO Prozesse
Offizielle ERGO Prozesse
Signup and view all the flashcards
Plattform Authentifizierung
Plattform Authentifizierung
Signup and view all the flashcards
Al Factory
Al Factory
Signup and view all the flashcards
Large Language Modelle
Large Language Modelle
Signup and view all the flashcards
Potentiale für Versicherer
Potentiale für Versicherer
Signup and view all the flashcards
AI Factory Phasen
AI Factory Phasen
Signup and view all the flashcards
Data Ingestion
Data Ingestion
Signup and view all the flashcards
Preparation & modelling
Preparation & modelling
Signup and view all the flashcards
Model deployment
Model deployment
Signup and view all the flashcards
Operationalisation
Operationalisation
Signup and view all the flashcards
Herausforderungen Versicherungen
Herausforderungen Versicherungen
Signup and view all the flashcards
Wettbewerbsvorteile
Wettbewerbsvorteile
Signup and view all the flashcards
Organisationseinheit ADA
Organisationseinheit ADA
Signup and view all the flashcards
KI Anwendungen bei ERGO.
KI Anwendungen bei ERGO.
Signup and view all the flashcards
Eingangsmanagement
Eingangsmanagement
Signup and view all the flashcards
Security
Security
Signup and view all the flashcards
Explizites Rollenmanagement
Explizites Rollenmanagement
Signup and view all the flashcards
Abstimmung
Abstimmung
Signup and view all the flashcards
Cloud Governance
Cloud Governance
Signup and view all the flashcards
Study Notes
KI bei ERGO – Teil 1: Data Science im Unternehmenskontext
- Gastvortrag am 14.11.2024 von Felix Wenzel, Head of Data Engineering & Strategy, und David Burk, Data Engineer.
- Die Präsentation gibt Einblicke in Data Science im Unternehmenskontext von ERGO.
Teil 1 der Veranstaltung
- Vorstellung von Data Science im Unternehmenskontext ERGO.
- Erläuterung, wie ERGO Data Science einsetzt.
- Vorstellung von Use Cases.
- Die Notwendigkeit einer Datenstrategie wird erläutert.
Teil 2 der Veranstaltung
- Funktionsweise einer KI-Klassifikation.
- Erklärung von Large Language Models (LLM).
- Umsetzung einer Datenstrategie.
ERGO im Ãœberblick
- ERGO bietet Beratung, Versicherung, Vorsorge und Dienstleistungen.
- ERGO ist international in über 20 Ländern präsent.
- Die Beitragseinnahmen belaufen sich auf 20,1 Mrd. Euro.
- Die Kapitalanlagen betragen 136,4 Mrd. Euro.
- ERGO beschäftigt rund 38.600 Mitarbeiter und Vertriebspartner.
- ERGO bietet Lebens-, Schaden-, Unfall-, Direkt- und Onlineversicherung sowie Rechtsschutz.
- DKV ist die ERGO-Reiseversicherung für Gesundheit und Reise.
- Nexible ist ein reiner Digitalversicherer.
- ERGO ist Teil des DAX-Unternehmens Munich RE.
Hype um Large Language Modelle (LLM)
- Die Entwicklung wird durch den Investment-Boom in Software/Startups, Verfügbarkeit von Daten und das Wettrennen der Regierungen/Weltmächte angetrieben.
- LLMs vervielfachen die Forschungsausgaben.
- LLMs ermöglichen die Analyse riesiger Datenmengen und die Rationalisierung von Prozessen (Ende-zu-Ende).
- Außerdem ermöglichen sie eine personalisierte Kundenbetreuung rund um die Uhr (24/7), Effizienz in der Schadenbearbeitung, Betrugsprävention, Prognose von Trends, Steigerung der Produktivität und neue Geschäftsmodelle.
Aktuelles Umfeld und Herausforderungen für Versicherungsbranche
- Generationswechsel und Kundenerwartungen.
- Preisdruck.
- Zinsumfeld.
- Risiko- und Compliance-Aspekte.
- Digitale Produkte und Services.
- Schadenentwicklung.
- Legacy IT-Infrastruktur.
- Externe Regulierung.
Data & Analytics für ERGO
- Wettbewerbsvorteile durch Advanced Analytics.
- Systematischer Einsatz von Advanced Analytics zur Mehrwerterzeugung.
- Datengetriebene Transformation bestehender Prozesse und Systeme.
- Skills, Technologie und ein agiler Ansatz sind erforderlich.
Organisationsstruktur der Advanced Analytics Abteilung ("ADA")
- Die Abteilung ist zentralisiert.
- Sie umfasst Analytics Strategy & Consultancy, AI Solutions und Robotics.
- Die Teamgröße beträgt aktuell etwa 45 FTE (Vollzeitäquivalente).
Datensport ist ein Teamsport
- Beteiligung verschiedener Bereiche wie Business, Enablement Manager, Analytics IT, Data Engineering, Data Science, Business IT, Workers Council, Legal and Data Protection, Compliance und Risk Management, IT Security.
Vorgehensmodell bei ERGO zur Umsetzung von KI Use Cases
- Es beinhaltet Data Analysis, Data Preparation, Implementation und Operation.
- Es wird ein kontinuierliches Feedback für die Daten genutzt.
- Die Prozesse umfassen Definition of target, Operationalization und Business Adaptation.
- Es gibt Rollen für ADA, IT und Business.
KI Use Case Implementierung bei ERGO
- Phasen: Data, Training, Deployment und Follow-Up Processes.
- Unterteilung in Modelling Environment ("Data Lab") und Operationalisation Environment ("AI Services").
- Entwicklung und Operationalisierung von KI-Modellen haben unterschiedliche Anforderungsprofile.
- Die "AI Factory" ist so konzipiert, dass sie beide Bereiche abdeckt.
AI Factory - Machine Learning Workflow und Tools
- Der Workflow besteht aus Data Ingestion, Data Preparation und Modelling, Model Deployment und Operation.
AI Factory (1/4) - Data Ingestion
- Für neue KI-Anwendungsfälle werden dringend neue Daten benötigt, um ein KI-Modell zu erstellen.
- Daten liegen auf DB2 on Premise mit Hunderten von Tabellen.
- Es werden Daten, Metadaten und ein Zeitplan für die nächtliche Ausführung bereitgestellt.
- Die Daten werden über DI Engineer, DI Run Framework und Apache Airflow bezogen.
- Es werden Data Transfer Services, Amazon S3 und Amazon EMR verwendet.
AI Factory (2/4) - Preparation & Modelling
- Daten werden mit Data Engineer, Data Scientist, Amazon EMR und Amazon S3 aufbereitet.
- Es werden Tools wie PyCharm und GitHub genutzt.
AI Factory (3/4) - Model Deployment
- Der Deployment erfolgt mit GitHub, Historical Claim Data, Amazon EMR, Amazon DynamoDB und Amazon SageMaker Endpoint.
AI Factory (4/4) - Operationalisation
- Die Operationalisierung erfolgt durch Consume Model Service, Amazon API Gateway, AWS Firehose Feedback Loop, Amazon SageMaker Endpoint, Amazon DynamoDB und ist zugänglich für Business User über Amazon QuickSight.
(Cloud-) Governance
- Cloud-Governance ist ein zentraler Faktor für Vertrauen und beschleunigte Bereitstellung von Use Cases.
- Abstimmung und Freigabe durch Global IT Security und Information Security Officer.
- Cloud Governance durchläuft Cloud Governance Prozesse mit Stakeholdern.
- Offizielle ERGO Prozesse sichern Projektmanagement und Einhaltung des ERGO Vorgehensmodells.
- Plattform-Authentifizierung verwendet on-premise Active Directory in Sync mit AWS Ressourcen.
- Explizites Rollenmanagement ordnet Benutzer Rollen, Anwendungsfalldaten, Ressourcen und Zwecken zu.
- Log Management und Alarmierung protokollieren Datenzugriffe für Audit-Zwecke.
- Plattformweite Freigabe mit Projektbeschreibung ermöglicht Datennutzung in der Cloud.
- Separierung trennt Modellentwicklung und Operationalisierung.
- Die ERGO AI-Factory dient als Musterlösung für robuste Al-Systeme und ist Teil der Normungs-Roadmap KI 2.0.
Anwendungsbereiche von KI bei ERGO
- Klassifikation
- Extraktion
- Large Language Models
- Data Opportunities
- Analytical Content Hub
Klassifikation im Gesundheitsbereich am Beispiel des Eingangsmanagements
- Millionen von Dokumenten werden pro Jahr verarbeitet.
- Die Dokumente kommen über verschiedene Eingangskanäle.
- Der Eingangsprozess besteht im Wesentlichen aus 3 Schritten: Empfangen, Lesen, Routen.
- Dabei werden über 60 Mio. Seiten pro Jahr verarbeitet.
- Die KI unterstützt die Klassifikation und Extraktion von Informationen aus den Dokumenten.
KI im Eingangsmanagement
- Modelle werden mit 10 Mio. gelabelten Seiten trainiert.
- Ziel ist die Klassifikation von >300 Dokumententypen.
- Die Extraktion erfolgt mittels OCR und Orchestrator.
ERGO Group und das Datenzeitalter
- ERGO macht sich fit für das Datenzeitalter durch Skalierung via zentraler, Cloud-basierter KI IT-Plattform und KI Use Case Implementierungen.
- Die Datenstrategie umfasst die Umsetzung des Target Data Operating Models, Harmonisierung von Data Management & Governance sowie die Förderung der Datenkompetenz.
- Skalierung über eine zentrale, Cloud-basierte KI-Plattform.
- Implementierung von KI-Use-Cases.
- Umsetzung des Target Data Operating Model.
- Harmonisierung von Datenmanagement und Governance.
- Stärkung der Datenkompetenz im Unternehmen.
Bedeutung von Daten für Versicherungen
- Daten sind die Schlüsselressource entlang der gesamten Wertschöpfungskette.
"Datenzeitalter"
- Im "Datenzeitalter" sollte man wissen, welche Daten man hat, wo sie sind und was sie bedeuten.
- Von "Daten sind ein Problem" zu "Daten helfen, Probleme zu lösen".
- Risiken und Aufwand minimieren, Chancen erkennen und realisieren.
Ziele von ERGO
- Was wollen wir bei ERGO erreichen?
- Daten als strategisches Asset verankern.
- Konzernweites einheitliches Vorgehen, wertorientierte Sicht auf Daten.
- Daten- und Wissenssilos auflösen.
- Enablement zur Nutzung des Datenschatzes.
Datenvision von ERGO
- Kontinuierliches Datenmanagement.
- Verankerung des Datenmanagements im Tagesgeschäft von ERGO.
- Aufbau von Datenfähigkeiten auf allen Ebenen von ERGO.
- Nutzung von Daten zur Erkennung und Verfolgung neuer Geschäftsmöglichkeiten.
- Kollektiver Datenzugriff.
- Daten universell auffindbar und für alle zugänglich machen.
- Priorisierung von Dateninitiativen auf hochwirksame Geschäftsmöglichkeiten.
- Datenqualitätssicherung zu einem integralen Bestandteil von ERGO machen.
Balance zwischen Datenmanagement, Datenkultur und Chancen
- Business Value als zentrale Messgröße.
- Data Management & Governance als Fundament.
- Data Culture als Enabler.
- Data Opportunities als Ergebnis.
Investitionen in Daten
- Neben Technologien und Skills sind auch Investitionen in Daten notwendig, um GenAI-Nutzen zu heben.
- Die Formel für den Erfolg lautet Data + Artificial Intelligence * Digital Culture = Success.
- Data Strategy dient als Leitfaden für die wertstiftende Nutzung von Daten.
Ausblick auf Teil 2 des ERGO Gastvortrags
- Überblick über Large Language Model Highlights (Juni 2024).
- Vergleich verschiedener Modelle wie ChatGPT, Gemini, Claude und andere.
- Verschiedene Modelle in Größen von Nano bis XL.
Studying That Suits You
Use AI to generate personalized quizzes and flashcards to suit your learning preferences.