Business Analytics Zusammenfassung Wintersemester 2024/2025 PDF
Document Details
Uploaded by Deleted User
2025
Lea Schmidt
Tags
Summary
Diese Zusammenfassung fasst den Inhalt der Business Analytics Vorlesung im Wintersemester 2024/2025 zusammen. Der Text behandelt verschiedene Analysearten wie deskriptive, diagnostische, prädiktive und präskriptive Analysen. Zusätzlich werden wichtige Konzepte wie Datenverständnis, Datenauswahl und Visualisierungsmethoden besprochen.
Full Transcript
**[Zusammenfassung Business Analytics Wintersemester 2024/2025 Prof Zilker]** **01 Einführung in Business Analytics** [Gründe für Business Analytics: ] = wir ertrinken in Daten, aber hungern nach Wissen - Exponentielles Datenwachstum - Wissenschaftliche Daten - Strichcodes -...
**[Zusammenfassung Business Analytics Wintersemester 2024/2025 Prof Zilker]** **01 Einführung in Business Analytics** [Gründe für Business Analytics: ] = wir ertrinken in Daten, aber hungern nach Wissen - Exponentielles Datenwachstum - Wissenschaftliche Daten - Strichcodes - Datenerfassung - Fortschritte bei Datenspeicherung und Verarbeitung - Effizientere, kostengünstigere Speichermedien - Leistungsstärkere Datenbankverwaltungssysteme - Zusammenführung von Ansätzen aus verschiedenen Disziplinen - Statistik, KI, Visualisierung, Datenbanken - Neuartige Datentypen - Multimedia Datenbanken - Geographische Informationssysteme [Definition Business Analytics ] Es gibt hier zahlreiche Definitionen. Vorallem auch verschiedene Facetten wie bsp. Der Methodische oder Organisatorische Schwerpunkt. Zusammenfassend kann man sagen: Business Analytics ist ein systematischer Denkprozess, der **qualitative, quantitative** und **statistische Rechenwerkzeuge** -- und **Methoden** anwendet, um Daten zu analysieren, **Erkenntnisse zu gewinnen, Informationen bereitzustellen** und die **Entscheidungsfindung zu unterstützen.** [Arten von Analysen ] **Aufgaben der jeweiligen Analysearten** 1. Descriptive Analyse - Überwachung von IoT-Geräten - Beispielhaft Ansätze: Visualisierung, Berichte, Dashboards, Leistungsindikatoren 2. Diagnostische Analyse - Bsp für Fehlererkennung - Beispielhafte Ansätze: Korrelationsanalysen, Multivariate Statistik, Hypothesentests 3. Prediktive Analysen - Bspw: automatisierte Ertragsprognose - Beispielhafte Ansätze: Maschinelles lernen, Zeitreihenanalyse 4. Prescriptive Analyse - bspw Energieversorgung in Smart Grids - Beispielhafte Ansätze: Optimierungsmodelle, Simulationsmethoden - Cross-selling - Kundensegmentierung - Stornovorhersagen - Bewertung und Prognose der Kundenrentabilität 1. Wissensdeckung in Datenbanken-\> KDD (=Knowledge discovery database) in Wissenschaft und Forschung Bsp: 1. **Auswahl** der Daten Herausforderungen: Massive Datensätze, Verfügbarkeit ausreichender Daten, nicht-standardisierte und objektorientierte Daten 2. Vorverarbeitung 3. Transformation 4. Datengewinnung - Auswahl der Data-Mining-Funktion - Auswahl der Data-Mining-Algorithmus - Data Mining 5. Auswertung 2. Industrieübergreifender Standard für Data Mining -\> CRISP-DM (= cross industy standard process for data mining) In der Industrie Bsp: 6. Business Understanding - Projektziele- und Anforderungen verstehen - Wissen in Data-mining-Problemdefinition und Plan zur Zielerreichung umsetzen 7. Data unterstanding - Mit Daten vertraut machen 8. Data preparation - Endgültigen Datensatz erstellen - Vorbereitungsaufgaben werden wahrscheinlich mehrmals und ohne feste Reihenfolge ausgeführt 9. Modeling - Modellierungstechnik auswählen - Parameter und optimale Werte Kalibrieren 10. Evaluation - Modellschritte überprüfen - Schauen, ob Ziele erreicht wurden, wenn in welchem Maß/oder nicht 11. Deployment (Einsatz) - Häufig Live-Modelle nutzbar - Einfach oder komplex, je nach Situation 3. Probieren, erkunden, ändern, modellieren, bewerten-\> SEMMA (= sample, explore, modify, model, asses) von SAS aufgrund seiner Einfachheit [Statistiken] - Sammlung quantitativer Daten - Ein Zweig der Mathematik, der sich mit der Sammlung, Analyse, Interpretation und Präsentation großer Mengen numerischer Daten befasst [Visualisierung]  [& Künstliche Intelligenz, maschinelles lernen, deep learning ] **Zusammenfassung:** ! Oft gibt es keine strikte Unterscheidung zwischen verwandten Konzepten wie: - Business intelligence - Big data - Data mining - Statistics - Visualization - Artificial intelligence Uvm [Methoden von Data Analytics: ] Ab Seite 68 im Skript viele noch zusätzlich aufgelistet. Nicht alle im Detail Wissen nur der vollständigkeitshalber. Für uns wichtige und bisher näher besprochene Methoden sind: [Woher wissen wir, welche Methode wir für unsere Situation nutzen? ] - Je nach Zweck unserer Analyse - Sekundärzwecke wie bspw. Laufzeit, Analyse/Vorhersage Genauigkeit - Entscheidungsbäume können genutzt werden - Es gibt hier keinen EINE richtige Lösung. Man muss es durch try and error herausfinden. [Tools die zur Auswahl stehen für Business Analystics: ] - SAP & Excel -\> etwas Zweckentfremden, um einen Teil der Datenauswertung zu machen - Tableau -\> Dashboards bauen - Powerbi - Celonis, disco speziell um Prozessdaten zu analysieren (aus Data Mining) - Power BI, Mongo DB für Datenauswahl - Matlab - Es gibt sehr viel, auch hier nach Anwendungsfall entscheiden, welches man nutzt. [Für unsere Vorlesung: ] Excel, Tableau und Python Evtl. Mehr, wenn wir Zeit haben **02 Kapitel Business Unterstanding (Geschäftsverständnis)** Business Unterstanding = Projektziele- und Anforderungen verstehen, Wissen dann in Data-Mining-Problemdefinition und Plan umsetzen 1. Geschäftsziele festlegen Umfeld der Organisation, Hautziel, Kriterien für Erfolg festlegen (=KPIs bspw) 2. Situation einschätzen Ressourceninventur, Anforderungen, Terminologie, Kosten und Nutzen 3. Festlegen der Analyseziele Ziel der Datenanalyse, Erfolgskriterien festlegen (KPIs) 4. Projektplan Projektplan und erste Einschätzungen festhalten wie bspw: Schritte, Dauer, Inputs, Abhängigkeiten etc. [Problem verstehen: ] - Mann muss auch die Subprobleme (nicht nur das übergeordnete Problem) verstehen, um dann, das Problem hoffentlich komplett zu lösen - Mit machine learning kann man viele Fragen beantworten, um das Problem zu lösen, ALLERDINGS ist das nicht die Lösung für alles. Grundsätzlich gut für große Datenmengen und komplexen Problemen - Business Analytics ist auch nicht IMMER die Lösung für alle Probleme. Man muss zuerst einmal schauen, was wir realistisch betrachtet prädiktiv auch mit Business Analytics umsetzen können Hinweis: Beispielfragestellungen pro Analyseart in Skript 02 ab Seite 12 für evtl durchschauen. [Ziele und Zielgruppe] = Vor der Erstellung einer Analyse oder eines Dashboards sollten die Ziele und die Zielgruppe definiert werden - Strategische Zwecke: Konzentration auf langfristige Analysen und die Darstellung von Trends - Betriebliche Zwecke: Prozesse werden überwacht und in kürzeren Zeiträumen oder Echtzeit dargestellt - Analysezwecke: wesentliche Informationen und Ergebnisse aus großen Datenmengen zu extrahieren - Planungszwecke: richtet sich an das mittelfristige Management und hilft bei Formulierung und Wachstumsstrategien basierend auf Trends, Stärken, Schwächen  **03 Kapitel Selection** [Herausforderungen bei Datenauswahl: ] - Massive Datenmengen - Verfügbarkeit von ausreichenden Daten - Verschiedene Daten (nicht-standardisiert, multimediale und objektorientierte Daten) [Datenverständnis: ] = Sich mit den Daten vertraut machen. [4 zentrale Aufgaben in der Datenauswahl: ] 1. Erste Daten sammeln - Bei uns sind diese meist schon immer gegeben 2. Daten beschreiben - Was bedeuten die einzelnen Spalten in Excel, die über den Daten stehen bspw. - Format, Menge Identität 3. Daten erkunden - Abfragen, Visualisierungen, Verteilungen, Statistische Analysen 4. Datenqualität überprüfen - Daten vollständig? Daten korrekt? Format Fehler wie bspw bei Datum DEU & Amerikanisches Format? - Infos über Qualität sehr wichtig, da wir erstmal verstehen müssen, wie die Daten aussehen, um sagen zu können, was in der nächsten Phase (der Erstbereinigung) getan werden muss [Dateneigenschaften ] **Was sind Daten?** = unsere Grundlage, mit denen wir arbeiten. Sie bestehen aus Zeichen, Ziffern, Punkte. Es gibt hier wieder verschiedenste Definitionen. **Was heißt „Big Data"?** = Informationswert, der sich durch hohes Volumen, hohe Geschwindigkeit und Vielfalt auszeichnet. Für Umwandlungen sind spezielle Technologien und Analysemethoden erforderlich. 5 Vs: Volume, Verlocity (Geschwindigkeit), Variety (Vielfalt der Daten an Arte), Variability (Konsistenz der Daten), Veracity (wie korrekt sind meine Daten) [Differenzierung von Daten: ] 1. **Unterscheiden nach strukturierten und unstrukturierten Daten** Strukturierte Daten: (Zahlen) - Immer zugrunde liegendes Schema (Zeilen und Spalten in Datenbank) - Datenmatrix ist bspw möglich: Spalte: Merkmale Zeilen: einzelne Fälle **Allgemeine Dateneigenschaften:** - Granularität und Natürliche Maßeinheit Unstrukturierte Daten: (Bilder, Videos etc.) - Keine erkennbare Struktur - Können nicht in ein Schema vordefiniert werden Semistrukturierte Daten: - Schema ist nicht erforderlich, aber möglich. 2. **Nach Ebene der Daten/Merkmale** = Wir können verschiedene Ebenen unterscheiden. Hier geht es um den Grad der Messung. **Unterste Ebene = Nominalskalen** - Keine natürliche Ordnung weil zb Haarfarbe blond größer Haarfarbe braun NICHT möglich **Nach Attributen einstufen = Ordinalskala** - Natürliche Ordnung besteht, wie bspw 1 Stern ist schlechter als 5 Sterne, Note 1 ist besser als Note 4 **Differenz zwischen zwei Werten erstellbar = Intervallskaliert** = Unterschied ist skalierbar aber das Verhältnis ist nicht aufzeigbar - Bspw: können wir bei Wetter sagen heute ist es 5 Grad wärmer als gestern. Allerdings können wir nicht sagen: Heute ist es doppelt so kalt wie gestern. **Nullpunkt auf dieser Skala enthalten = verhältnisskaliert** = Sowohl Unterschied, also auch Verhältnis ist aufzeigbar. - Abstand/Unterschied zwischen zwei Werten ist aufzeigbar wie bspw Person A wiegt 50 kg und Person B wiegt 60 Kg = Differenz 10 Kg. - Auch ein Verhältnis kann aufgezeigt werden, wie bspw A wiegt doppelt so viel wie B 3. **Nach stetig oder diskret [ ]** Diskret: Nominal- und Ordinal skalierte Merkmale Stetig: Intervall- und Verhältnisorientierte Merkmale 4. **Nach Art der Datenaufzeichnung** - **Nach Zeitreihen** **=** Wenn ein Fall über einen Zeitraum beobachtet wird - Temperatur, die sich bspw über die Zeit hin entwickelt hat - **Querschnitt** **=** Zu einem bestimmten Zeitpunk, werden unterschiedliche Fälle beobachtet - **Paneldaten** **=** Kombination aus beiden. Man kann Querschnitte ziehen, aber auch Zeitreihenanalysen einsehen. [Explorationsmethoden (=Metriken, um unsere Daten zu analysieren): ] **Univariate Statistik** 1. Mittelwert bilden (=Durchschnitt) 2. Median bilden - Robust gegenüber Ausreißern 3. Modus - Sehr nützlich für kategorische Daten oder diskrete Daten mit wenigen möglichen Werten 4. Varianz Formel aus Statistik nehmen 5. Standardabweichung Varianz quadrieren - Besser interpretierbar als die Varianz, weshalb bevorzugt verwendet. 6. Quartile [Visualisierende Methoden, um Daten zu analysieren ] **Univariate Grafiken/Visualisierungen** 1. Boxplot = visualisiert Quartile und Perzentile 2. Histogramm = Visualisierung der Häufigkeiten der Werte - Wir bilden Klasse mit den stetigen Daten (zb Alter 15-35 ist Klasse 1) 3. Schiefe = Verteilung der Daten wird Visualisiert - Zentrum ist evtl nach links und rechts verschoben = meist vorhandene Daten - Long tails zeigen die Ausreißer an = wenig vorkommende Daten - Es gibt noch viele weiter Möglichkeiten wie bsp Kuchendiagramme etc. - Visualisierungen helfen uns allg. Ausreißer festzustellen **Bivariate Analyse:** = Analyse zweier Variablen und ihrer Beziehung **Bivariate Statistik:** 1. **Nominale Korrelation** - Ergebnis zwischen 0 und 1, wobei 1 die stärkste mögliche Korrelation ist. - Bspw Kontingenzkoeffizient und Kontingenztabelle 2. **Ordinal- und Intervallkorrelation** - Ergebnis zwischen 1 und -1, wobei -1 eine perfekte negative (eines steigt eines sinkt) und +1 eine perfekte positive (beides steigt oder beides sinkt) Korrelation darstellt. 0 zeigt an, dass es keine Korrelation gibt. - Bspw. Spearman-Rangkorrelatinskoeffizienten für ordinale Daten und den Pearson-Korrelationskoeffizienten für Intervall- und Verhältnisdaten [Datenqualität bei Datenexploration ] - Fehlende Daten durch - Uneingetragene Daten bei manueller Anlage - Verlust bei Extraktion - Datenfehler durch - Falscheingaben - Fehler in den Einheiten - Unterschiedliche Einheiten (cm, m bspw) - Einheiten pro Land unterschiedlich (bspw Währung) - Kodisiierungsinkonsistenzen - Falsche Formate wie bspw Datum - Schlechte Metadaten - Bezeichnung passt nicht zu den einzelnen Ausprägungen [Visualisierungen ] = Visualisierung von Daten erleichtert das Verständnis über Daten. Das Visualisieren von Daten vor der quantitativen Analyse ist wichtig, da es dabei hilft, Ausreißer und andere einflussreiche Beobachtungen statistischer Eigenschaften zu erkennen. [Typen der Visualisierung] 1. Balken-/Säulendiagramme = Um Kategorien zu vergleichen - Kategorien können hierbei kategorisch, ordinal oder numerisch sein - Häufig genutzten Diagramme 2. Boxplot = Um Kategorien zu vergleichen und Ausreißer zu identifizieren 3. Histogramme = Verteilung von Werten anzeigen und Ausreißer erkennen 4. Korrelationsdiagramme = einfache Möglichkeit, um Korrelationen zwischen Variablen zu identifizieren - Überprüfung des Zusammenhangs zwischen Variablen - Wird verwendet, um sich später für Variablen zu entscheiden  5. Streudiagramme = geben detaillierten Einblick in die Korrelation zwischen zwei Variablen - 2-Dimensionale Ausreißer können identifiziert werden 6. Liniendiagramme = genutzt, um etwas über einen Zeitraum darzustellen - Höchstens 3 verschiedene Linien pro Chart bezüglich Übersichtlichkeit - Es kann schwer sein die Daten zu interpretieren anhand eines Liniendiagramms 7. Karten = häufig zur Validierung geografischer Daten - Richtigkeit schwer zu prüfen - Aufzeichnen von Punkten auf Karte gibt schon einen guten Richtwert - Verschiedenste Erstellungsmöglichkeiten [Andere Arten von Visualisierungen ] Eine Hohe Dimensionalität erfordert anspruchsvolle Visualisierungsarten wie bspw: - Glyphenplot - Streumatrixdiagramm - Bogendiagramm - Parallele Koordinaten ! Visualisierung und Statistik können in einem Dashboard kombiniert werden ! [Data Analysis vs. Presentation ] 1. Data Analysis: schaffe dir ein Verständnis über die Daten, indem du die Daten Visualisierst. 2. Presentation: Betone die Hintergründe der Daten durch die Visualisierung, um es Managern/Entscheidungsträgern leichter verständlich zu machen. 1. **KISS (Keep it simple, stupid)** - So einfach wie möglich halten, damit Leser der Präsentation die Hauptaussage verstehen können - Innerhalb 15 sec sollte Folie verstanden werden, sonst ist sie wahrscheinlich zu komplex 2. **Diagramme mit PowerPoint erstellen (nicht mit Python)** - Besseres aussehen - Vereinfachung - Flexibilität - Transparenz 3. **Diagramme sollten Hintergrund/Geschichte der Folie hervorheben** - Text sollte genau zum Diagramm passen! Aussagen dürfen hier nicht widersprüchlich sein 4. **Keine Farben nutzen, wenn diese keine Bedeutung haben** 5. **Keine 3D Charts nutzen, wenn es vermeidbar ist** 6. **Wenn möglich keine Kuchendiagramme nutzen** 7. **Titel der x- und y-Achse hinzufügen** 8. **Summe der Zahlen beachten (100%)** 9. **Interpretation des Diagramms mit anfügen** 10. **Kategoriale Variablen auf der y-Achse und ordinale + numerische auf der x-Achse anzeigen** [Storytelling ] = Mit den analysierten Daten, möchten wir eine Geschichte/den Hintergrund erzählen. Je nach Geschichte, müssen wir auch ein passendes Diagramm auswählen. **04 Kapitel** **Phasen: Preprocessing and Transformation** = diese zwei Phasen sind nicht zu vernachlässigen & nehmen einen großen Teil ein. Wichtig ist dies weil: - Daten im Unternehmen sind oftmals nur Nebenprodukt, weshalb unstrukturiert etc - Viele Sonderfälle vorhanden (bei bspw Ausfüllen eines Formulars) - Neue Daten entstehen - Daten verändern sich - Wenn diese Phasen vernachlässigt werden, dann hat man eine schlechte Datenbasis/Ausgangssituation, weshalb auch das Ergebnis unserer Analysen nicht gut werden kann. [Data preparation (Daten vorverarbeitung)] = Aus den Rohdaten (Ursprungsdaten) soll ein finaler Datensatz erzeugt werden, der für alle nachfolgenden Analysen/Phasen genutzt wird. *Aufgaben dieser Phase:* - Select data = Merkmale aus der konsolidierten Datenmenge bestimmen, die für unsere nachfolgenden Analysen relevant sind - Clean data = Entfernen von Ausreißern, Duplikaten, fehlenden Werte etc - Construct data = neue Merkmale konstruieren, die erschlossen werden können & sinnvoll für weitere Analysen sein könnten bspw: Länge und Breite ist gegeben -\> Fläche ergänzen - Integrate data = Daten konsolidieren aus verschiedenen Quellen - Format data = Daten einheitlich und nützlich für Analyse formatieren bspw Währung, Datum [Clean data] 1. Daten in Spalten löschen/bereinigen - Datentyp festlegen - Datenrahmen festlegen - Einheitliches wording festlegen pro Spalte - Löschen von unnötigen (für unsere Analyse) oder redundanten (zb inhaltlich gleiches nur anders ausgedrückt mit YES/NO oder 1/0) Spalten 2. Daten in Zeilen löschen/bereinigen - Schlechte Duplikate löschen - Fehlende Werte behandeln - Ausreißer entfernen - Inkonsistenzen entfernen [Feature engineering ] = wichtiger Schritt, um Muster und Zusammenhänge aus großer Datenmenge zu erkennen. Nutzung, um anschließend Vorhersagemodelle aufbauen zu können. *Ziel:* Eigenschaften aus Rohdaten ableiten, um eine Darstellung dieser bereitzustellen *Teilschritte:* 1. Merkmalstransformation: Umwandlung der Merkmale in verschiedene Repräsentationen 2. Merkmalskonstruktion: Entwicklung neuer Merkmale 3. Merkmalsauswahl: Auswahl geeigneter Merkmale für spätere Analysen 4. Merkmalsextraktion: Reduzierung der Dimensionalität des Merkmalsatzes *Beispiele, wo diese Schritte komplexer werden:* - Bild Merkmale beschreiben - Gesichtsmerkmale beschreiben - Merkmale im Zeitverlauf [Ausreißer und Anomalien erkennen] = Beides sind grundsätzlich Muster/Verhaltensweisen, die als nicht normales Verhalten angesehen werden. *Unterschied*: **Ausreißer** = diese sind für uns unrelevant und wurden bspw durch Falscheingaben verursacht. Sie sollten aus unserem Datensatz entfernt werden. **Anomalien** = Sie sind für unsere zukünftigen Analysen trotz unnormalem Verhalten relevant. Sie sollten genauer untersucht werden und Rückschlüsse daraus gezogen werden. *Herausforderungen:* - Definieren, was normales Verhalten ist und was nicht - Eingrenzung muss regelmäßig aktualisiert werden - Eingrenzung pro Anwendungsfall definieren - Anomalien werden übersehen = Dies kann daran liegen, dass eine Anomalie oft vorkommt & deshalb durch die Regelmäßigkeit als normal gesehen wird. Bspw: Bei Kartenzahlung passiert jedes 2. Mal ein Betrug. Dies ist eig ein unnormales verhalten & wird so übersehen. - Gewichtung der Anomalien je nach Fall unterschiedlich *Erkennung:* - Visualisierung über Punktwolken, Boxplot - Label festlegen und einbinden, wann etwas unnormales vorliegt *Oft auftretende Probleme: Am Beispiel* 1. Visuelle Probleme = Wir haben hier nur 2 Achsen zur Verfügung. Es werden also nur 2 Merkmale betrachtet/visualisiert und nicht mehrere 2. Inhaltliche Probleme = Fehlende Daten zu einem bestimmten Fall (hier O3)?, Grenzen setzen (O2 vlt gar nicht so unnormal)?, Anomalie oder Ausreißer (O1)? [Kriterien für die Problemdefinition der Anomalieerkennung] 1. Art der Daten - Wie sind unsere Daten skaliert? (Nominal, ordinalt...) - Wie hängen unsere Daten zusammen (Mathematisch, logisch, überhaupt)? 2. Anomalietyp 1. Point Anomalie 2. Kontext Anomalie 3. Kollektive Anomalien Bspw auf dem Bild: Point Anomalie: Jemand wollte 24 Grad eingeben und hat aber 4 eingegeben Kontext Anomalie: Es hat 4 grad (= unproblematisch), Es hat im Juni (=Kontext) 4 Grad problematisch 3. Labels 4. Output Machen wir noch! Dann ergänzen! 5. Nachweismöglichkeiten 1. Klassifikationsbasiert 2. Statistische Methoden Und weitere, auf die wir uns erstmals nicht fokussieren. [Umgang mit fehlenden Werten ] 1. Werte ergänzen/auffüllen (Imputation) a. Durchschnitt von Daten nutzen b. Median von Daten nutzen (ohne Ausreißer) c. Modus nutzen - Über was die jeweilige Metrik gebildet wird, kann verschieden sein (ganzen Daten, ähnliche Fälle, etc) 2. Daten löschen/entfernen (Auslassen) d. Zeilen entfernen e. Spalten entfernen f. Paarweise entfernen (Nur Lücken löschen, die für unsere Analyse herangezogen werden würden, andere Lücken bestehen weiter) 3. Hot- or cold deck imputation 4. LOCF, NOCB und lineare interpolation = Alle Möglichkeiten, sind nur bei Zeitreihendaten nutzbar. Am besten, Zeitreihen, mit wenig Abstand. 1. Last observation carried forward 2. Next observation carried forward 3. Linear interpolation 5. Hinzufügen einer nicht numerischen Kategorie 4. NA Kategorie 5. Künstlichen Wert ergänzen 6. Indikator für fehlenden Wert ergänzen 6. Multiple imputation = Nicht im Detail notwendig, da schon fortgeschrittener Ansatz aber grober Ansatz: Verschiedene Ansätze, um Daten aufzufüllen ansehen und Schritt für Schritt durchgehen. Zuletzt dann evtl einen Mischweg zwischen einigen Ansätzen nutzen. 7. Prediktive/statistische Modelle = nich im Detail, aber es gibt sie. - Grundsätzlich kann man sagen, dass man fehlende Werte immer je nach Situation auffüllen sollte. Falls dies nicht möglich ist, ist zu schauen, ob man das Merkmal überhaupt nutzen kann oder löschen sollte. Allerdings gibt es auch schon Algorithmen, die mit fehlenden Werten umgehen können. Hier müsste man die fehlenden Werte im Voraus nicht auffüllen. [Arten von fehlenden Werten ] = wie hängt das Merkmal, was die fehlenden Werte hat, mit den anderen Merkmalen zusammen. 1. Missing completely at random (MCAR) = Es fehlen die Werte eines Merkmals rein zufällig. Wir können uns nicht erklären, wieso bspw die Kunden die Befragung nicht durchgeführt haben. Abhilfe: Wir können hier das Problem nicht lösen. Können die fehlenden Werte allerdings auffüllen mit bspw Durchschnitten. Komplexere Methoden würden gehen, sind allerdings nicht notwendig. 2. Missing at Random (MAR) = Es ist eine Abhängigkeit zwischen dem fehlenden Wert des Merkmales und einem anderen Merkmal erkennbar. Bsp alle, bei denen die Umfrage von dem Service MA A zugesendet bekommen haben, haben die Umfrage nicht durchgeführt. Abhilfe: Wir sollten ein komplexeres Verfahren nutzen wie bspw den Durchschnitt über mehrere Werte bilden. Es ist genaueres hinsehen notwendig. 3. Not missing at random (NMAR) = Es liegt ein Grund vor, wieso die Werte fehlen, der nicht bei uns in den Daten ist, allerdings erkannt ist. Bsp: Alle Kunden, die kein schwerwiegendes Problem hatten, geben keine Bewertung ab. Abhilfe: Es ist mehr Recheneinsatz notwendig, um die Lücken zu füllen. Eventuell ist es sinnvoll, die Lücken nicht zu füllen (da zu komplex), sondern ein alternatives Merkmal heranzuziehen. [Unausgeglichene Klassen/Daten ] = Wenn die Klassen ungleich verteilt sind, da sehr unterschiedlich viele/Verteilte Beobachtungen vorliegen. Grundsätzlich sollte man sich auf die Klasse fokussieren, die der Minderheit/des Positiven entspricht. [Ansätze, um dieses Ungleichgewicht aufzulösen: ] 1. Random unter-sampling 2. Random over-sampling 3. Unter-sampling using Tomek links 4. Over-sampling using SMOTE [Feature Selection ] = Aus bestehenden Spalten, werden die bedeutenden Spalten ausgesucht und die anderen herausgeworfen. Hier wird je nach Analyseziel/Analysevariable entschieden. Man verringert so Speicherplatz, Arbeitszeit und Analysezeit. 1. Pearson correlation 2. Spearman Correlation 3. Visualisierungen - Korrelationsmatrix hilft uns, alle Merkmale im Zusammenhang mit allen Merkmalen zu setzen und dies visuell darzustellen. **04 Kapitel Teil 3** [Merkmalsextraktion/Dimensionsreduzierung ] = Vor allem wichtig, bei sehr hoch Dimensionalen und großen Datensätzen - relevante Merkmale für das Analyseziel auswählen (und andere herauswerfen); Dimensionen verringern, um Datensatz Größe und Komplexität zu Verringern. - Hier gibt es viele Ansätze, um dies umzusetzen wie bspw. PCA, LDA. Wir müssen diese nicht kennen/können. [Feature transformation ] = Oftmals ist es notwendig, Merkmale in ein anderes Format zu transformieren, damit der Algorithmus mit den Merkmalen umgehen kann. Hierfür gibt es verschiedene Ansätze: 1. Discretization = Stetige Verläufe werden hier in diskrete umgewandelt. Dies geschieht durch die Bildung von Klassen (=Intervallbildung). Zwei mögliche Ansätze, die Discretization umzusetzen: 1. equal width binning: 2. Equal frequency binning 2. Feature encoding 1. Ordinal encoding 2. One-hot encoding 3. Target encoding - Oft suboptimal, wenn viele Korrelationen zwischen Merkmalen vorliegen. 3. Funktionsskalierung = Merkmale so skalieren, dass der Algorithmus damit zurechtkommt. Bedeutet die Range der numerischen Werte passend festlegen. 1. Normalisierung (Min-Max Skalierung) 2. Standardisierung (Z-Score-Skalierung) - Welcher Ansatz hier gewählt werden sollte, muss ausprobiert und je nach Anwendungsfall entschieden werden! 4.Winsorization (nur auf Testdaten) = verringert den Einfluss von Ausreißern und macht die Modellergebnisse robuster. Es werden sogenannte Cuts gesetzt. Das sind Perzentile.  5.Log-Transformation = Wenn eine extreme Schiefe (ungleichverteilung) vorliegt, kann diese mit dem Logarithmus transformiert/abgeflacht werden. Normalverteilte Ziele sind oft leichter für Algorithmen. [Data Splitting (=Aufteilung der Daten) ] = Die Daten werden Prozentual aufgeteilt. **Erste Einteilung** 1. Train set = trainiert das Modell, für spätere analysieren/Tests, nutzt hyperparameter und versucht diese zu optimieren (= Parameter, die nicht zu den Daten gehören, sondern Stellschrauben für den Algorithmus) 2. Test set = zum testen des auf dem Trainingsset entwickelten Modells, Stellvertreter für zukünftiges Verhalten auf inference data (=Werte, die in ein trainierendes Modell eingegeben werden, um vorhersagen zu treffen)  **Weitere nachfolgende Einteilung** **Einführung einer weiteren Datenaufteilung** = Für Hyperparametertests oder neu entwickelte Funktionen verwenden wir einen Validierungssatz **Überblicksfolie:** Probleme bei der Verwendung eines festen Validierungssatzes: 1. Datengröße = Wenn wir Daten in untenstehende Daten einteilen, kann es sein, dass wir bei einem grundsätzlich kleinen Datensatz, relativ wenige Testdaten haben. 2. Overfitting = Wir können nicht gut auf neue Daten reagieren, da wir zu gut/sehr genau auf unsere vorhandenen Trainingsdaten angepasst sind. Lösung der Probleme (vor allem Problem 2) Cross-validation: Wir unterteilen alle Daten in Trainings und Testaten. Man rotiert dann die Daten durch. Mit verschiedenen Splits und Folds arbeiten. Man hat somit immer andere Daten fürs Training, weshalb das overfitting vermieden werden soll. **05 Kapitel Data Mining/ Descriptive Analytics** [Descriptive Analytics: ] = Was passiert gerade eben/Was ist in der Vergangenheit passiert? - Einfache Analyseart - Nutzung von statistischer Methoden - Fokussiert sich auf die Gegenwart und die Vergangenheit - Hilfsmittel: Berichte, Diagramme, pivor Tabellen, Grafen - Oft ergänzt durch: Ursache-Wirkung-Analysen -\> Diagnostische Analytik [Diagnostics analytics] = Warum/Wieso passiert/passierte etwas? Wir möchten die Ursache für das Geschehen verstehen. Hier gibt es auch Business intelligence Ansätze, Statistische Ansätze und Data mining Ansätze. - Wir konzentrieren uns auf Diagnostische Ansätze (Korrlation etc) ACHTUNG: Korrelation UNGLEICH Kausalität!! = Korrelation ist ein statistisches Maß, was wir in Daten beobachten, wie wenn eine Größe steigt, steigt auch die andere: Anzahl an Störche, die draußen rum fliegen erhöhen sind, deshalb auch die Geburtsraten. Das ist eine Korrelation. ABER KEIN Kausaler Zusammenhang, da natürlich die Geburtszahlen nicht tatsächlich von den Störchen abhängig sind. Kausalität & Korrelation wäre bspw: Eis Verkauf steigt wenn die Temperatur auch steigt. [Dashboarding] = Hier gibt es 11 verschiedene Gestaltungsregeln 1. Ziel und Zielgruppe definieren - Strategischer Zweck = für eher langfristige Analysen, Daten müssen nicht im Sekundentakt, sondern nur in größeren Abständen auf dem Dashboard aktualisiert werden. - Zwecke, die für das daily business relevant sind, kürzere Intervalle der Aktualisierung/Echtzeitdaten - Analytischer Zweck = wesentlichen Infos aus Daten darzustellen, wie bspw. Den Zusammenhang zweier Größen zu visualisieren. - Planungs Zwecke = Sicht in die Zukunft für Trendanalysen, Prognosen *Framework, um die Zielgruppe zu definieren:*  2. Klarheit/Eindeutigkeit = keine Überladung, Übersichtlichkeit, mobil aufrufbar - Je Zielgruppe ein passendes Dashboard erstellen - Max 5 verschiedene Daten Visualisierungen pro Dashboard 3. KPIs festlegen = passende Auswahl an Kennzahlen, je Ziel/Nutzergruppe 4. Daten in einen Kontext bringen = KPIs müssen in den Kontext eingebettet werden, um eine Story zu erzählen. Kennzahlen werden hierfür in Relation gesetzt durch bspw Umsatzvergleiche etc. (Vergleich nach Jahren, Filialen, etc möglich) Ohne den Vergleich/Kontext kann man die Kennzahlen nicht interpretieren. Deshalb kann auch keine Aktion/Maßnahme abgeleitet werden. Das wäre schlecht. Alles benennen: Achsen, Titel, etc. 5. Vereinfachen = so einfach wie möglich, so viel wie nötig. KISS (keep it short and simple) Informationen sollen verständlich sein und einfach verständlich visualisiert sein Die wichtigste Info sollte man innerhalb 5 sec verstehen Grafiken immer einheitlich und gut verständlich gestalten Immer im Kontext und mit Vergleichen darstellen, um es leichter zu verstehen 6. Struktur = eindeutige und leicht verständliche Struktur notwendig. - Wichtigste oben und links -\> desto weiter unten und rechts desto mehr Detailinfos/Zusatzinfos (eher unwichtigeres) 7. Farbwahl und visuelle Trennung - Farben nur wählen, wenn sie einen Sinn haben - Intuitive Farben (grün= positiv, rot= Warnung, etc) berücksichtigen - Trennstriche nutzen bzw. Blocke in gleicher Größe wählen für optische Übersichtlichkeit - Unterschiedliche Diagrammtypen trennen 8. Wähle die richtigen Diagramme - Linien Diagramm für zeitverläufe - Balkendiagramme für vergleiche - Kuchendiagramme eher vermeiden, wenn ein Balkendiagramm genutzt werden kann (höhe der Balken besser interpretierbar für Menschen als Winkel des Kuchendiagramms) 9. Nutzung von interaktiven Elementen = Nur, wenn sie einen Sinn haben wie bspw Filter, Ein/Ausblendungen etc. 10. Integration von Echtzeitdaten = Nur wenn notwendig, wie bei Dingen, die Zeitkritisches Handeln erfordern. Ansonsten nicht, da es den Nutzer verwirren kann. 11. Feedback = Feedback einholen und Umsetzen sowohl davor als auch währenddessen. Nutzung des Dashboards wird so optimiert und maximiert. - All diese Dinge, sind ständig anzupassen und umzusetzen, solange es das Dashboard gibt ! Immer wieder auf aktuellen Stand bringen. [Key Performance Indicators ] = Quantifizierbare Indikatoren/Metriken, zum messen von Performance des Unternehmens. Dies machen wir nicht einmalig, sondern über die Zeit hinweg. Es handelt sich hier um die wichtigsten/hauptsächlichsten. KPIs sollten **SMART** formuliert sein. **S**pezifisch **M**essbar **A**ngemessen **R**ealistisch **T**erminiert [Frameworks] = Diese können helfen, neue KPIs zu entwickeln/festzulegen. 1. Du Pont Pyramide (of Financial Ratios according to Chandler 1977) 2. Balanced Scorecard (by Kaplan and Norton 1993) = Hier werden 4 verschiedene Perspektiven (Finanzen, Prozess, Kunden, Lernen und Wachsen) betrachtet. 3. Pyramide (by Lynch and Cross 1991) 4. Performance measure record sheet (according to Neely et. Al. 1997) Beispiel:  [Zusammenfassung aller 4: ] [Beispiele für KPIs: ] 1. Finanzbereich: Roi, Umsatzwachstum, Gewinnwachstum, Verschuldungsgrad, Ausgaben, Kapitalbindung, Mage (=Gewinn), Plan-Ist Vergleiche 2. Kundenbereich: Kundenzufriedenheit, Durchschnittliche Bearbeitungszeit, Lösungsrate Erstkontakt, Antwortzeit, Nachbearbeitungszeit, Durchschnittliche Wartezeit 3. HR-Bereich: Krankheits-/Abwesenheitsrate, Empfehlungsrate, Demographische Daten des Personals, Karriere Chancen 4. IT-Bereich: 5. Marketing: Schwierigkeit bei manchen Kennzahlen hier: Digitale Nachverfolgung bei bspw Lesebestätigung manchmal schwer, gilt vlt auch als gelesen, wenn ich es als gelesen markiere, aber nie lese, sondern lösche. Datenerhebung: Was sind bspw potentielle Kunden? -\> eher Annäherungen durch bspw Markdaten. 6. Sales [Fallstudie ] = Interpretation von Grafiken üben:   **Kapitel 6 Data Mining** Lernziele: Was ist prädiktive Analyse, Machine learning (=ML) und Grundtypen, prädiktive Analyse und dort ML im Einsatz. [Einordnung und wichtige Übersicht: ]  [Näheres zur prädikativen Analyse:] = Man sieht sich hier an, was zukünftig passieren wird und wieso. Vorhersage von Zeitreihen sehr typisch. Beispiel vorhersagen: optimaler Wartungszeitpunkt von Maschinen, Wettervorhersagen, Umsatz- und Absatzzahlen. - Nutzung von bisher vorhandenen vergangenheitsdaten, um Prognosen durchzuführen - Eine ausreichend hohe Genauigkeit ist garantiert - Modelle aus ML werden genutzt, um Eintrittswahrscheinlichkeiten/Prognose zu erstellen [Definition Machine Learning: ] = „Ein Computerprogramm lernt aus Erfahrung **E** in Bezug auf eine bestimmte Aufgabenklasse **T** und ein Leistungsmaß **P,** wenn sich seine Leistung bei Aufgaben in T, gemessen an P, mit der Erfahrung E verbessert." T: Problemstellung P: Messung der Performance durch festgelegte Kennzahl E: Welche Daten gebe ich dem Algorithmus, um das Problem zu lösen [Mathematische Betrachtung: ] = Beim maschinellen Lernen geht es darum, die optimale Funktion f für eine Trainingsmenge zu finden so zu finden, dass sie eine bestimmte Metrik für die zukünftige Inferenzmenge optimiert. [Arten von Machine Learning] 1. **Supervised learning** 1. **Klassifikation** 2. **Unsupervised learning** 2. **Clusteranalyse** - Elemente innerhalb einer Gruppe/ein Cluster sollen sehr nah aneinander liegen - Elemente außerhalb des Clusters sollen weit weg liegen. 3. **Reinforcement learning** [Prädiktive Modellierung als supervised learning Problem] „Unterteilung in 2 „Aufgaben" 1. **Regression ** 2. **Klassifikation** endlicher Bereich soll vorhergesagt werden. [Phasen der präventiven Modellierung ] 1. **Problem statement** 2. **Data collection** 3. **Data preparation** 4. **Modell Selection** 5. **Modell assessment (=Modellbewertung)** 6. **Result presentation** = Ergebnisse präsentieren und kommunizieren. Durch bspw Dashboard, Handlungsempfehlungen ableiten - Alles je nach Zweck und Zielgruppe 7. **Model deployment (Modellbereitstellung)** **[Kapitel 07 Data Mining -- Entscheidungsbäume]** [Entscheidungsbaum] = Hilfsmittel/Tool, um Entscheidungen zu strukturieren und anhand dadurch eine Entscheidung zu treffen. Top-Down Prinzip, da man von oben nach unten durch den Baum geht. - Nicht parametrischer Methode des überwachten Lernens - Regressions- und Klassifikationsprobleme können mit Entscheidungsbäumen gelöst werden - Bei numerischen Zielvariablen, werden Durchschnittswerte genutzt. **Ziel**: Modell erstellen, dass den Wert einer Zielvariable vorhersagt, indem es einfach Entscheidungsregeln lernt, die aus den Datenmerkmalen ableitbar sind. **Mathematisch:** Funktion soll optimiert werden bzw. die optimale Gewichtung festlegen. [Aufbau: ] [Zustandekommen des Entscheidungsbaums: ]  Problem vor allem bei großen Datensätzen: - Keine eindeutigen Ergebnisse (Es gibt also nicht immer ein „IMMER WENN x dann y") - Ausreißer möglich - Wo zieht man Grenzen? - Lösungsansätze durch Metriken möglich wie bspw. Gini Index, Logworth und Variance reduvtion [Problem des overfittings: ] = Wir können unsere Daten zu genau/zu sehr abbilden, durch den entstehenden Baum. Es kann sein, dass neue Daten dann nicht eingeordnet/sortiert werden. Abhilfe: Vermeiden, von zu geringer Sampelanzahl pro Split! Sampelanzahl pro Split kann festgelegt werden: Ein Minimum von bspw. 7 festlegen möglich, damit diese kleine Stückelung unten nicht passiert & wir so ein Overfitting vermeiden können. Auch die Tiefe (Anzahl der Entscheidungsknoten) ist einstellbar. [3 zentrale Vorteile] **1)** Entscheidungsbäume können gut mit fehlenden Werten umgehen: Da wir trotzdem Entscheidungen abgeleitet werden können. Man hat eine gewisse Robustheit. Man kann bspw die Beobachtungen dann nicht mit betrachten etc. **2)** Handling Ausreißer/ ungewöhnlicher Verteilung gut möglich: Da wir eine Splitting Strategie haben (bspw Regen, sonnig, misch) aber wir haben keine Verarbeitung von numerischen Werten wie bspw bei einer Regression. Wir teilen nur die Daten auf Basis von Kriterien ein. Metriken wie Min-Max Skalierung, Exponentiell Skalieren oder Log-Transformation also nicht notwendig. **3)** Feature Selection vernachlässigbar/einfach: Sie erledigt sich von selbst, dadurch das wir die Abhängigkeit vom Label betrachten. (Bspw sehen wir anhand der Temperatur überhaupt, ob es einen Einfluss auf unser Label (=vorherzusagendes Ergebnis) hat). [Kurzübersicht Vor- und Nachteile] **+** - Interpretierbar, leicht visualisierbar - Interaktionen von Merkmalen gut abbildbar (dadurch, dass man Merkmale nach Abhängigkeiten untersucht etc.) - Umgang mit fehlenden Werten leicht möglich - Keine Skalierung der Merkmale notwendig - Wichtige Merkmale für Entscheidungsfindung leicht sichtbar **-** \- Overfitting \- Ergebnisse kommunizieren oftmals schwer durch schrittweises Vorgehen in der Erstellung des Baumes \- Baum kann sich schnell, drastisch verändern, wenn sich Inputdaten leicht verändern **07 Data Mining -- Decision Tree** **[Random forest]** = Ausführung von mehreren Entscheidungsbäumen mit jeweils unterschiedlichen Testdaten. Man bekommt so im Besten fall das beste Ergebnis. Es wird zuletzt eine Majority Entscheidung durchgeführt. Die Bäume funktionieren unabhängig voneinander.  **+** - Geringeres Risiko an overfitting (abhängig von Daten wie viel und ob) - Gut, um Interaktionen abzubilden -\> Beides durch die Randomisierung - Skalierung und Transformation ist hier weniger wichtig - Oft das beste Ergebnis **-** - Schwieriger zu interpretieren -\> durch die randomisierung und das zusammenfügen der einzelnen Bäume. - Längere Trainingszeiten notwendig, bei vor allem großen Datensätze - Manchmal auch scher kommunizieerbar, wenn die Interpretation schwer ist. [Wichtige allgemeine Erkenntnis: ] Es kann sein, dass der Random Forest auch mal schlechter ausfällt als der Entscheidungsbaum an sich! Es heißt also nicht, je komplexer, desto besser! Bei einfachen Daten kann auch mal nur ein Entscheidungsbaum besser vorhersagen als ein Random Forest oder etwas anderes komplexeres. **[Gardient boosting ]** = Wie können wir eine Interaktion der Bäume hervorrufen? -\> durch den boosting Algorithmus. Einzelne Entscheidungsbäume sollen nicht mehr unabhängig voneinander funktionieren, sondern zusammen interagieren. Aus den Fehlern, die ein Baum macht, soll jeder (bzw der nächste Baum und am Ende dann alle) Baum lernen! Die Bäume sind also nicht mehr nebeneinander, sondern ineinander verschachtelt.  Erklärung Schaubild: Erste Baum gibt eine erste Einschätzung, der Zweite verbessert dies, und so weiter, bis man beim letzen Baum angekommen ist. [Anordnung der Bäume: ] - Schrittweise Verbesserung der Entscheidung, durch die hierarchisch/verschachtelt aufgebauten Bäume, die miteinander interagieren. - Die 0,1 ist die Lernrate! **+** - Fehlende Werte können leicht gehandhabt werden, da wir keine Maßnahmen vorher ergreifen müssen, um diese zu beheben - Besten Ergebnisse gerade für tabulare Daten - Encoding ist nicht notwendig, da Algorithmus dies kann - Skalierung der Merkmale im Voraus nicht notwendig **-** - eher ungeeignet für sehr kleine Datensätze - Wir können nicht mehr genau Nachvollziehen, was genau passiert ist/wie das Ergebnis entsteht (Black-box) -\> Das macht auch die Kommunikation schwer - Hyperparameter Optimierung ist oftmals notwendig, um das bestmögliche Modell zu erhalten. **Kapitel 08 Data Mining -- Regression und künstliche Neuronale Netze** [Lineare Regression ] = Die Lineare (also das y) ist nur von einem Feature (=x) abhängig. A und B der Gleichung sind nur Gewichte. Ziel: bestmögliche Funktion finden, um unsere Datenpunkte abzubilden. Dies ist der Fall, wenn die Datenpunkte so nah wie möglich an der Geraden liegen. Hierzu A und B zu berechnen. - Zielvariable wird auch Abhängigkeits Variable genannt. - Merkmale werden auch unabhängigkeits Variablen genannt. [Merkmale ] - Monotones Ziel vorhanden (streng monoton fallend oder steigend) - Es herrscht ein linearer Zusammenhang, da wir uns auf lineare Regressionen konzentrieren - Wir können Werte vorhersagen, die außerhalb unseres betrachteten Bereiches liegen - Das Verhältnis von Merkmal und Ziel können wir leicht interpretieren (steigt x steigt y oder sink x sinkt y) - Teilweise ist es notwendig, neue Merkmale aufzubauen, um eine gute lineare Regression zu erhalten. Bspw: länge und Breite ergeben das Merkmal Fläche. [Multivariate lineare Regression ] = Man hat keine Gerade mehr, sondern verschiedene Ebene. Man hat für die Vorhersage nicht nur noch ein Merkmal in Abhängigkeit, sondern viele. Visualisierung im 3D. [Merkmale: ] - Das Ziel ist zu jedem Merkmal monoton und linear (auch wenn wir in mehrere Ebenen abbilden, linear, da zb nichts quadriert etc wird) - Vorhersagen auch hier für Werte außerhalb unseres Werte Bereichs möglich - Veränderungen eines Merkmals können relativ leicht interpretiert werden (Ziel Veränderung) [Learning process ] = Quadratische Abstand soll minimal wie möglich sein zur linearen Regression/Lineare! Summe aller quadratischen Abweichungen minimieren. Wir quadrieren, um ein positives Vorzeichen zu erhalten und sich die Abweichungen nach oben und nach unten nicht auscanceln. Zudem entsteht hierdurch eine Gewichtung. Verfahren: kleins Quadrate Methode = ordinary least squares (OLS) estimation - Ergebnis sind die Werte für A und B (=Gewichtungswerte) !Achtung! Nur weil eine Regression unsere Datenpunkte mathematisch gut abbildet, kann es dennoch sein, dass das Ergebnis schlecht ist. Wenn der MSE (Mean square Error) hoch ist, ist dies schlecht. [Regulierung in Regressionsmodellen ] 1. **Underfitting** 2. **Overfitting** **Lösung:** Es ist wichtig die Mitte zwischen Under- und Overfitting zu finden. Am besten ist es vom Overfitting zur Mitte zu finden. Wenn man underfitting hat, sollte man andere Modelle und Daten nutzen, bis man die Mitte oder wahrscheinlich ein overfitting hat, dass man davon dann zur Mitte finden kann. Overfitting kann man durch verschiedenste Techniken vermeiden/verbessern.  [Künstliche Neuronale Netze] = Neuronale Netze funktionieren ähnlich wie neuronen/synapsen des Gehirns. Diese sind mit gewichten verbunden. Eignung: Sie können komplexe Strukturen in Daten besser abbilden. Komplexe Berechnungen an einzelnen Knoten hier durchführbar. Obwohl an einzelnen Neuronen evtl nur einfache Mathematische Dinge wie summieren, multiplizieren durchführbar sind, ist es im gesamten hoch komplex und vielseitig nutzbar auch im Mathematischen Sinn. Aufbau: Input, Output und versteckte Schichten. In- und Output Knoten sind mit Gewichtungsvektoren verbunden.