Wirtschaftsinformatik Zusammenfassung PDF
Document Details
![FormidableIntellect1275](https://quizgecko.com/images/avatars/avatar-18.webp)
Uploaded by FormidableIntellect1275
Freie Universität Berlin
Tags
Related
- Grundlagen der Wirtschaftsinformatik Vorlesung 2024/25 PDF
- Grundlagen der Wirtschaftsinformatik PDF, Wintersemester 2024/25
- Grundlagen der Wirtschaftsinformatik PDF
- Grundlagen der Wirtschaftsinformatik - Übung 2 - Informationssysteme und Organisationen (PDF)
- Ubung 10 - Informationssysteme und Ethik - Loesung PDF
- Wirtschaftsinformatik Zusammenfassung PDF
Summary
Die Zusammenfassung der Wirtschaftsinformatik behandelt Grundlagen, Entwicklung, und Anwendungssysteme. Sie umfasst Themen wie Datenübertragung, Datenbanken und die Rolle von IT im Unternehmen. Die Zusammenfassung eignet sich zum Lernen der Grundlagen der Wirtschaftsinformatik.
Full Transcript
Wirtschaftsinformatik – Zusammenfassung 1. Einordnung Wirtschaftsinformatik Grundlagen Definition Wissenschaft, die sich mit der Beschreibung, Erklärung & Gestaltung rechnergestützter Informationssysteme & deren Einsatz in Wirtschaft & Verwaltung befasst....
Wirtschaftsinformatik – Zusammenfassung 1. Einordnung Wirtschaftsinformatik Grundlagen Definition Wissenschaft, die sich mit der Beschreibung, Erklärung & Gestaltung rechnergestützter Informationssysteme & deren Einsatz in Wirtschaft & Verwaltung befasst. - Informationssysteme = soziotechnische Systeme o Menschliche & maschinelle Komponenten o Einsatz umfasst technische, organisatorische, personelle & soziale Aspekte & zieht vielfältige Auswirkungen nach sich - Wirtschaftsinformatik = interdisziplinäres Fach à BWL + Informatik Gegenstand der Wirtschaftsinformatik Entwicklungsrichtungen 1. Profilierungen 2. Entrepreneurship 3. Analystics 4. Digitalisierung & Geschäftsprozesse 5. IT-Management & Strategie 6. Software Engineering Mainframe - Grundrechner mit mehreren Nutzern - Verarbeitung großer Datenmengen Supercomputer - parallele Datenverarbeitung - wissenschaftliche/militärische Anwendung 4 Schichten der Datenübertragung 1. Anwendungsschicht a. regelt durch Nutzung entsprechender Protokolle die Kommunikation zwischen Anwendungsprogrammen (z.B. Webbrowser und Webserver (HTTP/S Protokoll)) 2. Transportschicht a. regelt Aufteilung in Datenpakete und den Transport der Pakete zwischen dem sendenden & empfangenen System (TCP Protokoll) 3. Internetschicht a. regelt Weiterleitung der Daten von einer Netzwerkkomponente zur nächsten bis zum Zielsystem (IP- Protokoll) 4. Netzwerkschicht a. ist für physikalische Datenübertragung zuständig (z.B. Ethernet, WLAN) TCP/IP - IP-Datenbanken werden unabhängig von Router zu Router weitergegeben bis Zieladresse erreicht o Zielcomputer setzt entsprechend ihrer Nummerierung zusammen o fehlende Paket werden neu angefordert Internet Protocol (IP) - zur Kommunikation über Internet eindeutige IP-Adresse benötigt o besteht aus 4 natürlichen Zahlen 0-255, die durch Punkt getrennt (z.B. 160.45.154.250) - IP definiert den Aufbau & Struktur dieser IP-Adressen & stellt Mechanismen zum Transport (Routing) von Datenbanken von einer zur anderen Adresse zur Verfügung Transmission Control Protocol (TP) - zerlegt zu übertragenden Daten in Pakete einheitlicher Größe o Datenpaket umfasst: übertragende Nutzdaten als auch Kopfdaten wie Absender-, Zieladresse und Paketnr. Hypertext Transfer Protocol (HTTP) - gemeinsame Sprache zwischen Webbrowser und Webserver o Inhalt eines HTTP-Request: § Dokumentanforderung und Informationen über Client o Inhalt eines HTTP-Response: § angefordertes Dokument & Informationen über den Server Informationssysteme Informationssystem - für Zwecke eines bestimmten UN geschaffen, bzw. eingesetzt o enthält notwendige AWS & Daten - in Orga-, Personal- und Technikstrukturen des UN eingebettet Ziele beim Einsatz von IS: 1. Unterstützung der betrieblichen Planung 2. Beschleunigung von Geschäftsprozessen 3. Verbesserung von Qualität und Service 4. Rationalisierung = Kosteneinsparung 5. Ermöglichung neue Orga Formen (flache Hierarchien, virtuelle UN) 6. strategische Wettbewerbsvorteile Anwendungssysteme - beinhaltet alle Software, die für bestimmtes betriebliches Aufgabengebiet entwickelt wurde o inkl. Technik (IT-Infrastruktur), auf der AWS läuft und Daten, die vom AWS genutzt werden - Wechselseitige Abhängigkeit zwischen Unternehmen & Anwendungssysteme Arten von AWS 1. Gliederung nach Unterstützungsebene 2. Gliederung nach Funktionsbereich 3. Gliederung nach Erstellungsart 4. Gliederung nach Integrationsart 5. Gliederung nach Branche 1. Gliederung nach Unterstützungsebene 1. operative Systeme: o AWS die tägliche Routinetransaktionen ausführen und aufzeichnen (z.B. Kassen, Geldautomaten) – 2. Managementinformationssysteme (MIS): o Bereitstellung von Standardübersichtsberichten, sowie Berichten über Abweichungen § à dienen Planung, Kontrolle & Entscheidungsfindung 3. Entscheidungsunterstützungssysteme (EUS): o stellen analytische Modelle & Datenanalysewerkzeuge bereit, um schwach strukturierte Entscheidungsfindungsprozesse zu unterstützen 4. Führungsunterstützungssysteme (FUS): o diverse Daten aus internen & externen Quellen integriert für strategische Ebene des UN o stellen Führungskräften in einfach verwendbarer, oft graphischer Form zur Verfügung 2. Gliederung nach Funktionsbereich 1. Vertriebsunterstützungssysteme: o helfen dabei Produkte und Dienstl. zu bewerben, zu verkaufen und kontinuierlichen Service für Kunden bereitzustellen à Angebotserstellung, Auftragsbearbeitung… 2. Fertigungs- und Produktionssysteme: o helfen bei Planung, Entwicklung & Produktion von Produkten & DL, sowie Überwachung Produktionsablauf 3. Finanz- und Buchhaltungssysteme: 4. Verwaltung der finanziellen Vermögenswerte und der Ein- und Ausgaben des UN 5. AWS für Personalwesen: o Personaldaten führen und Info über Fähigkeiten, Arbeitsleistung und Weiterbildung der AN verzeichnen, sowie Planung Arbeitsentgelt und berufliche Laufbahn der Mitarbeiter 3. Gliederung nach Erstellungsart 1. betriebliche Standardsoftware: o Software für allgemeine, UNneutrale Funktionen & Problemstellungen professionell entwickelt & getestet + langfristige Wartung & Pflege o Herausforderung: Auswahl der richtigen Software o Entwicklungskosten verteilen sich auf mehrere UN +kostengünstiger o keine Anpassung der Software an Bedürfnisse des UN 2. Individualsoftware o Software für einzelnes UN um spezielle Anforderungen zu realisieren (+) exakte Abdeckung der Anforderungen (-) sehr teuer (-) hohes Entwicklungsrisiko (-) lange Ausreifungszeit Trend zur Standardsoftware Gründe: 1. geringeres Entwicklungsrisiko 2. oft höhere Qualität/Fehlerfreiheit 3. kostengünstiger 4. langfristige Wartung und Pflege durch Softwareanbieter (Outsourcing) Trotz des Trends zur Standardsoftware gibt es nur wenige Unternehmen, die nur Standardsoftware einsetzen. − Strategische Vorteile durch Abgrenzung von der Konkurrenz − Software-Altlasten 2. Informationssystemen im Wandel Wandel durch Forschung 1. Gestaltungsorientierter Forschungsansatz Ziel: - Proaktive Lösung von Problemen der Umwelt durch Innovation und Kreation Forschungsgegenstand: - Artefaktbeurteilung und -abwicklung (Konstrukte, Modelle, Methoden) Symbiose Qualitätskriterien: - Relevanz (verspricht es Nutzen?) - Rigorosität (vorhandener Wissensbasis bedient? Methodisch korrekt erstellt?) 2. Verhaltensorientierte Forschungsansatz Aufgabe: - Bildung und Überprüfung von Theorien zur Ermittlung und Validierung kausaler, - erklärender und/oder vorhersagender Beziehungen zwischen abhängigen und unabhängigen Variablen o Wahrheitsaussagen (Theorien inkl. Hypothese herleiten) Forschungsaktivitäten: - Theoriebildung, Theorieergänzung, Theorieüberprüfung Erkenntnisziele: - Wahrheitsfindung anhand empirischer Angemessenheit von Theorien => ergänzen sich gegenseitig (1. gibt Nutzen und 2. gibt Wahrheit) Wissenspyramide Information - immaterielles Gut, dass beliebig oft kopiert werden kann, aber nicht physisch verbraucht - Probleme mit divergierender Verfügungsgewalt & Verfügungsrechten - spezielle Kostenstruktur: bei Erstellung hohe Fixkosten, der ersten Einheit, marginale Grenzkosten Wandel durch globale Trends => Computergestützte Information und Kommunikation (IuK)-Systeme à Zentrale Entwicklungssprünge der IT: 1. Zuse entwickelt erste „programmgesteuerte“ Rechenmaschine Z3 1941 2. Nutzung zentralisierter IT in Unternehmen o Großrechner in betrieblicher Anwendung (Mainframes ab 1964) 3. Prozessorientierte dezentralisierte Nutzung der IT in UN o PC ́s und LAN (Client-Server); Workflow / Geschäftsprozessorientierung / Integration; EDI mit einzelnen Unternehmen (WAN) 4. Internet und „weltweite“ Vernetzung aller UN und Kunden o Explosion der erreichbaren Kommunikationspartner und verfügbaren Informationen 5. Anwendungsintegration und Konvergenz o Zusammenwachsen von TV, Telefon, Internet; Integration diverser stationärer und mobiler Anw. Implikationen der Globalen Trends 1. Rasanter Fortschritt 2. Globalisierung 3. Wissensintennsive Produkte & DL 4. Wandel der Unternehmensstruktur & -kultur 1. Rasanter Fortschritt Implikation des technischen Fortschritts: 1. Verarbeitung immer größerer Informationen möglich o Data Mining auf Kundendaten o Entscheidungsunterstützung mittels mathematischer Optimierung, Simulation etc. 2. Verbesserung der Kommunikation mit den Kunden o E-Commerce, Online-Support, Social Media 3. Verbesserung der Kommunikation mit Mitarbeitern und Lieferanten o Globale Supply Chains o neuartige Organisationsformen und Unternehmenskooperationen 4. neue Herausforderungen o hohes Tempo erfordert schnelle Anpassung an technologische Entwicklung o schnellere Kommunikation kann auch Ruf schaden o Verdrängung durch neue Produkte neuer Wettbewerber S – Smart & Social M – Mobile A – Analytics C – Cloud 2. Globalisierung Triebkräfte: - Liberalisierung des Welthandels, sinkende Transportkosten, verbesserte Kommunikation Folgen für UN: - globale Wertschöpfungsketten und Unternehmensnetzwerke - Möglichkeit zum Vertrieb von Produkten und Dienstleistungen auf neuen Märkten - neue Wettbewerber und höherer Wettbewerbsdruck: o schnelles Reagieren auf Änderungen im betrieblichen Umfeld Folgen für Informationssysteme: - Zwang zur Rationalisierung führt zur höheren IT-Durchdringung aller Kernprozesse - steigernde Anforderungen an die Flexibilität und Interaktionsfähigkeit von Informationssystemen 3. Wissensintensive Produkte und Dienstleistungen - zunehmende Bedeutung - Wissen wird zur zentralen produktiven und strategischen Ressource im Wettbewerb mit Niedriglohnländern - Halbwertzeiten des Wissens sinken - Implikationen für Informationssysteme: o verstärkter Fokus auf Wissensmanagementsysteme o verstärkter Fokus auf Systeme zur Personalentwicklung und Schulung (on-/offline) o Trend zu unternehmensweiten Systemen mit integrierter Datenbasis 4. Wandel der Unternehmensstruktur und -Kultur Trend zu: - flacheren Organisationsstrukturen - Dezentralisierung: Unternehmensstruktur (Hierarchie) verändern sich - Übertragung von Verantwortung an Ausführende - Standortunabhängigkeit - Unternehmensübergreifende Kooperationen Implikationen für Informationssysteme: - Fokus auf Erleichterung des Informationszugangs für Mitarbeiter o Unternehmensportale o Informationsaustausch entlang der Supply Chain - Unterstützung standortunabhängiger Gruppenarbeit o externer Zugriff auf das Unternehmensnetzwerk Zentrale Eingliederung von AWS (Vor- & Nachteile) + Vermeidung von Redundanzen + bessere Standardisierungs- und Kontrollmöglichkeiten + Bündelung von Know-How mit tendenziell höherem Auslastungsgrad - umfassende Beschaffung & Verarbeitung aller relevanten Informationen!? - Ggf. Überforderung durch Komplexität / Variabilität der Aufgabenstellungen Dezentrale Eingliederung von AW (Vor- & Nachteile) + Flexibilitätsvorteile + Ausrichtung an den jeweiligen Abteilungsanforderungen (→ Akzeptanz/Zufriedenheit) +/- Einfachere Informationsbeschaffung aber schwierigere Informationsbereitstellung für zentrale UNführung - tendenziell höheres Maß an Heterogenität bis hin zu „Best of Breed“ Geschäftsprozess Folge logisch zusammenhängender Aktivitäten: - die für das Unternehmen einen Beitrag zur Wertschöpfung leisten, - die einen definierten Anfang und ein definiertes Ende haben, - wiederholt durchgeführt werden - und sich in der Regel am Kunden orientiert à Unternehmensweite AWS - Automatisieren Geschäftsprozesse o die mehrere Geschäftsfunktionen und Organisationsebenen o sowie externe Geschäftspartner und Kunden umfassen können Problem: Systemwildwuchs - UN setzen viele IS gleichzeitig ein o erschwerter Infoaustausch zwischen den AWS o inkonsistente Daten o komplizierte und teure Pflege und Wartung o Fragmentierung und Verlangsamung von Geschäftsprozessen Unternehmensweite Anwendungssysteme 1. ERP-Systeme 2. Supply-Chain-Management-Systeme 3. Customer-Relationship-Systeme 1. ERP-Systeme (Enterprise-Ressource-Planning-System) - unternehmensweites/ -internes AWS o integriert alle zentralen Geschäftsprozesse eines UN in einem Softwaresystem § ermöglicht so reibungslosen unternehmensweiten Informationsaustausch - konzentriert primär auf interne Prozesse - besteht aus mehreren Softwaremodulen und einer zentralen Datenbank Vorteile: - Vermeidung von Dateninkonsistenzen und Synchronisationsproblemen - weniger Wartungsaufwand (durch einheitliche technische Plattform) - hohe Funktionalität und Qualität Gründe für zunehmende Verbreitung von ERP-Systemen: 1. Konsistente, unternehmensweite Datenbasis 2. Hohe Funktionalität & Qualität 3. Einführung zwingt zur Analyse bestehender Geschäftsprozesse & Organisationsstrukturen 4. Weiterentwicklung des Systems durch Erfahrungen & Anforderungen einer Vielzahl von Unternehmen 5. 2. Supply-Chain-Management-Systeme Supply Chain (Lieferkette): - Netzwerk von UN und Geschäftsprozessen, das zur Materialbeschaffung, Umformung der Rohmateriealien in (Zwischen-)Produkte und Verteilung der fertigen Produkte an Kunden dient Push-Lieferketten: (Produzent à Handel à Verkauf) à Koordinieren von Aktivitäten über UN-Grenzen hinweg - Konsumprodukte: o vorhersehbarer Bedarf, lange Produktzyklen, häufig geringe Gewinnspannen § Effizienzsteigerung durch Koordinieren von Lagerhaltung - Ziel: Just-in-time Lieferkette mit minimaler Lagerhaltung Pull-Lieferketten: (Verkauf->Handel->Produzent) à reaktive Lieferkette mit größeren Lagerpufferbestand (Auftragszeiten min., Auftragserfüllung max.) - komplexe, teure Investitionsprodukte: o eher nicht vorhersehbarer Bedarf, kürzere Produktlebenszyklen, höhere Gewinnspanne Supply Chain Management: à Ansätze zur unternehmensübergreifenden Koordination der Material-, Informations- und Zahlungsflüsse über gesamte Lieferkette - Ziele: o Lieferanten, Hersteller und Vertrieb zu integrieren und zu steuern, dass Güter in der richtigen Menge & Zeitpunkt produziert und zu den richtigen Orten verteilt werden o Verkürzung der Lieferzeiten o Verringerung der eingesetzten Ressourcen, insb. Lagerbestände o Minimierung der Systemkosten unter Einhaltung hoher Servicegerade (z.B. Lieferzeiten) Supply Chain Management Systeme: à AWS, die Informationsaustausch zwischen UN und seinen Lieferanten & Kunden automatisieren - um Planung, Beschaffung, Fertigung und Vertrieb von Produkten und Dienstl. zu optimieren - Ziele: o Verbesserung des Informationsflusses zw. Unternehmen und gemeinsame Planung über gesamte Lieferkette hinweg - Unterscheidung in: (1) Lieferkettenplanungssysteme (Management-Ebene) Erstellung von Bedarfsvorhersagen für Produkte Entwicklung von Einkaufs- und Produktionspläne für gesamte Lieferkette des Produktes o Bedarfsplanung: basierend auf Prognosen o Auftragsplanung: Bestellmengen, -Zeitpunkte o Transportplanung: Tourenplanungssoftware ermögliche optimale Einsetzung der Fahrzeuge -Strategische Planung: Optimierung der Standorte von Produktionsstätten, Lagern etc. (2) Lieferkettensteuerungssysteme (Operative Ebene) Verwaltung des Produktlaufs durch Verteilungszentren und Lager o um sicherzustellen, dass Produkte effizient an richtige Standorte geliefert werden Funktionen: o Lagerauffüllung mittels automatisierter Bestellungen o Kommissionierung o Wareneingangskontrolle o Sendungsverfolgung o Koordination von Material und Informationsfluss Ziel: o Effizienzsteigerung innerhalb der operativen Prozesse Koordination von Material und Informationsfluss (gehört noch zu Supply Chain Management-Systeme) EAN (European Article Number) - 13 Ziffern identifizieren Produkttyp eindeutig - alle Produkte eines Typs haben gleiche EAN - Vergabe erfolgt zentral und kostenpflichtig - Darstellung als Strichcode und Ziffernfolge EPC (Electronic Product Code) - neuer Standard zur global eindeutigen Identifikation einzelner Produkte - 96-Bit-Implementierung ermöglich eindeutige Vergabe RFID (Radio Frequency IDentification) - bestehen aus Transpondern und sind über große Distanz lesbar o benötigen kein Kontakt zum Scanner à können durch Verpackung hindurch gelesen werden EDI (Electronic Data Interchange) - Austausch standardisierter Geschäftsdokumente zwischen Informationssystemen über elektronische Netzwerke Ziel: - Zeitersparnis und Verringerung der Fehlerraten ggü. Papier und Just-in-Time durch EDI Schnittstellenproblem: - UN nutzen verschiedene AWS Lösung: - Standardisierung von Dokumenten, Regeln und Prozessen, Informationsrepräsentation und Schnittstellen (EDIFACT-Netze, http, SMTP, SOAP) EDIFACT (Electronic Data Interchange For Administration, Commerce and Transport) - von Vereinten Nationen entwickelt (weltweiter Wirkungsbereich, hohe Legitimation) - legt Regeln für Aufbau der Nachrichten und Form und Codierung der Inhalte fest (+) erlaubt automatisierten Austausch strukturierter Geschäftsnachrichten (+) enthält wenige Zeichen und reduziert so übertragene Datengröße (+) definiert Bedeutung von Geschäftsnachrichten (-) kaum lesbar (nur maschinenlesbar) (-) folgt einer komplexen Syntax (-) erlaubt lediglich strukturierte Daten (-) Verweise auf Dateien sind kompliziert umzusetzen XML (Extensible Markup Language) - flexibles einfaches Datenformat -> hilf Daten zu beschreiben und legt nur Syntax fest -selbsterklärend und so menschenlesbar - nicht standardisiert: à Tags nicht vorab festgelegt, Datenformate vorab abgestimmt werden Customer-Relationship-Management-Systeme - AWS, die sämtliche Interaktion des UN mit Kunden aufzeichnet und analysiert - Ziel: Umsatz, Rentabilität, Kundenzufriedenheit und Kundenbindung verbessern Customer-Relationship-Management (CRM) - kundenorientierte Unternehmensphilosophie, die mit Hilfe moderner Informations- und Kommunikationstechnologien versucht, auf lange Sicht profitable Kundenbeziehungen durch individuelle Marketing- , Vertriebs- und Servicekonzepte aufzubauen und zu festigen - Ziele: o Kundenselektion o Kundenbindung o Kundengewinnung Analytisches CRM - CRM-Anwendungen, die Kundendaten analysieren, um Info für Verbesserung der Geschäftsleistung bereit zu stellen - einheitliche Sicht auf Kunden - Ziele: o Kundenpräferenzen erkennen à Produkte und Service verbessern, o Klassifikation der Kunden nach Profitabilität/Potenzial und entsprechende Ausrichtung der Marketing- Aktivitäten Operatives CRM - CRM-Anwendungen, die direkt mit dem Kunden zu tun haben, wie z.B. Werkzeuge für die Automatisierung von Aufgaben: o im Verkauf, Unterstützung im Call-Center & Kundendienst, sowie Automatisierung im Marketing Ziele: - Unterstützung der operativen Tätigkeiten im Marketing; Vertrieb und Service durch verbessertes Wissen über Kunden - systematische und individuelle Kundenabsprache - Verknüpfung und Synchronisation der verschiedenen Kommunikationskanäle - Reduzierung der Kosten für Kundenwerbung und Kundenbindung Cross-Selling: - Angebot ergänzender Produkte (Decke/Essen im Flugzeug) Up-Selling: - Angebot einer höherwertigen Variante des Basisprodukts (Erste Klasse im Flugzeug) 3. Entscheidungsunterstützungssysteme (EUS) EUS (Alternativ: Decision Support Systems oder operations Research/Management Science): - computergestützte Systeme, die Entscheidungsgrundlagen für UN schaffen bzw. diese verbessern o quantitativ (messbare Erfolgsgrößen werden ermittelt) - analytische Modelle oder Datenanalysemethoden für schwach-/unstrukturierte Entscheidungsfindungsprozesse Entscheidungsunterstützemde Systeme - Quantitativ/modellbasierte Ansätze 1. Optimierungssysteme (mathematische Optimierung) 2. Simulationssysteme 3. Business Intelligence 4. Multi Criteria Making 5. Strategische Entscheidungsunterstützung 1. Optimierungssysteme (mathematische Optimierung) - Teil der Realität wird als mathematisches Modell abgebildet, welches dann im Hinblick auf zu treffende Entscheidung untersucht wird o Optimalität (bestmögliches Ergebnis): Maximierung oder Minimierung Anwendungsgebiete: - Produktionsplanung, Produktmixüberlegungen, Verschnittminimierung, Transportkostenminimierung Methoden: o lineare Optimierung (mit ,), ganzzahlige Optimierung, netzwerkbasierte Optimierung 2. Simulationssysteme (wirklich Simulation à Flugsimulator) - einige Probleme lassen nicht mit Optimierung lösen: o komplexe Modelle, dynamische Systeme, unklarer Zusammenhang der Größen - Simulation: o Möglichkeit verschiedene Einflüsse, Lösungsideen und Konfigurationsvarianten auszuprobieren à Systemverhalten verstehen und lernen es zu beeinflussen (es geht nicht um die optimale mathematische Lösung) 3. Business Intelligence (BI) - informationstechnische Instrumente zur Auswertung von unternehmensweit verfügbaren Fakten - Unterschied zu i. und ii.: Methoden des BI sind nicht primär modellbasiert, sondern auf gesammelten Daten aufgebaut o Daten müssen möglichst vollständig und korrekt sein - Anwendungsgebiete: o Erwartungswerte für Bestellmengen; Kaufverhalten von Kunden 4. Multicriteria Decision Making (MCDM) - Entscheidungen sind oft mit großen finanziellen Investitionen, Einsparungen oder Risiken verbunden o Kriterien zur Entscheidung sind so vielzählig, dass ein Mensch keine Abschätzung vornehmen kann 5. Strategische Entscheidungsunterstützung - Abgrenzung: - Optimierungs- und Simulationssysteme. können aus dem Ist-Zustand Verbesserungen für die nahe Zukunft vornehmen - Business Intelligence nutzt Daten der Vergangenheit für Prognosen und für Entscheidungen der Gegenwart o Nicht für mittel- und langfristige Steuerung und Planung nutzbar § strategische Entscheidungsunterstützung Methoden: - Szenariomanagement: Suche nach wahrscheinlichsten Szenarien o Entwicklungen einer Strategie, die auf diese eingestellt - War Gaming: Erprobung der eigenen Strategie in einem Planspiel Optimierungssysteme Wann ist Optimierungsproblem gegeben? 1. Entscheidungssituation mit mind. 2 Entscheidungen 2. jede Teilentscheidung beeinflusst das Ergebnis 3. Auswirkungen der Teilentscheidungen sind nicht erkennbar 4. Greedy-Strategie funktioniert nicht (ein Produkt komplett produzieren, Restkapazität: Anderes Produkt) Elemente Optimierungsproblem: - Entscheidungsvariablen: o für Ziel relevante Größen, die beeinflussbar sind - Zielfunktion: o eine Größe soll maximiert oder minimiert werden - Restriktionen (NB): o Einflussgrößen können nicht beliebig gewählt werden - Anzahl Entscheidungsvariablen = Anzahl Dimensionen des Problems Sensitivitätsanalyse: - verschiedene Alternativen durchspielen mit veränderten Rahmenbedingungen Graphische Lösung: à Nur bei 2 Dimensionen möglich - Isogewinngerade: o alle Punkte auf Gerade, ergeben in Kombination gleiches Ergebnis § optimaler Wert bei Schnittpunkt Isogewinngerade mit Restriktionen Wenn nur ein Punkt der Gerade innerhalb Restriktionen Entscheidungsunterstützungssysteme - Modellierung Modell: - Abstraktion der Realität, die Entscheidungsproblem in wesentlichen Aspekten korrekt abbildet Eigenschaften: - Übertragbarkeit der Ergebnisse durch Isomorphie des Modells mit Realität Modellierung: - Bildung des abstrakten Modells in computerbasierter Darstellung in geeigneter Form à Formales mathematisches Optimierungsmodell: 1. Zielfunktion (min/max) (Welche Zielsetzung habe ich) 2. Entscheidungsvariablen (beeinflussbare Faktoren) (Was kann dafür beeinflusst werden) 3. Parameter (nicht beeinflussbar, Daten für Problem) (Was kann nicht hier beeinflusst werden) 4. (Restriktionen) (Welche Bedingungen werden berücksichtigt) Lösungsmöglichkeiten: 1. Keine Optimale Lösung: o Lösungsraum leer o Lösungsraum unbegrenzt => Zeichen für falsche Problemstellung 2. Mehrdeutige Lösung: o unendlich viele (gleichwertige) Lösungen 3. Degenerierte Lösung: o mehr Hyperebenen als nötig kreuzen sich in einer Eck Lösungstypen Keine optimale Lösung - Lösungsraum leer oder unbegrenzt - In Praxis Zeichen für falsche Problemstellung oder Modellierung Mehrdeutige Lösung - Unendlich viele gleichwertige Lösungen - Kommt in Praxis häufig vor Degenerierte Lösung - Mehr Hyperebenen als nötig kreuzen sich in einer Ecke - Sehr häufig in Praxis Maximierungsproblem Lineares Programmierungsproblem (LP) - Entscheidungsproblem, wo Zielfunktion und Restriktionen lineare Funktionen der n Variablen sind - alle möglichen Belegungen von Variablen bilden einen n-dimensionalen (Entscheidungs-)Raum - Restriktionen geben Halbräume in diesem Raum vor - die Grenzen der Halbräume sind Hyperebenen - Überschneidung dieser Halbräume enthält die Menge der zulässigen Lösungen => falls begrenzt: konvexes Polyeder Konvex linear (abgegrenzter Bereich): - Bereich heißt konvex, wenn für 2 beliebige Punkte x,y alle Punkte der gradlinigen Verbindung zwischen x und y auch in Bereich liegen Operations Research (OR) - Entwicklung und Einsatz quantitativer Modelle und Methoden zur betrieblichen Entscheidungsfindung Lineare Optimierung - Entscheidungsproblem, wobei Zielfunktion & Restriktionen lineare Funktionen der Variablen sind Angenommen wir haben n-Entscheidungsvariablen - Lösungsraum = konvexes Polyeder im n-dimensionalen Raum - Es kann eine, mehrere oder keine optimale Lösungen geben Arten von Optimierungsproblemen 1. Ganzzahlige Variablen à nur ganzzahlige Werte dürfen angenommen werden 2. Binäre oder logische Variablen à dürfen nur Werte von 0 bis 1 annehmen 3. Lineare, Ganzzahlige, Kombinatorische, Gemischt-Ganzzahlige Optimierung Zusammenfassung: mathematische Optimierung - Produktionsprogramm: begrenzte Ressourcen kostenminimal/gewinnmaximierend einsetzen - Bei einem Produkt/Ressource à einfaches Ausrechnen oder Nutzenanalyse reichen aus - Mehrere Produkte & mehrere Engpässe à (nicht-triviales) Optimierungsproblem - Falls Ressourcenverbrauch & Gewinn/Kosten linear von der Produktionsmenge abhängen à lineares Programmierungsproblem - Falls alle oder einige Variablen nur ganzzahlige Werte annehmen dürfen à gemischt-ganzzahliges Optimierungsproblem (MIP = Mixed Integer Problem) 4. Systementwicklung - beinhaltet Gesamtheit der planenden, analysierenden, entwerfenden, ausführenden & prüfenden Tätigkeiten zur Schaffung eines neuen oder Änderung eines bestehenden IS Spezifikation: Festlegung was System leisten soll § Anwender und Auftraggeber Konstruktion: Festlegung, wie Anforderungen erfüllt werden § IT-Fachleute und Auftragnehmer Geschichte: bis 1960er Jahre: - Ingenieure und Mathematiker nutzen Computer als Werkzeug zur Lösung „eigener“ Probleme - Nicht Effizienz oder geringstmögliche Aufwand stehen im Vordergrund, sondern Machbarkeit Mitte 1960er: - Softwarekriese: Kosten für Software übersteigen erstmal Kosten für Hardware o große Software-Projekte scheitern Folge: - Softwarekriese: Kosten für Software übersteigen erstmal Kosten für Hardware o große Software-Projekte scheitern - zunehmende Rechenleistung & Kommerzialisierung der Softwareentwicklung - Softwareentwicklung wird vermehrt zur Dienstleistung o Return-on-Investment; Benutzererwartungen steigen; Anforderungsstau; Vieles, was vom Auftraggeber/Anwender gewollt wurde, nicht umsetzbar Herausforderungen: - Steuerung, Skalierung, Kommunikation Probleme: - komplex, teuer & mit vielen Risiken behaftet o Systementwicklungen kosten häufig mehr und dauern länger als geplant o Ca. 1/3 aller komplexen Systementwicklungen werden vor Fertigstellung abgebrochen o Viele Systeme funktionieren nicht wie geplant oder werden an Anforderungen vorbei entwickelt Risikofaktoren: 1. Nicht ausreichende Präzision der Anforderungen 2. Entwicklung der falschen Funktionalität 3. Probleme innerhalb des Projektteams 4. mangelnde Qualifikation 5. Missverständliche Formulierungen und Absprachen 6. Qualitätsmängel bei extern vergebenen Aufgaben 7. Fehlende Akzeptanz der Anwender 8. Häufige Änderungen der Anforderungen 9. Unrealistische Zeit- und Kostenpläne 10. organisatorische Defizite 11. Ausscheiden wichtiger Teammitglieder 12. Verwendung der falschen Technologien 13. Unpassende Benutzerschnittstelle Vorgehensmodelle Sequenzielle Modelle: - relativ statische Vorgehensweisen - für große Projekte geeignet o z.B. Wasserfallmodell oder V-Modell à Evolutionäre / inkrementale Modelle: - überlappende Phasenmodelle - stetige Verbesserung des Systems o z.B. Prototyping oder Spiralmodell Agile Vorgehensmodelle: - flexibel, chaotisch (positiv) - Fokus auf Programmieren, nur generelle Leitlinien & Prinzipien vorgegeben o geeignet für kleine Projekte mit möglichst wenig Verwaltung o z.B. XP oder SCRUM Wasserfallmodell - folgt aufeinander in festen Phasen, geht nur in eine Richtung (sequentiell Durchlaufen) o Risiko, da Anforderungen vor Ausarbeitung des System feststehen müssen; Änderungen hoher Zeitaufwand (+) klarer Ablauf (abgeschlossene Stufen) (+) leicht identifizierbare Meilensteine & Auslieferungen (-) unflexibel bei sich ändernden Anforderungen (-) inkonsistente Anforderungen erst bei 3Implementierung erkannt (-) Tests erst spät durchgeführt (-) Kunde sieht Produkt erst bei Auslieferung 6.1 Phasenmodell der Systementwicklung Ziele: - Strukturierung des Entwicklungsprozesses - phasenweise Ergebnisplanung und Ergebniskontrolle - Komplexitätsreduktion durch Teilphasen - Einsatz spezifischer Methoden und Werkzeuge in verschiedenen Phasen P1. Problemanalyse (Ist-Zustand): à Ziel: Festlegung des organisatorischen und technischen Ist-Zustandes Tätigkeiten: 1. Systemabgrenzung o welche Prozesse und Aufgabengebiete beachten? 2. Erfassung und Beschreibung des Ist-Zustandes o Prozesse, Aufgaben, Aufgabenträger, Arbeitsergebnisse o Datenbasis o Material- und Belegflüsse, Schnittstellen, Berichtssysteme, Schlüsselsysteme 3. Analyse und Bewertung des Ist-Zustandes o Vergleich des Ist-Zustandes mit einem Idealsystem o Wunschvorstellung aus Negativerfahrungen mit dem Ist-Zustand entwickeln 4. Abschlussdokumente - Systemabgrenzung, Beschreibung des Ist-Zustandes, Glossar für Projektterminologie - Lastenheft o enthält eine inkonsistente und qualitativ formulierte Sammlung von zum Teil konkurrierenden Anforderungen an das Projekt 1. Beschreibung des Ist-Zustands 2. Beschreibung der Ziele des Projekts 3. Beschreibung der Schnittstellen – Mit Benutzern und anderen Systemen 4. Funktionale Anforderungen – Was soll das System können? 5. Nichtfunktionale Anforderungen – Benutzbarkeit, Zuverlässigkeit, Effizienz,... 6. Erste grobe Skizze des Entwicklungszyklus 7. Lieferumfang und Abnahmekriterien P2. Systemspezifikationen à Darlegung, wie aufgezeichnete Schwachstellen beseitigt werden können - fachliche Spezifikation des zu entwickelnden IS Tätigkeiten: 1. Redesign der organisatorischen Abläufe 2. Stellenbildung / Arbeitsplatzbeschreibung 3. Festlegung der neuen Ablauforganisation 4. detaillierte Beschreibung der Systemanforderungen aus Benutzersicht 5. Abschätzung der Kosten & Projektlaufzeit Wirtschaftlichkeitsanalyse Abschlussdokument: Pflichtenheft - fachliche Spezifikationen des zu entwickelnden IS - Formulierung so allgemein wie möglich und so eingeschränkt wie nötig - Grundlage der Softwareentwicklung o Für Anwender: Dokumentation dessen, was Software leisten soll o Für Entwickler: Referenz zum Testen o Für Analysten: Dokumentation der Problemdomäne o Für Auftraggeber: Vertragsbestandteil Auftraggebersicht - Auftragnehmersicht - Inhalt: 1. Präzisierung der Projektziele 2. Gestaltung der Aufbauorganisation 3. Gestaltung der Ablauforganisation 4. Funktionsbeschreibung der geplanten Software 5. Definition der Anwendungsfälle (Use Cases) 6. Beschreibung der Benutzeroberfläche des Systems 7. Datenmodell, ggf. Datenstrukturen und Datenflüsse 8. Beschreibung der Systemarchitektur und Systemumgebung mit evtl. anzuschaffender Hard- & Software 9. Realisierungsaspekte (Kosten, Zeiten): § Entwicklungsaufwand (Projektkosten) Zeitplan, Personalbedarf Umstellungskosten, laufende Betriebskosten, evtl. Folgekosten ggf. Schulungsaufwand für Endbenutzer 10. Wirtschaftlichkeitsvergleich alt gegen neu Möglicher Aufbau Pflichtheft: 1. Zielbestimmung 2. Produkteinsatz 3. Produktfunktionen 4. Produktcharakteristiken Modellierungsansätze und modellgetriebene Entwicklung: Standardisierte Modellierungsansätze 1. für detaillierte Beschreibung der Anforderungen 2. zur Vermeidung von Missverständnissen & Unklarheiten Modellierungsansätze: 1. Objektorientierte-Modellierung - Unified Modeling Language (UML) - Unified Modeling Language (UML) - standardisierte Notation für Analyse, Entwurf und Dokumentation von IS - UML-Diagramme zur Visualisierung von Strukturen und Abläufen im Rahmen des Pflichtenhefts - 3 wichtigsten Diagrammtypen: 1. Use Case Diagramm: § was leistet System für Umwelt? 2. Verteilungsdiagramm § wie verteilt sich das System logisch & physikalisch 3. Aktivitätsdiagramme: § wie laufen Prozesse ab? 2. Geschäftsprozess-Modellierung - Architektur integrierter IS (ARIS) P3. Entwurf Ziele: 1. Strukturierung des Entscheidungsprozesses 2. phasenweise Ergebnisplanung und -Kontrolle 3. Komplexitätsreduktion durch Teilphasen 4. Einsatz spezifischer Methoden und Werkzeuge in verschiedenen Phasen Standardsoftware vs. Individualsoftware: - Entscheidung, ob System im Rahmen einer Individualentwicklung selber programmiert wird oder ob existierende Standardsoftware an spezifische Anforderungen des UN angepasst werden kann Customizing: Anpassung von Standardsoftware an bestimmten Anwendungsfall Vorteile von Standardsoftware ggü. Individualsoftware: - geringes Entwicklungsrisiko - häufig bessere Software-Qualität - meist geringere Kosten - time-to-markte kürzer, da Software direkt verfügbar Nachteile: - meist nicht exakt an spezifische Anforderungen des UN anpassbar - abhängig vom Anbieter Total Cost of Ownership (TCO): - Gesamtkosten, die durch Anschaffung/Entwicklung sowie Betrieb eines IS über gesamte Nutzungsdauer ergeben Kostenfaktoren: - Anschaffungskosten bzw. Entwicklungskosten - Kosten für Wartung und Pflege - Kosten für Schulung und Support à Wichtiger Faktor bei Entscheidung zwischen Standardsoftware & Individualisierung als auch zwischen verschieden Standardsoftwaresystemen P3b. Systementwurf (Individualentwicklung) - die Softwarearchitektur des zukünftigen Systems auf Basis des Pflichtenhefts spezifizieren Grobentwurf: - Gesamtsystem wird in Form von Systemkomponenten spezifiziert - Spezifikation des Funktion- und Leistungsumfang der Komponenten - Spezifikationen: der Schnittstelle zwischen Komponenten der Abläufe & des Zusammenspiels von Komponenten Detailentwurf: - Verfeinerung des Grobentwurfs mit exakter Definition der Softwarebausteine (Klassen, Eigenschaften, Methoden) - Algorithmen, Datenstrukturen, Datensichten werden präzise beschrieben und dienen als Programmvorgabe für Implementierungsphase - teilweise automatische Code-Generierung möglich Gesamt: - Untersuchung & Präzisierung der Anforderungen - Strukturen für die Lösung (= unser System) finden P4. Implementierung - Erstellung eines lauffähigen, qualitativ hochwertigen Softwaresystems mit zugehöriger Dokumentation - Spezifikation der Softwarebausteine muss in Programmiersprache implementiert werden Programmiersprachen Eignung: - integrierte Entwicklungsumgebungen (IDEs) unterstützen die Entwickler bei der Implementierung Algorithmen - endliche Folge von Anweisungen, deren schrittweise Ausführung eine gestellte Aufgabe löst o exakte und vollständige beschriebene Vorgehensweise zur Lösung einer Aufgabe o spricht an: 1. Aufgabe 2. Anweisungen 3. Schrittweise Ausführung 4. Endliche Folge Programm - Umsetzung (Implementierung) eines Algorithmus mit einer konkreten Programmiersprache P5. Systemvalidierung und Test à Ziel: hinreichende Zuverlässigkeit des Systems zu zeigen, sowie Fehler erkennen und korrigieren Test-Driven Design: - erst Test programmieren, dann die Funktion, dann Refactoring (Effizienz des Codes erhöhen) Unit-Test-Frameworks: - erleichtert systematische Erstellen von Testfällen, die Ausführung der Tests, sowie Analyse der Testergebnisse - Testfall besteht aus: o Programmcode, der die zu testenden Methoden mit Testdaten aufruft o der Festlegung der erwarteten Ergebnisse P6. Systemeinführung - Anwendersystem wird in Verantwortung der Fachabteilung & des technischen Systembetreibers (Rechenzentrum) übergeben Phasen: 1. Übergabe der Software inkl. Dokumentation 2. Systeminstallation 3. Erstellung eines Einführungsplanes 4. personelle und organisatorische Vorbereitung des Systembetriebs 5. Datenmigration aus Alt-System 6. Inbetriebnahme des Systems 7. Schulung der Benutzer des Systems à bereits in früheren Phasen muss mit Erstellung der Dokumentation, sowie Arbeitsrichtlinien & Schulungs- maßnahmen begonnen werden Dokumentation: - komplette, zielgruppenspezifische Dokumentation ist entscheidend für Akzeptanz des Systems durch Benutzer und für zukünftige Wartbarkeit und Erweiterbarkeit P7. Systembetrieb Wartung: - Fortlaufende Fehlerbeseitigung Pflege: - Modifikation des Systems z.B. wegen: o Änderungen der operativen Prozesse o neuer Anforderungen o Gesetzesänderungen o neuer Systemplattform Benutzer- und Rechteverwaltung! Risiko- und Sicherheitsmanagement: - Einspielen sicherheitskritischer Software-Updates - Regelmäßige Datensicherung Kapazitätsmanagement: - Aufstockung der Hardware bei gestiegenen Benutzerzahlen Ausfallmanagement: - Planung von Notfallmaßnahmen für den Fall eines Systemausfalls Alternative Vorgehensmodelle – großes Überthema: V-Modell - Variante des Wasserfallmodells - zu jeder Phase existiert ein zugehöriger Test, der Artefakte jeder Phase testet bevor sequenziell fortgefahren wird - Betonung auf Qualitätssicherung - bei Abnahmetest Validierung überprüft - bei Rest Verifikation (funktioniert es?) Überlappende Phasenmodell - strenge Phaseneinteilung aufgelöst - reale Softwareentwicklungsprojekte verlaufen nicht sequenziell, wie Phasenmodell impliziert. - Oft wird zu späterem Zeitpunkt erkannt, dass in früheren Phase wichtige Aspekte übersehen oder falsch eingeschätzt - Meilensteinplanungen, Pflichtenhefte und Prototypen durchlaufen so üblicherweise mehrere Änderungszyklen. Prototyping Prototyp = ausführbare Version eines IS, das zur genauen Erfassung der Anforderungen dient Mockups = Oberflächen-Prototypen, ohne dahinter liegende Funktionalität und Datenhaltung - Vorteile: o Prototypen bilden Kommunikationsbasis für Projektbeteiligten, als Alternative zum Lesen vieler Seiten formaler Beschreibungen o Benutzer können Anforderungen anhand eines Prototyps oft besser spezifizieren o Test der geplanten Benutzerschnittstelle (Look&Feel) durch Anwender o Schnelle Bestimmung, welche Funktionen notwendig und welche überflüssig sind à Prototyp ist kein Produktivsystem, da Aspekte wie Skalierbarkeit, Qualitätssicherung & Wartbarkeit nicht berücksichtig Prototyping-Prozess: à kann helfen, Anforderungen aufbauend auf der Pilotversion iterativ zu verfeinern (Wegwerfprototypen selten) - Vorteilhaft wenn: o Unsicherheiten hinsichtlich der Anforderungen o hohem Grad an Benutzerinteraktion - Nachteile/Risiken: o Übergang in betriebsfähiges System ist Skalierung problematisch o Ad-hoc-Änderung nicht sorgfältig geplant (Programmstruktur) o Folge: schwer wartbares System à Motivation für Extreme Programming (XP) - Anpassung an natürliche Gegebenheiten im Software- Entwicklungsprozess - Anforderungen können oft erst durch Einsatz von Prototypen geklärt werden Extreme Programming (XP) - Vorgehen, insb. Für kleine Teams sinnvoll, wenn Anforderungen vage sind oder schnell ändern können o Hauptziel: Änderungskosten geringhalten Merkmale: - frühe Verfügbarkeit der Grundfunktionalitäten oft entscheidend o Funktionen mit zeitintensivem Entwicklungsaufwand & niedrigem Nutzen können iterativ hinzugefügt werden (80:20 Regel) - starker Fokus auf Implementierung anstelle einer vorherigen Planung - kleine Entwicklungsteams & häufige Iterationen o Aufgaben klein und überschaubar - Reaktion auf komplexer werdenden Managementprozess mit Entwicklungsprojekten - einfachste Entwurf, der alle Testfälle besteht, wird implementiert - Kundeneinbindung durch User Stories Prinzipien der Agilen (nicht sequentiellen) Methoden: Ziel: à auf Veränderungen im Prozess vorbereitet sein Grundlage: Agile Manifest - jedes Individuum ist darauf vorbereitet über den Prozess hinweg viele Interaktionen innerhalb des Teams und über die Organisation hinaus zu betreiben Prinzipien: - Individuen und Interaktionen über Prozesse und Tools - funktionierende Software über umfassende Dokumentation - Kundenzusammenarbeit über Vertragsverhandlungen - auf Veränderungen reagieren, anstatt Plan zu verfolgen Agile Methode: SCRUM - agile Entwicklung mit Fokus auf Programmiertätigkeiten - wenige Regeln, die laufend je nach Projektbedingung adaptiert werden - keine sequentiell fest geregelten Abläufe und Phasen Kernidee: - Sprint (festgelegte Dauer zur ungestörten Entwicklung) Rahmenbedingungen: - 3 Rollen: Scrum-Team 1. Entwicklungsteam 2. Product Owner (Verständnis vom Produkt) 3. Scrum Master (achtet, dass Prozess nach den Regeln durchlaufen wird) - Ablauf von Scrum 1. Sprint Planning Meeting (jedes Team sucht sich eine Aufgabe aus, die zu erledigen ist) 2. Daily Scrum (tägliche Besprechung / Bestandsaufnahme) 3. Sprint Review (was ist fertig, was muss erledigt werden? -> Board) - Artefakte 1. Product Backlog (welche Aufgaben gibt es noch? à langfristige Anforderungen) 2. Sprint Backlog (Anforderung für Sprints) 3. Burn Down Chart (täglicher Arbeitsfortschritt aus Sprints) Methoden / Arbeitsweisen: 1. Pair Programming (4-Augen-Prinzip) o 2 Mitarbeiter schreiben den Code (Navigator und Driver) - kein Wissensmonopol: o Know-how einzelner Funktionalitäten liegt nicht bei einzelnen Entwicklern o Ausscheiden eines Mitarbeiters kann besser aufgefangen werden o Wissen verbreitet sich im Team o Abgreifen“ von externem Expertenwissen Effizienz: - bessere Qualität (gemessen an Anzahl bestandener Testfälle) - weniger Zeitaufwand und Lines-of-Code - größere Zufriedenheit der Mitarbeiter - Konzentration auf das Wesentliche (z.B. kein Surfen während der Arbeitszeit) Problem: - Teamfindung - Wer hat Urheberrecht? - Teamzusammensetzung 2. Test Driven Development - Szenarien werden als Testfälle vor Implementierung festgelegt - Integration: o nicht die neue Funktionalität testen, sondern das Gesamtsystem - Grundregel: o je nach Komplexität gibt es pro Funktionalität 1-10 Tests - Module und Funktionen werden nur hinzugefügt, wenn alle Testfälle bestanden werden Kundeneinbindung und Releases - zu Beginn des Projekts: Festlegung der Anforderungen mit dem Kunden in Form von User Stories (Anforderungen der User) - Priorisierung: o ermöglicht dem Entwicklerteam die Unterscheidung zwischen Grundfunktion und zusätzlichen (optionalen) Features - alle Funktionen werden durch Stories beschrieben à Storyboarding - Projektfortschritt: o Anzahl erfolgreich umgesetzter User-Stories - Kunde kann anhand kleiner Release Zyklen schnell eingreifen, wenn entwickelte Funktionalität nicht seinen Wünschen entsprechen Vor- und Nachteile von XP (+) Flexibilität bei sich ändernden Anforderungen wird gewahrt (+) dynamische Vorgehensweise mit wenig Overhead für das Prozess-Management (+) Offene Kommunikation über Fehler und Ängste (enge Orientierung an Kundenwünschen) (-) Komplettpaket, wobei für einzelne Methoden die Voraussetzungen nicht passen können (-) Agiles Vorgehen wird noch zu oft als Allheilmittel angesehen, sobald eine Entwicklung problematisch wird à Folge: kann weitreichende Umstrukturierung mitunter von Denk- und Kommunikationsprozesse nach sich ziehen 5. Datenbanken Grundlagen: - Datenbanken bieten Grundlage für Business Itelligence o BI nutzt diese für Techniken zur Konsolidierung, Analyse und Bereitstellung von Daten zur Entscheidungsunterstützung Zweck: 1. Speicherung großer Datenbestände in miteinander verknüpften Tabellen (Relation) 2. Auswertung dieser Datenbestände o Mittels SQL-Abfrage (Structured Query Language) ERP-Systeme - bestehen aus mehreren Softwaremodulen & einer zentralen Datenbank Vorteile der zentralen Datenhaltung: (+) unterschiedliche Geschäftsprozesse & Funktionsbereiche können Daten unternehmensweit gemeinsam nutzen (+) Vermeidung von Dateninkonsistenten & Synchronisationsproblem Aufbau Datenbanksystem: Datenbanken + Datenbankverwaltungssystem = Datenbank Aufgaben Datenbank - Verwaltungssystem 1. Abfrageinterpreter: o Übersetzt SQL-Anweisungen in Programmaufrufe entsprechender "low level"-Routinen des DBMS 2. Abfrageoptimierer: o sucht für gegebene SQL-Abfrage an Hand von Statistik- und Indexdaten einen "guten" Zugriffspfad auf die gewünschten Daten 3. Integritätskontrolle: o stellt sicher, dass Daten nur entsprechend vorher definierter Integritätsbedingungen geändert werden können 4. Autorisierungskontrolle: o überprüft, ob der Nutzer auf die Daten zugreifen darf 5. Kontrolle von Mehrfachzugriffen: o synchronisiert Mehrfachzugriffe und sperrt temporär Datenzugriffe, die zu Konflikten führen würden 6. Datensicherung: o Maßnahmen, um Folgen von Systemabstürzen oder anderen Fehlersituationen klein zu halten 7. Dateimanagement: o Speicherallokation, Zugriffe auf die Festplatte Grundsätzliche Prinzipien & Werkzeuge Relationenmodell von Datenbanken als Referenz Relationstyp - Abstrakte Beschreibung einer Tabelle (= Relation) - Definiert werden deren: (1) Attribute (2) Datentyp (3) Primärschlüssel (4) Tabellenname - Relation = Konkrete Ausprägung eines Relationstyps Kandidatenschlüssel = jedes Attribut oder jede minimale Attributgruppe, die ein Objekt eindeutig und zeitinvariant identifiziert Primärschlüssel = der ausgewählte Kandidatenschlüssel à durch Unterstreichung gekennzeichnet Fremdschlüssel à dient zur Verknüpfung mehrerer Relationen = ein Attribut/Attributgruppe in Relation B, die gleichzeitig Primärschlüssel in Relation A ist Structured Query Language (SQL) als Werkzeug - SQL = standardisierte Sprache zum Arbeiten mit Datenbanken - SQL umfasst: o Data Definition Language (DLL) à Erstellen & Verändern von Tabellen & Schlüsseln o Data Manipulation Language (DML) à Daten einfügen, ändern & löschen o Query Language (QL) à Abfrage von Daten o Data Control Language à Vergabe von Zugriffsrechten Korrelationvariablen = über diese lassen sich Kurzbezeichnungen für Tabellen definieren Datenbankmodellierung Teil 2: Modellierungsprozess von Datenbanken 1. Entity-Relationship-Modellierung - Vorgehen zur systematischen Modellierung/Darstellung von Daten in einer relationalen Datenbank - Vermittelt wie eine relationale Datenbank für Unternehmen zu entwerfen ist Normalisierung = Vorgehen zur Reduktion von Redundanzen & Fehlerquellen in den Datenbanken des Unternehmen Elemente Entity - Objekttypen, die im Anwendungsfall eine Rolle spielen Attribut - Definieren Eigenschaften von Entities - Haben bestimmte Wertebereiche (Domains) Relationship - Beziehung zwischen Entities Entitiy-Diagramme - Dienen zur Modellierung & Visualisierung von Datenstrukturen in Form eines konzeptionellen Entwurfs Kardinalitäten zur Präzision der Beziehungen Kardinalitäten - Legen fest, mit wie vielen anderen Objekten ein einzelnes Objekt minimal & maximal in Beziehung stehen kann Schlageter-Stucky-Notation - Eine Abteilung hat einen oder mehrere Mitarbeiter - Ein Mitarbeiter arbeitet in genau einer Abteilung ER-Modellierung: Empfohlenes Vorgehen 1. Problemrahmen abstecken 2. Festlegen der Objekttypen 3. Festlegen der Beziehungstypen 4. Festlegen der Kardinalitäten 5. Festlegen der Attribute & Schlüssel Ggf. plausible Annahmen treffen & dokumentieren 2. Überführung ins Reltionenmodell 3. Normalisierung Ziel = Verbesserung eines entworfenen Relationenmodells für operative bzw. Transaktionsdatenbanken Normalisierung = Zerlegung von Relationstypen in Relationstypen höherer Normalform Effekt = Strukturdefizite = vermeidbar, durch Zerlegung Relationstypen in Relationtsypen höherer Form Nach dem tutorium lernen die nächsten folien angucken, ob ich es kann 7. Electronic Business Zentrale Entwicklungssprünge der betrieblichen Informationstechnik: I. Zuse entwickelt erste elektromechanische Rechenmaschine Z3 1941 II. Nutzung zentralisierter IT in Unternehmen. o Großrechner in betrieblicher Anwendung (Mainframes ab 1964) III. Prozessorientierte dezentralisierte Nutzung IT in UN o PC‘s und LAN (Client-Server) o Workflow / Geschäftsprozessorientierung / Integration o EDI mit einzelnen Unternehmen (WAN) IV. Internet und „weltweite“ Vernetzung aller Unternehmen und Kunden o Explosion der erreichbaren Kommunikationspartner & verfügbaren Informationen o Neue Geschäftssysteme zur Leistungserstellung & Koordination V. Technische Konvergenz und Anwendungsintegration o Zusammenwachsen von TV, Telefon, Fahrzeugen, Häusern zum Internet der Dinge o Integration diverser stationärer und mobiler 1960 1970 1980 1990 2000 Anwendungen VI. Technische Konsolidierung Moores Law: - Leistungsfähigkeit von PCs verdoppelt sich alle 18 Monate Net / New Economy - ökonomische Handeln in einer VW mit veränderten Rahmenbedingungen und neuen ökonomischen Regeln o VWL-Perspektive E-Business/Digital Business - Unterstützung der Leistungserstellung und der horizontalen und vertikalen Koordination auf Märkten durch Informationstechnik o inner- und zwischenbetriebliche Strukturen und Prozesse anpassen und auf Netzwerke ausrichten o Unternehmensperspektive E-Commerce - beziehts sich auf Realisierung der Koordination zwischen Käufer und Verkäufer 1. Nutzung des Internets, der digitalen Kommunikation und der IT-Anwendungen, um Prozess des Kaufens und Verkaufens zu ermöglichen 2. Alle oder zu mindestens wichtige Phasen einer Transaktion erfolgen via elektronischer Medien à Unternehmensperspektive Potentiale durch E-Business Erlösquellen: 1. Transaktion online: o direkte Erlöse aus online Transaktionen, z.B. Verkauf von Produkten über E-Shop, Verkauf von Informationen, Abonnements 2. Transaktion offline: o Erlöse der klassischen Vertriebswege, die online angebahnt werden, z.B. durch Produktinformationen, Meinungsportale 3. Werbung: o Suchmaschinenwerbung, Bannerwerbung, Sponsoring 4. Provision: o Affiliates, Partnerprogramme 5. Datenhandel: o Zusatzerlöse durch Verkauf von Nutzerdaten (für Marktforschung oder One-to-One-Marketing) Einsparungspotenziale: 1. Senkung von Suchkosten: o Informationsbeschaffung im WWW oder Intranet 2. Senkung von Transaktionskosten: o Effizientere Realisierung und Absicherung von Geschäftsprozessen (z.B. Online-Banking) 3. Senkung der Kommunikationskosten o Produktinformationen, Customer-Support (Self-Service, FAQ, Manuals) 4. Zeitersparnis o Beschleunigung vor- und nachbereitender Geschäftsprozesse Entwicklungsstufen E-Business: Austauschbeziehungen E-Business Mobile Business/Commerce: - Anbahnung sowie teilwiese und vollständige Unterstützung, Abwicklung und Aufrechterhaltung von Leistungsaustauschprozessen zwischen Wirtschaftspartnern mittels elektronischer Netze und mobiler Geräte o ermöglicht zeit- und standortunabhängige Transaktionen o meisten Services sind Pull-Anwendungen, bei denen Nutzer aktiv über Empfang entscheidet Geschäftsmodell: =Typen ökonomischer Aktivitäten - bezeichnet die Abbildung des betrieblichen Produktions- und Leistungssystems einer Unternehmung oder einer Kooperations-/Anbietergemeinschaft - vereinfachte Darstellung der Inputgüter, die in die Unternehmung fließen und wie diese durch innerbetriebliche und kooperative Aktivitätsfolgen in vermarktungsfähige Leistungsbündel für relevante Märkte transformiert werden - Ansatzpunkte zur Generierung von Erlösen und Kosten durch Geschäftstätigkeit werden aufgezeigt o Analyse des Erfolgs oder Misserfolgs ökonomischer Aktivitäten möglich Geschäftssystem: - konkrete Realisierung eines allgemeinen Geschäftsmodells (z.B. Ebay bei Modell elektronischer Marktplatz) Geschäftsmodelltypen nach Rappa: Spannungen in Digitaler Transformation (einfach nur Folien durchlesen) 9. Business Intelligence - Techniken zur Konsolidierung, Analyse und Bereitstellung von Daten zur Entscheidungsunterstützung Data Warehouse - Datenbank mit Berichts- und Abfragefunktionen, die operative & historische Daten speichert - werden aus verschiedenen betrieblichen Systemen extrahiert & für Managementberichte & Analyse aufbereitet Eigenschaften: - multidimensional aufgebaut, für Langzeitspeicherung von historischen, gereinigten, validierten, synthetischen, operativen Daten aus internen und externen Quellen Arbeiten mit Data Warehouse: 1. Auswahl geeigneter Attribute aus operativen Datenbanken 2. Hinzufügen ausgewählter Daten aus externen Quellen 3. Transformation und Laden der Daten 4. Speicherung der geladenen Daten in Form von Dimensionen 5. Administration von Datenbanken (wie bei operativen Datenbanken) 6. Suche & Analyse mittels Berichten oder mit OLAP-Technologie Operative Datenbanken: - unterstützen primär tägliches operatives Geschäft o zeichnen operative Geschäftsvorfälle auf o verfolgen redundanzfreie Speicherung von Transaktionen - relativ unübersichtlich o viele Details aus unterschiedlichen Anwendungen o viele Updates, laufend Überschreibungen - nicht besonders benutzerfreundlich o komplexe Anfragesprachen Repräsentation Analytischer Daten: - mit multidimensionalen Datenmodellen o nutzerfreundliche und betriebsnahe Modellierung - in Würfeln modelliert o Dimension: symbolisches und diskretes Kriterium, das Auswahl, Zusammenfassung und Navigation eines Indikators ermöglicht o Fakt: aggregierbares, meist numerisches und kontinuierliches Attribut, das betriebliches Erfolgskriterium mehrdimensional misst Endbenutzerzugriff auf Data Warehouse à Entscheidungsträger benötigen einen flexiblen & einfachen Zugriff auf analytische Daten, um komplexe Analysen durchführen zu können 1. Fest implementierte Berichte 2. Abfragesprachen 3. OLAP OLAP (Online Analytical Processing) - Abfragemethode, die Endbenutzern einen mehrdimensionalen, schnellen Zugriff und benutzerfreundliche interaktive Analyse von Daten aus Data Warehouses ermöglicht - Standardfunktionen (Drilling, Pivoting, Slicing): Nachteile konventionelle Tools (SQL, Berichte, OLAP): - Oft Beschränkung auf einfache Fragestellungen - Automatisierung schwierig bzw. nicht möglich - Limitierung auf kleine Datenmengen (z.B. Tabellenkalkulation) - OLAP: fokussiert auf Einzelanfragen mit begrenzter Komplexität Data-Mining - Analyse von (oft großen) Beobachtungsdatensätzen, um uner- wartete Zusammenhänge zu finden und die Daten auf neuartige Weise zusammenzufassen, die für den Dateninhaber sowohl verständlich als auch nützlich sind Data Mining vs. OLAP – Fragestellungen Zukunftsorientiert Rückbezogen Aufgaben im Data-Mining: 1. Deskriptive Modellierung: - Suche nach bzw. Vergleich von Ähnlichkeiten (wenn zwei Dinge ähnlich, oft andere Eigenschaften gemeinsam) o Beschreibung des gesamten Datensatzes - Modellierungstechniken: o Partitionierung des Datensatzes in Gruppen, Modellierung der Abhängigkeit von einzelnen Attributen, Ermittlung einer Wahrscheinlichkeitsverteilung (z.B. segmentiere Kunden in homogene Gruppen) Clusteringverfahren: à Gruppe von Daten bilden 2. Vorhersagende Modellierung: - Modell bestimmen, welches den Wert einer Variable aus bekannten Werten anderer Variablen vorhersagt - Modellierungstechniken 1. Klassifikation: Vorhersage einer kategorischen Variable 2. Regression: Vorhersage einer numerischen Variable Klassifikation: - versucht für jedes Individuum in einer Population vorherzusagen, zu welcher (kleinen) Gruppe von bekannten Klassen dieses Individuum gehört o Antwortmöglichkeit begrenzt (oft Ja/Nein) Regression: - versucht für jedes Individuum den (kontinuierlichen) numerischen Wert für dieses Individuum zu schätzen oder vorherzusagen o Antwortmöglichkeiten unbegrenzt (oft beliebige Zahl) Zusammenfassung: 10. Explainable Artificial Intelligence Artificial Intelligence (AI): - die Fähigkeit eines Systems, externe Daten richtig zu interpretieren, daraus zu lernen und diese Erkenntnisse durch flexible Anpassung zur Erreichung bestimmter Ziele und Aufgaben zu nutzen Neues Programmier-Paradigma: - Menschen geben Regeln und Daten ein (in Programm), die gemäß den Regeln verarbeitet werden sollen, und erhalten Antworten Machine Learning: - maschinelles Lernen wird trainiert und nicht explizit programmiert o wird mit Beispielen präsentiert, die für eine Aufgabe relevant sind, und findet eine statistische Struktur, die es dem System schließlich ermöglicht, Regeln für die Automatisierung zu erstellen - Probleme/Merkmale werden in numerische Werte (z.B. Matrizen) überführt und durch sie repräsentiert o AI lernt Merkmale selbstständig durch komplexe Berechnungen mit hochdimensionalen Daten, wodurch eine hohe Leistung erreicht werden kann (aber das Blackbox Problem entsteht) Symbolisches AI: - Probleme/Merkmale werden in für Menschen lesbare „symbolische Repräsentationen“ überführt o aufwändige Konstruktion von Anweisungen und Regeln für das System per Hand (aber interpretierbar) Überwachtes Lernen (Supervised): - Werden bei Daten mit Klassen/Label verwendet - Dabei können Klassifikationen oder Vorhersagen generiert werden - Werden bspw. bei der Qualitätsvorhersage oder Fehlerklassifikation eingesetzt à neurale Netzwerke, Entscheidungsbäume Unüberwachtes Lernen (Unsupervised): - Werden bei Daten ohne Klassen/Label verwendet - Hauptziel besteht darin, Daten zu erkunden und versteckte Strukturen zu finden - Werden z.B. für ProzessMonitoring oder Informationsextraktion verwendet à Clustering, Principal Component Analysis Blackbox Problem von neuronalen Netzen: ->eines der größten Probleme im Bereich AI besteht in der Erklärbarkeit, Transparenz und Nachvollziehbarkeit der Vorhersagen ->deep learning Modelle bringen sehr gute Leistungen, stellen aber eine Blackbox dar Blackbox: - Blackbox-Komponenten offenbaren nichts über ihr internes Design, ihre Struktur oder ihrer Implementierung -dem gegenüber stehen Whitebox-Komponenten o erscheinen dem Nutzer gegenüber vollständig transparent - kommerziell wurde das Blackbox-Konzept von Technologieunternehmen verwendet o um das geistige Eigentum (Code, Architektur, etc.) zu schützen - im Kontext von Artificial Intelligence (AI) gibt es ebenfalls ein Blackbox Problem o der Input und Output eines AI-Systems ist meist klar und verständlich o die Blackbox bezieht sich auf die internen Prozeduren, welche die Entscheidungsfindung von einem AI- System intransparent gestalten Warum Öffnung Blackbox relevant? - werden Blackbox-Systeme in kritischen Situationen verwendet, steigt Relevanz von Erklärbarkeit und Transparenz - Unterschiedliche Stakeholder können ein Interesse an Erklärbarkeit haben: o Nutzer, Entwickler, Manager, betroffene Personen wie Patienten, etc. - Gefahr besteht darin, Entscheidungen zu übernehmen oder treffen, welche nicht gerechtfertigt werden können oder nicht legitim sind Gefahren der Blackbox: - Blackbox Problem kann dazu führen, dass Fehler in AI-Systemen zu spät oder gar nicht erkennen können Bias als potenzielle Gefahr: - Bias in Daten: o kann moralisch-neutral sein (z.B. gegen Insekten) oder problematisch (z.B. gegen Geschlecht, etc.) oder wahrheitsgetreu (reflektiert bspw. reale Verteilung des Geschlechts) - Automation Bias: o Menschen können sich zu sehr auf automatisierte Entscheidungsfindung verlassen, wodurch Fehler nicht mehr erkannt werden o Zusammenfassung des Blackboxsystems 1. Konzept der Blackbox gibt es in unterschiedlichen Bereichen 2. Im Kontext AI bezieht sich Blackbox auf die Intransparenz von komplexen Ansätzen 3. Insbesondere wenn AI-Systeme in kritischen Anwendungsbereichen eingesetzt werden, müssen Ergebnisse & Empfehlungen nachvollziehbar & erklärbar sein 4. Durch die erhöhte Transparenz & Nachvollziehbarkeit kann unerwünschtes Verhalten & Fehler im System leichter identifiziert werden 5. Es gibt verschiedene Fehlerquellen im Kontext von AI-Systemen, welche durch mehr Transparenz adressiert werden können Explainable AI (XAI) als Lösungsansatz - im Kontext von Entscheidungsunterstützungssystemen helfen Erklärungen zu kommunizieren warum und wie die Ergebnisse entstanden sind oder entstehen - frühe AI und Expertensysteme basierten auf Regeln wie IF evidence THEN conclusion o somit waren diese Systeme und die Ergebnisse nachvollziehbar - AI hat sich stark weiterentwickelt und es werden viel komplexere Ansätze verwendet, welche zum Teil die Leistung von Menschen erreichen können, wie Deep Learning für: o Computer Vision (z.B. Objekterkennung) oder o Natural Language Processing (z.B. Sentiment Klassifikation) XAI - Forschungsgebiet, mit Ziel: Ergebnisse von KI-Systemen für den Menschen verständlicher zu machen - schlägt vor, eine Reihe von ML-Techniken zu erstellen, die: 1. erklärbarere Modelle erstellen & gleichzeitig ein hohes Maß an Lernleistung (z. B. Vorhersagegenauigkeit) aufrechterhalten, & 2. Menschen befähigen, die aufstrebende Generation künstlich intelligenter Partner zu verstehen, ihr angemessen zu vertrauen und sie effektiv zu managen - Tradeoff zwischen Performance und Erklärbarkeit Übergeordnete Ziele von AI Relevante Stakeholdergruppen im Kontext XAI Terminologie Understandability - bezeichnet die Eigenschaft eines Modells, damit ein Mensch seine Funktion versteht (wie das darunter liegende Modell funktioniert) - ohne, dass dabei die interne Struktur oder das algorithmische Vorgehen erklärt werden müssen Comprehensibility - AI-Systeme sollen erlerntes Wissen auf eine vom Menschen verständliche Weise darstellen ->Beschreibung des Wissens als einzelne Informationsblöcke, welche in natürlicher Sprache interpretiert werden können Interpretability - wird als die Fähigkeit definiert, einem Menschen die Ergebnisse und deren Bedeutung verständlich zu erklären oder zu vermitteln Explainability - als aktives Merkmal eines Modells, das jede Aktion oder Prozedur bezeichnet, welche ein Modell integriert, um interne Funktionen bzw. interne Prozeduren zu erklären Transparency - AI-System gilt als transparent, wenn es für sich genommen verständlich ist ->es gibt unterschiedliche Grade an Verständlichkeit Dimension der Interpretierbarkeit: Globale Interpretierbarkeit: - Verständnis der gesamten Logik des Modells entwickeln sowie den Entscheidungsprozess erklären Lokale Interpretierbarkeit: - erläutern einzelner spezifischer Entscheidungen oder Vorhersagen Drei Ebenen für Evaluierung von Erklärbarkeit und Interpretierbarkeit: Anwendungsbeispiel: