Ethik in der Informatik SS24 PDF
Document Details
Uploaded by WellBacklitEducation8805
Henri Heyden
Tags
Summary
These lecture notes cover ethics in computer science, introducing philosophical concepts like philosophical wonder and the epoché, followed by different ways to approach arguments and the types of arguments one might use. It touches on methodologies for reading ethical texts, and various ethical and argumentative theories such as utilitarianism, deontology, and virtue ethics.
Full Transcript
Ethik in der Informatik SS24 stu240825 – Henri Heyden 1 Orientierung Philosophisches Staunen: Betrachtung von weniger oft betrachteten, oder selbstverständlichen Dingen Epoché: Urteilsenthaltung – Ein Problem neutral durch alle Meinungen betrachten ohne eine Meinung als absolut darzustellen und...
Ethik in der Informatik SS24 stu240825 – Henri Heyden 1 Orientierung Philosophisches Staunen: Betrachtung von weniger oft betrachteten, oder selbstverständlichen Dingen Epoché: Urteilsenthaltung – Ein Problem neutral durch alle Meinungen betrachten ohne eine Meinung als absolut darzustellen und erst nach dieser Analyse urteilen Moral: Werte und Normen in einer Gesellschaft. Ethik: Bewertung über menschliches Verhalten; Systematisierung und Analyse über Moral Metaethik: Systematisierung und Analyse über Ethiken 2 Argumentation Lesen ethischer Texte: erfolgt über Methodik, dabei ist es wichtig sich erst zu erörtern (1. Wer?) wer der Au- tor ist, aus welcher Position er schreibt und welches Niveau er besitzt; (2. Was?) was das Thema des Textes ist; (3. Wann?) wann der Text erschienen ist und wie aktuell der Text ist; (4. Wo?) wo der Text geschrieben wor- den ist und in welchem Medium er veröffentlicht wurde; (5. Warum?) warum der Text geschrieben wurde. Außerdem ist es wichtig zu klären welche Begriffe im Text wichtig sind, welche Bedeutung sie haben sowohl im Text als auch im Vergleich zum Alltag oder zu anderen Autoren und als auch ob die Begriffe verwendet werden, wie ihre Quellen implizieren. Es ist auch wichtig beim Lesen des Textes festzustellen, welche Autoren, Theorien und Schulen zitiert werden. Insbesondere muss sich gefragt werden, ob die zitierten Standpunkte adäquat wiedergegeben werden und was der Kontext durch den Text zur Bedeutung der Quellen beiträgt oder verändert. These bzw. Konklusion: Kernaussage; zentraler Gedanke um den es in der Argumentation geht. Argument bzw. Prämisse: soll zeigen, warum die These korrekt ist. Begründung: erklärt, warum das Argument die These zeigt bzw. warum die Konklusion aus der Prämisse folgt. Beleg: verifiziert das Argument durch Angabe von Quellen. Argumenttypen: Seriöse Faktenargument: Bezug auf Tatsachen Autoritätsargument: Bezug auf Akzeptanz der Position von einer anerkannten Autorität Normatives Argument: Bezug auf Moral oder andere akzeptierte Maßstäbe Analogisierendes Argument: Bezug auf Argument eines parallelen Sachverhaltes Indirektes Argument: Entkräftigung der Antithese Unseriöse Argument ad populum: Berufung auf Menge, populistische Manipulation gegen Diskurs Argument ad hominem: Beleidigung/Aberkennung der Verfechter der Gegenposition Faktenaussage: benennt eine Tatsache die überprüfbar ist und somit sich als wahr oder falsch zuordnen lässt. Als Prämisse deskriptiv. Normenaussage: benennt einen Wunsch im Vergleich zum de-facto-Zustand, relativ und nicht überprüfbar. Als Prämisse normativ. Klassischer Syllogismus: logischer Schluss einer Faktenaussage durch die Transitivität zwischen zwei deskrip- tiven Prämissen1 : (𝐴 ⇒ 𝐵) ∧ (𝐵 ⇒ 𝐶) ⟹ (𝐴 ⇒ 𝐶) Praktischer Syllogismus: Schlussfolgerung einer Normenaussage durch eine normative und eine deskriptive Prämisse, wieder transitiv.2 Naturalistischer Fehlschluss: fehlerhaftes Verhalten, dass eine Normenaussage aus einer Faktenaussage zu schlussfolgern versucht.3 1 Beispiel: Alle Menschen sind sterblich ∧ Einstein ist ein Mensch ⇒ Einstein ist sterblich 2 Beispiel: Menschen sollten glücklich sein ∧ Sport macht Menschen glücklich ⇒ Menschen sollten Sport machen 3 Beispiel: “Weil es erlaubt ist, ist es richtig.” 1 Textformen: Five-paragraph essay Kurzer Beitrag, der nur Argumente der eigenen Position darstellt Ping-pong Pro- und Kontra-Argumente werden abwechselnd dargestellt, das Fazit kommt dann zu einer Konklusion Sanduhr Erst stärkstes Argument der Gegenposition, bis zum schwächsten Gegenargument und dann aufbauend die eigene Position Rogerian Argument Erst werden Gegenargumente, dann eigene Argumente vorgetragen, wonach ein Kompromiss gefunden wird 3 Argumentationslinien Gedankenexperiment: “was-wäre-wenn”-Methode um Erkenntnis über die Wirklichkeit zu erlangen. Besteht aus Einleitung, die das kontrafaktische Szenario darstellt und einem Rückbezug zur Realität. Dilemma: Konfliktsituation zwischen zwei möglichen Handlungen, dessen Existenz sich gegenseitig auss- chließt, aber eine perfekte Moralische Handlung unmöglich macht. Utilitarismus: Das Ziel jener Handlung soll es sein, das meiste Glück für die meisten Menschen zu bringen, wenn diese Handlung gewählt wird. Deontologie: Es wird sich für jene Handlung entschieden, dessen Prinzip/Intention sich aus der Vernunft einer Regel herausleiten lassen.4 Tugendethik: Das Ziel ist es durch die Handlungen einen “tugendvollen” Charakter zu gewinnen, es soll also Handlungen angestrebt werden, welche gute Eigenschaften darstellen, wie zum Beispiel Mut oder Tapferkeit.5 Kontraktualismus: Moralisch gut ist ein Mitglied einer Gesellschaft, wenn es sich so verhält, wie die Mit- glieder der moralischen Gesellschaft es wechselseitig voneinander fordern. Somit bildet eine Gesellschaft durch eine kontraktualistische Moral einen Gesellschaftsvertrag. 4 Begriffe Begriff: repräsentiert ein Konzept und ist Baustein von Gedanken, dabei kann ein Konzept auch aus mehreren Konzepten bestehen6 und ein Begriff muss immer im Bezug zu anderen Begriffen stehen. Außerdem kann das gleiche Konzept mehrere Begriffe haben.7 Ambiguität: Fall, wenn ein Begriff mehreren verschiedenen und nicht miteinander verwandten Konzepten oder Interpretationen zugeschrieben wird.8 Ambiguitätstoleranz: Sich der Ambiguität von Begriffen bewusst sein. Moralischer Akteur nach Floridi und Sanders (2004): ist gegeben, wenn ein System interaktiv, autonom und adaptiv ist. Concept Map: Hierachischer gerichteter Graph der mittels Verben zwischen Begriffen ein großes Konzept erläutert. Werte: Kollektion von bewussten und unbewussten Orientierungen für menschliches Verhalten; Sinn jener Handlungen.9 4 “Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie ein allgemeines Gesetz werde” im Kate- gorischem Imperativ von Immanuel Kant. 5 Hier ist wichtig, dass im Vergleich zur Deontologie diese Eigenschaften nicht umbedingt so definiert sein müssen wie Prinzipien. 6 Beispiel: Das Konzept abgeleitet durch den Begriff “Säugetier” besteht aus mehreren Eigenschaften, die auch Konzepte sind, die das Säugetier zum Säugetier machen. 7 Beispiel: Venus, Morgenstern, Abendstern als Begriffe für den Planeten. 8 Beispiel: “Die Würde des Menschen ist unantastbar.”, der Begriff “Würde” kann hier mehrere verschiedene Bedeutungen haben. 9 Beispiele: “Gemeinschaft, Freundschaft, Sicherheit sind gut” 2 Werturteil: Charakterisierung eines Dinges anhand von Werten mit Schema: “Subjekt schätzt Objekt als Adjektiv, weil Grund basierend auf Werte”10 Wertekonflike: enstehen, wenn mehrere Parteien unterschiedliche Werte haben.11 Interesse: an etwas haben entspringt aus einem Bedürfnis nach einem Wert. Dieses etwas lässt sich einem Wert unterordnen.12 Interessenkonflikte: enstehen, wenn mehrere Parteien Interessen an den gleichen Gütern haben. Wertidealismus: Es existieren absolute und objektiv korrekte Werte, die werden dem Menschen vor seiner Geburt gegeben werden, und die die Person im Laufe ihres Lebens entdecken muss. Wertenaturalismus: Werte lassen sich als natürliche Eigenschaften beschreiben, die in der Natur vorzufinden sind. Wertesubjektivismus: Werte sind inhärent subjektive Präferenzen die sich aus elementaren Bedürfnissen verschiedener Menschen ableiten lassen. Wertekonstruktivismus: Werte entspringen der sozialen Realität und Kultur von Menschen in einer Gesellschaft. Normen: sind Handlungsvorschriften, die ausdrücken, ob bestimmte Handlungen erlaubt, gewünscht oder verboten sind. Normen lassen sich durch Werte begründet werden – jede Norm somit mindestens einen Wert als Sinn.13 Ziel: einer Ethik ist ein Wert der grundzulegenden Moral: Was ist zu erreichen? Mittel: einer Ethik ist eine Norm der grundzulegenden Moral: Wie soll etwas erreicht werden? 5 Verantwortung Verantwortung: besitzt jener, der entweder sein autonomes Handeln erklären kann oder dessen Konsequen- zen positiv oder negativ sind. Nach Hans Jonas können nicht nur Individuen, sondern auch Kollektive Ver- antwortungssubjekte sein. Demnach ist die Verantwortung größerer Kollektive nötig anzuerkennen, da ihre Konsequenzen die ganze Welt sowie die komplette Zukunft beeinflussen können.14 Gesinnungsethik: Gut handeln jedoch Folgen ignorieren, wie in der Tugendethik oder Religion. Verantwortungsethik: Verantwortungsvoll handeln, die Konsequenzen des Handelns sind relevant. Responsibility Gap: Es ensteht für den Schöpfer seines Produktes nicht unbedingt eine Verantwortung für das Handeln des Produktes.15 Solche Verantwortungslücken können aber auch bewusst hervorgeführt werden, um die Verantwortung abzustreiten.16 Mensch-Maschiene Interaktionen In-the-Loop Mensch kontrolliert die Maschine vollständig On-the-Loop Maschine agiert unabhängig, jedoch ist ein Einschreiten möglich Out-of-the-Loop Maschine agiert vollständig unabhängig. Problem der vielen Hände: beschreibt, wie durch die Aufteilung der Arbeit an einem Projekt, die Verant- wortung über dieses Projekt verschleiert oder verteilt wird.17 Dual Use Problem: ensteht, wenn eine Technologie oder ein wissenschaftlicher Fortschritt missbraucht wer- den kann, wodurch die Existenz einer guten Technologie die Existenz einer schlechten Technologie impliziert.18 10 Beispiel: “Ich schätze Sport als Gut, weil Sport den Menschen gesünder macht und Gesundheit gut ist.” 11 Beispiel: Die eigene Geburt ist gut versus schlecht als Konflikt zwischen dem Christentum und dem Buddhismus. 12 Beispiel: Interesse an Teamsport → Gemeinschaft ist gut 13 Beispiel: “Du sollst nicht töten!” → Leben ist gut 14 Beispiel: Atomwaffen oder die Klimakrise durch technologischen bzw. industriellen Fortschritt 15 Beispiel: Programmierer sind durch den nicht vorhersehbaren Verlauf des Trainings von maschinellen Lernens nicht (voll- ständig) verantwortlich über das Endprodukt. 16 “Maschinen machen keine Fehler” oder “Guns don’t kill people, people kill people” 17 Beispiel: Atombombe, einzelne Arbeiter waren sich ihrer Verantwortung nicht bewusst, da sie nur an kleinen Teilen des Projekts gearbeitet hatten. 18 Beispiel: Die Forschung an der Kernspaltung macht gleichzeitig die Existenz von Atomwaffen als auch die Existenz von Atom- kraft möglich. 3 Anthropomorphismen: sind Zuteilungen menschlicher Eigenschaften auf nicht-menschliche Instanzen.19 In dem Fall, wo menschliches Verhalten Maschinen zugeschrieben wird, muss sich auch gefragt werden, ob dies tatsächlich der Fall ist und dann moralische Konsequenzen daraus ziehen.20 6 Privatheit, Sicherheit und Transparenz Privatheit: Sphäre in welcher Menschen als einzelne oder in Partnerschaft einen eigenständigen Lebensbere- ich beanspruchen. Im Laufe der Zeit passte sich die Privatsphäre dem Leben in der Öffentlichkeit an. Im sogenannten “Zwiebelmodell” wird die Privatsphäre schichtenweise aufgeteilt in die Bereiche Gesellschaft, Freundschaft, Wohnraum, Familie und Intimität. Privatsphäre macht folgende Funktionen möglich: Zusammenleben – Vertrauen und sichere Kommunikation in einer Wohngemeinschaft Freiheit, Autonomie – Schutz vor Kontrolle, Zwang oder Diskriminierung Meinungsbildung – Schutz vor Manipulation der Persönlichkeit und Einstellung Authentizität – Schutz vor Normativierung21 und Chilling Effects22 Identität – Raum für Reflexion und zur Fähigkeit der Resilienz Panoptismus: Machtasymmetrie zwischen Wärter und Gefangenen, insbesondere in der Privatsphäre. Sicherheit: Konfliktbegriff als Gegenspieler zur Freiheit, denn Sicherheit wird durch Kontrolle hergestellt.23 Somit ist Sicherheit ein Gegenspieler zu Transparenz.24 Jedoch ist ein System offensichtlich nicht unbedingt Sicher, wenn es nicht Transparent ist.25 Sicherheit braucht wie erwähnt Kontrolle, wodurch die Instanz, die Sicherheit garantiert, Verantwortung besitzt. Transparenz: Durchschaubarkeit bzw. Nachvollziehbarkeit eines Systems. Im Gegensatz zu Privatsphäre sollen Demokratische Staatssysteme vollständig Transparent sein, so wird Kontrolle über staatliche Organe aus Sicht der Öffentlichkeit gegeben. Transparenz kann aber auch so zu Überforderung führen, da Trans- parenz nicht unbedingt Verständlichkeit bedeutet, jedoch ist Transparenz ein notwendiges Kriterium für Ver- ständlichkeit. Durch die Transparenz eines Staates bekommt die Öffentlichkeit eine gewisse Kontrolle, somit gewinnt sie an Verantwortung, jedoch ist dies abhängig von der Verständlichkeit, sonst enstehen schnell ver- schieden privilegierte Menschengruppen. Es stellt sich außerdem die Frage, ob ein System, dass nicht Trans- parent, also somit auch nicht verständlich, ist überhaupt gebaut werden sollte.26 19 Beispiel: “Mein Drucker hasst mich” 20 Hasstmich mein Drucker, weil ich ihm etwas getan habe, soll ich ihn deswegen besser behandeln? Lernt eine KI so, wie wir Menschen? 21 Vernormung durch Gesellschaft 22 Präventive Verhaltensänderung aus Angst vor Bloßstellung oder legalen Konsequenzen 23 Man muss sich aber auch immer Fragen: Sicherheit für wen und wo vor? Denn es kann auch eine Sicherheit der Öffentlichkeit festgestellt werden, indem der Staat transparent und verständlich ist, denn dann steigt die Kontrolle über dem Staat und somit auch die eigene Sicherheit von dem Staat. 24 Hier muss man aber auch aufpassen, wer Sicher von wem sein soll, denn es gibt Systeme, dessen Sicherheit gerade durch ihre Transparenz garantiert werden, wie bei end-zu-end Verschlüsselung. Ein Nachrichtendienst wie Signal ist aus Sicht der Nutzer ja gerade sicher, da der Quellcode für die Nachrichtenvermittlung offen daliegt und somit jedem garantiert, dass mit den Daten nichts zwischen den Nutzern passiert. 25 Anders: Systeme können unsicher sein, ohne dass sie transparent sind, wie zum Beispiel Windows. 26 Schon multi-layer Perceptrons sind für Menschen eine Black-Box, also sind komplexere Modelle wie ChatGPT intransparent also unverständlich, selbst für ihre Entwickler... Solche Phänomenen enstehen selbst bei konventioneller Software. 4 7 Daten und Maschinelles Lernen Objektivität: Definierbar als: Treue zu den Fakten27 ; Abwesenheit von normativen Überzeugungen28 ; Frei- heit von Vorurteilen29 Es folgt somit, dass Objektivität nahezu unmöglich ist in irgendeiner Art zu realisieren, sowie ist es anzuerkennen, dass Werturteile immer normative Prämissen benötigen und somit auch unobjektiv sind. Es folgt, dass objektive algorithmisierte Moral unmöglich ist. Überwachungskapitalismus: Im Überwachungskapitalismus werden mehr Daten über den User gespeichert, als nur zur Verbesserung des Services nötig sind. Stattdessen wird ein Profil des Nutzers erstellt, welches an- hand seines Verhaltens versucht jegliche Eigenschaften über den Nutzer zu speichern, um dann vorherzusagen, wie der Nutzer sich in der Zukunft verhalten wird30 um dann Beispielweise personalisierte Werbung zu schal- ten, wie zum Beispiel bei den Big Five: Alphabet, Amazon, Apple, Meta und Microsoft. Ghost Work: Phänomenen bei dem ein Service einer Website heimlich durch einen Menschen vertrieben wird, wie zum Beispiel beim Schachtürken oder beim Outsourcing des Labeling von Trainingsdaten. Beschäftigt 100 Millionen Menschen weltweit unter sehr schlechten Arbeitsbedingungen. Repräsentation: von Daten ist je nach Zweck verschieden. Beispielweise gibt es mehrere Weltkarten, die den Globus unterschiedlich darstellen, je nach Zweck. Somit ist so eine Reduktion durch Abstraktion immer wertend – Daten repräsentieren die Wirklichkeit, aber stellen sie nie neutral da. Bias: in ML oder einem Algorithmus kommt vor, wenn die Ausgaben gegenüber einzelnen oder mehreren Gruppen unfair sind.31 Man spricht dann von einer Verzerrung der Daten. Es ist unklar, ob ein Bias über- haupt in Daten verhindern lässt oder nicht, schließlich haben die, die jene Daten erheben auch Werte und sind somit unobjektiv, somit ist die Frage außerdem, ob weniger Bias überhaupt gewünscht ist. Präferenzstarrheit: oder auch “Konservatismus” tritt auf, wenn ein ML-Modell versucht anhand dem Ver- halten eines Nutzers die Zukunft seines Kaufverhaltens vorherzusagen: Seine Präferenzen erstarren. Realis- tisch ist es aber, dass jene Präferenzen sich im Laufe der Zeit verändern. Somit ist eine fest parametrisierte Prognose der Zukunft von menschlichen Verhalten oft falsch, noch unwünschenswerter ist es, wenn das ver- nommene Profil der Algorithmus selber auch falsch ist. Insbesondere kann auch zu selbstverstärkenden Effekten kommen, bei dem ein durch Verzerrung falsches Profil immer schlechter wird, da das Prognostizierte falsche Verhalten zu einer Rückkopplung führt, da angenommen wird, dass das menschliche Verhalten klar vorhersehbar ist.32 Sinnfrage: macht eine datengetriebene Lösung für das Problem überhaupt Sinn, – also gibt es tatsächlich gesellschaftlichen Bedarf – oder stellt die Lösung einen echten Mehrwert dar – also ist sie effizienter alsd kon- ventionelle Lösungen? Entwicklung einer Anwendung nach Rawls: 1. Analysiere, wer und in welcher Rolle von der Anwendung betroffen ist. 2. Betrachte unvoreingenommen die Anwendung aus jeder Rolle und beobachte, ob die Anwendung anders entwickelt werden sollte. 3. Wende Methode im Team an; Befrage Menschen aus den Rollen direkt; Befrage Experten von außerhalb. Dokumentation: einer Anwendung schafft Transparenz und Verständlichkeit, was nicht nur aus ethischer Sicht vorteilhaft ist, sondern auch aus informatischer Sicht für die Weiterentwicklung. Eine Methode zur Dokumentation für ML-Modelle sind die sogenannten “Model Cards”. 27 Schlechte Definition, da die Überprüfbarkeit aller Fakten unmöglich ist 28 Unrealistisch,da der Mensch automatisch Werte besitzt, sowie wäre eine wertneutrale Wissenschaft bedeutungslos 29 Schwer zu verifizieren, da selbst Statistik immer manipulierbar ist 30 Ob es jetzt zukünftiges Kaufverhalten oder Wahlen sind 31 Beispiel: Suchalgorithmen finden eher Bilder von Menschen mit schwarzer Hautfarbe als mit weißer Hautfarbe, wenn nach informellen Haarschnitten gesucht wird im Vergleich zu mehr weißen Menschen bei der suche nach formellen Haarschnitten. 32 Beispiel: “Qualityland” von Mark-Uwe Kling. 5 8 Leitlinien und ethische Codes Ethische Leitlinien: sind allgemeine Richtlinien ohne Möglichkeit der Sanktion, denn es existiert keine über- prüfende Instanz. Sollen Orientierung bei moralischen Konflikten geben. Beispiel: Gesellschaft für Informatik, Abteilung Informatik und Ethik. Die GI besitzt als äußerste Präambel eine Prämisse, dass bei jeglicher Hand- lung immer die Menschenwürde an oberster Stelle stehen soll. Insbesondere wird dies noch später im Art. 9 so eingeschärft, dass im Zweifelsfall immer die Wahrung der Menschenwürde an oberster Stelle steht, auch wenn sie im Widerspruch einen Auftrag des Arbeitgebers oder dem Gesetz steht. Codes of Conduct: sind spezifische Standards mit Möglichkeit der Sanktion, wenn jemand jene Richtlinien verstößt. Maßgebend für die Open-Source Kultur. Besteht aus mehreren Teilen einer “Project Governance” Project Governance Ownership of assets Verständigung, wer die intellektuellen Rechte der Software besitzt und unter welcher Lizenz sie läuft. Chartering the project Feststellung von Sinn und Zweck sowie Design der Software. Community management Regeln über Mitgliedsschaft des Projektes, wer darf mitmachen, welche Rollen gibt es, etc. Software dev. process Strukturen die beschreiben wie die Software konkret entwickelt wird. Conflict resolution Möglichkeiten zur Resolution von Konflikten und Regeländerung. Information and tools Beschreibt, wie kommuniziert wird und welche Software zur Entwicklung verwendet wird. Codes of Conduct können unterschiedlich durchgesetzt werden: Proaktive Moderation: Neue Projektteilnehmer werden vor ihrer Teilnahme auf den CoC hingewiesen und auf dessen Einhaltung gebeten. Reaktive Moderation: Der CoC wird verwendet, um auftretendes unangemessenes Verhalten zu maßregeln oder auf die mangelnde Durchsetzung des CoC hinzuweisen. Verständigungsinstrument über Projektkultur: Der CoC wird genutzt, um die Werte und Regeln im Pro- jekt zu verständigen und jene zu diskutieren. Arten von CoCs: Werte-basiert Nur Werte vom CoC werden direkt genannt Regel-basiert Nur Regeln vom CoC werden direkt genannt 33 Mischform Kompromiss zwischen beiden Formen Typischer Aufbau eines CoCs: Sinn: Warum ist der CoC definiert? Oft Ziel einer offenen, diversfreundlichen Kultur. Gewünschtes Verhalten: Welches Verhalten ist gut und sollte in der Kultur vorkommen? Ungewünschtes Verhalten: Welches Verhalten ist schlecht und sollte nicht in der Kultur vorkommen? Exekutive: Wie werden die Regeln durchgesetzt, wie erfolgt die Meldung von unerwünschtem Verhal- ten und was für Konsequenzen kann es beim Regelbruch geben? Rahmen: Für wen gelten die Regeln? Meistens alle Teilnehmenden, sowie bezahlte und unbezahlte, etc. 33 Unterlegende Werte der Normen der Regeln werden nicht umbedingt genannt. Regel können entweder positiv oder negativ formuliert werden. 6 Typische Kontroversen über CoCs: Politisierung: Es wird vorgeworfen, dass die Existenz von CoCs zu einer Politisierung des Arbeitsplatzes führt. Ignoriert wird dabei jedoch, dass ein CoC das politische/moralische Klima, welches bereits in der Arbeit besteht, nur nennt. Nutzlosigkeit: Angeblich bringen CoCs nichts, da sie nicht durchgesetzt werden. Hier muss klargestellt werden, dass es schließlich verschiedene Arten gibt einen CoC durchzusetzen, und eine Instanz des Pro- jektes dafür zuständig sein sollte. Zerstörung der Meinungsfreiheit: CoCs sollen dazu führen, dass die Meinungsfreiheit im Projekt abgeschafft wird. In Wirklichkeit weisen CoCs nur darauf hin, dass die Meinungsfreiheit von Arbeitenden dort en- den, wo die Menschenrechte der anderen anfangen. Meritokratie: Ab und zu kommt es dazu, dass besondere Verdienstleistende in dem Projekt mehr Macht haben als andere, wie zum Beispiel Linus Torvalds im Linux-Kernel Projekt. CoCs sollten aber natürlich dazu führen, dass jene für alle Teilnehmer gelten und, dass sie demokratisch aufgebaut sind. 9 Fallstudien Allgemeine Hinweise zur Verfassung von Texten Verständlicher Ausdruck, Rechtschreibung und Grammatik sind durchaus erwünscht ;) Formalia zu verschiedenen Textformen sollten unbedingt eingehalten werden! Sofern es nicht anders angemerkt ist, wird immer ein Fließtext erfordert! Eventualitäten, Ungenauigkeiten und unwahrscheinliche Szenarien sollten im Text nicht vorkommen. Wissen aus der Vorlesung sollte auch terminologisch genannt und anerkannt werden. Vor- und Nachteile einer Anwendung/Forschung sollten hervorgegeben werden. Insbesondere sollten Unsicherheiten erwähnt werden Wenn nötig sollte auf weiterführende Literatur referiert werden Auch sehr abstrakte Grundlagenforschung kann relevant sein ethisch zu beurteilen, wie zum Beispiel Das P/NP-Problem. Fallanalyse nach Pfeifer: 1. Erfahrung des Sachverhaltes als ethisches Problem – “Wie beurteile ich intuitiv den Fall?”, “Wo liegt für mich das ethische Kernproblem?” – Subjektive erste Untersuchung des Problems. 2. Kontextanalyse – “Wer ist involviert?”, “Welche Interessen verfolgen die beteiligten Parteien?”, “Welche Informationen sind für eine Analyse noch nötig?” 3. Werteanalyse – “Welche Werte lassen sich den Interessenträgern zuordnen?”, “Wo sind Wertekonflikte, Dilemmata, Interessenkonflikte?” 4. Entwurf von Verhaltensalternativen – Sammlung von verschiedenen Verhaltensmöglichkeiten ohne Bewertung, explorativ! 5. Analyse der Verhaltensalternativen – Kann auf Basis von grundlegenden Ethiken erfolgen – Einzelne Argumente sollten mittels Syllogismen aufgebaut werden 6. Konsensfindung und Entscheidung – Abwägung und Hierarchisierung der Handlungsoptionen, “Welche Möglichkeiten sind unter welchen Umständen eher zu erwünschen?”, kann mittels Güterabwägung geschehen: “Welche Werte von welchen Parteien werden als besonders wichtig angesehen? Wie finden die Güter durch die Handlungsoptionen Berücksichtigung?” – Entscheidung der besten Wahl. 7 7. Varianz der Randbedingungen – “Wie würden sich die Entscheidung verändern, wenn sich bestimmte Randbedingungen ändern wür- den?” – “Wie stark hängt die Entscheidung von den Randbedingungen ab?” 8. Analogie-Test – “Wie sehen ähnliche Fälle unter möglicherweise unterschiedlichen Werten, Normen oder Prinzipien aus?” – “Wie verändert sich die Meinung im Vergleich zur ersten intuitiven Bewertung?” Ethisches Designdokument und Impact Statement EDs und ISs sind Schriftliche Auseinandersetzungen mit ethischer und gesellschaftlicher Dimension. Der Un- terschied zwischen den beiden Textformen ist der jegliche Kontext: dabei schreibt man ein ED für Software- anwendungen und ein IS für die Forschung. Es folgt ein ungefährer Ablauf der Struktur. 1. Einleitung – Kurze Beschreibung der Software bzw. der Forschungsarbeit für Außenstehende: “Was tut sie, was leistet sie, was ist der Einsatzzweck?” 2. Folgenabschätzung 2.1 Kontext und Werteanalyse – Ermittlung der verschiedene Parteien welche durch die Anwendung/Forschung betroffen sind und ihrer dazu relevanten Werte. 2.2 Wertekonflikte und Dilemmata – Identifikation von Wertekonflikten und Dilemmata, welche aus der Anwendung/Forschung en- stehen. 2.3 Mittelanalyse – “Welche möglicherweise ethisch problematische Mittel sind für die Anwendung/Forschung nötig?” – “Warum werden diese Mittel nötig?”, “Ist ein Verzicht möglich?” – “Warum sind diese Mittel problematisch?”, “Wie lassen sie sich rechtfertigen?” 2.4 Zielanalyse – “Worin liegt das Ziel der Software/Forschung und warum wird gerade diese dafür benötigt?” – “Gibt es bessere Alternativen?”, “Rechtfertigt der Zweck die Mittel und Güter?” – “Ist das Ziel selbst gesellschaftlich wünschenswert?” – Orientierung können die Ethische Leitlinien der GI oder die Methode des Schleiers des Nichtwissens von Rawls bieten. 3. Lösungsvorschläge – “Wie lassen sich eventuell identifizierte Probleme unter Umständen lösen?” – “Wie lassen sich Wertekonflikte abmildern oder Interessenkonflikte lösen?” – “Wo liegen die Grenzen der eigenen Bewertung? Welche Fragen können wir ohne Experten nicht beantworten?” 4. Abschließende Bemerkungen – Abschließende Zusammenfassung die beantwortet, ob die Software/Forschung entwickelt/durchgeführt werden soll oder nicht. – “Welche Anpassungen sind unbedingt notwendig?” 10 Ethisches Design GERD-Modell: (Gender Extended Research and Development-Model), System zum ethischen Design welches sich für Diversität und Geschlechtergleichheit einsetzt, wobei für verschiedenen Phasen der Forschung bzw. Entwicklung Leitlinien gegeben werden. Link: gerd-model.com 8 Informationsverarbeitung nach Kahnemann (2011): funktioniert durch gegenspiel von System 1, dem Schnellem, Instinktivem und Emotionalem und System 2, dem Langsamem, Reflektiertem und Logischem. Nudge: Leichte Beeinflussung Menschlichen Verhaltens, durch kleine, umgehbare Impulse. Mache bewusst eine präferierte Möglichkeit leichter, als eine andere, jedoch soll es noch möglich sein, sich für beide zu entscheiden, es wird also nach Kahnemann (2011) das System 1 erigiert ohne, dass das System 2 ausfällt. Hier können auch ethische Probleme entstehen, deswegen gelten die Regeln, dass: 1. Nudging immer transpar- ent und niemals irreführend sein soll; 2. es immer leicht sein einen Nudge abzulehnen, wenn möglich durch nur einen Mausklick; 3. ein guter Grund existieren soll, dass jenes Nudging zu einem Wohlbefinden des Nutzers führen soll. Value-based Engineering: IEEE standardisierte Methode um die für eine Anwendung relevanten Werte zu identifizieren, priorisieren und in konkrete Wertanforderungen an ein System zu übersetzen. Dabei werden über das System of Interest erst 3 Fragen vom Projektteam und von einer breiten Gruppe an Stakeholderrepräsentanten gestellt, die zum ersten Konzept führen sollen: 1. Welche menschlichen, sozial, ökonomischen oder sonstigen Werte sind im Positiven wie im Negativen durch das SOI tangiert? 2. Wie wirkt sich die Technik langfristig auf den Charakter der Betroffenen aus? 3. Welche persönliche Maxime oder Wertprioritäten sieht das Projektteam durch den Service betroffen, die die Mitglieder des Projektteams für so wichtig halten, dass sie sie in der Gesellschaft bewahren möchten? Die Antworten auf jene Fragen sind Werte, Normen oder sog. Werte-Qualitäten (WQ), welche in Kernwerte konvertiert werden und dann nach Priorität geordnet und in Ethische Wertanforderungen übersetzt werden. EVRs werden dann in verschiedenen Arten implementiert: Entweder werden sie als organisatorische und strategische Maßnahmen vor Projektbeginn überführt (hohe Priorisierung, dass keine EVRs verletzt wer- den), iterativ im Entwicklungsprozess integriert oder durch ein risikobasiertes System eingebracht (hohe Pri- orisierung der Geschwindigkeit). Man sollte sich jedoch fragen, wo her diese Werte kommen und welcher Werteauffassung sie zugrunde liegen, denn es besteht ein Potential zu unerkannten Wertekonflikten und einer Überschätzung dazu, wie gut die Werte gewählt sind. 10 Handlungsprinzipien von Value-based Engineering 1. Übernahme von Verantwortung für die erweiterte Systemlandschaft 2. Ehrliche Integration von kritischen direkten und indirekten Stakeholdern 3. Kontextsensitive, weise und kontinuierliche Beobachtung und Antizipation der Systementfaltung 4. Nutzung ethischer und moralischer Prinzipien zum Erkennen dessen, was von Wert ist 5. Konzeptionelle Analyse von dem, was von Wert ist (Werte in der Tiefe verstehen) 6. Einbindung der Unternehmensführung in die Priorisierung von Werten 7. Reflektion bestehender Gesetze und Abkommen zur Verfeinerung der Wertschwerpunkte 8. Bereitschaft, auf das System zu verzichten, wenn es ethische Bedenken auslöst 9. Bereitschaft, die eigene Wertestrategie offen zu legen und transparent zu leben 10. Integration von Wertzielen in die Product Roadmap durch wertgeleitetes Systemdesign Dark Patterns: Missbrauch von Nudging oder anderen Tricks, um Nutzer gegen ihr eigenes Interesse handeln zu lassen.34 Gamification: Verwendung von Spiel-ähnlichen Aspekten oder Verhalten in nicht spielerischen Kontexten.35 Kann durch mögliche Infantilisierung auch zu Dark Patterns führen. 34 Beispiel: Schwerere Abwahl von Cookies und personalisierter Werbung 35 Beispiel: Duolingo’s streaks 9 Barrierefreiheit: im digitalen Raum vollständig zu realisieren ist schwer, jedoch ist existieren verschiedene Leitpfaden um eine gewisse allgemeine Barrierefreiheit zu realisieren. Einer diese Leitpfaden sind die Vorschläge von Aktion Mensch: Schrift und Kontraste sollten so gewählt werden, dass eine gute Lesbarkeit für Menschen mit verschiede- nen Sehbehinderungen oder Farbfehlsichtigkeiten möglich ist. Bedienflächen sollten groß genug sein, insbesondere für die mobile Nutzung. Alternativtexte ermöglichen auch blinden Menschen die Erfassung von Bildinhalten. Solche Texte sind auch wichtig für Suchmaschinen. Leicht verständliche Sprache mit kurzen, parataktischen Sätzen und wenig Fremdwörtern erreicht mehr Nutzer. Die semantische Aufzeichnung der Struktur einer Website ist vorteilhaft für Unterstützungssoftware. 11 Ethik in der Wissenschaft Grundsätze guter wissenschaftlicher Praxis: werden von der Deutschen Forschungsgemeinschaft, u.a. auch der CAU herausgegeben. Alle Forschende sowie Studierende sind zur Einhaltung der Grundsätze verpflichtet. lege artis: Regeln der Kunst, Forschung sollte immer gemäß des aktuellen Kenntnisstands der Forschung geschehen. Plagiate: enstehen durch das Nutzen von fremden Texten, Formulierungen oder allgemein: fremder Arbeit, ohne sie zu referieren. Sie sind unter anderem unwissenschaftlich, da eine Nachvollziebarkeit der Argumen- tation abgeschwächt wird. Zivilklausel: schließt an einer Universität Forschung für militärische Zwecke oder die Unterstützen von Forschung durch Rüstungsunternehmen aus. Die CAU hat keine Zivilklausel... 12 Individuelle Dilemmasituation Haltung: moralische Orientierung des Menschen; sollte sich im Laufe des Lebens entwickeln. Eine Haltung über bestimmte Dinge zu besitzen bedeutet nicht sie direkt abzulehnen oder zuzusprechen, sondern sich der Vor- und Nachteile dieses Dinges bewusst sein, und auf Grund dieses Wissens zu handeln, der Weg ist das Ziel.36 Gewissen: eng mit dem Haltungsbegriff verbunden. Ein Gewissen ist definiert durch subjektive das Wissen und die ständige Selbstreflektion über sich selbst, seiner eigenen Moral und Motivationen. Haltung vs. Gewissen: Eine Haltung ist ein Wertesystem, welches sich entwickelt, wobei ein Gewissen dieses Wertesystem im konkreten Kontext anwendet. Treuepflicht: Verpflichtung des Arbeitnehmers gegenüber dem Arbeitgeber, dass er nicht den Arbeitgeber schaden darf oder ohne Zustimmung bei der Konkurrenz arbeiten darf. Die Treuepflicht steht oft im Konflikt zu dem Recht der freien Meinungsäußerung und kann zu moralischen Konflikten führen. Whistleblowing: Anzeigen von Missständen innerhalb von Unternehmen bzw. anderen institutionellen Kontexten, verstößt oft gegen die Treuepflicht, jedoch existieren Gesetze zum Schutz von Whistleblowern. 36 “Er hat immer versucht sauber und fair zu spielen” 10