Document Details

HopefulMoldavite6075

Uploaded by HopefulMoldavite6075

2024

M. Rodríguez, CAM

Tags

KI-Ethik KI-Systeme ethische Richtlinien Künstliche Intelligenz

Summary

Diese Präsentation behandelt KI und Ethik in Form einer Schulung des Ethikkomitees. Die Präsentation bietet Informationen zu den Grundlagen der Künstlichen Intelligenz, rechtlichen und regulatorischen Rahmen, ethischen Prinzipien und Richtlinien sowie einer Risikoanalyse und Folgenabschätzung. Die Präsentation gibt einen Überblick über die wichtigsten Aspekte der KI-Ethik und behandelt auch Themen wie Sensibilisierung, Operationalisierung von KI-Gesetzen und Ethikprüfungen. Schließlich werden konkrete Anwendungsfälle und Herausforderungen im Kontext der KI-Nutzung skizziert.

Full Transcript

KI und Ethik Schulung Ethikkomitee M. Rodríguez, CAM, November 2024 Agenda Eine strukturierte Schulung zu diesen...

KI und Ethik Schulung Ethikkomitee M. Rodríguez, CAM, November 2024 Agenda Eine strukturierte Schulung zu diesen Themenbereichen wird das KI-Ethikkomitee dabei unterstützen, seine Aufgaben und 1. Grundlagen der Künstlichen Intelligenz Verantwortlichkeiten umfassend zu verstehen und effektiv wahrzunehmen. 2. Rechtlicher und regulatorischer Rahmen 3. Ethische Prinzipien und Richtlinien 4. Risikoanalyse und Folgenabschätzung 5. Kontinuierliches Monitoring und Kontrolle 6. Sensibilisierung und Befähigung von Mitarbeitern 7. Rolle des Ethikkomitees und Zusammenarbeit im Unternehmen 8. Ethikprüfung und kontinuierliche Verbesserung 9. Abschlusstest 10. Abschluss und Feedback 1. Grundlagen der Künstlichen Intelligenz Stand und Definitionen Künstlicher Intelligenz Kommunikation Mensch Maschine Stand der Technik und Ausblick Aktuelle Zahlen und Statistiken - KI-Einsatz (Bitcom 2024) Aktuelle Zahlen und Statistiken. KI als Chance (Bitcom 2024) Aktuelle Zahlen und Statistiken. KI - Investition (Bitcom 2024) Aktuelle Zahlen und Statistiken – KI - Vorteile (Bitcom 2024) Aktuelle Zahlen und Statistiken – KI - Blockaden (Bitcom 2024) Aktuelle Zahlen und Statistiken - KI im Unternehmen (Bitcom 2024) Definition Künstliche Intelligenz Was ist Künstliche Intelligenz? ∙ Definition: Künstliche Intelligenz (KI) ist der Bereich der Informatik, der sich mit der Schaffung von Systemen befasst, die Aufgaben ausführen können, die normalerweise menschliche Intelligenz erfordern. ANI – Artificial Narrow Intelligence: Aktueller Stand AGI – Artificial General Intelligence: Existiert bisher nur als Konzept ASI – Artificial Superintelligence: Hypothetisches Konzept, von KI geschrieben Definition von KI nach dem AI ACT KI beschreibt die Fähigkeit von Maschinen, basierend auf Algorithmen Aufgaben Autonomie Anpassung Ableitung autonom auszuführen und dabei die Problemlösungs- und Entscheidungsfähigkeiten des menschlichen Verstandes nachzuahmen. Autonomie + Lernkapazität = dann greift der AI Act! Grundlegende Technologien der KI Maschinelles Lernen (ML): Systeme, die aus Daten lernen, um Vorhersagen oder Entscheidungen zu treffen Neurale Netze und Deep Learning: Komplexe Architekturen, die dem menschlichen Gehirn nachempfunden sind, um Muster in großen Datenmengen zu erkennen Natürliche Sprachverarbeitung (NLP): Verarbeitung und Verständnis menschlicher Sprache durch Maschinen Computer Vision: Ermöglicht es Maschinen, visuelle Informationen aus der Welt zu interpretieren Kommunikation Mensch und Maschine im Laufe der Zeit 1. Text zu Text Frühe Phase: Sensationell war, dass Nutzer in Textform fragten und eine Text-Antwort zurück kam. Beispiel: Chatbots in den 1960er Jahren. 2. Text zu Bild Weiterentwicklung: KI-Systeme können nun auch Bilder interpretieren und auf Texteingaben reagieren. Beispiel: Google Bildersuche, bei der Nutzer Textbeschreibungen eingeben, um Bilder zu finden. 3. Sprache zu Text Moderne Phase: Sprach-Assistenten erlauben es Nutzern mündliche Befehle zu erteilen und Antworten in Sprach oder Textform zu erhalten (Siri Google Assistent). Beispiele: „Hey Alexa, wie wird das Wetter heute?“ 4. Sprache zu Bild Aktuelle Entwicklungen: KI-Systeme, die mündliche Anweisungen verstehen, um auf Bilder zu reagieren. Beispiel: Sprachgesteuerte Bildsuche, bei der die Nutzer nach Bildern suchen können, indem sie mündliche Beschreibungen verwenden. 5. Emotionale Kommunikation Zukunftsperspektive: KI-Systeme, die menschliche Emotionen erkennen und darauf reagieren. Beispiel: KI-gesteuerte Chatbots, die auf Stimmungsanalyse reagieren. 6. Gedankliche Kommunikation Zukunftsperspektive: Die Technologie zielt darauf ab, menschliche Gedanken in visuelle Darstellung umzuwandeln. Beispiel: KI-gesteuerte Chatbots, die Gehirnaktivitäten in Bilder und Worte übersetzen. Insgesamt zeigt diese Entwicklung, wie KI-Systeme immer besser darin werden, menschenähnliche Kommunikation zu simulieren und auf verschiedene Eingabearten zu reagieren. Kommunikation in der Zukunft Gehirnaktivität in Text übersetzen: Forscher der University of California, San Francisco haben eine KI entwickelt, die Gehirnaktivität in Text übersetzen kann. Das System analysiert neuronale Muster, die auftreten, wenn jemand spricht. Dieses System könnte in Zukunft bei Personen eingesetzt werden, die nicht sprechen können, wie zum Beispiel Menschen, die unter dem Locked-in-Syndrom leiden. Es könnte als eine Art Sprachprothese dienen. Gedanken in Bilder umsetzen: Japanische Wissenschaftler haben eine KI programmiert, die die Gehirnwellen einer Person auslesen und daraus ein Bild erstellen kann. Wenn eine Person beispielsweise auf ein Bild des Buchstabens „A“ schaut, erzeugt die KI ein leicht verschwommenes A. Ein Team aus Singapur und Hongkong hat Daten von Hirnströmen mit einer Bildgenerierungs-KI verknüpft, um Videos zu erzeugen. (Quelle: Mind Video und Universität of Singapur) Quiz zur Künstlichen Intelligenz https://www.learningsnacks. de/report/#/register/29521/ 5e561d7f-3439-43c8-9978-8 6dcc930e3c4 2. Rechtlicher und regulatorischer Rahmen - AI ACT Relevante Gesetze, Richtlinien und Standards zum Einsatz von KI Datenschutzanforderungen und Compliance-Vorgaben Haftungsfragen und Verantwortlichkeiten Das Europäische Parlament hat ein Gesetz über künstliche Intelligenz verabschiedet, ∙ das Grundrechte, Demokratie und Rechtsstaatlichkeit schützen und gleichzeitig Innovationen fördern soll. ∙ Das Gesetz verbietet bestimmte KI-Anwendungen, die die Rechte der Bürger bedrohen, (wie biometrische Fernidentifizierung, Emotionserkennung am Arbeitsplatz und in Schulen sowie das Bewerten von sozialem Verhalten) ∙ legt Verpflichtungen für Hochrisiko-KI-Systeme fest und ∙ sieht Transparenzanforderungen (Einhaltung des EU-Urheberrechts, Veröffentlichung detaillierter Zusammenfassungen der für das Training verwendeten Inhalte. ∙ Darüber hinaus müssen künstlich erzeugte oder bearbeitete Bilder, Audio- und Videoaufnahmen (sogenannte Deepfakes) in Zukunft eindeutig als solche gekennzeichnet werden ∙ sowie Maßnahmen zur Förderung von Innovationen ergriffen werden (z.B. durch Reallabore und Testzentren) ∙ Für leistungsfähigere KI-Modelle, die systemische Risiken bergen könnten, gelten zusätzliche Anforderungen: ∙ (Es müssen Modellbewertungen durchgeführt werden und systemische Risiken müssen bewertet und gemindert werden) Vorfälle im Zusammenhang mit diesen Systemen müssen gemeldet werden! Parlamentarische Erwartungen an das KI-Gesetz Einheitliche Definition für KI Sicherheit und Transparenz Die EU wird eine technologieneutrale, einheitliche Definition für KI Das Europäische Parlament setzt sich dafür ein, dass die in der EU eingesetz festlegen, die auf zukünftige KI-Systeme angewendet werden KI-Systeme sicher, transparent, nachvollziehbar, nicht diskriminierend und kann, um die Vision für die Zukunft der KI zu unterstützen. umweltfreundlich sind. Es soll sichergestellt werden, das menschliche Überwachung statt automatisierter Überwachung schädliche Ergebnisse verhindert. 1. Unannehmbares Risiko 3. Generative KI Bestimmte KI-Systeme Risikobasierter Ansatz werden als unannehmbar des KI-Gesetzes riskant eingestuft und sollen verboten werden, Generative Modelle wie beispielsweise müssten zusätzliche kognitive Transparenz-anforderun Verhaltensmanipulation gen erfüllen, um die und soziales Scoring. Verwendung von (Kreditwürdigkeit) illegalen Inhalten zu KI-Systeme mit hohem Risiko verhindern für die Gesundheit und Sicherheit gelten als hochriskant und unterliegen spezifischen Vorschriften, insbesondere in Bezug auf Produkte und spezifische Bereiche wie Verwaltung und Strafverfolgung. 2. Hochrisiko-KI-Systeme Hochsicherheit: Verbotene KI-Systeme!! Kognitive Verhaltensmanipulation Biometrische Identifizierung Beispiele sind sprachgesteuerte Soziales Scoring Spielzeuge, die Kategorisierung gefährliches Verhalten natürlicher Personen und biometrische Klassifizierung von bei Kindern fördern. Echtzeit-Fern-identifizieru Menschen auf der ngs -Systeme. Grundlage von Verhalten, sozioökonomischem Status und persönlichen Merkmalen. Ausnahmeregelungen und Überwachung! Einige Ausnahmen für die Zulassung von bestimmten KI-Systemen für Alle KI-Systeme mit hohem Risiko werden vor Strafverfolgungszwecke! dem Inverkehrbringen und während ihres gesamten Lebenszyklus überwacht! Fakten zum EU AI Act Das Inkrafttreten des EU AI Acts am 1. August 2024 markiert einen wichtigen Schritt in der Regulierung von Künstlicher Intelligenz (KI) innerhalb der EU. Er zielt darauf ab, ein einheitliches Regelwerk für den Umgang mit KI-Systemen zu schaffen, das besonders risikoreiche Anwendungen strenger reguliert. Auswirkungen und Folgen in Deutschland In Deutschland müssen Unternehmen, die KI entwickeln oder nutzen, erhebliche Anpassungen vornehmen, insbesondere wenn sie in Bereichen tätig sind, die als „hochriskant“ gelten. Dazu gehören Anwendungen wie biometrische Identifikation, medizinische Diagnostik und Entscheidungsfindung in der Personalverwaltung. Diese Unternehmen müssen Konformitätsbewertungen durchführen, um sicherzustellen, dass ihre KI-Systeme den neuen gesetzlichen Anforderungen entsprechen. Geplanter Verlauf für die Mitgliedstaaten Der AI Act wird in mehreren Stufen umgesetzt. 1. Anfangs treten nur grundlegende Bestimmungen in Kraft, 2. während spezifischere Regelungen schrittweise bis 2027 folgen werden. 3. So gelten ab 2025 beispielsweise erste Verbote für hochriskante KI-Systeme. 4. Andere Vorgaben, wie etwa für allgemeine KI-Systeme werden in den darauffolgenden Jahren umgesetzt. Für Unternehmen bedeutet dies, dass sie bereits jetzt beginnen müssen, ihre internen Prozesse anzupassen, Risikobewertungen vorzunehmen und die notwendigen Compliance-Strukturen aufzubauen, um den zukünftigen Anforderungen gerecht zu werden Kritikpunkte zum EU AI Act 1. Übermäßige Regulierung: o Kritiker argumentieren, dass der AI-Act zu restriktiv ist und Innovationen hemmen könnte. Besonders kleinere Unternehmen könnten Schwierigkeiten haben, die umfangreichen Anforderungen zu erfüllen. 2. Komplexität und Kosten: o Die Einhaltung der Vorschriften könnte für Unternehmen sehr kostspielig und komplex sein. Dies betrifft insbesondere die Dokumentations- und Aufzeichnungspflichten für hochriskante KI-Systeme. 3. Unklare Definitionen: o Einige Begriffe und Kategorien im AI-Act sind nicht klar definiert, was zu Unsicherheiten bei der Umsetzung führen kann. Herausforderungen bei der Umsetzung 1. Technische und organisatorische Anforderungen: o Unternehmen müssen erhebliche Ressourcen in die Anpassung ihrer Systeme und Prozesse investieren, um den neuen Anforderungen gerecht zu werden. 2. Internationale Zusammenarbeit: o Da viele KI-Systeme global entwickelt und eingesetzt werden, erfordert die Umsetzung des AI-Acts eine enge Zusammenarbeit mit internationalen Partnern. 3. Überwachung und Durchsetzung: o Die Überwachung der Einhaltung der Vorschriften und die Durchsetzung der Regeln stellen eine große Herausforderung dar, insbesondere bei der schnellen Entwicklung neuer KI-Technologien. Prozess Regulierung vs. Ergebnis Regulierung Prozess Regulierung Ergebnis Regulierung Regelung der Regelung der Technologie, die zu KI-Anwendung der Anwendung führt. Die General Purpose AI-Hersteller müssen Ursprüngliches Ziel ALLES transparent des AI Acts machen! Nötig: eigene Stelle für Cyber-Schutz Neue Behörde: AI Office für G AI Anbieter. Prüfstellen in Deutschland In Deutschland gibt es mehrere externe Stellen, die die Einhaltung des AI Acts überwachen und prüfen können. Bundesamt für Sicherheit in der Informationstechnik (BSI) Das BSI wird eine Rolle bei der Bewertung von IT-Sicherheitsaspekten von KI-Systemen spielen, insbesondere im Zusammenhang mit Datenschutz und Cybersicherheit, die im Rahmen des AI Acts von Bedeutung sind. Benannte Stellen (Notified Bodies) Diese unabhängigen Zertifizierungsstellen werden von der Regierung Kammern und Fachverbände benannt und sind befugt, Konformitätsbewertungen durchzuführen. Industrie- und Handelskammern (IHKs) oder Sie überprüfen, ob KI-Systeme, insbesondere solche in hochriskanten Fachverbände können Beratung und Bereichen, den Anforderungen des AI Acts entsprechen. Unterstützung bieten, um sicherzustellen, dass Unternehmen, die solche KI-Systeme nutzen, können eine solche Bildungseinrichtungen und Unternehmen die Stelle beauftragen, um die notwendige Zertifizierung zu erhalten. Anforderungen des AI Acts erfüllen. Akkreditierungsstellen Datenschutzbehörden der Länder Die Deutsche Akkreditierungsstelle (DAkkS) könnte Da der AI Act auch starke Bezüge zum Datenschutz für die Akkreditierung von Prüfstellen zuständig hat, werden die Datenschutzbehörden der sein, die dann die Konformität von KI-Systemen Bundesländer eine Rolle in der Überwachung spielen, bewerten. insbesondere bei der Sicherstellung, dass personenbezogene Daten in KI-Systemen ordnungsgemäß verarbeitet werden. https://videos.simpleshow.com/4BagYckf0r DSGVO und BDSG Die Datenschutzverordnung ist ein wichtiges Gesetz der Europäischen Union, das die Vereinheitlichung der Regeln zur Verarbeitung personenbezogener Daten reguliert. Sie stellt sicher, dass Unternehmen die notwendigen Sicherheitsvorkehrungen treffen, um die Privatsphäre ihrer Kunden zu gewährleisten. Nach der Konzeption der DSGVO ist z.B. das Verarbeiten von Personendaten grundsätzlich verboten, außer es gibt einen Rechtfertigungsgrund. Z.B.: Erforderlichkeit für Erfüllung eines die Erfüllung einer Wahrung von Gültige Einwilligung Vertrags oder rechtlichen überwiegenden der betroffenen Durchführung Verpflichtung berechtigten Person vorvertraglicher innerhalb der EU Interessen Maßnahmen (oder der EU-Mitgliedstaaten) Daraus ergeben sich folgende Pflichten für Unternehmen: Dokumentationspflicht Informations-/Auskunftspflicht Meldepflicht Datenschutz für technische Datenschutzfolgeabschätzung Datenschutzbeauftragter Maßnahmen sicherstellen Datenschutz und KI Datenschutz und KI zu vereinbaren, ist oft nicht einfach. Grundsätze wie Transparenz und Datenminimierung der KI, also so wenig Daten wie möglich zu verarbeiten, stehen mit dem Datenschutz in Konflikt. Bei der Umsetzung ergeben sich Inwieweit werden Sind Daten folgende Fragen für Unternehmen: die Daten intern personenbezogen oder von Dritten oder nicht? genutzt? Solange die gesammelten Daten nicht personenbezogen sind, ist die Nutzung ohne Probleme möglich und die Daten können auf verschiedene Arten gespeichert werden: Max Müller, Köln, EDV, Zuweisung AA Anonymisierung Pseudoanonymisierung Verschlüsselung XXX,XXX,XXX,EDV,ZAA DS01,DSV01,Ort,POS,ZAA abc123,!§$,()/,QWEW§) Bei der Pseudoanonymisierung Verschlüsselte Daten unterliegen unterliegen die Informationen weiterhin dem Anwendungsbereich als personenbezogene Daten der DSGVO, denn der Personenbezug weiterhin dem wird durch die Entschlüsselung Datenschutzrecht. wiederhergestellt. Datensysteme Die Orientierungshilfe der Datenaufsichtsbehörde der Länder ist KI-Datenschutzkonform! KI-Datensysteme Problem: offen geschlossen Daten müssten nach einer gewissen Zeit gelöscht werden – auf einer Cloud Interne LLM geht das aber nicht…. Datenbank Menschliche Trainingsdaten müssen gefiltert werden, wenn eine Person nicht mit der Nutzung einverstanden ist! Einsatzfelder: Rechtsgrundlage: Entscheidungsfindung: Sensibilisierung: Zwecke muss Einholen von darf nicht/nie bei der KI MA müssen definiert sein Einverständnis bleiben geschult werden/sein Verantwortung und Haftung Die EU plant Regelungen zur Haftung! Spezifische Handlungsregelungen für Betroffene gibt es noch nicht! Was bedeutet Verantwortung und Haftung in Bezug auf KI? ∙ Verantwortung: Pflicht zur ethischen und rechtlichen Es gibt selbstgegebene Prinzipien der Verantwortung für die Entwicklung, Implementierung und großen Entwickler ( Microsoft, Google Nutzung von KI-Systemen. etc.) ∙ Haftung: Rechtliche Verantwortlichkeit für Schäden oder Folgen, die durch KI-Systeme verursacht werden können. Verantwortlichkeiten von Entwicklern und Nutzern in der Künstlichen Rechtliche Aspekte und Haftungsfragen in der Künstlichen Intelligenz Intelligenz ∙ Produkthaftung: Anwendung der bestehenden Produkthaftungsgesetze ∙ Entwickler: Verantwortlich für die Entwicklung ethisch und rechtlich auf KI-Systeme und deren Komponenten. verträglicher KI-Systeme, Einhaltung von Standards und Richtlinien. ∙ Schadensersatz: Mögliche Haftung für Schäden oder Verluste, die durch ∙ Nutzer: Verantwortlich für die ordnungsgemäße Nutzung von fehlerhafte oder missbräuchliche Nutzung von KI-Systemen entstehen. KI-Systemen, Verständnis der Risiken und potenziellen ∙ Regulatorische Anforderungen: Einhaltung spezifischer Vorschriften und Auswirkungen. Richtlinien, die KI-Technologien betreffen (z.B. KI-Gesetzgebung). Schuldsprechung in der Praxis Daher sind zurzeit nur die Wer haftet, wenn ein autonom fahrendes Auto einen Unfall verursacht? Hersteller haftbar, die nachweislich Kann eine künstliche Intelligenz betrügen? einen Fehler beim Bau oder bei der Programmierung gemacht haben. Kann eine KI „bewusst“ kriminell oder aggressiv sein? Beispiel Robotik: Ist ein Roboter haftbar? Fachkräftemangel in der Pflege. Wenn ein Roboter einen Menschen verletzt stellt Auch wenn ein Roboter niemals empathisch sein kann, so kann sich ebenfalls die Frage der Haftung. Strafrechtlich er im Pflegebereich als assistierende Hilfe für viele kleine können nur „natürliche Personen“ für ihr Handeln Routineaufgaben eingesetzt werden, während die Ressourcen verantwortlich gemacht werden. Im Zivilrecht auch der Pflegenden gezielter zum Einsatz kommen können. juristische Personen, doch……ein Roboter ist keins Doch…. von beiden. Rechtsfrage - Schuldfrage Als mögliche Lösung wurde in der Vergangenheit die Einführung einer neuen Rechtspersönlichkeit diskutiert, die „elektronische Person“. (Europäisches Parlament, 2017), was zu Ablehnung und Kritik führte, denn das wirft wiederum ganz andere Fragen auf: Von welchem Würde ihm eine Vermögen würde Gefängnisstrafe ein Roboter seine überhaupt etwas Geldstrafe ausmachen? bezahlen? Wie kann man die Sollten autonome Schuldfähigkeit Systeme und die überhaupt eine Zurechnungs-fähig Rechts-persönlich keit eines Roboters keit haben? bestimmen und messen? Rechtsprechung in Sachen Urheberrecht KI-generierte Bilder und Texte In der EU und den USA sind rein mit KI generierte Bilder und Texte nicht urheberrechtlich geschützt, da eine KI nicht als Urheber auftreten kann. Das bedeutet, dass niemand die Urheberrechte an diesem Bild / Text besitzt. Wenn Sie diese auf Ihrer Website veröffentlichen, kann es theoretisch von jeder anderen Person kopiert und für eigene Zwecke verwendet werden. KI-generierte Bilder und Texte schützen Um sicherzustellen, dass Ihre Werke urheberrechtlich geschützt sind, können Sie Ihre Werke in einem Urheberarchiv zu hinterlegen. Das Urheberarchiv kann Ihnen dabei helfen, Ihre geistigen Eigentumsrechte zu schützen, indem es Ihnen einen gerichtsverwertbaren Nachweis über die Hinterlegung Ihrer Werke liefert. Sie können Ihre Werke in drei einfachen Schritten in diesem Archiv hinterlegen und unverzüglich ein Zertifikat über Ihre Hinterlegung erhalten. Die Kosten für die Hinterlegung eines Werkes betragen 29,90 € inkl. MwSt. für 10 Jahre. Urheberrecht und Schutz Das Urhebergesetz schütz nur die Gedanken (auch Grafiken, Logos, Texte, Musik,…) - also die persönliche Schöpfung eines Menschen und nicht der KI (Bsp. DallE) Bei der Übernahme eines vorbestehenden Werkes bedarf es der Zustimmung des Schöpfers, ABER Nur, solange das benutzte Werk noch erkennbar ist! Nutzungsunterschied Individuelle Nutzung Nutzung zum Training ilegal - Datascraping legal - Data-Scraping zu KI-Traingszwecken Bsp. Bsp. Unterricht, Werbung Texte der New York Times zwecks KI-Training (27.12.23!) Opt Out der Nutzung widersprechen und auf der Webseite/Impressum festhalten!! Laut dem kürzlich verabschiedeten AI Act müssen KI-Anbieter künftig mehr Transparenz bei ihren Trainingsdaten walten lassen und außerdem ein maschinenlesbares Opt-out ermöglichen. Aber wie genau das aussehen soll ist nicht definiert. Ein Opt-out ist einfach gesagt der Hinweis für Daten-Crawler, dass die Bilder auf einer bestimmten Website nicht verwendet werden dürfen. Dieser ist in der Regel in den Website-Code integriert. Um die eigenen Bilder vom KI-Training auszuschließen, müssen Opt-out-Hinweise für die Crawler der verschiedenen Unternehmen angelegt werden. Ethischer Aspekt: Ist ein Opt-out sinnvoll? Hier scheiden sich die Geister. Natürlich ist klar, dass Kreative ihre Arbeiten vor unrechtmäßiger Nutzung schützen wollen – oder zumindest eine Vergütung für die Nutzung ihrer Werke fordern. Aber nach aktueller Rechtslage ist Data-Scraping zu KI-Trainingszwecken erlaubt. Dies wirft Fragen auf. Etwa, was den eigenen Stil ausmacht, ob dieser schützenswert ist, und ob Stile zu schützen nicht eher die Gestaltung einschränken würde. Denn wollen wir nicht eigentlich eine KI, die von so vielen Werken wie möglich lernt, um ein möglichst diverses Bild von Kunst und Design zu erhalten? 3. Ethische Prinzipien und Richtlinien Überblick über ethische Grundsätze wie Transparenz, Gerechtigkeit, Menschenwürde Konkrete ethische Richtlinien für den KI-Einsatz im Unternehmen - Diskussion in Kleingruppen zur Verankerung in Unternehmenswerten - Brainstorming-Session zu ethischen Herausforderungen und Dilemmata Rolle und Einsatz des KI-Ethikkomitees Herausforderung: KI-Einsatz im Unternehmen Wie soll es aussehen und wie sieht es jetzt aus? aber klar doch aber nicht doch Unsicherheit und Ängste Innovation Ablehnung aus der Komfortzone Entlastung Ersatz und Austausch Rechenleistung und Geschwindigkeit: Computer können komplexe Berechnungen viel schneller durchführen als Menschen. Maschine vs. Mensch Dies ist besonders nützlich bei wissenschaftlichen Berechnungen, Simulationen und Trotz dieser Überlegenheit gibt es Bereiche, in Datenverarbeitung. denen das menschliche Gehirn immer noch Vorteile hat. Beispiele sind: Datenverarbeitung: KI kann große Mengen an Informationen schnell und ohne Fehler analysieren. Sie Moralische Verantwortung erkennt Muster im Datenverkehr und kann Anomalien in Echtzeit erkennen. Menschliche IT-Experten ergänzen die KI, indem sie die Muster interpretieren und Abwehrmaßnahmen einleiten. Automatisierung: Computer können repetitive Aufgaben effizient automatisieren. Beispielsweise in Fabriken, wo Roboter Autos oder Maschinen montieren, oder in Haushaltsgeräten wie Waschmaschinen, die die Wassermenge abmessen. Empathie Speicher und Zugriff: Computer können große Mengen an Daten speichern und darauf zugreifen. Sie vergessen nicht und sind nicht von Müdigkeit oder Ablenkung betroffen. Präzision: Computer sind präzise und wiederholbar. Sie führen Aufgaben ohne menschliche Fehler aus. Fähigkeit, kreativ zu denken Berechnungen und Algorithmen: Computer können komplexe Algorithmen ausführen, um Muster zu erkennen, Vorhersagen zu treffen und Entscheidungen zu treffen. Roboter und autonome Systeme: Roboter sind in der Lage, schwere Lasten zu heben und sich kontinuierlich zu bewegen, ohne Ermüdung. Sie sind ideal für Aufgaben, die menschliche Ausdauer. übersteigen Der Mensch setzt Grenzen ! Air Canada: Der Chatbot von Air Canada erstellte eine nicht existierende Rückerstattungsrichtlinie, die das Unternehmen gemäß einem Gerichtsurteil tatsächlich einhalten musste. Nach diesem Vorfall wurde der Bot vorübergehend deaktiviert. Chevy-Händler: Eine Chevy-Händler-KI versprach, einen 2024 Chevrolet Tahoe für 1 US-Dollar zu verkaufen und behauptete, dass dies rechtlich bindend sei. Obwohl niemand den Händler vor Gericht brachte, wurde der Bot dennoch deaktiviert. Lee Luda: das KI-Modell, zeigte in einigen Fällen unangemessene Antworten auf kreative Anfragen. Zum Beispiel machte es homophobe Kommentare und teilte Benutzerdaten, was zu Klagen führte. Lee Luda wurde sofort deaktiviert. Nabla: ein Pariser Gesundheitszentrum, das GPT-3 für medizinische Ratschläge testete. Als ein “Patient” Selbstmordgedanken äußerte, antwortete GPT-3, dass es dabei helfen könne. Diese Vorfälle führten zu Kritik und Nabla wurde deaktiviert. Yandex’s Alice: ein russischer Chatbot, äußerte sich positiv zu Stalin, unterstützte häusliche Gewalt und Selbstmord. Obwohl sie in Einzelgesprächen mit Benutzern verfügbar war, war es schwierig, ihre Mängel öffentlich zu erkennen. Die Hate-Speech von Alice wurde nur durch Screenshots dokumentiert und die KI darauf hin deaktiviert. Mangelnde Programmierung Fehlende menschliche Überwachung Einige Chatbots wurden nicht korrekt programmiert und konnten daher Chatbots, die auf öffentlich verfügbaren Daten trainiert wurden, können nicht effektiv mit Benutzern interagieren. unerwünschte Verhaltensweisen erlernen. Eine ständige menschliche Überwachung ist notwendig, um solche Probleme zu erkennen und zu beheben. Warum liefen diese Bots schief? Begrenztes Kontextverständnis Unzureichende ethische Richtlinien Chatbots können Schwierigkeiten haben, den Kontext einer Konversation Wenn Chatbots keine klaren ethischen Richtlinien haben, können sie zu verstehen und angemessen zu reagieren. (Humor, Sarkasmus, Ironie unangemessene oder gefährliche Antworten geben. etc.) Sicherheit: KI-Verordnung Die Mitgliedstaaten der Europäischen Union haben am 02. Februar 2024 die Verordnung zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (KI-Verordnung, AI Act) einstimmig gebilligt. Mit der KI-Verordnung setzt die EU den Rahmen für den Einsatz von Künstlicher Intelligenz (KI) in Europa. Die Verordnung verfolgt einen risikobasierten Ansatz, der je nach Risikostufe unterschiedliche Pflichten vorsieht und darauf abzielt … Innovationen Vertrauen in KI die Grundrechte und die Sicherheit der zu fördern zu stärken EU-Bürger zu respektieren Deutsche Position: Die Bundesregierung hat sich intensiv in die Verhandlungen eingebracht und mehrere Meilensteine erreicht, wie etwa die Klarstellung, dass die Verordnung eine Produktregulierung ist, die sich nicht auf Forschung und Entwicklung bezieht, das Verbot von Social Scoring und Emotionserkennung am Arbeitsplatz, die Berücksichtigung der Interessen und Bedürfnisse von KMU und Start-ups und die Schaffung von Freiräumen für Reallabore. Die KI-Verordnung in Europa ist das weltweilt erste umfassende Regelwerk für KI. Globale Grenzen und Unterschiede: Die USA und China sind Vorreiter in Sachen KI, dennoch gehen beide Staaten völlig unterschiedliche Wege. USA China ∙Die USA sind führend in der Entwicklung von KI-Systemen. Sie China strebt an, bis 2030 zur weltweit führenden KI-Macht zu setzen auf technologische Innovation und etablierte werden. Das Land investiert massiv in KI-Forschung und Kooperationsstrukturen zwischen Behörden, Unternehmen und -entwicklung. Forschungseinrichtungen. Die chinesische Regierung hat eine schnelle und strenge ∙Die US-Regierung verfolgt das Ziel, die globale KI-Führung zu Regulierung für KI-Systeme eingeführt. Sie setzt auf behalten und die Entwicklung von KI im Sinne amerikanischer KI-Anwendungen in Bereichen wie Gesundheitswesen, Bildung Interessen zu gestalten. Sie betont die freie Marktwirtschaft und autonomes Fahren. und Innovation. In China werden in neue Wohnungen bereits standardmäßig ∙Die USA fahren einen liberalen Kurs: Global Player wie Facebook, Sprachassistenten eingebaut und auf jeden zweiten Chinesen Apple, Google und Amazon können nahezu uneingeschränkt kommt eine Kamera. Die Überwachung der Bürger ist nahezu agieren und Daten über ihre Nutzer sammeln! lückenlos! Wo steht Europa? Die Europäer wünschen eine „gute KI“, die uns nützt und keine Gefahr darstellt. Der AI-Act setzt auf Reflektion und ethische Grundlagen mit kollaborativem Ansatz, der die Zusammenarbeit der Mitgliedstaaten fördert. Zitat: „Europa hat () durch seine humanistische Tradition das Potenzial, durch die strengen Richtlinien KI ethisch und produktiv zu gestalten. Wir entscheiden selbst, wohin wir mit diesen Technologien kommen wollen“. (Schuldt, 2023) Ethikkomitee - interdisziplinär Vertreter der Unternehmens-f ührung Juristische Expertise KI-Ethik-Experte Die Zusammensetzung des KI-Ethikkomitees und die Fachkenntnisse der Mitglieder sind von entscheidender Bedeutung, damit das Komitee seine (Externer) Aufgaben Stakeholder-Ver Datenschutz-Ex kompetent und treter perte unabhängig wahrnehmen kann. Wir empfehlen folgende Technologie-Sp Zusammensetzung: ezialist Zusammensetzung des Ethik-Komitees Ein erfahrener Ethiker, der über fundiertes Wissen zu philosophischen, sozialen und rechtlichen Ethik Aspekten der Ethik verfügt. Er kann die ethischen Implikationen des KI-Einsatzes beurteilen. Ein Rechtsexperte, der mit Bereichen wie Datenschutz, Arbeitnehmerschutz und Antidiskriminierung Recht vertraut ist. Er kann die rechtliche Konformität der KI-Anwendungen sicherstellen. Ein erfahrener Informatiker oder Ingenieur, der technische Details der KI-Systeme und deren IT Funktionsweise versteht. Er kann Risiken und mögliche Fehlerquellen identifizieren. Diese interdisziplinäre Zusammensetzung stellt Ein leitender Manager, der die Unternehmensstrategie, -kultur und -ziele einbringt. Er kann die sicher, dass das Komitee DP Kompatibilität des KI-Einsatzes mit der Unternehmensvision bewerten. über das notwendige Fachwissen verfügt, um den Einsatz von KI im Unternehmen Ein unabhängiger Experte für Datenschutz und IT-Sicherheit, der die Einhaltung von umfassend zu bewerten QM Datenschutzstandards überwacht. und zu überwachen. Durch externe Mitglieder wird zudem die Vertreter von Mitarbeitern, Kunden oder der Öffentlichkeit, um die Perspektiven verschiedener Unabhängigkeit des Stake-ho Interessengruppen einzubringen. Gremiums gewährleistet. lder Kompetenzen und Wissen des Ethikkomitees basierend auf dem AI ACT + Sicherstellung von Transparenz und + Respekt der Menschenwürde und Erklärbarkeit von KI-Entscheidungen Vermeidung von Diskriminierung + Kommunikationspflicht auf allen + Verantwortlichkeit und Ebenen. Rechenschaftspflicht für den KI-Einsatz Verständnis der ethischen Prinzipien + Förderung des menschlichen + Schutz der Privatsphäre und Wohlergehens Datensicherheit + Verantwortungsvoller Umgang mit + Gewährleistung von Fairness und Risiken Chancengleichheit Kompetenzen und Wissen des Ethikkomitees basierend auf dem AI ACT Fachkenntnisse in den Bereichen: Risikobewertung und Risikoanalyse Datenschutzrechtliche Aspekte der von KI-Anwendungen KI-Nutzung Grundlagen und Funktionsweise von KI-Systemen Methoden zur Folgenabschätzung und Gestaltung von Beschwerde- und Vermeidung negativer Auswirkungen Aufsichtsmechanismen Kompetenzen und Wissen des Ethikkomitees basierend auf dem AI ACT Einbindung relevanter Stakeholder (Datenschutz, Austausch und Abstimmung Recht, Sozialwissenschaften mit anderen KI-Ethikgremien etc.) Interdisziplinäre Zusammenarbeit Einhaltung eines Nutzung von externem transparenten Expertenwissen bei Bedarf Kommunikationsplans Dieses umfassende Kompetenzprofil befähigt das Ethikkomitee, die Anforderungen des KI-Gesetzes zu erfüllen und eine effektive ethische Überprüfung und Begleitung des KI-Einsatzes sicherzustellen. Kompetenzen und Wissen des Ethikkomitees basierend auf dem AI ACT Strukturierte Beurteilung von Erarbeitung und Anwendung KI-Anwendungen anhand von ethischen ethischer Kriterien Compliance-Richtlinien Prozesskompetenzen Durchführung von Behandlung von Beschwerden Überprüfungen, Kontrollen und und Eskalation von Vorfällen, Audits Beratung von KI-Anwendern Aufgaben und Verantwortlichkeiten des Ethik-Komitees bei der Überwachung des Einsatzes von KI-Systemen ✔Das Komitee berät und genehmigt die Entwicklung und Implementierung neuer KI-Systeme im Unternehmen. 1. Beratung und Genehmigung ✔Es prüft, ob die geplanten Anwendungen mit den ethischen Richtlinien und Compliance-Vorgaben vereinbar sind.. ✔Das Komitee führt gründliche Risikoanalysen und Folgenabschätzungen für Hochrisiko-KI-Anwendungen durch. 2. Risikoanalyse und ✔Es bewertet mögliche Auswirkungen auf Individuen, Gesellschaft und Umwelt und empfiehlt geeignete Folgenabschätzung Schutzmaßnahmen. ✔Das Komitee überwacht kontinuierlich den Betrieb und die Leistung der KI-Systeme im Unternehmen. 3. Laufende Überwachung ✔Es überprüft, ob die Systeme weiterhin den ethischen Standards entsprechen und leitet bei Auffälligkeiten oder Beschwerden Untersuchungen ein. ✔Das Komitee erarbeitet Vorschläge zur Optimierung und Weiterentwicklung der KI-Systeme im Hinblick auf Ethik 4. Verbesserungsvorschläge und Compliance. ✔Es empfiehlt Anpassungen an Technologien, Prozessen oder Richtlinien. 5. Mitarbeitertraining- und ✔Das Komitee entwickelt Schulungskonzepte zum verantwortungsvollen Umgang mit KI für Mitarbeiter. -sensibilisierung ✔Es fördert das Bewusstsein für ethische Aspekte und Risiken im Unternehmen. Insgesamt dient das unabhängige KI-Ethikkomitee als zentrale Kontrollinstanz, um sicherzustellen, dass KI-Systeme im Einklang mit ethischen Prinzipien, Gesetzen und Unternehmenszielen eingesetzt werden. Seine Arbeit ist entscheidend für das Vertrauen aller Stakeholder. Konkrete Prinzipien der ethischen Compliance 1. Respekt der Menschenwürde Sicherstellung, dass KI-Systeme die Würde und Autonomie des Menschen nicht verletzen Vermeidung jeglicher Diskriminierung oder Entmündigung von Individuen durch KI 2. Fairness und Chancengleichheit Keine unfaire Benachteiligung oder Begünstigung bestimmter Personengruppen durch KI-Anwendungen Gewährleistung gleicher Zugangschancen und -bedingungen 3. Transparenz und Erklärbarkeit Offenlegung der Funktionsweise von KI-Systemen und der Datengrundlage Nachvollziehbare Begründung von Entscheidungen, die durch KI getroffen werden 4. Rechenschaftspflicht und Verantwortlichkeit Klare Zuordnung von Verantwortlichkeiten für den Einsatz von KI Etablierung von Kontroll- und Überprüfungsmechanismen 5. Schutz der Privatsphäre und Datensicherheit Einhaltung von Datenschutzbestimmungen bei der Verarbeitung personenbezogener Daten Gewährleistung eines angemessenen Schutzes sensibler Informationen 6. Förderung menschlichen Wohlergehens Diese Prinzipien bilden einen Berücksichtigung potentieller Auswirkungen auf Gesundheit, Sicherheit und Arbeitsbedingungen wichtigen Rahmen für die Vermeidung unerwünschter Folgen für Individuen oder die Gesellschaft Überprüfung und Sicherstellung der ethischen Compliance von 7. Verantwortungsvoller Umgang mit Risiken Sorgfältige Abwägung und Minimierung von Risiken bei der Entwicklung und Anwendung von KI KI-Systemen im Unternehmen. Etablierung von Kontrollmechanismen und Notfallplänen Das KI-Ethikkomitee spielt dabei eine zentrale Rolle, um deren Einhaltung kontinuierlich zu überwachen. Die sechs Ethik-Prinzipien der UNESCO Deutschland hat bereits wichtige Schritte unternommen, um KI menschenrechtskonform und gemeinwohlorientiert zu regulieren, aber es besteht noch Handlungsbedarf. Diese Prinzipien sind entscheidend, um die digitale Transformation im Einklang mit den Menschenrechten und den Zielen der Vereinten Nationen zu gestalten. Wohltätigkeit: KI-Systeme sollten zum Wohl der Menschheit eingesetzt werden und die Menschenrechte respektieren. Sie sollten keinen Schaden anrichten! Transparenz: KI-Systeme sollten transparent sein. Menschen sollten verstehen können, wie KI-Systeme Entscheidungen treffen und funktionieren! Nicht-Boshaftigkeit: KI sollte keine schädlichen oder böswillige Handlungen ausführen. Sie darf nicht dazu missbraucht werden, Menschen zu schaden! Autonomie: KI sollte menschliche Autonomie respektieren und unterstützen. Sie sollte den Menschen dienen und nicht umgekehrt! Gerechtigkeit: KI-Anwendungen sollten gerecht sein und keine bestehenden Ungleichheiten verstärken. Diskriminierung und Vorurteile müssen vermieden werden! Datenschutz: Der Schutz personenbezogener Daten ist von entscheidender Bedeutung. KI-Systeme sollten die Privatsphäre der Menschen respektieren und ihre Daten sicher behandeln!. Grundsätze des Ethik-Komitees - KI-Systeme müssen dem Wohl des Menschen, der Gesellschaft und der Umwelt dienen. Eine Instrumentalisierung von Menschen ist strikt zu vermeiden. Die Entwicklung und Anwendung Die Kontrolle und von KI muss transparent und Verantwortlichkeit für KI-Systeme nachvollziehbar erfolgen, um das muss klar geregelt und bei Vertrauen der Stakeholder zu Menschen verankert sein. gewährleisten. Nur durch die konsequente Umsetzung solcher ethischen Richtlinien können Unternehmen den verantwortungsvolle n und Der Schutz der Menschenrechte, KI-Systeme dürfen keine vertrauenswürdigen insbesondere der individuellen diskriminierenden Einsatz von KI Grundrechte, muss bei allen Entscheidungen oder KI-Anwendungen gewährleistet gewährleisten. Handlungen hervorbringen. sein. Richtlinien des Ethik-Komitees – konkrete Vorgaben Es muss eine umfassende Risikoanalyse für geplante KI-Anwendungen durchgeführt werden, um mögliche negative Auswirkungen zu identifizieren. Für Hochrisiko-Anwendungen sind besondere Schutzmaßnahmen zu treffen, z.B. durch Zertifizierung, Aufsicht und Notfallpläne. Die verwendeten Trainings- und Trainingsdaten müssen auf Bias und Diskriminierung überprüft werden. KI-Systeme müssen so ausgelegt sein, dass ihre Entscheidungen und Handlungen für Betroffene verständlich und nachvollziehbar sind. Mitarbeiter müssen umfassend über den Einsatz von KI informiert und geschult werden, um Ängste abzubauen. Es muss ein Beschwerde- und Abhilfesystem für KI-Entscheidungen, die Schaden verursachen, etabliert werden. Der Einsatz von KI ist regelmäßig von einem unabhängigen Ethikkomitee zu überprüfen. Best Practices für die ethische KI-Nutzung in der Erwachsenenbildung Ethische Sensibilisierung Richtlinien und Schulung Eine klare und Eine umfassende umfassende Reihe von Schulung von ethischen Richtlinien Pädagogen und sicherstellen, um eine Lernenden durch faire und gerechte KI-Manager zur Nutzung von KI zu ethischen Nutzung von gewährleisten. KI sicherstellen. Gemeinschaftliche Diskussion Eine offene und inklusive Diskussionskultur zur Ethik der KI in der Erwachsenenbildung fördern und unterstützen. Richtlinien für die ethische Anwendung von KI Einführung Grundprinzipien Anwendung Bewertung Transparenz: Alle Zweck: Diese Richtlinie KI-Systeme müssen Datenschutz: dient dazu, ethische Regelmäßige Prüfung: nachvollziehbar und Persönliche Daten von Standards für die KI-Anwendungen sollen erklärbar sein. Nutzer Lernenden müssen Anwendung von regelmäßig auf ethische sollten darüber gemäß den KI-Systemen im Konformität geprüft informiert werden, Datenschutzgesetzen Bildungsbereich werden. wenn sie mit einem behandelt werden. festzulegen. KI-System interagieren. Geltungsbereich: Sie gilt Fairness: KI-Systeme Feedback-Mechanismen für alle sollen frei von Sicherheit: KI-Systeme : Es sollen Mechanismen KI-Anwendungen, die in Vorurteilen sein und müssen sicher und etabliert werden, um unserem Unternehmen dürfen keine robust gegen Feedback von Nutzern entwickelt oder diskriminierenden Manipulationen sein. einzuholen und zu eingesetzt werden. Auswirkungen haben. berücksichtigen. ✔ Zweckbestimmung: Definieren Sie klar den Zweck der KI-Systeme, einschließlich der Unterstützung von Bildungsprozessen und der Verbesserung des Lernerlebnisses. 4. Risikoanalyse und Folgenabschätzung Methoden zur systematischen Risikoanalyse von KI-Systemen Durchführung von Folgenabschätzungen für Hochrisiko-Anwendungen Sicherheitsregularien und Bias Konkrete Fälle für das Einschreiten des Ethikkomitees Einsatz eines Basierend auf den KI-gesteuerten Bewerbungsscreening-Sys Anforderungen des tems, das Bewerber KI-Gesetzes und den aufgrund sensibler möglichen Merkmale wie Alter, Einsatzbereichen von Geschlecht oder Herkunft KI-Systemen, können diskriminiert. Nutzung von KI-gestützten Verwendung von sich in Unternehmen Tutorensystemen, die Schüler Emotionserkennungssysteme und auf Basis von n, um das Verhalten und die Bildungseinrichtunge Persönlichkeitsprofilen Stimmung von Mitarbeitern n folgende konkrete individuell fördern, aber am Arbeitsplatz zu dabei Stereotype verstärken. überwachen. Fälle ergeben, in denen ein Ethikkomitee einschreiten sollte: Analyse sozialer Verwendung von Medienaktivitäten von Emotionserkennungssystem Mitarbeitern durch en, um das Verhalten und KI-gestützte die Stimmung von Schülern Verhaltens-profilierung, um in Klassenräumen zu Rückschlüsse auf deren analysieren. Persönlichkeit und Einsatz von KI-Systemen Leistungsfähigkeit zu ziehen. zur automatischen Bewertung und Sortierung von Schülerleistungen, ohne Möglichkeit zur Überprüfung. Risikoanalyse KI-Systeme müssen dem Wohl des Menschen, der Gesellschaft und der Umwelt dienen. Eine Instrumentalisierung von Menschen ist strikt zu vermeiden. Die Entwicklung und Anwendung von Die Kontrolle und Verantwortlichkeit KI muss transparent und für KI-Systeme muss klar geregelt nachvollziehbar erfolgen, um das und bei Menschen verankert sein. Vertrauen der Stakeholder zu gewährleisten. Der Schutz der Menschenrechte, KI-Systeme dürfen keine insbesondere der individuellen diskriminierenden Entscheidungen Grundrechte, muss bei allen oder Handlungen hervorbringen. KI-Anwendungen gewährleistet sein. Definition und Ursachen von Bias Was ist Bias in der KI? ∙ Bias: Systematische Verzerrungen in KI-Algorithmen, die zu unfairen oder diskriminierenden Ergebnissen führen können. ∙ Arten von Bias: o Datenbias: Verzerrungen, die durch unausgewogene oder unrepräsentative Trainingsdaten entstehen. o Algorithmischer Bias: Verzerrungen, die durch die Designentscheidungen des Algorithmus verursacht werden. o Human Bias: Voreingenommenheiten der Entwickler, die unbewusst in die KI-Systeme einfließen. Ursachen von Bias in KI-Systemen ∙ Unzureichende Datenqualität: Daten, die unvollständig, veraltet oder fehlerhaft sind. ∙ Repräsentativitätsmangel: Trainingsdaten, die bestimmte Gruppen nicht ausreichend abbilden. ∙ Vorurteile in den Daten: Historische und gesellsch. Voreingenommenheiten, die in den Daten enthalten sind. ∙ Designentscheidungen: Algorithmen, die bestimmte Annahmen oder Prioritäten haben, die zu Bias führen können. Vermeidung und Best Practice von Bias Wie kann Bias in KI-Systemen vermieden werden? ∙ Datenqualität verbessern: Sicherstellung der Vollständigkeit, Aktualität und Genauigkeit der Trainingsdaten. ∙ Repräsentative Daten: Sammlung und Nutzung von Daten, die alle relevanten Gruppen angemessen repräsentieren. ∙ Bias-Tests und Audits: Regelmäßige Überprüfung der KI-Systeme auf Bias und Diskriminierung. ∙ Transparenz und Erklärbarkeit: Offenlegung der Entscheidungsprozesse und Kriterien der KI-Systeme. Best Practices zur Vermeidung von Bias ∙ Diversität im Entwicklungsteam: Einbeziehung von Entwicklern aus verschiedenen Hintergründen und Perspektiven. ∙ Ethik-Review-Boards: Einrichtung von Gremien zur Bewertung und Überwachung ethischer Aspekte von KI-Projekten. ∙ Kontinuierliches Lernen und Anpassen: Fortlaufende Anpassung der Algorithmen und Trainingsdaten auf Basis neuer Erkenntnisse und Feedbacks. Übung: Konkrete Fallstudie zur Risikoanalyse o Beschreibung eines KI-Systems zur automatischen Bewertung von Prüfungen o Arbeitsblatt mit Leitfragen zur Identifikation von möglichen Risiken: o Welche personenbezogenen Daten werden verarbeitet? o Welche Fehlerquellen und Verzerrungen können im Algorithmus stecken? o Wie können Diskriminierung und Verletzung der Menschenrechte verhindert werden? o Wie kann Transparenz und Nachvollziehbarkeit der Entscheidungen gewährleistet werden? o Anleitung zur strukturierten Risikoanalyse und Ableitung von Minderungsmaßnahmen Übung: Konkrete Fallstudie zur Folgenabschätzung o Beschreibung eines KI-Systems zur automatischen Bewerbungsvorauswahl o Arbeitsblatt mit Leitfragen zur Bewertung der Auswirkungen: o Welche Risiken bestehen für Chancengleichheit und Diskriminierung? o Wie können negative Auswirkungen auf die psychische Gesundheit der Bewerber verhindert werden? o Welche Transparenzanforderungen müssen erfüllt werden? o Wie kann ein Beschwerdemechanismus etabliert werden? o Vorlage zur strukturierten Dokumentation der Folgenabschätzung 5. Kontinuierliches Monitoring und Kontrolle Transparenz und Erklärbarkeit Etablieren von Beschwerdemechanismen Investitionen in KI Transparenz und Erklärbarkeit Warum sind Transparenz und Erklärbarkeit wichtig? ∙ Vertrauensbildung: Transparenz und Erklärbarkeit erhöhen das Vertrauen der Nutzer in KI-Systeme. ∙ Nachvollziehbarkeit: Erklärbarkeit ermöglicht es, die Entscheidungen von KI-Systemen zu verstehen und nachzuvollziehen. ∙ Rechtliche Anforderungen: Einhaltung gesetzlicher Vorgaben und ethischer Standards. ∙ Fehlererkennung: Früherkennung von Fehlern und Bias in den Entscheidungen von KI-Systemen. Methoden zur Erklärbarkeit von KI-Systemen ∙ White-Box-Modelle: Modelle, deren interne Entscheidungsprozesse transparent und nachvollziehbar sind (z.B. Entscheidungsbäume, lineare Regression). ∙ Post-hoc-Erklärungen: Techniken, die nachträglich Erklärungen für Entscheidungen liefern (z.B. LIME, SHAP). ∙ Visualisierungen: Grafische Darstellungen, die die Entscheidungsprozesse und Datenverteilungen veranschaulichen. Herausforderungen bei der Erklärbarkeit von KI ∙ Komplexität moderner Modelle: Deep Learning und andere fortgeschrittene Modelle sind oft schwer zu erklären. ∙ Handel zwischen Genauigkeit und Erklärbarkeit: Erklärbare Modelle sind manchmal weniger leistungsfähig. ∙ Verständlichkeit für Laien: Erklärungen müssen für nicht-technische Nutzer verständlich sein. ∙ Sensible Daten und Datenschutz: Transparenz darf nicht auf Kosten des Datenschutzes gehen. Etablieren von Beschwerdemechanismen 1. Beschwerdeportal: ❖ Einrichtung eines niedrigschwelligen Online-Portals, über das Lernende, Lehrkräfte und Eltern Beschwerden zum Einsatz von KI-Systemen einreichen können. ❖ Möglichkeit, Probleme wie Diskriminierung, Datenmissbrauch oder mangelnde Transparenz zu melden. ❖ Gewährleistung der Vertraulichkeit und Anonymität, um Hemmschwellen abzubauen. 2. Ombudsstelle: ❖ Benennung einer unabhängigen Ombudsperson als Ansprechpartner für Beschwerden. ❖ Befugnis, Vorfälle zu untersuchen und Empfehlungen an das Ethikkomitee auszusprechen. ❖ Regelmäßige Sprechstunden und proaktive Kommunikation in der Bildungseinrichtung. 3. Beschwerdeprozess: ❖ Klar definierte Eskalationsstufen und Entscheidungsverfahren bei Beschwerden. ❖ Zeitnahe Bearbeitung und Rückmeldung an die Beschwerdeführenden. ❖ Möglichkeit der Einlegung von Widersprüchen gegen Entscheidungen. 4. Whistleblower-Schutz: Durch diese ❖ Verankerung von Schutzmaßnahmen für Whistleblower, die Missstände beim KI-Einsatz melden. Beschwerdemechanismen ❖ Zusicherung von Vertraulichkeit und Schutz vor Repressalien. kann das Ethikkomitee ❖ Schaffung vertrauensvoller Kanäle für anonyme Hinweise. sicherstellen, dass Probleme 5. Öffentlichkeitsarbeit: frühzeitig erkannt und behoben werden. Dies stärkt ❖ Aktive Kommunikation der Beschwerdemöglichkeiten und Verfahren. das Vertrauen in den ❖ Regelmäßige Berichte über Beschwerdefälle und Maßnahmen des Ethikkomitees. transparenten und ❖ Sensibilisierung der Bildungsgemeinschaft für ethische Fragen des KI-Einsatzes. verantwortungsvollen Umgang mit KI-Systemen in Bildungseinrichtungen. Die Verantwortung der Wahl Um die Entscheidungsfindung von KI-Systemen in Bildungseinrichtungen nachvollziehbar zu machen, ergreifen Ethikgremien folgende konkrete Maßnahmen: Transparenz bei der Algorithmen Entwicklung: Offenlegung der verwendeten Trainingsdaten, Algorithmen und Modelle o Beschreibung der Funktionsweise der KI-Systeme in verständlicher Sprache o Erklärung der Entscheidungslogik und Vermeidung von "Black Box"-Modellen Auditierung und Überprüfung: Durch diese Maßnahmen soll das Vertrauen der Nutzer in Regelmäßige unabhängige Audits der KI-Systeme durch externe Experten die Fairness, Integrität und o Überprüfung auf mögliche Diskriminierung, Verzerrungen oder Fehleinschätzungen Kontrollierbarkeit der o Dokumentation der Auditergebnisse und Veröffentlichung von Zusammenfassungen KI-Systeme gestärkt werden. Erklärbarkeit der Entscheidungen: Transparenz und Erklärbarkeit sind entscheidende Faktoren, Entwicklung von Methoden, um die Entscheidungsfindung der KI für Nutzer nachvollziehbar darzustellen damit KI-Anwendungen in o Bereitstellung einfacher, verständlicher Erklärungen für Bewertungen, Rückmeldungen und Empfehlungen Bildungseinrichtungen o Möglichkeit für Nutzer, Entscheidungen hinterfragen und überprüfen zu lassen akzeptiert und Benutzerfreundliche Schnittstellen: verantwortungsvoll eingesetzt werden können. Gestaltung von Oberflächen und Interaktionen, die für Nutzer intuitiv und selbsterklärend sind o Einfache Zugangsmöglichkeiten zu Informationen über die KI-Systeme und deren Funktionsweise o Einbeziehung von Nutzerfeedback in die kontinuierliche Verbesserung der Mensch-Maschine-Schnittstellen Nutzerschulungen und -beteiligung: Angebote zur Schulung und Weiterbildung von Lehrenden und Lernenden zum Thema KI-Transparenz o Einbindung von Nutzern in Testphasen und Evaluationen neuer KI-Anwendungen o Möglichkeiten für Nutzer, Bedenken und Verbesserungsvorschläge einzubringen 1. Sicherheit und Datenschutz: Parameter im Vergleich - Datenverarbeitung und -speicherung: Wie und wo werden die Daten verarbeitet und gespeichert? - Datenschutzstandards und Compliance: Welche Zertifizierungen (z. B. GDPR, SOC 2) und Sicherheitsmaßnahmen sind implementiert? - Zugriffskontrollen und Authentifizierung: Sicherheitsmechanismen zum Schutz vor unberechtigtem Zugriff. 2. Standort der Server und Datenhoheit: - Standort der Rechenzentren: In welchen Ländern sind die Server stationiert? - Datenhoheit und -souveränität: Gibt es Optionen für regionsspezifische Datenhaltung, und wie werden nationale Gesetze eingehalten? - Verfügbarkeit von On-Premises-Lösungen: Ist eine Installation auf eigenen Servern möglich? 3. Leistung und Skalierbarkeit: - Modellgröße und Parameteranzahl: Welche Modellgröße wird verwendet, und wie leistungsfähig ist das Modell in verschiedenen Anwendungen? - Verarbeitungszeit und Latenz: Wie schnell liefert das Modell Ergebnisse? - Skalierbarkeit: Eignet sich das Modell für große Nutzerzahlen und hohe Anfragenvolumina? 4. Kostenstruktur und Preis-Leistungs-Verhältnis: - Preismodell: Welche Abrechnungsoptionen werden angeboten (z. B. nach Nutzung, monatlich)? - Kosten pro Anfrage: Was kostet eine einzelne Anfrage oder Nutzungseinheit? - Langfristige Preisentwicklung: Gibt es Preisnachlässe bei langfristigen Verträgen oder hohem Nutzungsvolumen? 5. Anwendungsintegration und API-Verfügbarkeit: - API-Zugriff und Kompatibilität: Wie einfach lassen sich APIs in bestehende Systeme integrieren? - Unterstützung für Drittanbieter-Integrationen: Welche Tools und Plattformen werden unterstützt? - Anpassbarkeit und Flexibilität: Welche Möglichkeiten zur Anpassung des Modells an spezifische Anforderungen gibt es? 6. Modell- und Sprachverständnis: - Sprachabdeckung: Welche Sprachen werden unterstützt? - Wissensstand und Aktualität: Inwieweit ist das Modell mit aktuellen Informationen ausgestattet? - Anpassungsfähigkeit: In welchem Umfang kann das Modell durch Fine-Tuning oder spezialisierte Daten trainiert werden? 7. Community und Support: - Kundensupport und SLAs: Welche Support-Optionen (z. B. 24/7-Support) und Service Level Agreements (SLAs) sind verfügbar? - Community und Entwicklerressourcen: Gibt es eine starke Entwickler-Community und unterstützende Dokumentationen? - Weiterentwicklung und Updates: Wie oft wird das Modell aktualisiert und um neue Funktionen ergänzt? KI-Investitionen in LLM Open AI Microsoft Anthopic Meta Quora Chat GPT Copilot Claude Llama POE Kostenstruktur Anwendungs-integr Sicherheit und Serverstandort Leistung und Model und Community und und ation und Datenschutz und Datenhoheit Skalierbarkeit Sprachverständnis Support P/L-Verhältnis API-Verfügbarkeit Investitionen E-Tools mit KI Textgenerator Präsentationen Transkriptionen Video Lehre Kahoot Gamma Quizgecko Neuroflash Notebook LM Wepik 6. Sensibilisierung und Befähigung von Mitarbeitern Die Basis der Digitalen Transformation - AI Literacy Personalentwicklung und Zertifikationen Operationalisierung von KI-Gesetzen Der AI ACT - Auswirkungen im Bereich der Erwachsenenbildung Der AI Act stellt eine doppelte Herausforderung dar: Einerseits müssen Bildungseinrichtungen sicherstellen, dass sie die gesetzlichen Vorgaben erfüllen, andererseits bietet er die Chance, KI innovativ und ethisch im Bildungsbereich einzusetzen. 1. Regulierung von KI-Systemen im Bildungsbereich - Kategorisierung von Risiken: KI-Systeme, insbesondere solche, die Lernprozesse beeinflussen (z.B. adaptive Lernplattformen, automatisierte Bewertungssysteme), könnten als „hochriskant“ eingestuft werden. Diese Systeme müssen strenge Anforderungen erfüllen, einschließlich Konformitätsbewertung und Transparenzanforderungen. - Transparenzanforderungen: Bildungseinrichtungen müssen sicherstellen, dass die Funktionsweise von KI-Systemen für die Nutzer nachvollziehbar ist. Dies könnte bedeuten, dass Teilnehmende informiert werden müssen, wenn ihre Leistungen durch KI-Systeme bewertet oder ihre Lernpfade durch Algorithmen bestimmt werden. 2. Datenschutz und Ethik - Schutz von persönlichen Daten: Der AI Act betont den Schutz persönlicher Daten, was besonders im Bildungsbereich relevant ist, da hier oft sensible Daten über Studierende gesammelt werden. KI-Systeme müssen so gestaltet sein, dass sie den Datenschutzanforderungen entsprechen. - Vermeidung von Diskriminierung: KI-Systeme dürfen keine diskriminierenden Entscheidungen treffen. Im Bildungsbereich bedeutet dies, dass Algorithmen sorgfältig geprüft werden müssen, um sicherzustellen, dass sie keine Voreingenommenheit gegenüber bestimmten Gruppen aufweisen. 3. Erhöhung der Verantwortlichkeit - Überwachung und Kontrolle: Bildungseinrichtungen werden verpflichtet sein, die Nutzung von KI-Systemen regelmäßig zu überwachen und sicherzustellen, dass sie den gesetzlichen Anforderungen entsprechen. Dies könnte zusätzliche Kosten und organisatorischen Aufwand bedeuten. - Externe Prüfungen und Zertifizierungen: Für einige Systeme könnte eine externe Zertifizierung erforderlich sein, um die Einhaltung der gesetzlichen Vorschriften nachzuweisen. 4. Innovation und Anpassung - Förderung von innovativen Lehrmethoden: Der AI Act könnte Bildungseinrichtungen dazu anregen, innovative KI-gestützte Lehrmethoden zu entwickeln und zu implementieren, solange diese den gesetzlichen Anforderungen entsprechen. - Anpassung der Lehrpläne: Es könnte notwendig werden, Lehrpläne anzupassen, um den Studierenden den verantwortungsvollen Umgang mit KI und die rechtlichen Rahmenbedingungen näherzubringen. 5. Kosten und Ressourcen - Erhöhte Betriebskosten: Die Einhaltung der neuen Anforderungen kann mit erhöhten Kosten verbunden sein, insbesondere wenn externe Berater oder Zertifizierungsstellen eingeschaltet werden müssen. - Schulung des Personals: Es wird notwendig sein, Lehrkräfte und Verwaltungspersonal im Umgang mit KI-Systemen und den rechtlichen Anforderungen des AI Acts zu schulen. QM und Operationalisierung von KI-Gesetzen Dokumentation und Richtlinien und Anleitungen Datenethik und Datenschutz Formulare Einverständniserklärungen Anleitungen zur Genehmigungsverfahren zur Nutzung Kennzeichnung von für die Datenverwendung personenbezogener Daten KI-generierten Inhalten Erstellung eines Abfrageformular für Richtlinien zum Zitieren von Transparentsbericht für KI Datenquellen und KI-Quellen Schaffung einer KI-Training Anleitung zur Feedback-Kultur. Nutzerfeedback-Formulare Datenverwendung und für KI-Systeme -sicherheit Prüf- und Schulungsanleitungen für Kontroll-Formulare Mitarbeiter QM und Operationalisierung von KI-Gesetzen 1. **Dokumentation und Formulare** - **Neue Formulare zur Nutzung von KI**: z. B. Einverständniserklärungen zur Nutzung personenbezogener Daten, Formular für KI-basierte Entscheidungen. - **Abfrageformulare für Datenquellen und KI-Training**: Um sicherzustellen, dass Daten rechtskonform und ethisch unbedenklich verwendet werden. - **Nutzerfeedback-Formulare für KI-Systeme**: Um potenzielle Bias oder Funktionsmängel frühzeitig zu erkennen. - **Prüf- und Kontrollformulare**: Dokumentationen zur Nachvollziehbarkeit der KI-Entscheidungen und deren Audits. 2. **Richtlinien und Anleitungen** - **Anleitungen zur Kennzeichnung von KI-generierten Inhalten**: Standards zur korrekten Benennung und Kennzeichnung, wenn Inhalte von KI-Tools generiert wurden. - **Richtlinien zur Zitierung von KI-Quellen**: Etablierung von Regeln, wie und wann KI-Quellen in Berichten oder internen Dokumenten referenziert werden müssen. - **Anleitung zur Datenverwendung und -sicherheit**: Leitfaden zum Schutz sensibler Daten in KI-Systemen. - **Schulungsanleitungen für Mitarbeiter**: Dokumente zur korrekten Nutzung und Interpretation der KI-Systeme. - **Dokumentation zur Fehlerbehebung und Eskalation bei KI-Ausfällen**: Anweisungen, wie in Fällen von fehlerhaften KI-Entscheidungen zu verfahren ist. 3. **Datenethik und Datenschutz** - **Genehmigungsverfahren für die Datenverwendung**: Festlegung, welche Daten für die KI-Anwendungen verwendet werden dürfen und wie deren Nutzung autorisiert wird. - **Erstellung eines Transparenzberichts für KI**: Offenlegung, wie KI-Modelle trainiert und eingesetzt werden. - **Schaffung einer Feedback-Kultur**: Einbindung von Feedback-Schleifen, um ethische und rechtliche Bedenken der Mitarbeiter aufzunehmen. Checkliste: Ethischer KI-Einsatz durch Lehrende Allgemeine Prinzipien: ◻ Wurden KI-Systeme mit dem Ziel entwickelt, die Lehre und das Lernen zu verbessern, und nicht, um Lehrende zu ersetzen? ◻ Wird der Einsatz von KI transparent kommuniziert und wird Lehrenden erklärt, wie die Systeme funktionieren? ◻ Haben Lehrende die Möglichkeit, Bedenken oder Beschwerden zum KI-Einsatz einzureichen? Faire und diskriminierungsfreie Nutzung: ◻ Werden Lehrende bei der Leistungsbewertung oder Beförderung aufgrund ihrer Nutzung von KI-Systemen weder benachteiligt noch bevorzugt? ◻ Berücksichtigt die KI-Nutzung die individuellen Fähigkeiten und Bedürfnisse der Lehrenden? ◻ Werden KI-gestützte Entscheidungen regelmäßig auf mögliche Diskriminierung hin überprüft? Schutz der Privatsphäre und Daten: ◻ Werden personenbezogene Daten der Lehrenden nur für den vereinbarten Zweck und unter Beachtung des Datenschutzrechts verarbeitet? ◻ Haben Lehrende die Möglichkeit, Einsicht in die über sie gespeicherten Daten zu nehmen? ◻ Werden Lehrende über Umfang, Zweck und Verarbeitung ihrer Daten informiert und um Einwilligung gebeten? Transparenz und Kontrolle: ◻ Können Lehrende nachvollziehen, wie die KI-Systeme ihre Arbeit beeinflussen? ◻ Haben Lehrende die Möglichkeit, KI-gestützte Entscheidungen zu hinterfragen und korrigieren zu lassen? ◻ Werden Lehrende in Entscheidungsprozesse zum KI-Einsatz eingebunden? Förderung des Vertrauens: ◻ Werden Lehrende bei der Einführung und Weiterentwicklung von KI-Systemen aktiv einbezogen? ◻ Erhalten Lehrende Schulungen und Unterstützung zum kompetenten Umgang mit KI? ◻ Werden Bedenken und Sorgen der Lehrenden ernst genommen und adressiert? 7. Rolle des Ethik-Komitees und Zusammenarbeit im Unternehmen Positionierung und Kompetenzen des Komitees Herausforderungen und Handlungsstrategie Kommunikation und Beschwerdemechanismen Einsatzbereiche des Komitees…. Gefahr der unfairen und Verstärkung von Stereotypen und diskriminierenden Leistungsbeurteilung Benachteiligung bestimmter Gruppen von Teilnehmenden Unzureichende Berücksichtigung Mangelnde Transparenz und individueller Lernbedürfnisse Erklärbarkeit der Entscheidungen Mangelnde menschliche Begleitung und Risiko, individuelle Fähigkeiten und Einsatz von Verwendung Betreuung Potenziale nicht angemessen zu KI-basierten von berücksichtigen Bewertungs-sy KI-gesteuerten stemen bei Tutoren-system Teilnehmenden en Einsatz von Integration von KI-basierten KI-Systemen in Verletzung der Privatsphäre und Würde Überwachungs- den digitalen Sicherstellung der pädagogischen von Teilnehmenden systemen Unterricht Sinnhaftigkeit und Lernförderlichkeit Potenzielle Einschränkung der Freiheit Vermeidung von Desinformation und und Selbstbestimmung Manipulation Risiko der Stigmatisierung und Gewährleistung des Schutzes Diskriminierung personenbezogener Daten Handlung und Beiträge des Komitees Durch das Ethikkomitee können Bildungsträger die Risiken des KI-Einsatzes proaktiv managen, das Vertrauen Etablierung von von Lernenden und Eltern Entwicklung ethischer Richtlinien für den stärken und gleichzeitig Beschwerdemechanismen und Einsatz von KI beim Bildungsträger von den Potenzialen Rechenschaftspflichten innovativer Technologien profitieren. Kontrolle und Überwachung des Beratung und Unterstützung bei der KI-Einsatzes, um negative Auswirkungen Risikoanalyse und Folgenabschätzung zu verhindern Förderung von Transparenz und Vermittlung zwischen technischen Erklärbarkeit bei KI-basierten Möglichkeiten, pädagogischen Zielen Entscheidungen und ethischen Prinzipien Herausforderungen für das Ethikkomitee Warum sind Ethikkomitees wichtig für Künstliche Intelligenz? ∙ Ethikbewusstsein: Förderung von ethischen Grundsätzen und Werten im Umgang mit KI-Technologien. ∙ Risikominimierung: Identifizierung und Bewertung potenzieller Risiken und negativer Auswirkungen von KI. ∙ Vertrauensbildung: Aufbau von Vertrauen bei Nutzern, Stakeholdern und der Öffentlichkeit durch transparente und ethisch reflektierte Entscheidungen. Herausforderungen bei der Arbeit von Ethikkomitees ∙ Komplexität von KI: Schwierigkeiten bei der Anwendung allgemeiner ethischer Prinzipien auf komplexe KI-Systeme. ∙ Interessenkonflikte: Unterschiedliche Interessen und Perspektiven der Komiteemitglieder und Stakeholder. ∙ Aktualität von Richtlinien: Notwendigkeit, Richtlinien und Standards kontinuierlich an neue technologische Entwicklungen anzupassen. ∙ Diskussionsfragen: o Welche Aufgaben sollte ein Ethikkomitee in Ihrer Organisation haben? o Wie können Ethikkomitees zur Förderung einer ethischen Nutzung von KI beitragen? o Welche Maßnahmen können ergriffen werden, um die Unabhängigkeit und Effektivität eines Ethikkomitees sicherzustellen? Handlungsstrategie Um die Anforderungen des AI Acts in einem Bildungswerk für Erwachsenenbildung umzusetzen, kann ein systematischer und dokumentierter Ansatz in mehreren Schritten erfolgen. Hier ist ein möglicher Ablauf: 1. Bestandsaufnahme und Risikobewertung - 1.1: Inventarisierung von KI-Systemen: Erstellen Sie eine Liste aller genutzten oder geplanten KI-Systeme. Dazu gehören Systeme für Verwaltung, Kurserstellung, Prüfungsevaluation oder Online-Lernplattformen. - 1.2: Risikobewertung: Analysieren Sie, welche dieser Systeme unter den AI Act fallen könnten, insbesondere in Bezug auf die Kategorien „hohes Risiko“. Prüfen Sie, ob die KI Systeme personalisierte Lernpfade, automatische Bewertungssysteme oder datengestützte Entscheidungshilfen enthalten, die den Bildungsprozess beeinflussen. 2. Konformitätsbewertung - 2.1: Selbstbewertung und externe Prüfung: Führen Sie eine Konformitätsbewertung durch. Für hochriskante Systeme kann eine externe Zertifizierung notwendig sein. Dokumentieren Sie dabei den Prozess, um später die Konformität nachweisen zu können. - 2.2: Erstellung von Risikomanagement-Prozessen: Entwickeln Sie Prozesse zur kontinuierlichen Überwachung und Risikominimierung von KI-Systemen. Diese Prozesse sollten dokumentiert und regelmäßig überprüft werden. 3. Anpassung der internen Richtlinien - 3.1: Richtlinienentwicklung: Passen Sie Ihre Datenschutz- und IT-Sicherheitsrichtlinien an, um den Anforderungen des AI Acts gerecht zu werden. Dokumentieren Sie jede Änderung und die Gründe dafür. - 3.2: Schulung der Mitarbeiter: Schulen Sie das Personal im Umgang mit KI-Systemen und den neuen gesetzlichen Anforderungen. Halten Sie Schulungsnachweise fest.. 4. Implementierung und Überwachung - 4.1: Einführung und Überwachung: Implementieren Sie die neuen Richtlinien und Prozesse. Nutzen Sie Monitoring-Tools, um die Einhaltung zu überwachen und Abweichungen zu identifizieren. - 4.2: Interne und externe Audits: Führen Sie regelmäßige Audits durch, um die Einhaltung des AI Acts sicherzustellen. Dokumentieren Sie die Ergebnisse und die ergriffenen Maßnahmen. 5. Dokumentation und Berichterstattung - 5.1: Erstellung eines Compliance-Bericht: Dokumentieren Sie den gesamten Umsetzungsprozess in einem Bericht, der die Risikoanalyse, Konformitätsbewertungen, Richtlinienänderungen, Schulungsmaßnahmen und Auditergebnisse enthält. - 5.2: Aktualisierung und Archivierung: Halten Sie die Dokumentation stets aktuell und archivieren Sie sie in einer Weise, die eine einfache Zugänglichkeit und Überprüfbarkeit ermöglicht. 6. Kontinuierliche Anpassung - 6.1: Überwachung neuer Vorschriften: Bleiben Sie informiert über neue Entwicklungen im Bereich der KI-Regulierung und passen Sie Ihre Prozesse entsprechend an. - 6.2: Feedback-Schleife: Nutzen Sie Feedback aus der Praxis und Audits, um Ihre Prozesse kontinuierlich zu verbessern. Beispiel VHS

Use Quizgecko on...
Browser
Browser