Summary

This document provides an overview of various artificial intelligence (AI) topics, including different types of AI systems, data-based approaches like supervised and unsupervised learning, and algorithms such as the k-nearest neighbors (kNN) algorithm and perceptrons. It also touches upon hyperparameters, neural networks, logical operations (AND/OR), and evaluating AI system performance using metrics like a confusion matrix.

Full Transcript

Lernzettel Arten von KI Wissensbasierte Systeme: Regeln/Strategien durch Experten erstellt und in Tabellen/Entscheidungsbäumen bzw. Datensets gespeichert. Bsp.: Bauernschach, Übersetzungsprogramme Datenbasierte Systeme (Machine Learning): Maschine erstellt Regeln/Mustern selbst...

Lernzettel Arten von KI Wissensbasierte Systeme: Regeln/Strategien durch Experten erstellt und in Tabellen/Entscheidungsbäumen bzw. Datensets gespeichert. Bsp.: Bauernschach, Übersetzungsprogramme Datenbasierte Systeme (Machine Learning): Maschine erstellt Regeln/Mustern selbst aus Daten und erzeugt ein Modell. Bsp.: Bildklassifizierung, selbstfahrende Autos Datenbasierte Ansätze 1. Verstärkendes Lernen (Reinforcement Learning): Belohnung/Bestrafung (Bsp.: Computerspiele, Roboter). 2. Überwachtes Lernen (Supervised Learning): Training mit beschrifteten Daten (Bsp.: Bilderkennung, Spamfilter) 3. Unüberwachtes Lernen (Unsupervised Learning): Keine Labels, Muster/Cluster selbst in Daten erkennen k-nächste-Nachbarn-Algorithmus (kNN) Definition Überwachtes Lernen: Einem Punkt wird ein Label durch die k nächsten Nachbarn zugeordnet. k-Nächste-Nachbarn: Die k Punkte, die dem zu untersuchenden Punkt am nächsten liegen. Schritte 1. Vorbereitung: Trainingsdaten vorbereiten und k festlegen. 2. Abstand berechnen: Distanz zu allen Trainingspunkten berechnen. 3. Sortieren: Trainingsdaten aufsteigend nach Abstand sortieren. 4. Klassifikation: Datenpunkt anhand der k Nachbarn klassifizieren. Hyperparameter k Klein k: Risiko von Overfitting (zu genaues Modell). Groß k: Risiko von Underfitting (zu ungenaues Modell). Perzeptron Aufbau Gewichte (w1, w2): Stärke der Eingaben. Schwellenwert s: Aktivierungsgrenze. Aktivierungsfunktion: Wenn gewichtete Summe > s: Ausgabe 1, sonst 0. Eigenschaften Linearer Seperator: Trennt linear Klassen im Raum Unterschied: Perzeptron: Einfaches Modell, nur linear trennbare Daten. Künstliches Neuron: Mehrschichtig, nicht-linear durch Aktivierungsfunktionen. Delta-Lernregel Anpassung der Gewichte w und Schwelle s nach: wneu = walt + a ∗ (Labelwert − berechnetesErgebnis) ∗ Eingabe Java-Umsetzung public double WertBerechnen(double x1, double x2) { double gewichteteSumme = w1 * x1 + w2 * x2 - s; if(gewichteteSumme > 0) return 1; else return 0; } Neuronale Netze Eingabeschicht: Eingabewerte für jedes Merkmal. Verborgene Schicht(en): Verarbeitung der Daten. Ausgabeschicht: Finale Ergebnisse. UND-Neuron / ODER-Neuron UND: Alle Eingaben müssen erfüllt sein (logisches UND). 2 ODER: Mindestens eine Eingabe muss erfüllt sein (logisches ODER). 2 Fehler 1. Art & Fehler 2. Art Fehler 1. Art: Falsch positiv (z.B. Deutsch erkannt, aber tatsächlich nicht). Fehler 2.Art: Falsch negativ (z.B. Nicht-Deutsch erkannt, aber tatsächlich Deutsch). als Deutsch nicht als Deutsch klassifiziert klassifiziert Tatsächlich Fehler Deutsch 1. Art Tatsächlich Fehler nicht Deutsch 2. Art Güte des KI-Systems Trainingsdaten: Zum Trainieren des Modells. Validierungsdaten: Zum Bestimmen des Hyperparameters k. Testdaten: Überprüfung der endgültigen Modellgüte. Konfusionsmatrix hilft, die Klassifizierungsleistung zu messen.

Use Quizgecko on...
Browser
Browser