PCA Technique en IA (PDF)

Document Details

RelaxedMothman

Uploaded by RelaxedMothman

Université Hassan II de Casablanca

El Ouarouar Imane, Farrouj Adam, Benchachoua Widad

Tags

PCA analyse de données intelligence artificielle apprentissage automatique

Summary

This presentation details the Principal Component Analysis (PCA) technique and its applications in various fields, especially in intelligence artificielle. It outlines the steps of PCA, including data standardization, calculation of covariance matrix, eigenvectors, eigenvalues and then the interpretation of the results.

Full Transcript

PCA Technique Présenté par : EL OUAROUAR Imane FARROUJ Adam Encadrée par : BENGHACHOUA Widad Licence en Ingénierie électrique automatique et intelligence artificielle Sommair 0 e Qu'est-ce que la...

PCA Technique Présenté par : EL OUAROUAR Imane FARROUJ Adam Encadrée par : BENGHACHOUA Widad Licence en Ingénierie électrique automatique et intelligence artificielle Sommair 0 e Qu'est-ce que la PCA ? 1 02 Les étapes de la PCA 0 Application de la PCA en intelligence 3 artificielle 0 Avantages et limites de la PCA 4 0 Conclusion 5 Analyse en composantes principales L'analyse en composantes principales, ou ACP, est une méthode puissante de réduction de dimensionnalité utilisée dans l'apprentissage automatique et l'analyse de données. Objectif de la PCA Réduction de la Visualisation des données dimensionnalité Représenter les données Simplifier les données complexes en multidimensionnelles dans un espace un nombre réduit de variables de dimensionnalité inférieure, significatives. facilitant la visualisation et l'interprétation. Identification des tendances Détecter les relations cachées entre les variables et les tendances sous-jacentes dans les données. Étapes de la PCA Standardisation des données 1 Mettre toutes les variables à la même échelle pour éviter que les variables avec des variances élevées ne dominent l'analyse. 2 Calcul de la matrice de covariance Déterminer la corrélation entre les variables pour identifier les variables fortement liées. Calcul des valeurs et vecteurs propres 3 Trouver les directions de la variance maximale dans les données, représentant les composantes 4 Interprétation des composantes principales principales. Examiner les vecteurs propres pour comprendre la contribution de chaque variable à chaque Projection des données 5 composante principale. Projecter les données originales sur les composantes principales pour obtenir une représentation de dimensionnalité réduite. Standardisation des données Exemple Pourquoi standardiser ? Individu Taille(cm) Poids(kg) La standardisation permet de mettre toutes les 1 160 50 variables à la même échelle en les centrant autour de 0 et en divisant par leur écart type. Cette étape est 2 170 60 essentielle pour éviter que les variables avec des 3 180 70 variances élevées ne dominent l'analyse. Méthodes de standardisation Il existe plusieurs méthodes de standardisation, comme Individu Taille(standarisée) Poids(standarisé) la standardisation z-score. 1 -1.22 -1.22 X−μ 2 0 0 Z=​ σ 3 1.22 1.22 Calcul de la matrice de covariance Définition La matrice de covariance mesure la corrélation entre les variables d'un ensemble de données. Calcul La matrice de covariance est calculée en utilisant la formule suivante : standardisées, leurs moyennes sont nulles ( 𝑋ˉ=0), ce Dans notre exemple, comme les données sont qui simplifie la formule : Calcul des valeurs propres et des vecteurs propres 1 Valeurs propres 2 Vecteurs propres Directions des axes où il y Coefficients attachés aux a le plus de variance vecteurs propres, (informations). indiquant la quantité de variance portée par chaque composante principale. Interprétation des composantes principales Contribution des Choix des variables composantes En examinant les vecteurs On sélectionne généralement propres, on peut comprendre la les composantes principales qui contribution de chaque variable expliquent la plus grande partie à chaque composante de la variance des données. principale. Projection des données Représentation de dimensionnalité réduite En projetant les données originales sur les composantes principales, 1 on obtient une représentation de dimensionnalité réduite. Analyse des résultats L'analyse des données projetées permet d'identifier 2 des tendances et des relations cachées dans les données d'origine. Applications de la PCA en IA Prédiction Réduction de la dimension avant l'entraînement de modèles comme la 1 régression ou les réseaux de neurones. Traitement d'Image 2 Compression d'images ou extraction de caractéristiques (comme dans la reconnaissance faciale). Analyse de Données Génomiques 3 Simplification de grandes matrices de données génétiques. Détection d'Anomalies 4 Identifier des points de données éloignés dans un espace réduit. Avantages de la PCA Compatible avec Simple et Rapide les Grands Facile à mettre en Ensembles de œuvre et rapide à Données Peut être utilisée pour exécuter. des jeux de données de grande dimension. Améliore la Performance des Modèles Réduit la complexité et améliore la performance des modèles d'apprentissage automatique. Limites de la PCA Linéarité Perte d'Interprétabilité Ne capture pas les relations Les nouvelles dimensions non linéaires dans les n'ont souvent pas de données. signification directe. Sensibilité à l'Échelle Nécessite une normalisation préalable pour éviter qu’une caractéristique à grande échelle domine. Conclusion La PCA est un outil puissant pour simplifier les problèmes complexes en analyse de données et en intelligence artificielle. Elle est largement utilisée dans diverses applications, offrant des avantages significatifs en termes de réduction de dimensionnalité, de visualisation et d'amélioration de la performance des modèles. Merci De Votre Attention

Use Quizgecko on...
Browser
Browser