Fiche de révision - Raisonnement Probabiliste Temporel PDF
Document Details
Uploaded by Deleted User
Tags
Summary
Ce document présente une fiche de révision sur le raisonnement probabiliste temporel. Il détaille les concepts clés tels que la modélisation temporelle et les modèles cachés de Markov (HMM), ainsi que leurs applications dans différents domaines comme la reconnaissance vocale et la bioinformatique. Le document aborde également les filtres de Kalman et le filtrage particulaire comme extensions et modèles avancés.
Full Transcript
Fiche de révision - Raisonnement Probabiliste Temporel Définitions Clés Raisonnement Probabiliste Temporel Permet de modéliser des environnements où les observations évoluent dans le temps. Exemple d’applications : Saisonnalités dans des séries temporelles. Ord...
Fiche de révision - Raisonnement Probabiliste Temporel Définitions Clés Raisonnement Probabiliste Temporel Permet de modéliser des environnements où les observations évoluent dans le temps. Exemple d’applications : Saisonnalités dans des séries temporelles. Ordre des mots dans une phrase. Comportement changeant de systèmes mécaniques. Modélisation Temporelle Prise en Compte du Temps Le temps est représenté par des coupes temporelles : Une coupe correspond à un instant où un ensemble de variables est observé. Les variables d’état (non observables) et les variables d’observation (observables) sont considérées. Le modèle repose sur des hypothèses de Markov : L’état à un instant donné dépend des états précédents jusqu’à un certain ordre. Modèle Bayésien Temporel Exemple : Modélisation de la pluie (variable non observable) en fonction d’un parapluie (variable observable). Hypothèse de stationnarité : Les relations entre variables restent constantes dans le temps. Inférence Temporelle Types d’Inférences 1. Estimation d’état : Identifier l’état actuel à partir des observations passées. 2. Prédiction : Anticiper les états futurs à partir des observations passées et présentes. 3. Lissage : Reconstituer les états passés en utilisant toutes les observations disponibles. 4. Explication la plus probable : Trouver la séquence d’états la plus susceptible d’avoir produit les observations. Modèles Cachés de Markov (HMM) Définition Modèles probabilistes utilisés pour des séquences temporelles. Comprend : Une matrice de transition : Décrit les probabilités de passage entre états cachés. Une matrice d’émission : Décrit les probabilités des observations selon les états. Une distribution initiale : Définit les probabilités de chaque état initial. Algorithmes Associés 1. Forward : Calcul de la probabilité d’une séquence d’observations. 2. Backward : Approche similaire mais de manière rétroactive. 3. Baum-Welch : Apprentissage des paramètres du modèle (matrices de transition et d’émission). 4. Viterbi : Identification de la séquence d’états cachés la plus probable. Applications des HMM Domaines 1. Reconnaissance Vocale : Modélisation des séquences de phonèmes. Alignement de séquences dans des données audio. 2. Bioinformatique : Analyse de séquences ADN et ARN. Prédiction de structures secondaires. 3. Finance : Modélisation des transitions entre états de marché. Stratégies de trading basées sur les tendances. 4. Traitement du Langage Naturel (NLP) : Analyse syntaxique, segmentation des mots, étiquetage des parties du discours. Extensions et Modèles Avancés Filtres de Kalman Permettent de traiter des variables d’état continues. Applications : Suivi de cibles radar. Estimation de trajectoires. Analyse des courants océaniques. Filtrage Particulaire Approche approximative pour les environnements complexes avec de nombreuses variables continues. Conclusion Les HMM et les filtres de Kalman sont des cas particuliers de réseaux bayésiens dynamiques. Bien que ces modèles soient performants, ils sont souvent surpassés par des technologies modernes comme les réseaux neuronaux profonds ou les transformers. Le choix d’un modèle dépend du contexte et de la volumétrie des données disponibles.