Chaînes de Markov à temps discret

Choose a study mode

Play Quiz
Study Flashcards
Spaced Repetition
Chat to Lesson

Podcast

Play an AI-generated podcast conversation about this lesson

Questions and Answers

Quelle est la probabilité que le Belge se fasse rincer avec un stock de 10 parapluies, supposant une probabilité de pluie p = 1/2 ?

  • Jamais 100%
  • Toujours 0%
  • 50%
  • Dépend de la sauvegarde des parapluies (correct)

Quelle caractéristique définit un processus stochastique markovien d'ordre 1 ?

  • Son évolution dépend uniquement de sa valeur actuelle (correct)
  • Il est toujours discret et fini
  • Son évolution future dépend des valeurs passées
  • Il ne peut prendre que des valeurs continues

Quel est le rôle de la distribution stationnaire dans la chaîne de Markov pour la situation du Belge ?

  • Connaître le stock maximum de parapluies
  • Déterminer le nombre total de parapluies
  • Maximiser la probabilité d'être trempé
  • Évaluer la probabilité de rester au même état (correct)

En se déplaçant vers un pays moins pluvieux, quelle est la probabilité maximale qui pourrait réduire le risque d'être trempé ?

<p>1/3 (A)</p> Signup and view all the answers

Qu'est-ce qu'un espace d'état dans le contexte d'une chaîne de Markov ?

<p>Les différentes valeurs que peut prendre le processus (B)</p> Signup and view all the answers

La relation P(X(tk+1) = xk+1 | X(t1) = x1, X(t2) = x2, ..., X(tk) = xk) exprime une condition pour quelle type de processus ?

<p>Chaines de Markov à temps discret (D)</p> Signup and view all the answers

Quelle est la construction de la marche aléatoire à deux barrières réfléchissantes ?

<p>Un processus aléatoire avec des états absorbants (D)</p> Signup and view all the answers

Dans une chaîne de Markov à temps discret, quel est le statut de l'espace d'état ?

<p>Il peut être fini ou infini mais dénombrable (B)</p> Signup and view all the answers

Quelle méthode est utilisée par un joueur pour approcher le trou dans le contexte du golf ?

<p>Une stratégie uniforme mais prudente (B)</p> Signup and view all the answers

Quelle propriété est unique aux processus de Markov par rapport à d'autres processus stochastiques ?

<p>L'indépendance des valeurs passées après la valeur actuelle (B)</p> Signup and view all the answers

Quelle est la distance initiale du joueur par rapport au trou dans ce scénario ?

<p>N (A)</p> Signup and view all the answers

Comment le coup suivant du joueur est-il déterminé si une distance i est atteinte ?

<p>Il est choisi uniformément entre 0 et i (D)</p> Signup and view all the answers

Lorsque le temps est continu, comment appelle-t-on un processus de Markov ?

<p>Chaîne de Markov à temps continu (B)</p> Signup and view all the answers

Quelle approche doit prendre le Belge pour ne pas se faire rincer aussi souvent ?

<p>Déménager dans un pays moins pluvieux (C)</p> Signup and view all the answers

Pour une chaîne de Markov à temps discret, quelle équation est utilisée pour modéliser la transition d'état ?

<p>P(X(tk+1) = xk+1 | X(tk) = xk) (A)</p> Signup and view all the answers

Quelle affirmation est précise concernant les processus de Markov ?

<p>Ils ne peuvent pas modéliser des systèmes avec mémoire (A)</p> Signup and view all the answers

Quelle valeur de h10 indique une probable extinction de la population?

<p>h10 &lt; 1 (D)</p> Signup and view all the answers

Quand est-il correct de dire que h10 = 1?

<p>Si la moyenne des v.a.Cin est inférieure ou égale à 1 (A)</p> Signup and view all the answers

Que signifie une chaîne de Markov ergodique à l'état stationnaire?

<p>Les probabilités de transition restent constantes dans le temps (C)</p> Signup and view all the answers

Quel est l'objectif principal de la chaîne en remontant dans le temps (backward chain)?

<p>Montrer que la chaîne peut être inversée (C)</p> Signup and view all the answers

Dans quelle situation la dérivée dF(z)/dz devient-elle positive?

<p>Quand µC &gt; 1 (C)</p> Signup and view all the answers

Comment peut-on définir le lien entre F(z) et GC(z)?

<p>F(z) = GC(z) - z (D)</p> Signup and view all the answers

Quel impact a un µC supérieur à 1 sur la population?

<p>La population est destinée à l'extinction (D)</p> Signup and view all the answers

Quelle condition doit être remplie pour que h10 soit égal à zéro?

<p>µC &lt; 0 (A)</p> Signup and view all the answers

Quel est l'espace des états de la chaîne de Markov décrite dans la première partie ?

<p>{0, 1, 2, ..., N} (C)</p> Signup and view all the answers

Quelle est la définition de la probabilité d'absorption dans l'état 0 du processus Y(n) à partir de l'état 1 ?

<p>h10 = P(Y(n) = 0 pour un certain n ∈ N | Y(0) = 1) (D)</p> Signup and view all the answers

Quelle est la relation entre f0 et h10 pour la marche aléatoire sur N ?

<p>f0 = h10 (D)</p> Signup and view all the answers

Pour quelle valeur de p les états sont-ils transitoires dans le contexte donné ?

<p>p &lt; 1/2 (D)</p> Signup and view all the answers

Que représente E[X(n)] dans le contexte du processus de branchement ?

<p>Le nombre d'individus dans la n-ième génération (C)</p> Signup and view all the answers

Qu'est-ce qui caractérise un état récurrent positif dans une chaîne de Markov ?

<p>L'espérance du temps de premier retour est finie. (A)</p> Signup and view all the answers

Que se passe-t-il lorsque p = 1/2 dans la marche aléatoire sur N ?

<p>Les états ne sont ni transitoires ni récurrents (B)</p> Signup and view all the answers

Quelles sont les propriétés d'une classe d'états dans une chaîne de Markov homogène sur un espace d'états fini ?

<p>Tous les états sont récurrents positifs dans une classe d'états absorbante. (A), Une classe d'états est transitoire si elle est non absorbante. (D)</p> Signup and view all the answers

Quelle distribution stationnaire de probabilité est calculée pour 0 < p < 1/2 ?

<p>Distribution réversible (D)</p> Signup and view all the answers

Quel est le critère pour qu'une chaîne de Markov soit dite ergodique ?

<p>Tous les états doivent être récurrents positifs. (B)</p> Signup and view all the answers

Que signifie qu'un état soit dit absorbant dans le contexte des chaînes de Markov ?

<p>Une fois atteint, il ne peut jamais être quitté. (A)</p> Signup and view all the answers

Quels sont les variables aléatoires considérées pour décrire le nombre de descendants dans le processus de branchement ?

<p>Des variables aléatoires géométriques (A)</p> Signup and view all the answers

Dans une chaîne de Markov irréductible, que peut-on dire des états ?

<p>Tous les états sont soit récurrents positifs, soit récurrents nuls. (C)</p> Signup and view all the answers

Quelle condition est nécessaire pour qu'une classe d'états soit considérée comme récurrente positive ?

<p>Elle ne doit pas avoir d'états récurrents nuls. (B), Elle doit contenir au moins un état absorbant. (D)</p> Signup and view all the answers

Quel rôle joue l'espérance du temps de premier retour dans la classification des états récurrents ?

<p>Elle indique si l'état est récurrent positif ou nul. (D)</p> Signup and view all the answers

Que peut-on conclure si tous les états d'une chaîne de Markov sur un espace d'états fini sont récurrents positifs ?

<p>La chaîne est irréductible. (D)</p> Signup and view all the answers

Qu'est-ce qu'une matrice doublement stochastique ?

<p>Une matrice où tous les éléments sont non négatifs et chaque ligne et colonne somme à 1. (C)</p> Signup and view all the answers

Dans le contexte d'une chaîne de Markov, qui admet une distribution invariante ?

<p>Une chaîne dont la matrice de transition est doublement stochastique. (B)</p> Signup and view all the answers

Quel événement provoque le Belge à emmener un parapluie avec lui ?

<p>S'il pleut et qu'il a un parapluie disponible chez lui. (D)</p> Signup and view all the answers

Quelles sont les classes d'états dans une chaîne de Markov ?

<p>Classes d'états, certains peuvent être transitoires tandis que d'autres sont récurrents. (D)</p> Signup and view all the answers

Quel est le résultat d'une matrice P décrivant une marche aléatoire sur un cercle ?

<p>Elle est doublement stochastique. (B)</p> Signup and view all the answers

Comment un Belge choisit-il de retourner avec un parapluie après le travail ?

<p>Il rentre avec un parapluie uniquement si un parapluie est disponible au bureau et qu'il pleut. (C)</p> Signup and view all the answers

Quelle condition est nécessaire pour qu'une marche aléatoire soit correctement définie ?

<p>La somme de tous les éléments d'une ligne doit être égale à 1. (D)</p> Signup and view all the answers

Que signifie que des États i et k communiquent ?

<p>Ils peuvent être atteints l'un depuis l'autre. (D)</p> Signup and view all the answers

Flashcards

Chaîne de Markov (ordre 1)

Un processus stochastique où l'évolution future dépend uniquement de l'état actuel et non de l'historique passé.

Espace d'état

L'ensemble des valeurs possibles que peut prendre une chaîne de Markov à un instant donné.

Probabilité de transition

La probabilité de transition d'un état i à un état j au prochain pas de temps.

Probabilité d'état

La probabilité de se trouver dans un état donné au temps t.

Signup and view all the flashcards

Chaîne de Markov à espace fini

Une chaîne de Markov dont l'espace d'état est fini.

Signup and view all the flashcards

Chaîne de Markov à espace dénombrable

Une chaîne de Markov dont l'espace d'état est dénombrable (fini ou infini).

Signup and view all the flashcards

Chaîne de Markov à temps discret

Une chaîne de Markov où le temps est une variable discrète (par exemple, des instants discrets).

Signup and view all the flashcards

Chaîne de Markov à temps continu

Une chaîne de Markov où le temps est une variable continue.

Signup and view all the flashcards

État récurrent

Un état est récurrent si et seulement si, étant donné que le système se trouve dans cet état à un moment donné, il est certain qu'il reviendra à cet état à un moment donné dans le futur.

Signup and view all the flashcards

État transitoire

Si un état est transitoire, il n'est pas garanti que le système reviendra à cet état à un moment donné dans le futur.

Signup and view all the flashcards

État récurrent positif

Un état est récurrent positif si l'espérance du temps de premier retour à cet état est finie.

Signup and view all the flashcards

État récurrent nul

Un état est récurrent nul si l'espérance du temps de premier retour à cet état est infinie.

Signup and view all the flashcards

Chaîne de Markov irréductible

Une chaîne de Markov est irréductible si chaque état est accessible depuis tout autre état.

Signup and view all the flashcards

Classe d'états absorbante

Une classe d'états est absorbante si tous les états de la classe sont récurrents positifs, et il est impossible de quitter la classe une fois qu'on y entre.

Signup and view all the flashcards

Chaîne de Markov ergodique

Une chaîne de Markov est ergodique si elle est irréductible, apériodique et si tous ses états sont récurrents positifs.

Signup and view all the flashcards

Espérance du temps de premier retour

L'espérance du temps de premier retour à un état est la moyenne du nombre de pas nécessaires pour revenir à cet état après l'avoir quitté.

Signup and view all the flashcards

Extinction d'une population

La probabilité qu'une population s'éteigne est de 1 si et seulement si le nombre moyen de descendants par individu est inférieur ou égal à 1.

Signup and view all the flashcards

Fonction génératrice des probabilités (F.G.P)

La fonction génératrice des probabilités (F.G.P) d'une variable aléatoire est définie comme la somme des probabilités de chaque valeur de la variable, pondérées par les puissances correspondantes d'un paramètre.

Signup and view all the flashcards

Fonction génératrice des probabilités (F.G.P)

La fonction génératrice des probabilités (F.G.P) d'une variable aléatoire est définie comme la somme des probabilités de chaque valeur de la variable, pondérées par les puissances correspondantes d'un paramètre.

Signup and view all the flashcards

État stationnaire

Dans une chaîne de Markov, l'état stationnaire est un état où la probabilité de se trouver dans cet état reste constante au fil du temps.

Signup and view all the flashcards

Chaîne de Markov réversible

Une chaîne de Markov est dite réversible si les transitions dans le temps inversé respectent les mêmes probabilités que les transitions dans le temps direct.

Signup and view all the flashcards

Moyenne de variables aléatoires (v.a.i.i.d)

La moyenne des variables aléatoires indépendantes et identiquement distribuées (v.a.i.i.d) est définie comme la somme de toutes les v.a.i.i.d divisée par le nombre total de v.a.i.i.d.

Signup and view all the flashcards

Probabilité de Premier Retour

La probabilité de retourner à l'état initial (0) pour la première fois après un nombre quelconque de pas, en commençant à l'état initial.

Signup and view all the flashcards

Probabilité d'Absorption

La probabilité d'être absorbé dans l'état 0 en commençant à l'état 1, en considérant le processus de ruine du joueur.

Signup and view all the flashcards

États Transitoires et Récurrents

Un état est transitoire si, partant de cet état, il existe une chance non nulle de ne jamais y revenir. Un état est récurrent si, partant de cet état, on est certain de revenir à cet état à un certain moment dans le futur.

Signup and view all the flashcards

Distribution Stationnaire

La distribution stationnaire est la distribution des probabilités d'état à long terme, qui ne change pas au fil du temps. Elle existe si la chaîne de Markov est ergodique (irréductible, apériodique et récurrente positive).

Signup and view all the flashcards

Propriété de transitivité de la communication

Si deux états communiquent et si le deuxième état communique avec un troisième état, alors le premier état communique également avec le troisième.

Signup and view all the flashcards

Matrice doublement stochastique

Une matrice où tous les éléments sont non négatifs et où la somme des éléments de chaque ligne et de chaque colonne vaut 1.

Signup and view all the flashcards

Distribution invariante

La distribution de probabilité qui reste inchangée après une étape de la marche aléatoire.

Signup and view all the flashcards

Chaîne de Markov à espace d'états fini

Une chaîne de Markov ayant un nombre fini d'états.

Signup and view all the flashcards

État transient

Un état appelé transient si la probabilité de revenir à cet état à partir de lui-même est inférieure à 1.

Signup and view all the flashcards

Classe d'états

Une collection d'états liés entre eux par des transitions dans n'importe quelle direction.

Signup and view all the flashcards

Probabilité stationnaire

La probabilité qu'un événement se produise à long terme, lorsque le système a atteint un état d'équilibre.

Signup and view all the flashcards

Chaîne de Markov

Une chaîne de Markov est un processus où l'avenir dépend uniquement de l'état actuel et non de l'histoire passée. Elle est décrite par un diagramme des transitions entre états et des probabilités de passage d'un état à l'autre.

Signup and view all the flashcards

Probabilité de pluie optimale

La probabilité que le Belge soit trempé dépend de la probabilité de pluie et de son nombre de parapluies. Trouver la valeur de la probabilité de pluie qui rend cette probabilité maximale permet de comprendre l'influence du climat sur son état.

Signup and view all the flashcards

Marche aléatoire à deux barrières réfléchissantes

Une marche aléatoire à deux barrières réfléchissantes est un modèle où un point se déplace sur une ligne avec des probabilités spécifiques de se déplacer vers la gauche ou la droite, et des barrières à chaque extrémité qui le renvoient vers le centre.

Signup and view all the flashcards

Probabilité stationnaire d'un état

La probabilité que le modèle d'une chaîne de Markov atteigne un état particulier après une période infinie de temps.

Signup and view all the flashcards

Problème de la ruine du joueur

Le problème de la ruine du joueur modélise la situation de deux joueurs qui parient à chaque tour, avec une probabilité de gagner ou de perdre, jusqu'à ce que l'un d'eux soit ruiné.

Signup and view all the flashcards

Study Notes

Chaînes de Markov à temps discret

  • Un processus stochastique est markovien (d'ordre 1) si son évolution future dépend uniquement de sa valeur actuelle, et non de ses valeurs passées.
  • Si X(t) est une chaîne de Markov à valeurs discrètes, alors pour toute suite d'instants $t_1 < t_2 < ... < t_{k+1}$ et toute suite de valeurs $x_1, x_2, ..., x_{k+1}$ : $P(X(t_{k+1}) = x_{k+1} | X(t_1) = x_1, ..., X(t_k) = x_k) = P(X(t_{k+1}) = x_{k+1} | X(t_k) = x_k)$.
  • L'ensemble des valeurs que peut prendre la chaîne X(t) est appelé espace d'état, il est fini ou infini dénombrable.
  • Selon que le temps est discret ou continu, on parle de chaîne de Markov à temps discret ou continu.

Probabilités d'état et de transition

  • La probabilité que X(n) soit dans l'état i ∈ S à l'instant n est notée $\pi_i(n)=P(X(n)=i)$, et la somme de ces probabilités vaut 1.
  • Les probabilités de transition, $p_{ij}(n) = P(X(n+1)=j|X(n) = i)$, représentent la probabilité de passer de l'état i à l'état j en une étape. La somme des probabilités de transition à partir d'un état i vaut 1.
  • Une chaîne de Markov est dite homogène si les probabilités de transition ne dépendent pas de l'instant n.
  • Les probabilités de transition à m étapes de l'état i à l'état j sont données par la relation de Chapman-Kolmogorov $p_{ij}^{(m)} = \Sigma_{k\in S} p_{ik}^{(m-1)}p_{kj}$
  • Les probabilités d'état sont calculables à partir des probabilités de transition.

Classification des états

  • Un état j est accessible à partir de l'état i s'il existe une suite de transitions non nulle de i à j.
  • Deux états i et j communiquent s'ils sont accessibles l'un à l'autre (i ↔ j).
  • Les états sont regroupés en classes d'équivalence (ensemble d'états qui communiquent entre eux).
  • Une chaîne de Markov est irréductible si elle ne possède qu'une seule classe.
  • Un état i est absorbant si $p_{ii}=1$.
  • Un état i a une période d si le processus ne peut atteindre l'état i qu'aux multiples de d.
  • Un état est apériodique si sa période vaut 1.
  • Une chaîne apériodique est une chaîne qui est irréductible et apériodique.

Etats récurrents/transitoires

  • Un état i est récurrent si la probabilité de revenir à l'état i après l'avoir quitté est égale à 1.
  • Un état est transitoire sinon.
  • Un état est récurrent positif si l'espérance du temps de premier retour à l'état i est finie.
  • Un état est récurrent nul sinon.

Comportement asymptotique

  • Une distribution de probabilité π* est dite stationnaire si elle satisfait à π* = πP, et π = Σ πi(n) * pour tout i ∈ S, autrement dit si la composition π* reste la même.
  • Le théorème 1 stipule que si une chaîne de Markov est ergodique , il y a une seule distribution stationnaire unique, et tous les vecteurs de probabilités d'état convergent vers cette distribution.

Chaînes réversibles

  • Une chaîne de Markov ergodique est réversible si P(X(n)=j | X(n-1) = i ) = P(X(n-1)=i | X(n) = j ) pour tous les états i et j.
  • La condition de réversibilité est donnée par π(i)Pij = π(j)Pji, où π(i) est la probabilité stationnaire de l'état i.
  • Pour les chaînes de Markov réversibles, la distribution stationnaire est la seule solution de l'équation.

Chaînes de Markov cachées

  • Une chaîne de Markov cachée (HMM) est un modèle stochastique qui décrit un processus où une variable cachée influe sur une variable observable.
  • Elle est définie par 2 distributions de probabilité et une matrice de transition.
  • Une HMM est utilisée pour modéliser des processus dans lesquels l'information n'est pas directement visible.

Applications

  • La reconnaissance de la parole, la reconnaissance de l'image, la biologie sont quelques exemples d'utilisation des chaînes de Markov.

Studying That Suits You

Use AI to generate personalized quizzes and flashcards to suit your learning preferences.

Quiz Team

Related Documents

More Like This

Use Quizgecko on...
Browser
Browser