[AUDIO_VIDE] [AUDIO_VIDE] Donc revenons maintenant au cours, et en fait il arrive souvent que, on en verra des exemples plus tard, quand on veut calculer la probabilité d'un événement aléatoire, on ne sait pas à priori la calculer mais si on se donne a priori des informations supplémentaires, on est capable de calculer les probabilités conditionnelles de l'événement aléatoire A sachant ces informations. Alors il y a un cadre qui est extrêmement agréable et qui nous permet de conclure à la probabilité de réalisation de A, c'est le cadre de où l'ensemble de toutes ces informations qu'on a a priori, eh bien ça nous permet de récupérer tout l'espace d'états grand oméga. Je m'explique, on va supposer que oméga peut être décomposé en une réunion dénombrable d'événements aléatoires Bi qui sont deux à deux disjoints. Donc on dit que Bi est une partition qui peut être finie mais qui est générale dénombrable, de oméga. Donc pour ceux qui ne sont pas à l'aise avec ça, je vous renvoie à la séance de rappel de théorie des ensembles. Donc on se donne une famille dénombrable d'événements aléatoires disjoints deux à deux et dont la réunion forme oméga. C'est comme si on pouvait découper oméga, en des ensembles disjoints qui le recouvrent complètement. Et on va supposer donc que l'on connait les probabilités d'un événements aléatoire qui nous intéresse A, sachant chacun des Bi. Ça ça veut dire que étant donnée l'information qu'on s'est donnée Bi, on est capable de décrire la probabilité de A sachant Bi. Eh bien dans ce cas-là , on va pouvoir récupérer la probabilité de A par la formule qui est ici qu'on appelle formule des probabilités totales, donc ça c'est les terminologies assez fleuries qui ont été données au XVII, XVIIe siècle pour calculer ces probabilités. On va écrire que la probabilité de A, puisqu'on peut écrire toujours A comme A intersecté avec grand oméga, la probabilité de A ça va être la somme pour i dans N des probabilités de A inter B. Et Bi recouvre oméga. Et P(A inter Bi), eh bien on va pouvoir l'écrire comme la somme sur i dans N de P(A | Bi) P(Bi). Donc voyez que vous pouvez retrouver la probabilité de A si vous connaissez les probabilités conditionnelles de A | Bi et les probabilités de réalisation des Bi. Donc la preuve, on peut la décomposer ici, donc comme on l'a dit, comme oméga s'écrit comme l'union des événements aléatoires Bi, pour i dans N, je peux écrire A comme l'U(A inter Bi), et si les Bi sont deux à deux disjoints eh bah bien sûr les événements A inter Bi sont deux à deux disjoints si je fais varier l'indice i de l'ensemble B. On en déduit donc que la P(A) qui est la probabilité de la réunion des A inter Bi, eh bien par propriété de sigma additivité, cette probabilité-là va être égale à la somme des probabilités des A inter Bi, puisque les A inter Bi sont disjoints. De plus nous avons défini la P(A | Bi) comme égale au quotient de la probabilité de A inter Bi divisé par la probabilité de Bi, donc on peut réécrire cette définition sous la forme P(A inter Bi) égale P(A | Bi) P(Bi), hein, la probabilité d'avoir à la fois A et Bi c'est la probabilité d'avoir A conditionnellement à Bi, multiplié par la probabilité de réalisation de Bi. C'est une formule assez mnémotechnique. Donc maintenant je remplace P(A intersecté avec Bi) par cette forme-là , et j'obtiens ma formule de probabilité totale. Alors ce qui peut être intéressant maintenant, c'est de se dire, ben c'est bien j'ai pu calculer la probabilité de A, est-ce que maintenant à partir de ces informations-là les probabilité de A conditionnellement à Bi, et la probabilité de A, je suis capable de retrouver des probabilités telles que les probabilités de chaque événement Bi maintenant conditionnellement au fait que A est réalisé. Et on va voir des exemples, en fait c'est assez courant dans la pratique qu'on tombe sur ce type de problèmes. Donc c'est ce qu'on va appeler la formule de Bayes, du nom de Bayes qui était un révérant anglais mais qui s'est passioné pour le calcul des probabilités, jadis, donc, la formule de Bayes vous dit que si la probabilité d'un événement aléatoire A est positive donc dans ce cas-là on va pouvoir s'intéresser au conditionnement sachant de A est réalisé, et on se donne donc un élément de notre partition de oméga Bi, eh bien on va montrer que la probabilité de Bi sachant A peut s'écrire en fonction des probabilités conditionnelles de A sachant Bj, pour j variant dans N, et, les probabilités de Bj. Donc plus précisément, on va écrire P(Bi | A) comme égal au quotient de P(A | Bi) P(Bi) / la somme sur tous les j des P(A | Bj) P(Bj). Alors ça parait compliqué comme ça mais en fait c'est très simple à prouver, puisque comme définition P(Bi | A) c'est la P(A inter Bi) / P(A), et je vais remplacer maintenant la probabilité de A inter Bi par P(A | Bi) P(Bi), et je vais remplacer la P(A) de A par la formule que me donne la formule des probabilités totales et c'est ce qui est écrit ici. Alors une remarque qu'on peut peut-être souligner, c'est qu'en fait il y a une certaine symétrie dans cette formule qui définit la probabilité conditionnelle de A sachant B, puisque si les probabilités conditionnelle de A sachant B ne sont pas symétrique en A et B en revanche, quand j'écris P(A inter B), A inter B on peut aussi l'écrire B inter A, il y a une symétrie là dans le rôle des événements aléatoires A et B. Et vous voyez que vous pouvez écrire P(A inter B) soit comme la P(A | B) fois P(B), c'est-à -dire qu'on va calculer la probabilité de A en conditionnant par le fait que B est réalisé, et on va multiplier par la probabilité de réalisation de B, mais on peut aussi l'écrire comme probabilité de B sachant que A est réalisé, fois la probabilité de réaliser A. Donc à chaque fois que vous avez une probabilité d'intersection, vous aurez le choix sur l'interprétation que vous pourrez faire de cette probabilité-là . Bien. Alors on va voir maintenant un petit exemple de calcul de probabilité conditionnelle et d'application de ces formules de ces probabilités totales et formule de Bayes, qui est le suivant, donc c'est un problème d'assurance, on suppose qu'une compagnie d'assurance donc assure autant de conducteurs que de conductrices, et on sait par une étude statistique préalable que la probabilité pour une femme d'avoir un accident est différente de la probabilité pour un homme d'avoir un accident. Je vous laisse deviner laquelle est la plus grande. Donc on suppose que pour une conductrice il y a une probabilité petit a d'avoir un accident, pour un conducteur il y a une probabilité b d'avoir un accident, et donc je pose deux questions. Première question, quelle est la probabilité qu'une personne sélectionnée au hasard ait un accident? Deuxième question, quelle est la probabilité qu'une personne ayant eu un accident soit un conducteur? Donc, nous allons maintenant résoudre l'exercice, Alors, première question, probabilité qu'une personne sélectionnée au hasard ait un accident. Donc dans la suite je vais noter F l'événement aléatoire, on a une conductrice, G on a un conducteur, et A l'événement aléatoire accident. Donc, ce qu'on cherche à calculer, c'est la probabilité qu'une personne sélectionnée au hasard ait eu un accident. Donc nous qu'est-ce qu'on connait, eh bien on connait la probabilité d'avoir un accident sachant qu'on a une conductrice, P(A | F) égale petit a, et on sait que la probabilité d'avoir un accident sachant qu'on a un conducteur est petit b. Et on suppose qu'on a autant de conducteurs que de conductrices ce qui veut dire que P(F) égale P(G) égale un demi. Donc maintenant, si je veux calculer la probabilité P(A), eh bien je vais écrire, grâce à cette formule de probabilité totale, que P(A), c'est P(A | F) P(F), + P(A | G) P(G). Hein, si j'ai un accident, soit en fait c'est un accident et la personne responsable, la conductrice est une fille, ou j'ai un accident, et la personne responsable est un garçon. Donc vous voyez que ici implicitement dans ma tête j'ai écris que F, les événements aléatoires F et G formaient une partition de oméga, et que P(A) peut s'écrire P(A inter F) ou A peut s'écrire A inter F union A inter G, accident et conductrice, ou accident et conducteur, et on peut pas être à la fois conductrice et conducteur, les événements sont bien évidemment disjoints ici. Donc la probabilité de la réunion c'est égal à la somme des probabilités que j'ai ensuite décomposées grâce aux probabilités conditionnelles. Donc, une fois que j'ai ça, ben il suffit vous voyez de remplacer, dans ma formule, pour trouver finalement que P(A) donc ça vaut, petit a sur 2 plus petit b sur 2, c'est-à -dire a+b sur 2. Donc deuxième maintenant partie de la question, on pose la question, quelle est la probabilité qu'une personne ayant eu un accident, donc ça c'est l'information a priori, quelle est la probabilité que cette personne soit un conducteur. Donc ce qu'on veut calculer maintenant c'est la probabilité qu'on ait un conducteur sachant que cette personne a eu un accident. C'est-à -dire P(G | A). Par définition c'est la P(A inter G) sur P(A), la probabilité de A inter G, c'est donc la P(A | G) P(G), sur P(A). Je suis en train de redémontrer sur cet exemple la formule de Bayes. Eh bien là maintenant j'ai tous les éléments pour faire le calcul puisque la probabilité de A | G c'est petit b, la probabilité de G c'est un demi, et la probabilité de A c'est a + b sur 2, donc finalement je trouve b sur a + b. Bon à la limite, peut importe le résultat, ce qui est important, c'est de voir le raisonnement, donc vous voyez il y a quand même une partie modélisation ici où on écrit le problème concret en le modélisant avec notre problème probabiliste, et puis on a redémontré sur cet exemple, sur la première question la formule des probabilités totales et dans la deuxième la formule de Bayes. Alors maintenant on peut se poser la question, donc voyez que ici la probabilité d'un accident dans le cas général, c'est a+b sur 2, qui est différente de la probabilité d'un accident conditionnellement au fait qu'on ait une fille qui ait a ici, ou la probabilité d'un accident, conditionnellement à G, au fait qu'on est un garçon, qui est b. Hein, et nous on a trouvé a + b sur 2 sinon. Bien, maintenant on peut s'intéresser à des situations qui ne sont justement pas celles-là , qui sont des situations où le fait de conditionner ne change pas le modèle probabiliste. Et on va voir que cette hypothèse-là va être une hypothèse fondamentale qui va nous permettre de faire des calculs, en particulier et de développer des outils beaucoup plus forts. Donc comment on peut modéliser le fait que la réalisation par exemple, de l'événement aléatoire grand A ne change pas le modèle probabiliste qu'on avait a priori?