[SON] [AUDIO_VIDE] Bonjour, dans cette séance 4 du cours 4, nous allons généraliser la notion d'indépendance pour des vecteurs aléatoires. Commençons tout d'abord par rappeler la notion d'indépendance que nous avons vu pour des variables aléatoires et nous allons l'adapter au cas des vecteurs. Donc la définition en fait sera identique, on va considérer deux vecteurs aléatoires X et Y qui sont à valeur dans R puissance n. Je vous rappelle que nous avons muni R puissance n de sa tribu borélienne définie dans une séance précédente du cours et nous allons supposer que, donc pour 2 ensembles A et B de cette tribu borélienne, la probabilité que X appartienne à A et que Y appartienne à B soit égale à la probabilité de X appartient à A multipliée par la probabilité que Y appartienne à B. Dans ce cas là , nous dirons que les vecteurs aléatoires X et Y sont indépendants, dès lors que cette propriété là est en fait vrai pour tous les boréliens A et B choisis dans dans la tribu borélienne de Rn. Donc vous voyez que c'est une définition totalement identique à celle qu'on avait écrite pour des variables aléatoires réelles. Simplement ici, rappelez-vous que les notations X et Y désignent des vecteurs des vecteurs aléatoires, et que donc A et B sont des sous-ensembles de R puissance n. Alors en fait, nous avons déjà vu précédemment que c'est assez lourd de travailler avec ces vecteurs et nous nous sommes limités à des vecteurs aléatoires dont la loi avait une densité, donc nous allons immédiatement regarder ce que donne cette définition dans le cas où de plus, on suppose que X et Y sont des vecteurs aléatoires avec des lois à densité. Donc je vais noter par f indice X,Y la loi du couple de vecteurs aléatoires XY, F indice X la densité de la loi de X et F indice Y la densité de la loi de Y. Et ce que nous allons montrer c'est que si donc X et y ont des lois à densité qu'on vient d'introduire, alors X et Y seront indépendants, si et seulement si pour presque tous x et y dans la règle, nous avons l'égalité que la densité du couple est égale au produit des densités, donc une formule mnémotechnique bien satisfaisante. Nous allons montrer la preuve de cette proposition. Donc nous avons vu dans la séance 1 du cours 4 que la loi d'un vecteur aléatoire était caractérisée par sa fonction de répartition, et nous allons donc caractériser la loi du couple XY par sa fonction de répartition probabilité d'avoir grand X plus petit que x et grand Y plus petit y pour tout petit x et petit y dans R puissance n. Alors là je vous renvoie à la séance 1 du cours 4 mais cette notation signifie que si x, petit x est un vecteur petit x1, petit x2, petit xn, et si grand X est un énuplée de variables aléatoires grand X1, grand X2, etc., grand Xn, la notation signifie grand X1 inférieur ou égal à petit x2, signifie X1 plus petit ou égal à petit x1, X2 plus petit ou égal à petit x2, etc., grand Xn plus petit ou égal à petit xn. Bien, nous allons nous limiter ici au cas particulier où on considère 2 variables aléatoires et on va montrer que pour ces variables aléatoires donc les 2 variables X et Y sont indépendantes si et seulement si la densité du couple de variables aléatoires est égale au produit des densités des 2 variables aléatoires donc c'est-à -dire le cas où petit n la dimension de l'espace est égale à 1. La preuve se généralise complètement si X et Y sont des vecteurs aléatoires de R. Donc si je suis dans le cas donc où X et Y sont des variables aléatoires, la fonction de répartition ici s'écrit comme le produit des fonctions de répartition de X et de Y si on a supposé que grand X et grand Y étaient indépendantes. Il suffit d'appliquer la définition de la page précédente à l'ensemble grand A égale moins l'infini petit x et et l'ensemble grand B égale moins l'infini petit y. Donc je sais que grand X et grand Y ont des densités f indice grand X et f indice grand Y, donc je peux écrire mes probabilités grand X inférieur ou égale à petit x et grand Y probabilité de grand Y inférieur ou égale à petit y sous la forme intégrale qui est ici présente, donc intégrale de moins l'infini à petit x ou densité de x prise en u(du) fois l'intégrale de moins l'infini à y de la densité de grand Y pris en petit v(dv). Si maintenant nous savons que le couple XY admet une densité, nous pouvons également écrire la probabilité que le vecteur XY soit plus petit au sens où je l'ai dit précédemment, au vecteur petit xy sous la forme intégrale de moins l'infini à petit x, intégrale de moins l'infini à petit y de densité du couple XY pris en uv dudv. Donc dès qu'on a indépendance entre les variables aléatoires X et Y, cette égalité écrite ici, nous obtenons cette égalité qui relie d'une part la densité du couple, et le produit des densités des variables aléatoires X et Y. Donc on a égalité de ces 2 fonctions de repartitions qui sont des fonctions de repartitions définies sur R2, et on sait que les fonctions de répartition caractérisent les lois de variables aléatoires donc on va en déduire que la densité du couple est égale au produit des densités. Bien évidemment nous avons la réciproque, si la densité du couple est égale au produit des densités des lois des 2 variables aléatoires de X et Y, en remontant les calculs, nous allons en déduire que cette probabilité d'avoir grand X plus petit que petit x et grand Y plus petit que petit y, est égale au produit des probabilités d'avoir grand X plus petit que petit x et d'avoir grand Y plus petit que petit y. En fait, on avait déjà vu ça dans le cas des variables aléatoires à leur réel mais cette égalité là va caractériser en fait l'indépendance de X et Y. Nous pouvons comme dans le cas de variables réelles généraliser cette propriété d'indépendance en montrant que si x est un vecteur de R puissance n donc à valeur dans R puissance n, et y à valeur dans R puissance N pour m et n 2 entiers quelconques. Donc si ces 2 vecteurs sont supposés indépendants, alors dès que l'on prend des fonctions G et H donc définies respectivement sur R puissance m et R puissance n qui sont mesurables positives ou mesurables bornées, pensez par exemple à des fonctions qui sont continues bornées sur R puissance m et R puissance n, alors on a la propriété suivante : l'espérance du produit de g(X) fois h(Y) est égale à l'espérance de g(X) fois l'espérance de h(Y). Alors cette propriété va se montrer très facilement si on suppose de plus que X et Y ont des lois à densité. C'est toujours vrai mais beaucoup plus subtil dans le cas général. Alors regardons déjà la partie 2 de la preuve, c'est-à -dire le cas à densité donc je reprends les mêmes notations que précédemment. Et donc dans ce cas là , on va pouvoir calculer l'espérance de g(X)h(Y) en utilisant la loi du couple XY. Cette quantité là fait intervenir les 2 vecteurs aléatoires X et Y donc pour le caractériser il faut écrire l'intégrale en fonction du couple de vecteurs aléatoires X et Y. Donc on va en fait avoir que l'espérance de g(X)h(Y) est égale à l'intégrale de g(X) h(y) intégré par rapport à la densité du couple xy, dxdy et par propriété de l'indépendance de X et Y, on a vu que ça entraînait que la densité du couple était égale au produit des densités, donc ça va être égale à l'intégrale de g(x) h(y) fois densité de x et densité de y dxdy et cette quantité là va être égale, vous voyez par le théorème de Fubini on va pouvoir regrouper toutes qui dépendent dans ces intégrales de la variable muette petit x et tout ce qui dépend de la variable muette petit y. Comme on a supposé que les fonctions g et h étaient soit positives soit bornées, on peut utiliser le théorème de Fubini et écrire cette intégrale multiple sous la forme du produit de 2 intégrales simples : intégrale de g(x) densité de grand X en petit x dx fois l'intégrale de h(y) densité de Y en y dy donc je vous renvoie à un cours d'intégration pour voir ce que c'est exactement un théorème de Fubini. Donc ici nous reconnaissons dans la 1ère parenthèse la définition de l'espérance de g(X) et ici nous reconnaissons la définition de l'espérance de h(Y). Alors on marque encore une fois ici pour des simplicités d'écriture, j'ai pris un vecteur aléatoire X et Y donc les 2 coordonnées appartiennent à r mais vous pouvez écrire la même chose avec des vecteurs dans R puissance m et R puissance n, simplementon aurait des intégrales multiples au lieu des intégrales simplistes. Alors un corollaire immédiat de cette propriété est de remarquer que si X et Y sont 2 variables aléatoires réelles qui sont indépendantes, alors leur covariance que nous avons définies dans la séance 2 du cours 4, leur covariance est égale à 0. Donc la preuve est immédiate en utilisant le théorème précédent puisque la covariance, nous savons que la covariance est égale à l'espérance du produit de X moins son espérance fois Y moins son espérance. donc (X- E(X)) est une fonction de grand X fois Y moins son espérance. (Y- E(Y)) est une fonction de grand Y, et bien sûr, donc je ne l'ai pas indiqué dans le corollaire mais c'est implicite pour que la covariance soit bien définie, il faut supposer que X et Y sont des variables de carré intégrale. donc on va pouvoir dans ce cas là appliquer le théorème précédent, et écrire que l'espérance de ce produit de variables aléatoire est égale au produit des espérances. Donc la covariance, du fait de l'indépendance de x et de Y, je le répète. Donc la covariance de X est ainsi égale à l'espérance de X- E(X) fois l'espérance Y- E(Y). Mais il est immédiat de remarquer que l'espérance de X moins son espérance est c'est trivial est égale à 0, donc vous en déduisez que la covariance de XY est égale à 0. Alors, une remarque importante c'est que la réciproque est fausse, nous avons vu précédemment dans le cours 4 un exemple que j'ai appelé l'exemple des fléchettes, qui décrivaient les points d'impact dans un lancer de fléchettes quand on suppose que l'impact est réparti uniformément sur une cible de rayon 1. Nous avons vu que les 2 coordonnées cartésiennes X et Y du point d'impact vérifiaient la propriété que leur covariance étaient égales à 0, on a fait le calcul. Mais il est très facile de voir que X et Y ne sont pas indépendantes. En effet, nous avons à partir de la densité du couple XY qui je vous le rappelle était égale à 1 sur Pi indicatrice que x2 et y2 est plus petit que 1, nous avions donc calculé les densités de X et de Y, elles sont écrites ici. Pour intervenir, pour l'une racine de 1- x2, pour l'autre racine 1- y2, et il est immédiat de remarquer que le produit de ces densités marginales n'est pas égale à la densité du couple. Alors cette réciproque sera vraie dans un cas que nous aborderons à la toute fin du cours, qui est le cas des vecteurs Gossi