[MUSIQUE] Bonjour. Nous allons aujourd'hui entamer un nouveau chapitre que j'ai donc, j'ai appelé le cours 4 et qui va concerner l'étude de vecteurs, des vecteurs aléatoires et en particulier dans la séance 1, nous allons nous intéresser à la loi d'un tel vecteur. Nous allons utiliser ces vecteurs aléatoires pour modéliser des phénomènes qui évoluent dans des espaces de dimensions finies plus grandes que 1 et par exemple, des phénomènes qui prennent leurs valeurs dans R puissance n pour n un nombre entier. Comme exemple, nous avons déjà vu l'expérience aléatoire du lancer de flèches sur une cible et si vous vous intéressez aux coordonnées de l'impact de la flèche sur la cible, les coordonnées cartésiennes, en fait vous allez caractériser le point d'impact par deux variables aléatoires qui sont l'abscisse et l'ordonnée sur le plan formé par la cible. Donc, ces deux variables aléatoires peuvent être considérées séparément, on peut considérer leur loi comme on l'a fait dans le cours 3, mais on peut aussi se poser la question du lien entre les deux variables aléatoires et c'est ce point de vue là qui va nous intéresser aujourd'hui. Donc, nous n'allons pas considérer séparément les deux coordonnées ici du couple de variables aléatoires X1, X2 mais on va considérer l'ensemble grand X égal X1, X2 comme vecteur aléatoire. Ici, c'est un vecteur aléatoire à valeurs dans R2. Donc, pour définir une variable aléatoire, je vous rappelle qu'on avait dû définir une tribu sur l'espace des valeurs de la variable aléatoire. Ici, nous allons nous poser cette même question pour les valeurs d'un vecteur aléatoire et donc la question mathématique est quelle tribu pouvons-nous associer à l'espace R puissance n, pour n un entier positif quelconque. Eh bien en fait, nous allons généraliser la notion de tribu borélienne que nous avons définie pour R et nous allons noter B de Rn la tribu borélienne de R puissance n qui va être engendrée par les ensembles, les sous-ensembles de R puissance n de la forme produit de i égal 1 à petit n des intervalles moins l'infini petit xi ouvert bien sûr en moins l'infini et fermé en xi de, avec petit x1, petit x2, petit xn, un n-uplet de réels quelconques. Donc, ce type de structure, on appelle ça un pavé hein, puisque vous voyez que c'est un produit cartésien d'intervalles. Ici, c'est un pavé infini puisque ces intervalles sont non bornés à gauche hein et bornés à droite par les réels petit xi. Donc, je vous rappelle que une tribu engendrée par une famille d'ensemble, c'est défini par la plus petite tribu qui contient ces ensembles. Donc, nous allons maitenant pouvoir définir mathématiquement un vecteur aléatoire comme étant une variable aléatoire d'un espace mesurable oméga A hein, un espace de probabilité oméga muni d'une tribu abstraite A ronde mais à valeurs dans l'ensemble R puissance n muni de cette tribu borélienne. Et un résultat donc mathématique que je ne développerai pas plus est de remarquer qu'un vecteur aléatoire donc défini en tant que qu'application mesurable de oméga à valeurs dans Rn B de Rn est exactement formée de n variables aléatoires réelles, X1, X2, Xn où les Xi sont les coordonnées du vecteur aléatoire grand X. Bien, donc la théorie est bien cohérente et nous allons du coup soit considérer le vecteur aléatoire comme un tout, hein, comme une variable mesurable dans ces espaces, soit comme la collection de ces n coordonnées qui sont des variables aléatoires réelles X1, X2, Xn. Donc, nous allons pouvoir directement définir la loi du vecteur aléatoire que je vais noter P indice grand X hein, grand X désigne le vecteur, qui va être la loi du n-uplet de variables aléatoires X1, X2, Xn donc ça sera une probabilité sur R puissance n et pour chaque i, i variant de 1 à n, nous pouvons isoler la coordonnée Xi et nous intéresser donc Xi est une variable aléatoire à valeurs réelles et nous pouvons définir sa loi qui va elle être une probabilité sur R. Donc, pour chaque i variant de 1 à n, je vais définir P indice Xi qui sera la loi de la ième coordonnée du vecteur que j'ai notée grand X indice i. Alors, dans le langage de probabilité, on parle de loi marginale, donc la ième loi marginale c'est la loi de la ième coordonnée du vecteur aléatoire. Donc, une question que nous allons nous poser, c'est ben quel est le lien entre la famille, la collection de ces n probabilités sur R P indice Xi qui sont les lois des coordonnées Xi et la loi du vecteur aléatoire P indice X qui est une probabilité sur l'espace R puissance n qui nous intéresse aujourd'hui. Alors déjà comment on va pouvoir décrire une probabilité sur R puissance n? Donc si on se rappelle ce qu'on a fait dans le cours 3, nous avons montré que l'on pouvait caractériser une probabilité sur R par sa fonction de répartition et je vous rappelle que c'est fondamentalement lié à la structure de la tribu borélienne et là vu qu'on a généralisé de manière naturelle la notion de tribu borélienne à R puissance n, eh bien,on peut montrer de la même façon, même si nous ne le ferons pas dans le cadre du cours, que la loi d'un vecteur aléatoire à vecteurs, à valeurs R puissance n va être caractérisée par une fonction qui est une fonction de n variables et qui est la généralisation de la fonction de répartition que nous avons vue au cours 3. Donc, pour tout petit x1, petit x2, petit xn dans R puissance n, nous pouvons définir grand F de x1, x2, xn comme étant la probabilité que le vecteur aléatoire grand X appartienne au produit de i égal 1 à n des intervalles moins l'infini petit xi. Cela veut donc dire, cet ensemble-là , je vous rappelle, cette notation-là veut dire que l'on considère l'ensemble des oméga tels que X de oméga appartient à ce sous-ensemble de R puissance n qui est donc un produit cartésien d'intervalles. Et dire que le vecteur grand X de oméga appartient à cet ensemble est équivalent à dire que pour chaque petit i de 1 à n, x, grand Xi de oméga est inférieur ou égal à petit xi. Donc, on regarde cette probabilité-là . Alors vous voyez, c'est une fonction de n variables. Ou si vous avez travaillé un petit peu en analyse, vous savez que c'est des fonctions qui sont difficiles à manipuler et pour lesquelles on est beaucoup moins à l'aise que dans le cas de la dimension 1, hein, dans le cas où n était égal à 1 où on a utilisé en particulier les propriétés de monotonie de cette fonction. Donc en fait ici, on va se limiter à un cas particulier mais qui est déjà une grande classe de vecteurs aléatoires et pour lequel on aura des possibilités de calculs beaucoup plus simples et en fait ce cas particulier, c'est celui des vecteurs aléatoires dont la loi va admettre une densité, et définition que l'on va obtenir comme une généralisation de ce qu'on a vu déjà dans le cours 3 pour une variable aléatoire réelle. Donc dorénavant, nous allons supposer que la loi du vecteur aléatoire grand X, hein, maintenant grand X est un vecteur, admet une densité, donc ça va être une fonction petit f positive intégrable sur R puissance n et qui va être d'intégrale 1. Dire que la loi de X admet une intensité, cela veut dire que la fonction de répartition de grand X hein, ou de la loi de grand X, donc cette fonction grand F de petit x1, petit x2, petit xn va pouvoir s'écrire comme l'intégrale de moins l'infini à x1 intégrale de moins l'infini à x2 etc., intégrale de moins l'infini à xn de f de y1 y2 yn dy1 dy2 dyn. Donc, j'ai une écriture, une caractérisation de cette fonction de répartition par notre fonction ici petit f. Alors, remarque, en fonction de votre culture sur l'intégration, quand je parle de fonction petit f intégrable sur R puissance n, f est positive donc on peut définir soit son intégrale de Riemann soit son intégrale de Lebesgue et suivant votre culture, eh bien, vous choisirez l'une ou l'autre des définitions et vous verrez ultérieurement qu'on va toujours travailler sous des hypothèses d'absolue convergence des intégrales dans car dans le cas, on sait que les intégrales de Riemann et de Lebesgue coïncident. Donc dorénavant, nous allons travailler sous cette hypothèse de d'existence de densité pour le vecteur aléatoire grand X. Alors dans ce cas, nous allons pouvoir donner une définition simple de l'espérance de toute, d'une fonction de notre vecteur aléatoire grand X dès lors que cette fonction que j'ai appelée ici petit g est suffisamment régulière et en particulier intégrable. Donc nous allons considérer une fonction petit g de Rn dans R. Alors, je ne l'ai pas noté mais elle doit être mesurable et on va supposer que l'intégrale donc sur R puissance n hein ici j'ai n intégrales de moins l'infini à plus l'infini L'intégrale de valeur absolue de g de x1, x2, xn, fois la densité f de x1, x2, xn, dx1, dxn, est finie. Donc, on suppose que cette fonction g fois la densité f, on définit une intégrale absolument convergente, je vous rappelle que f est positive, donc les valeurs absolues sont seulement autour de g. Donc, dans ce cas-là , eh bien, on peut définir l'espérance de g de X, comme étant l'intégrale, sur R puissance n, de g de x1, x2, xn, fois f de x1, x2, xn, dx1, dx2, dxn. Donc, vous voyez que c'est une généralisation immédiate de ce qu'on avait pour n égale 1. Alors, une remarque, si on suppose que la fonction g par exemple est continue, bornée, elle est mesurable et vérifie cette condition ici, puisque je sais que l'intégrale sur R n, de f de x1, x2, xn, dx1, dx2, dxn est égal à 1, donc dès lors que g est borné, cette intégrale-là , ici, est bien finie. Nous allons regarder un exemple de calcul d'une telle espérance de vecteur aléatoire, dans le cas où n égale 2 et nous allons, en fait, revenir à l'exemple du lancer de fléchettes. Donc, nous supposons que la cible, sur laquelle nous lançons les fléchettes, est circulaire et de rayon 1. Et, nous étudions le point d'impact que j'ai appelé ici x, y, de la flèche sur la cible. Comme nous l'avons vu tout à l'heure, ce point d'impact est un vecteur aléatoire et qui va prendre toutes ces valeurs sur un disque de rayon 1. Donc, si on suppose qu'on lance de manière uniforme les fléchettes sur la cible, on peut supposer que ce vecteur aléatoire aura une loi uniforme sur la cible. Et de ce fait, on va supposer donc loi uniforme, ici, eh bien, on peut avoir tout point (x, y), qui appartient à cette circulaire de rayon 1, va satisfaire que le carré de son rayon est plus petit que 1, c'est-à -dire que x 2 plus y 2 est plus petit que 1. Et vous savez que la surface d'un disque de rayon 1 est égal à pi, donc la densité d'un tel vecteur aléatoire, qui correspond à une loi uniforme sur ce disque, va être égal à 1 sur pi indicatrice de x 2 plus y 2, inférieur ou égal à 1. Maintenant, j'aimerais calculer l'espérance de g de (x, y) pour g étant égal à x au carré plus y au carré. Par définition, si cette espérance existe l'espérance de g de (X, Y) va être égal à l'intégrale sur R 2, intégrale, donc j'intègre chaque coordonnée de moins l'infini à plus l'infini, de la fonction g de X, Y à savoir x 2 plus y 2, fois, 1 sur pi, indicatrice de x 2 plus y 2 plus petit que 1, ça, c'est la densité du vecteur aléatoire, intégrée par rapport aux 2 coordonnées dx et dy. Une remarque, puisque j'intègre sur le disque où x 2 plus y 2, est borné par 1, eh bien, cette intégrale est bien finie, g est une fonction positive, donc ma condition de finitude va se lire sur cette quantité-là . Donc, cette espérance est bien définie. Alors là , j'anticipe un petit peu sur des choses qu'on reverra ultérieurement de manière plus systématique, mais pour calculer cette intégrale, on va faire un changement de variable, et on va écrire x, on va passer à ce qu'on appelle les coordonnées polaires et caractériser le point d'impact, non pas, par les coordonnées cartésiennes, mais par le rayon et l'angle polaire, que j'appelle ici rhô et thêta, de telle sorte que x soit égal à rhô cosinus thêta et y est égal à rhô sinus thêta, avec rhô strictement positif et thêta dans 0, 2 pi. Donc, nous reviendrons sur ce changement de variable intérieurement, mais c'est donc un changement de variable bijectif, défini de R 2, privé du point 0, 0, à valeur dans 0, plus l'infini ouvert, croix, 0, 2 pi ouvert. Et vous voyez que dans ce cas, nous allons pouvoir écrire x 2 plus y 2, comme étant égal à rhô au carré, et on sait également, donc là je vous renvoie à vos connaissances sur ces changements de variables dans les intégrales, on sait que l'élément différentiel dx dy, doit être remplacé par rhô d rhô, d thêta. Et je reviendrais ultérieurement dans ce théorème de changement variable. Et de ce fait l'espérance de g de (X, Y) sera égal à 1 sur pi, fois, l'intégrale donc de 0 à 2 pi, ça, c'est l'espace de variation de thêta, l'intégrale de 0 à 1, ça, c'est pour rhô, puisque nous savons que x 2 plus y 2 est plus petit que 1, de la fonction g de (x, y), qui peut s'écrire aussi rhô 2, fois, rhô d rhô, puisqu'on a vu dx dy était remplacé par rhô d rhô thêta. Tout est positif, j'applique le théorème de Fubini, je vais déjà intégrer en la variable rhô, donc ça, c'est facile, vous avez du rhô 3, donc, vous allez intégrer o 3 d rhô, ça va nous donner une primitive, qui est de la forme rhô, euh, 4 sur 4 et donc intégré entre 0 et 1, ça nous fait donc un quart fois l'intégrale de thêta, entre 0 et 2 pi, fois, 1 sur pi, on obtient donc un demi. Alors, nous allons maintenant regarder la deuxième question que nous nous étions posée. Première question, comment caractériser, pouvons-nous caractériser la loi du vecteur aléatoire X. Deuxièmement, quel est le lien avec les lois des coordonnées des variables aléatoires coordonnées, que nous avons appelé loi marginale du vecteur aléatoire. Donc, si je veux connaître par exemple la loi de X1, nous avons vu dans le cours 3 que pour caractériser la loi d'une variable aléatoire réelle, il suffisait de calculer les espérances d'une fonction test, quelconque, continue, bornée, h, de cette variable aléatoire X1. h de X1, c'est un cas particulier de fonction de la forme g de X, si X est mon vecteur aléatoire. Donc, je vais appliquer ma formule générale, que j'ai vue précédemment ici, mais avec g de x1, x2, xn, égale h de X1. Donc, il suffit que je remplace ici cette quantité-là par h de X1. C'est ce que je fais dans cette expression-là et là encore, je vais utiliser le théorème de Fubini, qui est valide puisque h est issu d'une fonction bornée, et qu'on sait que f est d'intégrale 1 et je vais intégrer d'abord, par rapport aux variables de dx2, dxn. Or, ici, vous voyez que cette fonction-là ne dépend que de x1, donc je peux la mettre à l'extérieur de mon intégrale en dx2, dxn. Et, vous voyez que je mets la quantité espérance de h de X1 sous la forme d'une intégrale par rapport à la variable petit x1, de la fonction h de x1, la fonction test, fois, cette fonction-là , qui est une fonction de x1 et que je note f indice grand X1 de petit x1, qui est l'intégrale sur R puissance n moins 1, là , j'ai n moins 1, j'ai un produit cartésien de R n moins une fois, donc l'intégrale de la densité f de x1, x2, xn, mais intégrée uniquement par rapport à dx2, dxn. Donc, ce qu'on vient de montrer, c'est que, je vous renvoie au cours qui caractérisait la loi d'une variable aléatoire réelle, c'est une séance, la dernière séance du cours 3, et nous avons à la fois montrer que par ce calcul-là , que X1 avait une loi à densité et nous avons exhibé la valeur de la densité. Donc, on revient au calcul de l'exemple des fléchettes, où je sais que pour le couple de variables aléatoires (x, y) dont la densité f de (x,y) est égal à 1 sur pi, indicatrice de x 2 plus y 2, plus petit que 1. Et je cherche maintenant à caractériser la première loi marginale, la loi de X, première coordonnée. Alors, dans ce cas, nous savons déjà , c'est ce qu'on vient de démontrer, que X admet un loi à densité, et nous cherchons à calculer cette densité et nous venons de voir qu'il suffit d'intégrer la densité du couple par rapport à la deuxième coordonnée y. Donc, la densité de X, c'est l'intégrale sur R de f de (x, y), dy, donc après, c'est du calcul, on va donc intégrer en y cette densité uniforme sur la cible. Alors, vous voyez que si j'écris x 2 plus y 2, plus petit que 1, c'est la même chose que de dire que y 2 est plus petit que 1 moins x 2, y peut être positif ou négatif, et y 2 plus petit que 1 moins x 2, c'est équivalent à dire que y est compris entre moins racine de 1 moins x 2 et racine de 1 moins x 2. Je vous rappelle que ces 2 quantités-là ont un sens puisque dès lors que x 2 plus y 2 est plus petit que 1, je peux assurer que X se promène dans l'intervalle [-1, +1], donc les 2 quantités sous les radicaux sont bien positives. Donc, finalement vous voyez que si j'intègre cette quantité en y, bon, j'ai le 1 sur pi qui sort bien sûr, j'ai le fait que X se trouve dans moins 1, petit 1, et que la densité n'a de sens que dans ce cas-là , on ne peut la définir que pour les X dans moins 1, petit 1, et, le dy va se balader entre ces 2 bornes, donc, si j'intègre dy entre ces 2 bornes, ça va me faire 2 fois racine de 1 moins x 2, Et vous avez ici la densité de X. Alors, bien sûr, vu la forme de la densité du couple, voyez qu'il y a une symétrie en x et en y et si je vous demande maintenant la densité de Y, eh bien, ce n'est pas compliqué de voir qu'il suffit de changer ici le rôle de x et y, et de voir, donc, que Y a une loi qui possède la même densité que celle de X. Ce qui veut dire que Y et X ont même loi, dans ce cas-là . Deuxième remarque, nous sommes partis de l'hypothèse d'un couple de variables aléatoires de loi uniforme sur la cible, et on remarque la loi des coordonnées n'est pas du tout uniforme. La coordonnée x, elle va charger l'intervalle moins 1, 1, un des diamètres de la cible, ça, on s'y attendait, mais vous voyez que ce n'est pas du tout uniforme, il n'y a pas du tout 1 sur la longueur de l'intervalle, c'est-à -dire un demi, devant il y a cette forme racine de 1 moins x au carré qu'on ne pouvait pas deviner a priori. Merci.