[AUDIO_VIDE] [AUDIO_VIDE] Bonjour. Le chapitre cinq que nous commençons aujourd'hui va être un des points clés de ce cours. En effet il va justifier toute la construction du modèle probabiliste que nous avons fait dans les premières séances. Rappelez vous, pour construire, pour définir les propriétés d'une probabilité, nous avons étudié de manière heuristique une expérience aléatoire et avons déduit les propriétés abstraites d'une probabilité comme des limites de propriété de fréquence empirique. Dans ce cours cinq, le but ultime de ce cours cinq, est de montrer en fait un théorème fondamental qui s'appelle la loi des grands nombres, et qui va justifier cette convergence des fréquences empiriques vers une probabilité. Donc c'est assez amusant, on a d'abord intuité un modèle abstrait de probabilité, et maintenant, voyez, après tant de séances déjà , nous allons justifier que ce modèle est bien cohérent. Donc ce théorème fondamental, qui est une des ossatures principales de ce cours, s'appelle, comme je l'ai dit, la loi des grands nombres, et nous en verrons un certain nombre d'application. Toutefois, pour avoir les moyens de bien comprendre ce théorème, nous allons avoir besoin d'un certain nombre de prérequis, d'une part, et c'est ce qu'on va faire dans cette première séance sur les propriétés de sommes de variables aléatoires, réelles indépendantes, et d'autre part nous allons devoir définir la notion, les notions, de convergence pour une suite de variables aléatoires, vous verrez qu'en fait on va avoir plusieurs notions de convergence et qu'il va falloir essayer de comprendre ces différentes notions et les liens qu'on peut trouver entre elles. Donc aujourd'hui nous allons nous intéresser à quelques propriétés des sommes de variables indépendantes. Donc tout d'abord, nous allons considérer des variables aléatoires quelconques de carrés intégrables, et nous allons montrer, c'est une petite formule presque immédiate, vous allez voir, que la variance de la somme de ces variables, somme de i égale à n des Xi, est égale, alors attention, dans le cas général, ce n'est pas égal à ce qu'on voudrait, c'est-à -dire la somme des variances, mais c'est égal à la somme des variances des Xi plus la somme pour i différent de j, ça manque ici, des covariances de Xi, Xj. Et si, de plus, les variables aléatoires sont indépendantes, eh bien nous avons vu dans la séance cinq du cours quatre que dans ce cas, les covariances de Xi, Xj, sont nulles pour i différent de j, donc ce terme disparaît, et il reste une formule beaucoup plus agréable, à savoir que la variance de la somme de i égale à 1n des Xi est égale à la somme de i égale 1 à n des variances de Xi. Alors, juste un mot de la preuve de cette formule bleue, pour écrire la variance de la somme de i égale 1 à n des Xi, nous allons en fait l'écrire comme la covariance de cette variable avec elle-même. Et nous allons utiliser la bilinéarité de l'opérateur covariance. Donc nous savons, alors en fait i, ici, est une variable muette, et pour la deuxième coordonnée de la covariance, je vais plutôt l'écrire j pour différencier i et j. Donc, par bilinéarité, par propriété de bilinéarité de la covariance, nous savons que cette quantité est égale à la somme de i égale 1 à n, la somme de j égale 1 à n, de la covariance de Xi, Xj. Nous allons différencier les cas où i est égal à j, et où j est différent de j. Donc on va avoir somme de i égale 1 à n de cov (Xi, Xi), plus somme pour i, j égale 1 à n, avec i différent de j, cov (Xi, Xj). Or ici, nous savons que la covariance de Xi, Xi, par définition, à la variance de Xi. Donc nous avons prouvé la formule bleue, et je vous demande de rectifier dans cette formule bleue, de rajouter l'information que i est différent de j. Hein, la formule bleue de l'énoncé de la proposition. Bien, un corollaire qui va nous servir dans la preuve de la loi des grands nombres, et le corollaire suivant, qui est un cas tout à fait particulier, qui est celui où les Xi sont seulement sont indépendantes, mais ont aussi même lois. Donc on suppose qu'elles sont de carrés intégrables, donc elles vont avoir toutes même variance, et j'appelle la variance sigma au carré. Eh bien dans ce cas-là , on peut calculer très facilement la variance de (1/n * (somme de i=1 à N des Xi)). Donc faisons-le directement, 1/n peut sortir du calcul, donc la variance de 1/n, la somme des Xi est égale à un sur n au carré, la variance de la somme de i égale 1 à n des Xi, comme les Xi sont indépendantes, on vient de voir que la variance de cette somme des Xi est égale à la somme des variances des Xi, et nous avons vu que toutes les variables Xi ont mêmes variances, à savoir sigma au carré. Donc on a n fois sigma au carré, divisé par n au carré, ça nous donne sigma deux sur n. Et donc vous voyez qu'une propriété très intéressante apparaît, à savoir que si vous considérez une somme de variables aléatoires indépendantes et de même loi, et vous faites tendre ici le nombre d'éléments dans la somme vers l'infini. Petit n tend vers l'infini. Vous renormalisez par un sur n, c'est-à -dire vous mettez un poids qui est inversement proportionnel au nombre de variables aléatoires, et ce qu'on voit c'est que, quand n tend vers l'infini, la variance qui vaut sigma deux sur n tend vers zéro. Donc je vous rappelle que la variance mesure les fluctuations aléatoires de la variable aléatoire autour de sa moyenne, et on voit que si on a beaucoup de variables aléatoires, quand n devient grand, eh bien les fluctuations de la somme des Xi renormalisées par n, hein, cette moyenne des Xi en fait, ça c'est la moyenne des Xi, eh bien les fluctuations vont disparaître puisque la variance tend vers zéro. Donc ça c'est une propriété importante. Hein, donc si les fluctuations aléatoires disparaissent, ça veut dire que la variable est de plus en plus proche de sa moyenne, donc va se rapprocher d'une variable aléatoire déterministe, une constante. Ça c'est en fait l'idée principale qui va nous permettre d'obtenir cette loi des grands nombres que je vous ai annoncé tout à l'heure. Alors je voudrais, à titre d'exercice un peut, étudier la loi d'une somme de variables aléatoires indépendantes dans le cas où ces variables aléatoires ont des densités et nous allons reconnaître la loi de cette somme. Nous allons montrer que si donc X et Y sont des variables aléatoires réelles indépendantes, de densité f indice x et f indice y, eh bien Z qui est la somme de X plus Y admet également une densité, et que cette densité fz peut être donnée de la manière suivante, vous voyez que c'est l'intégrale de la densité, dont la fonction f indice z de z, petit z un élément de R, donc, s'écrit comme l'intégrale de fx (z- y) fois fY(y) dy, et c'est aussi égal à l'intégrale de FX(x) fY(z-x) dx. Donc cet opérateur-là est bien connu des analystes, voyez que c'est un opérateur qui, à deux fonctions de densités fX et fY, en associe une troisième qui est construite de cette manière-ci. Donc l'opérateur qui à fx et fy associe fz, s'appelle l'opérateur de convolution, ou le produit de convolution et on le note souvent fx* fy, voyez qu'on peut changer du fait de l'égalité de ces deux formules, on va pouvoir changer l'ordre des variables aléatoires, des notations X et Y. Donc nous allons montrer cette propriété, donc je veux connaître la loi de Z, et comme toujours, nous allons donc introduire une fonction g qui est continue bornée sur R, et calculer l'espérance de g(z). Et nous voulons mettre ça sous la forme de l'intégrale de g(z), hein, donc ça c'est une question, est-ce qu'on va pouvoir écrire l'espérance de g(z), sous la forme de intégrale de g(z), fois une certaine fonction de petit z, dz, avec une densité ici. Ainsi nous avons cette écriture-là pour toute fonction g continue bornée sur R, nous pourrons en déduire que f indice Z est la densité de la loi de grand Z. Ça nous donne à la fois que Z admet une loi à densité, et ça nous donne la densité de Z. Alors z est égal à x plus y, donc g(z) en fait c'est une fonction du couple x, y. Nous savons que x et y sont indépendantes, donc nous savons que la loi de x y, admet une densité, et que cette densité est le produit des lois des x et de y. Vraiment l'indépendance est fondamentale, hein. Donc nous savons que l'espérance de g de x plus y est égale à intégrale sur R deux, hein, deux fois intégrale sur R, de g de x plus y, f X de x, f Y de y, d x, d y. Donc ça c'est l'indépendance de X et Y. A cause de cette densité du couple, qui est le produit des densités. Alors maintenant, ben je veux mettre moi les choses sous la forme intégral de g de z, f de z d z. Donc bien sûr on va poser x plus y égale z. Et puis par exemple, on va garder y, alors là on a le choix, et c'est pour ça qu'on a deux formules pour définir cette espérance, cette densité deux n, dans ce qu'on a vu dans la proposition, ici on va par exemple garder y. Donc on fait un changement de variable, en introduisant z égale x plus y et on garde la valeur y. Donc vous voyez que la valeur différentielle qui était d x d y, va devenir maintenant d z d y. Donc j'écris ce que ça vaut, donc l'espérance de g de x plus y va être égale à l'intégrale sur R de l'intégrale de g de z alors f X, donc x maintenant c'est z moins y, donc j'ai f Y de y et d z, d y. Don nous allons, g est ici une fonction qui est continue bornée, et f x et f y sont des densités, ce sont des fonctions positives et intégrables, donc on va pouvoir appliquer le théorème de Fubini, et écrire cette espérance sous la forme de l'intégrale, donc on va intégrer d'abord en y, puis en z, et on va mettre g de z en facteur, facteur de vous voyez que vous allez avoir, alors là j'avais oublié une intégrale, intégrale sur R de f x de z moins y, f Y de y d y et le tout d z. Et donc on est content, puisque vous voyez apparaître ici une fonction qui est une fonction de z, hein, que j'encadre en vert, et on peut vérifier facilement que cette fonction est positive, c'est une fonction de z donc elle est positive, et d'intégrale un en z. Et vous reconnaissez ici ce fameux produit de convolution de X et de Y. Cette égalité que je viens de montrer ici est égale pour toute fonction g continue bornée, donc ça ça m'assure que x plus y admet une densité qui est donnée par cet opérateur de convolution. Bien, alors nous allons appliquer ça dans quelques cas, et je vais donner un cas très intéressant qui est le cas des lois normales, et puis vous montrer de manière un peu anecdotique ce qui se passe avec les variables aléatoires de loi uniforme. Donc, regardons déjà la somme de deux variables aléatoires indépendantes et de loi normale. Donc vous avez ici une simulation, hein, de deux variables aléatoires de loi normale donc qui sont données par les courbes noires et bleues, et la courbe rouge va vous donner la densité de la loi de la somme de ces deux variables aléatoires normales. Donc ici vous voyez qu'elles ont des variances respectives un deux trois. Donc voyez que cette densité de la somme admet elle aussi une forme de courbe en cloche, et on peut intuiter que cette somme va également admettre comme loi une loi normale. Et en fait c'est ce que dit le résultat, vous voyez, qui est écrit ici, c'est que la somme de deux variables aléatoires indépendantes de loi normale de paramètres d'une part m sigma deux, et d'autre part mu et tau au carré, est une variable aléatoire normale de paramètre M plus mu et sigma deux plus tau deux. Alors, l'importance dans ce théorème-là c'est le fait qu'on garde une loi normale, parce qu'on n'est pas étonné d'obtenir les paramètres qui sont écris ici. En effet si vous regardez la somme de deux variables aléatoires qui sont d'espérance respective m et mu, on sait déjà que l'espérance de la somme de ces variables aléatoires sera la somme des espérances à savoir m plus mu. De même nous avons montré en début de séance que si ces variables aléatoires sont indépendantes, la variance de la somme de mes variables aléatoires est égale à la somme des variances, donc. Elle sera égale à sigma deux plus tau deux. Donc si cette somme admet une loi normale, eh bien forcément cette loi normale aura les paramètres m plus mu et sigma deux plus tau deux. Ce que nous allons justifier ici c'est le fait qu'on a une stabilité donc de ces lois normales, par addition, et ça c'est une propriété très importante, qui est beaucoup utilisée dans la pratique et beaucoup développées en statistiques par exemple, cet ensemble, ces variables normales indépendantes, possèdent énormément d'excellentes propriétés. Alors je vais juste vous justifier ceci dans le cas plus simple où on a des variables aléatoires indépendantes centrées réduites, sinon les calculs sont un petit peu lourd à présenter. Donc pour la preuve, nous supposons m égale mu égale zéro, et sigma deux égale tau deux, égale un. Donc nous cherchons, nous allons appliquer bien sûr la proposition que nous avons trouvée, qui montre que la densité de la sommes de deux variables aléatoires indépendantes qui possèdent des densités, est donnée le produit de convolution des densités des deux variables. Donc nous voulons calculer f x, convolé avec f y, pris en un réel z, pour f x et f y, les densités de deux lois normales centrées réduites. Donc, cette convolution va être égale à un sur deux pi, hein, c'est un sur racine de deux pi fois un sur racine de deux pi, intégrale sur R, de e puissance moins z moins x au carré sur deux, fois e puissance moins x deux sur deux d x. Hein, j'ai pris la deuxième formule qui me caractérisais le produit de convolution dans l'énoncé de ma proposition. Donc il faut faire ce calcul-là . Alors, on va mettre, voyez qu'on intègre en x, donc on peut déjà sortir ce qui ne dépend que de z, et donc on va développer, par la formule du binôme le z moins x au carré. Donc on va avoir un sur deux pi, et puissance moins z deux sur deux, intégrale sur R, alors qu'est-ce qu'il reste, j'ai du e puissance moins x deux sur deux, e puissance plus z x, e puissance moins x deux sur deux, d x. Cela me donne donc un sur deux pi, e puissance moins z deux sur deux, et là on va essayer d'être astucieux. Donc vous voyez qu'on a exponentiel de, alors vous avez moins x deux, plsu z x. Donc nous on va mettre ça sous la forme de exponentiel de moins un demi, facteur de deux x deux, moins deux z x, d x. Et ici, je vais écrire ça comme le début d'un carré. Hein, cette quantité-là on va l'écrire comme le début d'un carré. Donc finalement, nous allons avoir un sur deux pi, e puissance moins z deux sur deux, intégral sur R de exponentiel de moins un demi, alors de racine de deux x moins z sur racine de deux au carré, alors vous voyez que si je développe le binôme ici, ça va me faire deux x deux moins deux fois x z, donc c'est exactement ce qu'on voulais, hein, ce qui est souligné par l'accolade verte, et puis j'ai un terme en plus qui est plus z deux sur deux, multiplié par moins un demi. Ce qui me fait moins z deux sur quatre. Donc ce terme n'existe pas, donc je le rajoute, exponentiel z deux sur quatre, d x. Donc voyez que cette exponentiel z deux sur quatre peut sortir de l'intégral, ça ne dépend pas de x. Donc finalement je trouve un sur deux pi, exponentielle moins z deux sur deux, plus z deux sur quatre, donc ça me fait moins z deux sur quatre, intégrale sur R de exponentiel moins un demi de racine de deux x moins z sur racine de deux, au carré, d x. Alors là on va utiliser le fait qu'on connait les intégrales de la formes e puissance moins un demi de u deux d u, hein, et on sait que ça c'est égal à racine de deux pi, puisqu'on sait que e puissance moins u deux sur deux fois un sur racine de deux pi est la densité d'une loi normale centrée réduite, et donc ici il faut faire un petit changement de variable u égale racine de deux x, pour s'assurer que cette quantité là , donc prenez le temps d'y réfléchir, est égale à racine de deux pi fois un sur racine de deux, c'est-à -dire égale à racine de pi. Et donc vous voyez que finalement, je met le résultat en rouge, le résultat en rouge final, l'opérateur de convolution de f x et f y va nous donner un sur deux racine de pi e puissance moins z deux sur quatre, ce qui est bien la densité d'une loi normale n zéro deux, ce que l'on voulait. Alors jute pour finir, nous allons voir quelques simulations de sommes d'autres variables indépendantes, où il n'y a pas de stabilité, justement, et on va regarder des lois uniformes. Donc je vais juste vous montrer des résultats, hein, pour casser des idées qui pourraient être reçues, si vous regardez la somme de deux variables aléatoires indépendantes de loi uniforme sur moins un un, donc moins un un est ici, centré en zéro, donc vous ajouterez deux variables aléatoires qui ont cette densité-là , qui vaut un sur moins un un, et zéro ailleurs, eh bien la densité de la somme n'est plus du tout uniforme, voyez, elle a cette forme triangulaire, donc la courbe bleue ici, c'est la courbe densité de la somme de ces variables aléatoires de loi uniforme. Donc c'est à titre d'exercice vous pourrez essayer de le montrer. Alors ce qui est amusant, c'est de réitérer cette expérience et de prendre maintenant n variables aléatoires indépendantes de loi uniforme sur moins un un. Et vous voyez que si on fait une simulation, alors bien sûr si vous avez, j'aurai pu le dire dans le transparent précédent, si vous ajoutez deux lois qui ont un support sur moins un un eh bien la somme aura un support sur moins deux deux, c'est ce qu'on voit ici. Donc si vous prenez trois variables de loi uniforme sur moins un un, vous aurez, cette somme aura un support sur moins trois trois, etc, et si on en ajoute n, cette somme u i aura une loi de support sur moins n, n. Donc vous voyez quand n tend vers l'infini, plus on ajoute de variables aléatoires, et bien plus le support devient grand et si n tend vers l'infini, ben on voit une densité qui va s'étaler de plus en plus. Et c'est ceci que vous voyez par ces simulations, donc vous avez votre loi de base hein, qui a la densité uniforme sur moins un un, le triangle iii c'était la densité de la somme, et ensuite ben vous voyez le code de couleur, vert, rouge, bleu clair, rouge foncé, qui vous donne à chaque fois une loi de somme de variables aléatoires avec de plus en plus de lois uniformes indépendantes, et vous voyez ce support qui s'étale. Bien. Alors ce qui est rigolo, c'est de renormaliser ces variables aléatoires, cette somme de variables aléatoires, en se disant ben, mon support est de plus en plus grand, donc si je veux vraiment voir quelque chose, il va falloir que je mette un poids, hein, comme on l'a fait tout à l'heure pour nos variances, pour essayer d'obtenir une convergence de cette somme. Et c'est ce qu'on fait en regardant en fait un sur racine de n, la somme de i égale à un à n de ces variables u i, et vous voyez que si on simule ces variables-là , eh bien toutes les courbes qui correspondent aux densités de ces variables aléatoires-là semblent se rapprocher et devenir très très vite presque identiques, ce qui visualise une certaine forme de convergence de cette suite de variables aléatoires quand n tend vers l'infini. Donc cette convergence, eh bien nous la montrerons dans le dernier chapitre c'est ce qu'on appelle le théorème central limit, ou théorème de la limite centrale, et on peut déjà ici la visualiser.