[MUSIQUE] [AUDIO_VIDE] Bonjour. Dans la séance précédente, nous avons énoncé et prouvé la loi des grands nombres. Je vous avais annoncé que ce théorème nous permettrait de justifier l'approche fréquentiste qui nous a permis de construire notre modèle probabiliste et c'est ce que nous allons faire maintenant. Et nous allons voir également d'autres applications de la loi des grands nombres une en statistique, une qui va en fait être développée dans des séances de simulation qui va être une méthode de calcul approximatif d'intégrale que l'on appelle la méthode de Monte Carlo et nous verrons même une application à prouver par la loi des grands nombres un résultat d'analyse réelle. En fait, comme je vous l'ai dit, ce théorème est un des théorèmes clés de la théorie probabiliste et il y a multiples applications. Je ne vous en ai choisi que quelques-unes dans ce cours. Donc tout d'abord, je vais vous rappeler la loi des grands nombres. Donc nous avons vu dans la séance 4 du cours 5 que si nous considérions une suite Xn de variables aléatoires indépendantes de même loi qui sont intégrables et donc on peut définir l'espérance commune à ces variables aléatoires que j'ai appelée petit m alors on peut prouver que la moyenne empirique de ces variables aléatoires Mn qui est égal à X1 plus X2 plus etc., plus Xn sur n converge à la fois en probabilité, en moyenne et presque sûrement vers l'espérance commune aux Xi que nous avons notée petit m. Donc c'est ce théorème que j'ai rappelé ici et dont nous allons maintenant voir quelques applications. Tout d'abord, justifions notre approche par fréquence empirique pour la construction du modèle probabiliste. Donc, je vous rappelle, le modèle initial, donc je vous renvoie vraiment au début du cours 1. Nous avions considéré une expérience aléatoire et que nous avons répétée avec des répétitions d'expériences indépendantes les unes des autres et faites dans le même contexte. Nous essayons de savoir à partir de cette expérience aléatoire si un certain événement aléatoire est réalisé ou non. Donc, j'ai appelé grand A cet événement décrit par l'expérience. Nous allons poser Xn égal 1 si grand A est réalisé au cours de la nième expérience et Xn égal 0 sinon. Donc, vous voyez que cela va nous permettre de définir pour chaque entier n une variable aléatoire Xn qui prend les valeurs 0 ou 1, donc c'est une variable de Bernouilli et la suite des variables aléatoires Xn est indépendante puisque nous avons supposé que les répétitions de l'expérience aléatoire étaient indépendantes. De plus, si nous calculons l'espérance de Xn, hein, Xn c'est, je, on a déjà introduit une notation pour cette variable aléatoire. C'est ce qu'on a appelé l'indicatrice de l'événement aléatoire grand A. Hein, mais ici, on devrait mettre grand A indice n, ce qui voudrait dire que grand A est réalisé au cours de la nième expérience. Donc, l'espérance de Xn en fait ici est exactement égale à la probabilité de grand A, la probabilité de réalisation de grand A au cours de la nième expérience. Par ailleurs, si l'on regarde la moyenne empirique de ces variables aléatoires Xi qu'on a appelée Mn donc si je regarde X1 plus X2 plus etc. plus Xn sur n, ça va valoir en fait le nombre de fois où l'événement A est réalisé au cours des n premières expériences divisé par n. Puisque Xi prend la valeur 1 quand A est réalisé et prend la valeur 0 si. Donc en fait nous remarquons que Mn est exactement égal à ce qu'on a appelé la fréquence empirique de grand A au cours de n expériences aléatoires, n répétitions de l'expérience. et la loi des grands nombres nous dit que puisque les variables aléatoires Xn sont indépendantes et de même loi, hein, puisqu'une loi de Bernouilli est caractérisée par son paramètre qui est l'espérance de la variable aléatoire, donc et c'est donc égal à la probabilité de grand A donc, nous pouvons appliquer le théorème de loi des grands nombres qui va nous dire que la suite des variables aléatoires Mn, c'est-à -dire la suite des fréquences empiriques fn de A converge donc dans les sens que nous avons rappelés tout à l'heure vers l'espérance commune aux variables aléatoires Xn qui est la probabilité de grand A. Donc, je vous rappelle que nous avions construit de manière euristique le modèle probabiliste au sens où nous avons imposé sur la probabilité P un certain nombre de propriétés que nous avions déduit des propriétés des fréquences empiriques par passage à la limite avec dans l'idée que dans le modèle probabiliste devait être un modèle abstrait limite du modèle que l'on vient de rappeler ici d'une expérience aléatoire et de répétition de cette expérience qui veut dire que l'on vient de justifier par la loi des grands nombres cette flèche, ici, cette, ce passage à la limite que nous avons fait pour construire a priori notre modèle probabiliste. Donc, on est en train de boucler la boucle j'ai envie de dire et de donner toute la cohérence à notre modèle. Alors, je voudrais vous montrer une autre application, un domaine plus statistique et qui va aussi justifier la manière dont on simule les variables aléatoires. Donc vous rediscuterez aussi de ça dans les séances de simulation. On considère là encore une suite Xn de variables aléatoires réelles qui sont indépendantes et qui ont la même loi et on va caractériser cette loi par la fonction de répartition grand F. Maintenant, je fixe petit x un réel et je considère la variable aléatoire Z indice i qui est égale à l'indicatrice de grand Xi plus petit que x. Ca veut donc dire que Zi de oméga égal 1 si grand Xi de oméga est inférieur ou égal à petit x et Zi de oméga égal 0 si grand Xi de oméga est supérieur à petit x. Puisque les variables aléatoires Xi sont indépendantes, il est clair que les variables aléatoires Zi le sont également et puisque les variables aléatoires Xi sont de même loi, de manière évidente, les variables aléatoires Zi ont toutes la même loi. De plus, l'espérance de Zi va être égale à la probabilité d'avoir Xi inférieur ou égal à petit x et donc par définition de la fonction de répartition, nous savons par hypothèse que cette quantité-là vaut grand F de petit x. Alors, si maintenant j'applique la loi des grands nombres à la suite de variables aléatoires Zi, hein, c'est justifié puisque on vient de prouver que cette suite vérifie toutes les hypothèses requises pour appliquer la loi des grands nombres, nous pouvons en déduire que ces fréquences empiriques 1 sur n somme de i égal 1 à n de indicatrice de grand Xi plus petit que x, hein, ici on reconnaît la variable Zi à petit x fixé bien sûr hein, je l'ai fixé dès le départ, ces variables aléatoires là qui sont donc paramétrées par petit x convergent en probabilité, en moyenne mais aussi presque sûrement vers l'espérance commune aux Zi qui est grand F de x. Donc vous voyez que nous avons ainsi un moyen de simuler x par x, la fonction de répartition grand F, ici l'on est capable de évidemment de simuler ces quantités-là . Alors, une remarque, c'est que si on considère Fn de b moins Fn de a donc Fn de x hein, c'est comme ça que j'ai appelé cette fréquence empirique qui nous dit si les variables sont plus petites ou plus grandes que x, eh bien, Fn de b moins Fn de a va compter le nombre de variables aléatoires Xi qui tombent dans l'intervalle ab. Hein, puisque Fn de x ici compte le nombre de variables aléatoires Xi tirées entre 1, pour i entre 1 et n dont la valeur Xi de oméga va tomber à gauche de petit x. Donc ici vous voyez, et si l'on suppose que l'on peut simuler ces variables aléatoires Xi de oméga pour i variant de 1 à n, on a fixé petit a et petit b, on regarde le nombre de valeurs qui tombent dans l'intervalle ab, on le compte, ça fait le cardinal de cet ensemble et on divise par n et c'est ça qui vaut Fn de b moins Fn de a. Et vous voyez que donc comme corollaire de la loi des grands nombres, nous pouvons en déduire que cette quantité-là qui est Fn de b moins Fn de a pour a et b fixés va converger presque sûrement vers F de b moins F de a. Donc vous voyez qu'ici donc ça c'est le principe de la loi des grands nombres, à gauche on a une variable aléatoire hein qui compte donc le nombre de i tels que Xi de oméga est compris dans entre a et b et renormalisé par n donc c'est une moyenne ici hein, c'est la fréquence empirique de cet intervalle ab du point de vue des valeurs des Xi. Donc ça, c'est un terme aléatoire. En revanche, à droite on a une quantité réelle hein donc qui est donnée par cette valeur grand F de b moins grand F de a. Donc, ce résultat justifie le fait que quand on simule des variables aléatoires, eh bien, on va approcher la loi en regardant l'histogramme construit à partir de deux données, hein, on va simuler des valeurs de la variable aléatoire, et, pour chaque intervalle, a, b, on va compter le nombre de valeurs, comprises entre a et b. Et vous voyez qu'on converge vers la fonction de répartition, je vous rappelle ce que ça décrit, la loi de la variable aléatoire. Donc, par exemple si vous supposez, a priori, que les variables aléatoires Xi ont une densité f, eh bien nous aurons comme résultat que cette quantité, ici, aléatoire, décrit la manière dont on construit l'histogramme de nos simulations, converge vers, F de b moins F de a, qui dans ce cas-là est exactement égal à l'intégrale de a à b, de, f de t, dt. C'est-à -dire la surface, délimitée par la fonction, f, entre les points, a et b. Et la convergence est presque sûre, ce qui justifie nos méthodes de simulation. Une petite indication, donc, qu'on n'a pas tout à fait les moyens de montrer dans le cadre de ce cours de probabilités élémentaires, est que, en fait on a mieux que ce qu'on a eu là , c'est-à -dire, par la loi des grands nombres, on a eu la convergence ponctuelle de, Fn de X, vers F de X, presque sûrement, c'est-à -dire que, pour chaque X fixé, on a montré la convergence de, Fn de X, vers F de X, en fait on peut faire mieux. On peut montrer que la convergence est presque sûrement uniforme en, x appartenant à R, au sens où si je regarde la différence, Fn de X, moins, F de X ; donc ça c'est toujours une quantité qui dépend de x, mais si maintenant je prends le sup, le supremum pour tous les x, réels, de la valeur absolue de, Fn de X moins F de X, eh bien, on peut montrer que cette quantité-là tend vers zéro, presque sûrement, quand n tend vers l'infini. Donc la loi des grands nombres nous donne un élément de preuve, qui est la convergence ponctuelle, point par point. Donc ce théorème, c'est ce qu'on appelle le Théorème de Glivenko-Cantelli, et c'est un théorème qui est assez fondamental, en statistiques. Alors, une autre grande classe d'application de la loi des grands nombres est ce qu'on appelle, maintenant, les méthodes de Monte-Carlo, et, vous allez le voir de manière développée dans mes séances de simulation, donc c'est une grosse classe de méthodes, qui consistent à approcher numériquement des quantités déterministes, par des méthodes stochastiques. Alors, je ne vais vous donner, ici, que une proposition qui vous justifie, dans un cas très simple, l'emploi de cette méthode. La proposition est la suivante, c'est un corollaire immédiat de la loi des grands nombres, si vous considérez une suite de variables aléatoires, Xn, indépendantes, de loi uniforme sur ( a, b), et si on considère une fonction, intégrable sur (a, b), eh bien, pensez à une fonction continue sur (a, b), si le mot intégrable vous fait peur, eh bien, nous pouvons montrer, par la loi des grands nombres, que, f de X1, + f de X2 etc., + f de Xn, sur n, converge, presque sûrement vers, 1 sur, b- a, l'intégrale de a à b de, f de x, dx. En effet, les variables aléatoire, f de Xi, sont indépendantes, sont de même loi, et elles sont intégrables puisqu'on a supposé que la fonction, f, était intégrable sur (a, b), ou continue sur (a, b) si vous préférez. De ce fait, nous pouvons appliquer la loi des grands nombres à la suite de variables aléatoires, f de Xi. Et nous en déduisons que cette moyenne empirique converge vers l'espérance commune aux f de Xi. Or, puisque les variables aléatoires, Xi, suivent une loi uniforme sur (a, b), nous savons que l'espérance de, f de X1, vaut 1 sur, b- a, l'intégrale de a à b de, f de x, dx. Et donc, la loi des grands nombres nous donne, immédiatement ce résultat. Alors, en fait, du point de vue des approximations numériques, l'intérêt de cette proposition est que, si maintenant on se donne une fonction, f, et nous voudrions calculer, l'intégrale de a à b de, f de x, dx, hein, il y a des méthodes déterministes pour faire ça, les méthodes de Newton, les méthodes du trapèze, du triangle etc. Donc il y a des tas de méthodes numériques, déterministes, pour approcher cette intégrale, qui peut être extrêmement difficile à calculer si on ne connaît pas de primitive de f ; eh bien, vous voyez que la loi des grands nombres vous propose une méthode, vous allez simuler des variables aléatoires de loi uniforme, sur (a, b). Ce qui est quand même particulièrement simple à faire, nous avons vu, c'est quasiment donné en général par les touches, random, de l'ordinateur. Nous allons calculer pour ces valeurs, X1 de oméga etc. Xn de oméga, simulées pour certaines réalisations donc de notre loi uniforme sur (a, b), nous allons calculer, f de X1, f de X2, f de Xn, nous connaissons la fonction f, nous en prenons la moyenne, et cette moyenne va nous donner une valeur approchée de l'intégrale de a à b, de, f de x, dx, approchée à 1 sur, b- a, après il faut renormaliser par la longueur de l'intervalle sur lequel on intègre. Donc ici je vous ai donné un cadre très simple, vous verrez dans une séance spécifique sur les méthodes de Monte-Carlo qu'on peut généraliser ce type de raisonnement à , R puissance d, et vous verrez également que le gros intérêt de cette méthode, en fait, est que elle ne nécessite pas de régularité spécifique de la fonction f, contrairement aux méthodes numériques déterministes, et la manière dont la moyenne empirique converge vers l'intégrale ne va pas dépendre de la dimension de l'espace dans lequel on se place. Donc ces méthodes de Monte-Carlo sont extrêmement efficaces, en particulier en grandes dimensions, et vont permettre de faire des calculs approchés très rapides. Donc elles sont très développées à l'heure actuelle, en particulier, par exemple, dans les salles de marché, et autres. Une dernière application du théorème de loi des grands nombres, que nous allons voir, est une preuve probabiliste d'un résultat d'analyse qui concerne les polynômes de Bernstein et qui, a priori, n'a rien à voir avec les probabilités. Nous allons considérer une suite, Xn, de variables aléatoires de Bernoulli, indépendantes et de paramètre, x appartenant à (0, 1). Nous savons qu'alors, je vous renvoie au cours 2 pour le vérifier, la variable aléatoire, X1 + etc. + Xn, donc la somme des, n premières variables Xi, suit la loi binomiale de paramètres, n et x. Ainsi si f est une fonction continue sur (0, 1), nous pouvons calculer l'espérance de, f de X1 + X2 etc., + Xn, sur n, et ça va être égal à la somme de, K égale zéro à n, de f, de k sur n, probabilité d'avoir X1 + X2 etc. + Xn égale k. Et cette probabilité est égale à , nombre de manière de tirer k parmi n, x puissance k, 1- x puissance (n- k). Nous savons, par la loi des grands nombres que, Mn, c'est-à -dire, X1 + etc., Xn, sur n, converge presque sûrement vers l'espérance commune aux Xi, c'est-à - dire, x. Puisque, f est continue, il est immédiat de voir que, f de X1 + X2 etc., + Xn, sur n, converge presque sûrement vers, f de x. De plus, f étant continue sur l'intervalle, fermé, borné, (0, 1), f est bornée, et la suite de variable aléatoires, f de X1 +X2 etc. + Xn, sur n, est donc bornée, par une borne de f. Donc nous avons une suite de variables aléatoires qui converge, presque sûrement, vers un nombre réel, hein, donc vers une variable aléatoire intégrable, et qui de plus est bornée, qui est dominée, donc nous pouvons en déduire, par le théorème de convergence dominée, que l'espérance de cette suite de variables aléatoires, va converger vers f de x. Alors vers f de x, parce que l'espérance d'un nombre réel, c'est ce nombre lui-même. Donc la suite des espérances, ici, va converger vers f de x, et si on la calcule, c'est ce qu'on a vu tout à l'heure, hein, c'est la somme de, K égale zéro, n, de, f de K, sur n ; ça c'est un nombre, pour k fixé. Le nombre de tirages de, k parties, parmi n, x k, 1- x, puissance, n- k. Donc ici, si vous regardez cette quantité-là comme une fonction de x, vous voyez que c'est un polynôme de degré n, et ce que l'on vient de montrer c'est que, pour x dans (0, 1) fixé, ce polynôme qu'on appelle un polynôme de Bernstein, pris en x, converge vers, f de x. Donc nous avons construit, à partir de la fonction, f, un polynôme de dégré n, et cette suite de polynômes, indexée par n, va converger vers la fonction f, au moins ponctuellement sur (0, 1). Donc nous venons de montrer que, toute fonction continue sur (0, 1), est approchée au moins ponctuellement, par une suite de polynômes, qui sont donc appelés polynômes de Bernstein. Alors on peut montrer, et vous le ferez en exercice, là encore par des arguments probabilistes, que cette suite de polynômes converge uniformément vers la fonction, f. Et vous voyez, donc, qu'ici cette loi des grands nombres nous donne le résultat de convergence de manière quasiment immédiate, alors qu'à priori l'énoncé du théorème de Weierstrass, que j'ai écrit ici, n'a rien à voir avec des probabilités.