[SON] Bonjour. Dans cette séance 2 du cours 2, nous allons donner un résumé quantitatif de la variable aléatoire, ou v.a., définie sur notre espace d'état, que l'on a supposé fini ou dénombrable. En fait, dans la séance 1, nous avons vu comment écrire la loi de la v.a., et nous avons caractérisé cette loi, par une suite de valeurs de la variable, auxquelles on a associé la probabilité de réalisation de cette valeur. Même si ça paraît simple, c'est quand même assez peu pratique d'utilisation, et on a envie de résumer quantitativement, ce qu'est cette v.a. Donc, pour ce faire, nous allons introduire la notion d'espérance, que l'on va définir sur le modèle abstrait. Rappelons-nous déjà que, pour construire le modèle probabiliste abstrait, nous avons utilisé cette approche fréquentiste, qui consistait à associer une probabilité, à approximer, pardon, la probabilité, par la réalisation d'une suite d'expériences aléatoires indépendantes. Et donc, ici, pour définir de manière abstraite la notion d'espérance, nous allons repartir des expériences, et nous allons supposer que nous pratiquerons n fois notre expérience aléatoire, et à chaque résultat d'expérience, nous associerons la valeur de la v.a. X pour cette expérience. Donc, nous allons avoir n observations de X, qui seront X1, X2,... Xn, qui seront les valeurs de X sur les expériences aléatoires indépendantes successives. Si nous voulons résumer quantitativement la v.a. X, je vous rappelle que X prend ses valeurs, par exemple ici dans N, ou dans tout ensemble dénombrable ou tout sous ensemble dénombrable de R. Nous avons donc, si nous avons n résultats d'expériences, nous avons n valeurs quantitatives X1, X2, ...Xn, associées à la v.a. X. Si l'on veut avoir une idée de la valeur quantitative de cette v.a., le premier réflexe, c'est de calculer la moyenne de vos observations. Vous faites ça depuis que vous êtes tout petits sur vos notes : si vous avez une série de notes, dans une certaine matière, pour avoir une idée de ce que vous valez, vous allez faire la moyenne arithmétique de ces nombres. Donc, nous, on va s'intéresser plus abstraitement, à la moyenne arithmétique de (X1, + X2,... +Xn) / n, où Xi, c'est la v.a. X, mais considérée à la i-ème expérience. Donc dans ce modèle abstrait, si vous regroupez toutes les valeurs identiques, par exemple si la valeur x1 = X1 de oméga apparaît trois fois dans votre suite de résultats, vous allez regrouper ces trois fois-là , et vous aurez X1 avec (1, 3) sur n, qui est la fréquence de ces x1 dans votre moyenne arithmétique. Vous avez l'habitude de regrouper les valeurs qui sont égales, dans une somme comme ça. Donc le modèle abstrait correspondant, va consister à regarder la moyenne empirique associée à ces n expériences, qui sera une v.a. et on va regarder la somme sur tous les résultats oméga de l'expérience, de la fréquence de réalisation d'une certaine valeur X de oméga au cours de ces expériences. Donc Mn, c'est la somme des fréquences des singletons oméga, fois X de oméga. Je vous rappelle que oméga, c'est un résultat de votre expérience aléatoire, et fn de oméga, est la fréquence empirique de ce résultat, fréquence empirique que l'on a définie dans le chapitre 1. Donc ça, c'est pour n expériences. Maintenant, quand on a défini de manière euristique la notion de probabilité, on l'a introduite comme limite de ces fréquences aléatoires, quand le nombre d'expériences tend vers l'infini, et je vous ai déjà annoncé que l'on justifierait tout ça dans le chapitre 5, par la loi des grands nombres. Donc vous voyez que, si l'on fait tendre ici n vers l'infini, on sait que fn de oméga va tendre vers la probabilité de réalisation de oméga, si tout se passe bien, et on a envie de donner une définition intrinsèque, et liée au modèle de probabilité probabiliste, donc une notion intrinsèque de moyenne, qu'en fait on va appeler espérance, qui va être la somme, sur oméga dans grand oméga, de la probabilité de réalisation du singleton oméga, que je note P indice oméga, fois la valeur X de oméga. C'est cette quantité-là , et on n'appelle pas ça moyenne, ou moyenne abstraite, on appelle ça espérance, et on retrouve ici une terminologie qui est liée au langage fleuri du XVIIe siècle, l'espérance, c'est la valeur quantitative qui résume le mieux la v.a. X. Le mieux dans un certain sens, biensûr. Je vous rappelle que oméga est fini ou dénombrable, et qu'on définit une somme, alors, si oméga est fini, on a une somme finie, on n'a aucun problème de définition de cette somme. En revanche, si oméga est dénombrable, ici, c'est la somme d'une série. Donc bien sûr, pour définir cette somme, X de oméga, pour prendre la racine quelconque, il faut s'assurer de la convergence de cette série. Donc, on va mettre une condition, qui nous assure non seulement la convergence, mais l'absolue convergence de cette série, et on va voir tout à l'heure, que c'est absolument nécessaire pour faire facilement des calculs, d'avoir une hypothèse d'absolue convergence. Donc on va supposer que la série de terme général P indice oméga fois valeur absolue de x de oméga est fini, je vous rappelle que P de oméga c'est une probabilité, donc c'est toujours positif, cette quantité-là est exactement la série de terme général, la valeur absolue de cette quantité-là , et donc l'hypothèse nous assure l'absolue convergence de la série qui va définir l'espérance de X. Donc, si cette quantité-là est finie, et cette quantité-là l'est bien, eh bien on va appeler espérance de X ce nombre, somme des probabilités des singletons oméga X de oméga. On peut remarquer que, si l'on a défini cette quantité-là comme l'espérance de X, eh bien la condition d'absolue convergence se traduit par le fait que l'espérance de valeur absolue de X est finie. J'insiste sur le fait que dans le cas où oméga est dénombrable, définir une espérance revient quand même à faire, de manière sous-jacente, l'hypothèse que la série qui définit l'espérance est convergente et même absolument convergente. Alors, on dira donc ça c'est du vocabulaire, que la v.a. X est intégrable, si l'espérance de sa valeur absolue est finie, c'est-à -dire si la série associée est absolument convergente. Comme nous l'avons vu précédemment, si oméga est fini, on n'a pas problème de définition de la série, et biensûr, dans ce cas-là , toutes les v.a. sont intégrables, et on peut définir leur espérance. Maintenant, on va voir un certain nombre de propriétés de ces espérances. Intégrez bien la définition de cette espérance. Vous voyez que c'est une notion qui est définie sur le modèle abstrait, et qui fait intervenir l'espace d'état grand oméga, et les probabilités de réalisation de chaque singleton de grand oméga. Première propriété que l'on va regarder, c'est le cas où, en fait, x de oméga n'est pas une v.a., à savoir que x de oméga prend une valeur identique pour tous les oméga. En tant que fonction, X est une constante. Donc évidemment, si ce nombre-là est une constante qui ne dépend pas de oméga, on peut le mettre en facteur, et on va le retrouver, on va le voir sur le transparent suivant, si je suppose que X de oméga vaut a pour tout oméga, qu'il n'y a plus d'aléas dans les valeurs de X, dans ce cas-là vous voyez que l'espérance de X est a fois la somme des probabilités des singletons oméga pour tousles oméga de l'espaces d'état grand oméga, et cette somme-là valant 1, l'espérance de x est a. Donc l'espérance laisse les constantes invariantes. Nous allons voir maintenant que l'espérance est un opérateur linéaire sur l'ensemble des v.a. intégrables. Pour ce faire, nous allons regarder pour a et b deux réels, l'espérance de (aX + bY) et montrer que c'est égal à a l'espérance de X + b l'espérance de Y. Donc nous allons supposer a priori, que X et Y sont intégrables et on va justifier, au fur et à mesure, les convergences des séries associées. Donc si l'on ne se préoccupe pas, pour l'instant, de la convergence de la série associée à l'espérance de (aX + bY), vous voyez que quand on écrit l'espérance de (aX + bY), ça va nous donner la somme, sur tous les oméga de grand oméga, de probabilités de réalisation du singleton oméga, fois aX de oméga + bY de oméga. Donc, 'iii' bien évidemment, on peut utiliser maintenant la linéarité, dans les termes de notre série, et cette quantité-là vaut donc a fois la somme de P de oméga X de oméga. Là , on reconnaît donc la somme de la série de terme général P de oméga X de oméga dont on sait qu'elle converge, puisque E de X est bien définie, plus b fois, et ici on reconnaît, E de Y. Donc en fait, vous voyez que, dès lors que (aX + bY) est intégrable, eh bien l'espérance de (aX + bY) est égale à a(espérance de X) + b(espérance de Y). Nous allons justifier dans le transparent suivant l'intégrabilité de (aX + bY) dès que X et Y sont intégrables. Pour ce faire, en fait on va voir que ceci est lié à l'inégalité triangulaire, et en fait, Ce que nous allons montrer, c'est que la valeur absolue de l'espérance de X est toujours plus petite que l'espérance de valeur absolue de X. Alors, pour ce faire, nous allons revenir là encore à la définition de espérance de X et écrire que la valeur absolue de espérance de X est égale à la valeur absolue de la somme de probabilité du singleton oméga X (oméga). Nous savons donc, par définition, puisque X est intégrable, que cette série est absolument convergente, et nous pouvons donc majorer la valeur absolue de cette somme par l'inégalité triangulaire, par la somme des probabilités du singleton oméga, nombre positif, fois la valeur absolue de X (oméga). Et ceci est exactement l'espérance de valeur absolue de X. De cette inégalité, nous pouvons en déduire la positivité de l'opérateur espérance, au sens où si X est une variable aléatoire positive, alors l'espérance de X est positive. Alors déjà , que veut dire que la variable aléatoire X est positive? Rappelez-vous que X est une fonction de l'aléa. Une fonction positive signifie le fait que pour tout oméga, pour toute variable petit oméga dans grand oméga, X (oméga) est positif. Dans ce cas-là , la valeur absolue de X (oméga) est égale à X (oméga) et donc ici, l'espérance de valeur absolue de X est, en fait, l'espérance de X. Et vous voyez que si X est positif, l'espérance de X est supérieure ou égale à la valeur absolue d'espérance de X qui est un nombre positif par définition. Donc nous avons bien montré que l'espérance de X était positive. Nous avons un opérateur qui est positif et linéaire. De ces deux propriétés-là , nous pouvons déduire une propriété de monotonie, au sens où si vous avez deux variables aléatoires intégrales et si X est inférieur ou égal à Y, alors l'espérance de X est plus petite que l'espérance de Y. Là encore, je vous rappelle que X et Y sont, en fait, deux fonctions de l'aléa, et dire que X est inférieur ou égal à Y signifie que pour tout petit oméga dans grand oméga, X (oméga) est plus petit que Y (oméga). Dans ce cas-là , nous pouvons écrire que l'espérance de Y moins X est positive, puisque Y moins X est positif, en appliquant la positivité de l'opérateur espérance. Et par linéarité, l'espérance de Y moins X est égale à l'espérance de Y moins l'espérance de X. Nous pouvons donc en déduire que l'espérance de Y est plus grand que l'espérance de X. Ces propriétés-là vont être fondamentales dans la suite et pour les calculs que nous pourrons faire sur des espérances de variables aléatoires variées. Nous allons noter par L 1 l'ensemble des variables aléatoires intégrables et ce qu'on peut montrer, c'est un ensemble non vide, nous avons vu que toutes les variables aléatoires constantes étaient intégrables et d'espérance égale à leur valeur commune. Et nous venons de montrer que l'ensemble de ces variables aléatoires est stable par combinaison linéaire. C'est-à -dire que si nous avons deux variables aléatoires X et Y, et si nous avons deux nombres réels a et b, a X plus b Y est encore une variable aléatoire intégrable. Eh bien, dans ce cas, cela nous permet d'en déduire que L 1 est, en fait, un espace vectoriel, puisque c'est le sous-espace vectoriel de l'ensemble des applications de oméga dans F. Et donc l'espérance, c'est un opérateur sur cet espace vectoriel. Une remarque importante pour vous dans la compréhension de la construction de cette théorie probabiliste est le lien entre l'espérance et la probabilité. Dans le chapitre 1, nous avons vraiment construit le modèle probabiliste en nous focalisant sur les probabilités de réalisation d'un événement et dans ce nouveau chapitre 2, nous nous focalisons plutôt sur les variables aléatoires. Quel est le lien entre des espérances de variables aléatoires et de probabilité d'événements? Ce lien est décrit par la remarque fondamentale suivante. Si vous vous fixez un événement aléatoire, donc puisque grand oméga ici est fini ou dénombrable, nous avons vu que la tribu que l'on associe à oméga est l'ensemble de toutes ces parties, donc je prends une partie A de oméga, et nous allons définir l'indicatrice de l'ensemble A. Cette définition a déjà été introduite dans les rappels de théorie des ensembles, mais je vous rappelle ce que ça veut dire. L'indicatrice de l'ensemble A est une variable aléatoire définie sur grand oméga, que l'on note indicatrice un 1, 1 comme ça, un peu gras, indice A et cette variable aléatoire vaut 1, donc X (oméga) vaut 1 si petit oméga est dans A, et X (oméga) vaut 0 si petit oméga n'est pas dans A. Vous voyez que cette variable aléatoire vous permet de dire si, effectivement, le résultat de votre expérience réalise l'événement aléatoire A ou non. Remarque, cette variable aléatoire prend les valeurs 1 ou 0, c'est donc une variable aléatoire de Bernoulli. Je vous rappelle que nous avons introduit ces variables aléatoires de Bernoulli dans la séance précédente. Quelle est la probabilité de réaliser X égal 1? Vous voyez que réaliser X égal 1 revient à dire que petit oméga est dans A et donc on remarque que la probabilité d'avoir X égal 1 est égale à la probabilité de A. Maintenant, je calcule l'espérance de X, et vous voyez que c'est la somme sur petit oméga des probabilités des singletons oméga fois la valeur X (oméga) et dans cette somme ne vont intervenir que les X (oméga) qui valent 1. Puisque sinon, X (oméga) vaut 0 et donc il n'a aucune contribution à la somme qui nous définit l'espérance. En fait, l'espérance de X va être la somme sur toutes les probabilités des singletons oméga de A de 1. En fait, c'est exactement égal à la probabilité d'avoir X égal 1 et égal à P (A). Vous voyez que vous avez ce lien entre l'espérance de l'indicatrice de A et la probabilité de A, ce sont deux nombres qui sont égaux et on peut complètement construire la théorie probabiliste en utilisant cet opérateur espérance. Ici, s'arrêter là , ça serait quand même assez difficile de travailler, puisque nous avons vu que l'espace abstrait était quand même assez lourd et vous verrez dans des exemples, que c'est assez difficile dans des expériences aléatoires sophistiquées, de décrire en détail l'espace d'état grand oméga, et je vous ai dit que l'intérêt des variables aléatoires est de transporter la structure abstraite oméga muni de la tribu de ses parties et d'une probabilité P, vers un espace probabiliste beaucoup plus simple, qui est l'ensemble, en fait, des valeurs de la variable aléatoire X, muni lui aussi de l'ensemble de ses parties. Et nous avons associé à l'ensemble des valeurs de X une probabilité qui était la loi de X. Nous avons défini ça dans la séance 1 de ce chapitre 2. Nous allons voir maintenant que, quand la variable aléatoire X est intégrable, nous pouvons définir l'espérance de X grâce à cette loi. Le théorème fondamental ici est le suivant et nous allons voir dans sa preuve pourquoi il est fondamental de supposer l'absolue convergence de la série associée à l'espérance de X. Nous allons montrer que si X est intégrable, l'espérance de X peut se calculer en utilisant la loi de X, puisque elle vaut, l'espérance de X vaut la somme sur toutes les valeurs possibles X i dans F, je vous rappelle que F est l'ensemble de toutes les valeurs de X, donc somme sur X i dans F de X i fois la probabilité d'avoir X égal X i. Je vous rappelle que la loi de X est caractérisée par les valeurs x i de X associées à la probabilité de réalisation de ces valeurs. En fait, ce théorème est intéressant, mais plus intéressant encore est le théorème suivant, qui est une généralisation de ce premier théorème, et qui va nous permettre non seulement de calculer l'espérance de la variable aléatoire X, mais aussi l'espérance de toute variable aléatoire F (X), dès lors que F (X) est une variable aléatoire intégrable. Et vous voyez que l'espérance de f (X) pour f défini de F à valeur réelle, cette espérance se définit de manière totalement analogue, à savoir que l'espérance de f (X) est égale à la somme sur x i dans F de f (x i) probabilité d'avoir X égal x i et là encore, cette quantité-là , donc là maintenant c'est un nombre, les x i sont des nombres, des éléments d'un sous-ensemble de R, probabilité de X égal x i, bien sûr, ce sont des nombres compris entre 0 et 1. Donc ce nombre ici, vous voyez, est calculé à partir des x i, P (X = x i), c'est-à -dire à partir de la loi de X. Nous verrons la preuve de ce théorème dans la séance suivante.