[SON] Bonjour. Dans la séance 3 du chapitre 2, nous allons tout d'abord prouver le théorème qui nous permet de calculer l'espérance d'une v.a. X à partir de la loi de X. Nous montrerons un exemple de calcul de cette espérance. Puis, nous nous intéresserons à des paramètres quantitatifs associés à la v.a. X, qui vont nous permettre de mieux décrire cette v.a., et ces paramètres seront essentiellement : la variance, l'écart type, et nous généraliserons à la notion de moment d'une variable aléatoire. je vous rappelle le théorème que nous avons énoncé et commenté dans la dernière séance, et nous allons maintenant en faire la preuve. Nous allons considérer une fonction f : F dans R et supposer que l'espérance de f de valeur absolue de X est finie. Je vous rappelle que cette hypothèse-là veut dire que la série de terme général P indice oméga fois f de X de oméga, est absolument convergente. Nous allons voir que cette hypothèse est fondamentale dans la preuve. Donc calculons l'espérance de f(x) Par définition, c'est égal à la somme, pour oméga dans grand oméga, de p oméga fois f de x de oméga. Nous allons en fait découper l'espace de grand oméga, en écrivant que grand oméga est égal à la réunion, sur i, tel que xi dans F, des ensembles de oméga, tel que x de oméga = xi. Et nous allons utiliser cette remarque, pour faire une sommation par paquets sur la série qui désigne i l'espérance de x. En fait, pour faire cette sommation par paquets, il est absolument nécessaire d'avoir l'hypothèse d'absolue convergence de la série de terme général p oméga f de x oméga. Donc, nous écrivons que l'espérance de f de X est égale à la somme sur, pardon. Xi, donc je somme sur les indices i, donc sur les xi, qui sont dans F, de la somme, donc c'est là que je fais ma sommation par paquets, sur les oméga tel que x de oméga = xi, de p oméga, f de x de oméga. Pourquoi nous avons fait ça? Parce que nous savons nous connaissons la valeur de x de oméga, dès que x de oméga égale xi. Donc, cette quantité là vaut f de xi. Donc vous voyez que sur toute cette somme partielle ici, nous pouvons mettre f de xi en facteur, et finalement, nous allons obtenir que l'espérance de f de X est égale à la somme sur xi dans F de f de xi fois la somme sur oméga tel que x de oméga = xi, de p oméga. Que vaut cette quantité-là ? Cette quantité xi qui est à droite? Eh bien vous reconnaissez ici la somme des probabilité des singletons oméga, tel que x de oméga = xi, les singletons forment une partition de l'ensemble où x de oméga = xi, donc la somme des probabilités de ces singletons est égale à la probabilité de la réunion des singletons oméga tel que x de oméga = xi, c'est-à -dire exactement l'ensemble x de oméga = xi. Donc cette somme-là est exactement égale à la probabilité d'avoir x = xi. Et nous avons bien démontré le résultat. J'insiste sur le fait que ce résultat, qui est très naturel et que vous avez peut-être déjà manipulé, même sans vous en rendre compte, mais ce résultat qui, à l'espérance abstraite, associe ce calcul lié à la loi de la v.a. X ne peut être prouvé dans le cas où oméga est dénombrable, que si on a l'hypothèse d'absolue convergence de la série qui définit l'espérance. Nous allons voir un exemple de calcul d'espérance, et pour cela, nous allons supposer que nous avons une v.a.x qui suit une loi de Poisson, de paramètre thêta strictement positif. Je vous rappelle que nous avons défini ce qu'était la loi de Poisson dans la séance 1 du chapitre 2. La loi de Poisson, donc ici X est une v.a. qui va être définie de grand oméga à valeur dans N. L4ensemble des valeurs de X ici c'est N, et nous savons que pour tout cas appartenant à N, la probabilité d'avoir X = k est égale à e puissance- thêta thêta puissance k divisé par factorielle k. Calculons l'espérance de X. Remarque : X est positif, donc l'espérance de X ou l'espérance de valeur absolue de X, c'est la même chose, et donc nous allons voir si la série qui définit l'espérance de x est convergente, nous aurons à la fois que X est intégrale, et nous connaîtrons la valeur de l'espérance. Donc nous avons à calculer la série de pour k appartenant à N, de k donc une valeur de X, fois la probabilité d'avoir X = k. Donc c'est une série à termes positifs, soit elle diverge et donc la somme de cette série est + l'infini, soit elle converge et la somme de cette série finie est, dans ce cas-là , cette somme-là , sera exactement égale à l'espérance de X. Bien. Donc calculons, nous avons donc la somme, pour k dans N, de (k (e puissance- thêta) ) ( thêta k / k!) Je peux mettre e puissance- thêta en facteur, je vous rappelle que k! = k (k- 1) (k- 2) .... 1 k! = k (k- 1) (k- 2) .... 1 k! = k (k- 1) (k- 2) .... 1 Et donc, vous voyez que k / k! se simplifie en 1 sur (k!- 1). Nous allons donc avoir somme sur k dans k de 1 / (k- 1)! Si l'on se rappelle la formule qui définit une exponentielle, je vous rappelle que l'exponentielle, on va faire encore une petit rappel en vert ici, que l'exponentielle d'un nombre a, c'est la somme sur k dans N de (a puissance k) / k!, c'est donc, nous allons essayer d'utiliser ça, pour arranger notre calcul d'espérance. En fait, dans la somme qui définit l'espérance, vous voyez que nous avons un k en facteur, donc en fait ici je peux sommer sur k dans N, mais quand k = 0 le premier terme disparait, puisque j'ai k en facteur, donc en fait ma somme est égale à une somme sur k dans N étoile. N étoile, dans ce cours, ça sera toujours N- 0. Donc avec cette remarque préalable, ici je vais avoir aussi la somme sur k appartenant à N étoile, c'est-à -dire k entier supérieur ou égal à 1. Donc vous voyez que si j'ai une somme sur k supérieur ou égal à 1, j'ai (k- 1)! au dénominateur, et donc on va avoir envie de faire un changement de variable, et de poser k' = k- 1 pour mettre ici cette somme, sur la forme d'un terme qui nous permet d'utiliser la formule nous définissant l'exponentielle. Donc au numérateur a priori, j'ai thêta puissance k, mais je vais l'écrire sous la forme thêta puissance (k- 1) fois thêta, et comme ce thêta est commun à tous les termes, je le sors de la somme. Donc, par ce que nous avons remarqué, ici, nous reconnaissons exponentielle thêta. Et je vous rappelle que l'on pose k' = k- 1 et cela fait la somme sur k' dans N de (thêta puissance k') / k'! Donc finalement, de ce calcul, il en ressort que, donc on va l'écrire en bleu pour se rappeler de ce calcul, que l'espérance de x est égale à thêta. Nous pouvons, de la même façon, calculer l'espérance d'une fonction de grand X, comme nous l'avons remarqué dans le théorème. Par exemple, nous pouvons calculer facilement, si vous avez compris le calcul précédent, l'espérance de X * (X- 1). Toujours, pour X notre variable aléatoire de Poisson. Et nous allons montrer que cette espérance existe en montrant que la somme associée est convergente. Donc, la somme associée par, toujours par notre théorème, c'est la somme sur k * (k- 1) * e puissance thêta * thêta puissance k / (k !). Une remarque, k, a priori est dans grand N. Mais si k = 0, vous voyez que, puisque tous les termes k en facteurs, eh bien le premier terme avec k = 0 disparaît. Si k = 1, puisque nous avons k- 1 en facteur de notre quantité, le terme k = 1 disparaît, et en fait, donc cette série qui nous semblait commencer à 0 ne commence en fait qu'à 2. k, donc c'est égal à la somme sur k supérieur ou égal à 2 de k * (k- 1) * e puissance moins thêta * thêta puissance k / (k !). Et si vous avez bien compris ce que j'ai fait dans le calcul précédent, si on remarque déjà , on va refaire la même chose, enfin le même type de raisonnement ici. Je vais aller un peu plus vite. On remarque d'abord que k * (k- 1) / (k !), c'est 1 / ( (k- 2) !). Le premier terme se simplifie. Je mets e puissance (- thêta) en facteur. Et je vais aussi mettre thêta au carré en facteur. Ce qui me permettra d'avoir dans ma somme un terme thêta puissance (k- 2). Et en faisant maintenant un changement de variable k ' = k- 2, je trouve e puissance (- thêta), thêta au carré, somme sur k prime dans grand N de thêta puissance k ' sur (k ' !), et vous voyez que l'on trouve e puissance (- thêta) * thêta 2 * e puissance thêta. Donc, là il y a un moins. Ce qui nous donne finalement thêta au carré. Alors, je vous demande de prendre le temps de comprendre ce genre de calcul, et vous verrez un certain nombre d'exemples en exercices. Nous allons maintenant, donc revenir à notre question, qui était de quantifier numériquement la variable aléatoire. Donc, nous avons déjà vu une première notion qui est cette notion d'espérance, qui donne un résumé de la variable aléatoire. Maintenant, on aimerait bien savoir, on aimerait bien quantifier l'erreur qu'on fait quand on résume la variable aléatoire, c'est-à -dire différentes valeurs possibles de grand X, quand on les résume, par cette valeur moyenne. Donc, on a envie en fait de quantifier la distance entre grand X et sa moyenne. Donc, l'idée naturelle c'est de regarder grand X- E (x). Si on veut définir une distance, on aurait envie de définir la valeur absolue de grand X- E (X), au sens où pour chaque résultat d'expérience petit oméga, on a envie de connaître la différence entre grand X de oméga et l'espérance de grand X. Cette quantité n'est pas forcément très facile à calculer et à manipuler, et il est plus facile de regarder le carré de la distance de grand X à E (X), et d'en étudier la moyenne. Donc, c'est ce que nous allons faire, en définissant la notion de variance. Donc, première chose, pour définir cette nouvelle notion qui va nous permettre de caractériser en un certain sens les écarts entre grand X et sa moyenne, nous allons supposer que grand X est de carré intégrable. C'est-à -dire que non seulement grand X, mais le carré de grand X, est intégrable. Donc, je répète, X est de carré intégrable si l'espérance de X 2 est finie. L'ensemble des variables de carré intégrable est noté usuellement L 2, et vous voyez qu'on pourra généraliser cette notation. On a vu L 1, maintenant on voit L 2. On peut imaginer définir, et ce qu'on verra en fin de séance, un espace L p. Donc, nous supposons que l'espérance de X 2 est finie, et nous allons appeler variance de X, le nombre positif E( (X- E (X)) au carré ). Donc, c'est un nombre positif, puisque vous voyez que je prends le carré d'une variable aléatoire. C'est un nombre positif, j'en prends l'espérance. Nous avons vu que l'espérance était un opérateur positif. Donc, vous voyez, je regarde la différence entre grand X et sa moyenne. J'en prends le carré, et je regarde la moyenne du carré de cette distance. Alors, je vous rappelle que l'espérance est un opérateur linéaire. Utilisons la formule de binôme pour développer (X- E (X)) au carré. Donc, cela donne grand X au carré- 2 * grand X * * E (X), espérance de X, + espérance de X au carré. Et nous en reprenons l'espérance. Donc en appliquant la linéarité, vous voyez qu'on va obtenir espérance de X au carré moins 2 espérance de X, qui est un nombre, fois l'espérance de grand X, donc on va avoir moins 2 espérance de X au carré, plus espérance du nombre, espérance de X au carré. Nous avons vu là encore que l'espérance d'une constante était la constante elle-même, donc ce dernier terme va nous donner l'espérance de X au carré. Et finalement, nous obtenons E (X au carré)- E (X), le tout au carré. Attention, ici le carré est à l'intérieur de l'espérance et là c'est à l'extérieur. Donc, en utilisant le théorème dont nous venons de montrer la preuve. En utilisant le théorème qui nous relie l'espérance d'une variable aléatoire, ou d'une fonction de la variable aléatoire grand X et sa loi, vous voyez que cette quantité-là , c'est exactement la somme pour tous les x i dans grand F, de x i au carré fois la probabilité d'avoir grand X = x i, moins l'espérance de X au carré. L'espérance de X, je vous le rappelle, c'est la somme des x i, probabilité de grand X = x i. Donc, nous avons là un moyen de calcul pour calculer cette variance. Donc, mnémotechniquement la variance de X, c'est la moyenne des carrés, l'espérance de X 2, moins le carré de la moyenne. Bien. Alors, vous voyez que cela ce n'est pas une distance. Cela ne peut quantifier une distance de X, des valeurs de grand X, prises au cours des expériences aléatoires moins la moyenne de grand X. Cela mesure le carré de cette distance. Donc, si maintenant on veut vraiment définir une notion de distance, eh bien on va prendre la racine de cette variance. Et c'est ce qu'on appelle l'écart-type. Et vous voyez que c'est un nom imagé qui dit bien ce que cela veut dire, c'est l'écart typique, où l'écart en moyenne. Cela va être la racine de la variance de X. Alors, je vous donne juste, à titre d'exemple, l'évolution ici de deux titres boursiers fictifs. Donc, on parle de titres volatils ou peu volatils, et cette volatilité est liée aux fluctuations des données. Donc, ici vous observez donc un titre fictif, avec des observations de toutes les unités de temps. A chaque unité de temps, cela nous donne une nouvelle variable aléatoire. Vous avez des variations qui sont indépendantes, et on suppose qu'elles sont de même loi. Eh bien, vous supposez que donc, ces titres valent une certaine valeur, au temps 1. La même valeur, ici vous voyez que c'est au temps 21. Et donc, vous avez des données à chacune de ces unités de temps. Eh bien, pour les données qui correspondent aux titres verts, en fait vous avez une moyenne de 105,52. Et un écart-type qui est égal à 1,32. Donc, vous voyez que vous avez un écart très très petit par rapport à la valeur moyenne, et essentiellement les données vont être, vous le voyez si on fait un lien qui relie toutes les valeurs de nos observations, c'est presqu'une droite, parce que vous avez très peu de fluctuations. En revanche, si on regarde les observations orange, qui sont les données ici qui correspondent aux points obtenus à chaque unité de temps, eh bien vous allez avoir une moyenne de 105,52. Et un écart-type de 16,24. Et vous voyez que physiquement, on observe cela avec de grandes fluctuations entre les données. Donc, cet écart-type va mesurer les fluctuations aléatoires de notre variable aléatoire par rapport à sa moyenne. Alors, on peut remarquer certaines propriétés. En particulier, comment se comporte la variance si on regarde une transformation affine de notre variable aléatoire grand X. Donc, on prend grand X de carré intégrable, et je regarde la transformation petit a * grand X + petit b, où a et b sont des nombres réels. Donc, ce qu'on montrer, c'est que si grand X est de carré intégrable, il en est de même de a * grand X + b. Et Var (a * grand X + b) = a au carré * Var (X). Donc, montrons cette propriété. Donc, nous allons calculer la variance de a * grand X + b. Par définition, c'est égal à l'espérance du carré de a * X + b, moins le carré de l'espérance de a * X + b. Donc, je vais d'abord développer par la formule du binôme le carré de a * X + b. Cela fait a 2 * X 2 + 2 * a * b * X + b 2. Et puis, ici dans le deuxième terme, j'ai le carré de l'espérance de a * X + b. Et là j'utilise la linéarité de l'espérance, pour dire que cela c'est a * E (X) + b. Je vous rappelle que l'espérance d'une constante est une constante. Le tout au carré. Je continue à utiliser la linéarité de l'espérance, et, pour avoir que l'espérance de (a 2) * (X 2) + 2 * a * b * X + b 2 = (a 2) * E (X) au carré, + 2 * a * b * E (X), + b 2. Je vous rappelle qu'on a supposé que X est de carré intégrable. Et nous allons retrancher le carré de a espérance de X + b. Là encore, j'utilise la formule du binôme. Donc, je vais retrancher - a au carré * E (X), le tout au carré, plus, donc j'écris en-dessous, + 2 * a * b * E (X), + b 2, et on retranche tout cela. Donc, finalement, je vais regrouper les termes en facteurs de a au carré. Et, je vais avoir E (X 2) - E (X), le tout au carré. Nous reconnaissons ici a au carré fois la variance de X. Et ensuite, eh bien, vous voyez que nous avons un terme 2 * a * b * E (X) - 2 * a * b * E (X), donc ce terme disparait. Et puis nous avons un terme b au carré, - b au carré, donc ce terme-là disparaît. Et donc, finalement, nous avons bien obtenu a au carré * Var (X). Alors, une application de cela est de montrer que quand on a une variable aléatoire de carré intégrable, eh bien, nous allons toujours pouvoir la transformer par une application, par une transformation affine en une variable aléatoire, qui est d'espérance nulle et de variance égale à 1. Donc, nous dirons qu'une telle variable s'appelle une variable aléatoire centrée réduite. Donc, une variable aléatoire centrée est une variable aléatoire intégrable d'espérance nulle. Et une variable aléatoire réduite est une variable aléatoire de carré intégrable dont la variance est égale à 1. Donc, ce que j'affirme, en utilisant la propriété que nous venons de démontrer, est que si Y est une variable aléatoire de carré intégrable, eh bien, la variable aléatoire Y moins son espérance divisée par son écart-type est toujours centrée et réduite. Et je vous le laisse démontrer à titre d'exercice.