III) Produit cartésien de deux variables

1) Le produit cartésien de deux variables

Etant donné deux variables aléatoires `x` et `y`, et un schéma de tirage dans lequel les variables `x` et `y` sont tirées en même temps, cela représente une variable aléatoire de dimension `2` que l'on note `(x,y)` et que l'on appel produit cartésien de la variable `x` et de la variable `y`. Cela constitue une variable aléatoire vectorielle `(x,y)` dont le domaine de définition est :

`Dom(x,y) = Dom(x)"×"Dom(y)`

Par convention, on notera `L_x` la loi de la variable `x`, et on l'appellera simplement la loi de `x`. Puis on désignera souvent la loi de la variable `x` par `X` qui est une loi de probabilité si la variable est discrète et une loi de densité de probabilité si la variable est continue, et on désigne le domaine de définition de la variable `x` par `"X"`. Ainsi on pose habituellement :

`X=L_x` , la loi de `x` définie sur `"X"`
`Y=L_y`
, la loi de `y` définie sur `"Y"`
`Z=L_("("x,y")")` ,
la loi de `(x,y)` définie sur `"X""×""Y"`

La connaissance de `Z` comprend la connaisance de `X` et de `Y` et davantage encore, elle comprend la connaissance de la dépendance entre `x` et `y`.

Les lois de `x` et de `y` s'obtiennent à partir de la loi de `(x,y)` comme suit :

`X("x") = sum_"y" Z("x","y")`

`Y("y") = sum_"x" Z("x","y")`

Les lois sont normées, c'est à dire :

`sum_"x" X("x") = 1`

`sum_"y" Y("y") = 1`

`sum_("x","y") Z("x","y") = 1`

Par convention on note une sommes multiple comme suit :

`sum_("x","y") = sum_"x" sum_"y"`

Par analogie ces formules sont aussi valables pour le cas continue en procédant comme suit : Pour chaque variable continue on remplace la somme (intégrant sur le domaine de la variable) par l'intégrale, et on multiplie la loi (qui est alors une loi de densité de probabilité) par l'élément différentiel de cette variable.

Autrement dit pour chaque variable `x` on remplace `sum_"x" X("x")` par `int X("x")d"x"`

Ainsi pour le cas continu nous avons :

`X("x") = int Z("x","y")d"y"` `Y("y") = int Z("x","y")d"x"`

Les lois sont normées, c'est à dire :

`int X("x")d"x" = 1` `int Y("y")d"y" = 1` `int Z("x","y")d"x"d"y" = 1`

Notez que, par défaut, l'intégrale intègre selon les éléments différentiels présents, faisant que :

`int Z("x","y")d"x"d"y" = int_("x" in "X") int_("y" in "Y") Z("x","y")d"x"d"y" `

Dans le cas mixte où `x` est discret et `y` est continue, nous avons : `sum_"x" int Z("x","y")d"y" = 1`

L'analogie est suffisament forte pour qu'il ne soit pas nécessaire de reformuler les égalités dans les trois cas ; discret, continu et mixte.

2) Le produit cartésien de deux variables indépendantes

Etant donné deux variables aléatoires `x` et `y`, et un schéma de tirage dans lequel les variables `x` et `y` sont tirés en même temps, on nomme la loi de `x` par `X`, la loi de `y` par `Y` et la loi de `(x,y)` par `Z`, ce qui s'écrit `X = L_x`, `Y = L_y`, `Z = L_("("x,y")")`.

On applique l'axiome des probabilités indépendantes, à savoir, si deux évènements `e_1` et `e_2` sont indépendants alors la probabilité de leur réalisation commune lors d'un même tirage `P(e_1 "et" e_2)` est égale au produit des probabilités de chacun `P(e_1 "et" e_2)=P(e_1)P(e_2)`.

On écrira, `{e_1,e_2}` indépendants, pour spécifier que les deux évènements `e_1` et `e_2` sont indépendants.

Deux variables `x` et `y` sont indépendantes ssi quelque soit les valeurs `"x"` et `"y"`, les évènements `bbx"=x"` et `bby"=y"` sont indépendants, et on écrira `{x,y}` indépendants.

2.1) La loi de probabilité `L_("("x,y")")`

Supposons `{x,y}` indépendants.

`X("x") = P(bbx"=x")`
`Y("y") = P(bby"=y")`
`Z("x","y") = P((bbx,bby)"="("x","y"))`
`Z("x","y") = P(bbx"=x"  "et"  bby"=y")`

`Z("x","y") = P(bbx"=x") P(bby"=y")`
  car `{bbx"=""x", bby"=""y"}` indépendants.
`Z("x","y") = X("x")Y("y")`

En conclusion, les variables `{x, y}` sont indépendantes ssi :

`Z("x","y") = X("x")Y("y")`

La loi de `(x,y)` est égale au produit des lois de `x` et de `y`.

Dans le cas continue cela s'écrit pareillement en terme de densité de probabilité, `Z("x","y") = X("x")Y("y")`, car en terme de probabilité nous avons alors `Z("x","y")d"x"d"y" = X("x")d"x" Y("y")d"y"`.

Les lois de `x+y` et de `xy` que l'on note `L_(x+y)` et `L_(xy)` ne sont pas simples. Les moments de `x+y` et de `xy` sont plus simples à calculer comme nous allons le voir.

2.2) La fonction cumulative `P_("("x,y")")`

On nomme la fonction cumulative de `x` par `sfX`, la fonction cumulative de `y` par `sfY` et la fonction cumulative de `(x,y)` par `sfZ`, ce qui s'écrit `sfX = P_x`, `sfY = P_y`, `sfZ = P_("("x,y")")`.

Supposons `{x,y}` indépendants.

`sfX("x") = P(bbx"<x")`
`sfY("y") = P(bby"<y")`
`sfZ("x","y") = P(bbx"<x" "et" bby"<y")`
`sfZ("x","y") = P(bbObbU_("x"<"x") (bbx"=x")  "et"  bbObbU_("y"<"y")(bby"=y"))`

Comme les événements `bbx"=x"` sont incompatibles deux à deux, nous avons :

`sfZ("x","y") = sum_("x"<"x") P(bbx"=x" "et" bbObbU_("y"<"y")(bby"=y"))`

Comme les événements `bby"=y"` sont incompatibles deux à deux, nous avons :

`sfZ("x","y") = sum_("x"<"x") sum_("y"<"y")P(bbx"=x" "et" bby"=y")`
`sfZ("x","y") = sum_("x"<"x") sum_("y"<"y")P(bbx"=x")P(bby"=y")`
`sfZ("x","y") = sum_("x"<"x") P(bbx"=x") sum_("y"<"y")P(bby"=y")`
`sfZ("x","y") = (sum_("x"<"x") P(bbx"=x")) (sum_("y"<"y")P(bby"=y"))`
`sfZ("x","y") = sfX("x") sfY("y") `

En conclusion, les variables `{x, y}` sont indépendantes ssi :

`sfZ("x","y") = sfX("x")sfY("y")`

La fonction cumulative de `(x,y)` est égale au produit des fonctions cumulatives de `x` et de `y`

3) L'indépendance entre deux variables `x` et `y`

L'indépendance est une notion clef en probabilité.

Étant donné deux variables aléatoires `x` et `y`.

On nomme `X` la loi de `x` définie sur `"X"`, et `sfX` sa fonction cumulative.
On nomme `Y` la loi de `y` définie sur `"Y"`, et `sfY` sa fonction cumulative.
On nomme `Z` la loi de `(x,y)` définie sur `"X×Y"`, et `sfZ` sa fonction cumulative.

La condition d'indépendance se définie formellement à partir des probabilités élémentaires. `{x,y}` est indépendants si et seulement si :

`AA"x" in "X",  AA"y" in "Y",  P(bbx"=x" "et" bby"=y") = P(bbx"=x")P(bby"=y")`

ou autrement dit, `{x,y}` est indépendants si et seulement si :

`AA"x" in "X",  AA"y" in "Y",  Z("x","y")=X("x")Y("y")`

ou autrement dit, `{x,y}` est indépendants si et seulement si :

`AA"x" in "X",  AA"y" in "Y",  sfZ("x","y")=sfX("x")sfY("y")`

L'hypothèse d'indépendance entre deux variables `x` et `y` entraine de nombreuses conséquences. Démontrons que pour toutes fonctions `f` et `g` à inverse multiple (mais en nombre fini), nous avons `{f(x),g(y)}` indépendants.

Nommons `u=f(x)`.
Nommons `v=g(y)`.
Nommons `{"x"_1, "x"_2, ..., "x"_"n"}= f^-1("u")`.
Nommons `{"y"_1, "y"_2, ..., "y"_"m"}= g^-1("v")`.

L'évènement `bbu"=u"` se réalise si et seulement si l'un des évènements `bbx"=x"_1, bbx"=x"_2,..., bbx"=x"_"n"` se réalise. Comme ces évènements sont incompatibles deux à deux, la probabilité de `bbu"=u"` est égale à la somme des probabilité de `bbx"=x"_"i"` pour `"i"` variant de `1` à `"n"`. Nous avons :

`P(bbu"=u") = sum_("i"=1)^"n" P(bbx"=x"_"i")`

`P(bbv"=v") = sum_("j"=1)^"m" P(bby"=y"_"j")`

`P(bbu"=u" "et" bbv"=v") = sum_("i"=1)^"n"sum_("j"=1)^"m" P(bbx"=x"_"i" et bby"=y"_"j")`

`P(bbu"=u" "et" bbv"=v") = sum_("i"=1)^"n"sum_("j"=1)^"m" P(bbx"=x"_"i")P(bby"=y"_"j")`

`P(bbu"=u" "et" bbv"=v") = sum_("i"=1)^"n"P(bbx"=x"_"i") sum_("j"=1)^"m" P(bby"=y"_"j")`

`P(bbu"=u" "et" bbv"=v") = (sum_("i"=1)^"n"P(bbx"=x"_"i")) (sum_("j"=1)^"m" P(bby"=y"_"j"))`

`P(bbu"=u" "et" bbv"=v") = P(bbu"=u")P(bbv"=v")`

`{u,v}` indépendants.

Si `{x,y}` indépendants alors quelque soit les fonctions `f` et `g` arbitraires, nous avons `{f(x), g(y)}` indépendants.

4) La somme de deux variables indépendantes `x + y`

5.1 La moyenne de `x+y`

La moyenne extérieure de `x+y` est la somme des moyennes extérieures de `x` et de `y`, et cela reste valable même si `x` et `y` ne sont pas indépendants.

`"<"x+y">" = "<"x">" + "<"y">" `

5.2 La variance de `x+y`

`"<"(x+y)^2">" = <x^2 + 2xy + y^2)>
                       `= sum_"x" X("x")sum_"y" ("x"^2+2"xy"+"y"^2)Y("y")`
                       `= sum_"x" X("x")"<"x^2+2xy+y^2"\"bbx"=x"">"`
  car `{x,y}` indépendants.
                       `= sum_"x" X("x")("x"^2+2"x""<"y">"+"<"y^2">")`
                       `= sum_"x" "x"^2X("x") + "<"y">"sum_"x" 2"x"X("x") + "<"y^2">"sum_"x" X("x")`
                       `= "<"x^2">" + 2"<"x">""<"y">" + "<"y^2">"`

5.3 Le moment d'ordre `3` de `x+y`

`"<"(x+y)^3">" = "<"x^3   +   3x^2y   +   3xy^2   +   y^3">"`
`"<"(x+y)^3">" = "<"x^3">"+3"<"x^2">""<"y">"+3"<"x">""<"y^2">" +"<"y^3">"`
  car `{x,y}` indépendants.

5.4 Le moment d'ordre `r` de `x+y`

Cela correspond au développement de `(x+y)^"r"`. Nous avons :

`"<"(x+y)^"r"">" = "<"sum_("r"=0)^"r" C_(ˋ"r")^"r" x^(ˋ"r"-"r") y^"r"">"`
`"<"(x+y)^"r"">" = sum_("r"=0)^"r" C_(ˋ"r")^"r" "<"x^(ˋ"r"-"r")"><"y^"r"">"`
  car `{x,y}` indépendants.

Somme de deux variables indépendantes

`"<"(x+y)^"r"">" = sum_("r"=0)^"r" C_(ˋ"r")^"r" "<"x^(ˋ"r"-"r")"><"y^"r"">"`

`C_("n")^"r"` : Coefficient binomiaux. Nombre de sous-ensemble de `"r"` éléments d'un ensemble de `"n"` éléments.
`"<"(x+y)^"r"">" ` : Moment d'ordre `"r"` de la variable `(x+y)`
`"<"x^"r"">" ` : Moment d'ordre `"r"` de la variable `x`
`"<"x^"r"">" ` : Moment d'ordre `"r"` de la variable `y`


6) Le produit de deux variables indépendantes `xy`

6.1 La moyenne de `xy`

On définie la variable aléatoire `xy`, produit de la variable `x` de loi `X` et de la variable `y` de loi `Y`. On nomme la loi de `(x,y)` par `Z`, ce qui s'écrit `Z = L_("("x,y")")`. L'indépendance des variables `{x, y}` entraine que `Z("x","y") = X("x")Y("y")`

`"<"x">" = sum_"x" "x"X("x")`
`"<"y">" = sum_"y" "y"Y("y")`

`"<"xy">" = sum_("x","y") "x""y"Z("x","y")`
`"<"xy">" = sum_("x","y") "x""y"X("x")Y("y")`
  car `{x,y}` indépendants.
`"<"xy">" = sum_"x" sum_"y" "x"X("x")"y"Y("y")`
`"<"xy">" = (sum_"x" "x"X("x")) (sum_"y" "y"Y("y"))`
`"<"xy">" = "<"x">" "<"y">"`

Ainsi la moyenne du produit `xy` lorsque les variables sont indépendantes est égale au produit des moyennes de chaque variable prise isolément `"<"xy">" = "<"x"><"y">"`. Et le résultat s'appliquera aussi pour tous les autres moments.

6.2 Les moments de `xy` lorsque `x` et `y` sont indépendants

La même démonstration démontre que le moment d'ordre `"r"` d'un produits de variables indépendantes est le produits des moments d'ordre `"r"` de chaque variables : `"<"x^"r"y^"r"">" = "<"x^"r"">" "<"y^"r"">"`

Produit cartésien `(x,y)` et produit `xy` de deux variables indépendantes `x` et `y`

`Dom(x,y) = Dom(x)×Dom(y)`

`L_("("x,y")")("x","y") = L_x("x")L_y("y")`
`Z("x","y") = X("x")Y("y")`

`"<"(xy)^"r"">" = "<"x^"r"">" "<"y^"r"">"`

`Dom(x)` : Domaine de définition de la variable `x`
`Dom(y)` : Domaine de définition de la variable `y`
`Dom(x,y)` : Domaine de définition de la variable vectorielle `(x,y)`
Variable `x` : Variable aléatoire définie sur `Dom(x)` et de loi `L_x`
Variable `y` : Variable aléatoire définie sur `Dom(y)` et de loi `L_y`
Variable `(x,y)` : Variable aléatoire vectorielle définie comme le produit cartésien des variables `x` et `y`
Variable `xy` : Variable aléatoire produit de la variable `x` et de la variable `y`
`"<"x^"r"">"` : Moment d'ordre `"r"` de la variable `x`
`"<"y^"r"">"` : Moment d'ordre `"r"` de la variable `y`
`"<"(xy)^"r"">"` : Moment d'ordre `"r"` de la variable `xy`
`"r"` : Entier positif.
`L_x` : Loi de la variable `x`
`L_y` : Loi de la variable `y`
`L_("("x,y")")` : Loi de la variable `(x,y)`
`X` : Loi de la variable `x`. Autrement dit `X = L_x`
`Y` : Loi de la variable `y`. Autrement dit `Y = L_y`
`Z` : Loi de la variable `(x,y)`. Autrement dit `Z = L_("("x,y")")`
`"x"` : Paramètre appartenant à `Dom(x)`
`"y"` : Paramètre appartenant à `Dom(y)`

 

 

Par convention, étant donné une `"expression"` s'évaluant en un nombre `0` ou `1`, la probabilitré `P("expression")` désignera la probabilité `P("expression" = 1)`.

 

4) Distributions conditionnelles

Étant donné une variable vectorielle `(x,y)` . On définie la variable aléatoire conditionnelle `x` sachant `"y"`, notée `x"\"bby"=y"`, en restreignant l'univers aux seuls évènements réalisant `bbx"=x"`. Les probabilités sont alors renormées à `1` en les divisants par la probabilité de `bbx"=x"`.

`L_(x"\"bby"=y") ("x") = (L_("("x,y")")("x","y"))/(sum_"y" L_("("x,y")")("x","y")) = (L_("("x,y")")("x","y"))/(L_x("x"))`

`L_("("x,y")")("x","y") = L_x("x") L_(y"\"bbx"=x")("y")`
`L_("("x,y")")("x","y") = L_y("y") L_(x"\"bby"=y")("x")`

 

4bis) Indépendance partielle

On définie l'indépendance partielle entre deux ensembles d'évènements `{a_1,a_2,a_3}` et `{b_1,b_2}` comme la propriété que `(a_1 "et" a_2 "et" a_3)` est indépendant de `(b_1 "et" b_2)`, c'est à dire tel que :

`P(a_1 "et" a_2 "et" a_3 "et" b_1 "et" b_2) = P(a_1 "et" a_2 "et" a_3) P(b_1 "et" b_2)`

De même on définie l'indépendance partielle entre deux ensembles de variables `{x_1,x_2,x_3}` et `{y_1,y_2}` comme la propriété que la loi `Z` est le produit des deux lois `X` et `Y` respectives, c'est à dire tel que :

`Z(x_1,x_2,x_3,y_1,y_2) = X(x_1,x_2,x_3) Y(y_1,y_2)`

 

5) La moyenne conditionnelle

Étant donné une variable `x`. On peut définir une moyenne de `x` conditionnée à un évènement `e`, que l'on note `"<"x"\"e">"` et que l'on appel moyenne de `x` sachant `e`. Tout se passe comme si nous restreignons l'univers aux seuls évènements satisfaisants `e`. Les probabilités sont alors renormées à `1` en les divisants par la probabilité de `e`.

La moyenne de `x`  sachant `e` peut se calculer d'une façon intérieure en sommant les valeurs possibles de `x` multipliées par leur probabilitées respectives réalisant l'évènement `e` divisé par la probabilité de `e`, ou d'une façon extérieur et empirique en prenant la limite lorsque le nombre de tirage tend vers l'infini de la somme des valeurs de `x` pour chaque tirage réalisant l'évènement `e` divisée par le nombre de tirages réalisant l'évènement `e`. Les deux procédés donnent le même résultat qu'est la moyenne de `x` sachant `e`, et qui est notée `"<"x"\"e">"`.

On adopte la convention suivante, les expressions de la forme `"(p=q)"` valent `0` ssi `"p"` est différent de `"q"` et `1` ssi `"p"` est égal à `"q"`.

Ainsi, dans le cas de deux variables `(x,y)`, la moyenne de `x` sachant que `bby"=y"` se calcule de deux façons. Nous avons :

`"<"x "\" bby"=y>" = 1/(P(bby"=y"))sum_"x" sum_"y" "x"Z("x","y")("y="\`"y")`

et comme `P(bby"=y") = Y("y") = sum_"x" Z("x","y")`, nous avons :

`"<"x "\" bby"=y>" = (sum_"x" "x"Z("x","y"))/(sum_"x" Z("x","y"))`

`"<"x "\" bby"=y>" = lim_("k"->∞) (sum_("k"=1)^"k" bbx_"k"(bby_k"=y"))/(sum_("k"=1)^"k" "("bby_k"=y)")`

Dans le cas où l'évènement `bby"=y"` ne se produit jamais, c'est à dire dans le cas où la probabilité `P(bby"=y") = 0`, alors cette moyenne conditionnelle n'est pas définie. La moyenne conditionnelle ne doit être utilisée que sur des conditions de probabilité non nulle.

Intuitivement si l'évènement `e` est indépendant de la variable `x` alors nous avons `"<"x"\"e">" = "<"x">"`. Intuitivement si les variables `x` et `y` sont indépendantes alors nous avons `"<"x"\"bby"=y>" = "<"x">"`. Ces deux remarques ne sont pas qu'intuitives, elles constituent des démonstrations logiques. Et cela se retrouve par le calcul comme suit : `x` et `y` étant indépendants, nous avons `Z("x","y")=X("x")Y("y")` et nous avons :

`"<"x"\"bby"=y>" = (sum_"x" "x"Z("x","y"))/(sum_"x" Z("x","y")) = (sum_"x" "x"X("x")Y("y"))/(sum_"x" X("x")Y("y")) = (Y("y")sum_"x" "x"X("x"))/(Y("y")sum_"x" X("x")) = sum_"x" "x"X("x") = "<"x">"`

car, la probabilité étant normée, nous avons : `sum_"x" X("x") = 1`

Et cela se généralise en remplaçant `x` par une fonction quelconque `φ(x,y)`. Lorsque `{x,y}` indépendants, nous avons :

`"<"φ(x,y)"\"bby"=y>" = sum_"x" φ("x","y")X("x")`   


 

et donc en particulier la moyenne du produit `f(x)g(y)` est le produit des moyennes de `f(x)` et de `g(y)`.

`"<"f(x)g(y)">" = "<"f(x)">""<"g(y)">"`

On appliquera souvent cette propriété en particulier pour les puissances.

`"<"x^"r"y^"s"">" = "<"x^"r"">""<"y^"s"">"`