La composition de brouillages booléens

  1. La composition série de brouillages booléans
  2. Les deux niveaux de message
    1. Les messages d'émission m = x~(a,b)
    2. Les messages de réception x = (a,b)|m
  3. La composition parallèle des brouillages
    1. La composition des messages d'émission m ← ~A et m ← ~B
    2. La composition des messages de reception x←A|u et x←B|v
    3. La composition parallèle des brouillages isotropes
    4. La composition des messages de reception x←(p,q)|u et x←(r,s)|v
    5. La composition parallèle des brouillages anisotropes
    6. La composition des messages m ←x~A et m←B|u
    7. La composition des messages m ←x~A et m←(p,q)|u
  4. La composition série de 3 brouillages
  5. La composition parallèle de 3 brouillages en émission
  6. La composition parallèle de 3 brouillages en réception
  7. L'absence de poid dans les compositions séries et parallèles

 

1) La composition série de brouillages booléens

Nous avons acquit une certaine dextérité dans le maniement des probabilités conditionnelles. Voyons comment se comporte l'opération de composition série de deux brouillages A et B.

P(A / @x) = A
P(B / @x et @m1) = B

Le schéma présente un brouillage A reliant x à m1 à l'aide d'une flêche. L'orientation de la flêche affirme que x et A sont les causes de m1 et non l'inverse, m1 et A ne sont pas les causes de x. De même pour le brouillage B allant de m1 à m2. L'orientation de la flêche affirme que m1 et B sont les causes de m2 et non l'inverse, m2 et B ne sont pas les causes de m1.

L'indépendance des brouillages est l'hypothèse clef. Mais il faut savoir la formaliser en respectant le schéma c'est à dire les liens de cause à effet. Un brouillage isotrope est par définition, indépendant de tout sauf de ses conséquences. Il s'en suit que A est indépendant de x (isotropie) et est indépendant de B, et que B est indépendant de m1 (isotropie) et est indépendant de A, et est aussi indépendant de x.

Dans le schéma, le brouillage B semble mis dans la suite comme une conséquence, mais ce n'est pas une conséquence. Les brouillages agissent comme autant d'entrés d'informations indépendantes. Le schéma peut se redessiner comme suit où les brouillages sont remplacés par de nouvelles variables d'univers et où les canaux sont remplacés par des neurones logiques, avec comme opérateur logique, l'équivalence "=".

 

L'univers gagne 2 dimensions booléennes supplémentaires que sont A et B. Lorque A=1 cela signfie que le canal transmettant x à m1 n'est pas perturbé et lorsque A=0 cela signifie que le canal est perturbé et que la valeur de x passant à m1 à travers le canal est négativée.

Et nous avons des évènements liés logiquement par la définition des neurones :

(x = A) = m1
(m1 = B) = m2

Quelque soit trois booléens quelconques a,b,c nous avons la propriété remarquable : (a=b)=c équivalent à (a=c)=b. Nous pouvons donc déduire que :

(x = m1) = A
(m1 = m2) = B

Cela signifie que l'évènement A est exactement l'évènement x = m1. Cela signifie aussi que l'évènement B est exactement l'évènement m1 = m2. On en déduit de même pour leurs probabilités :

P(A) = P(x=m1)
P(B) = P(m1=m2)

Ce faisant il peut être plus simple de revenir à l'univers initial, plus petit, en remplaçant les variables d'univers booléennes libres A et B par les variables booléennes liées égales à (x=m1) et (m1=m2). C'est l'interprétation évènementiel du brouillage.

Le schéma se traduit par les équations suivantes :

P(x=m1) = A
P(m1=m2) = B
{A,x} indépendant
{B,m1} indépendant
{B,x} indépendant

---- 8 avril 2013 ----

 

P(m1=x / @x) = A est constant quelque soit x, cela signifie que le brouillage A est isotropre, et est donc indépendant de x. P(m2=m1 / @m1 ) = B est constant quelque soit m1, cela signifie que le brouillage B est isotropre, et est donc indépendant de m1.

Mais le brouillage B est également indépendant de x. c'est ce que montre le schéma, sinon une flêche partirait de x pour abonder directement l'entré du canal B.

P(m2=m1 / @m1 et @x) = B est constant quelque soit m1 et quelque soit x, cela signifie à la fois que P(m2=m1 / @m1) = B et que P(m2=m1 / @x) = B, et

 

et donc aussi quelqie soit signifie que le brouillage B est indépendant de m1 et est indépendant de x, c'est à dire est isotrope et indépendant du brouillage A. Les brouillages sont supposée indépendants des éléments qui ne sont pas dans leurs sillages, c'est à dire qui ne font pas partis de leur effets, de leur conséquences, de quelque manière que cela soit. Cette hypothèse est trés forte.

L'indépendance peut se noter de trois façons possibles. Etant donné 3 évènements A, B, C, les 4 assertions suivantes sont équivalentes :

1) A est indépendant de B et de C

2) P(A / @B et @C) = P(A)

3) P(A)*P(B) = P(A et B)
    P(A)*P(C) = P(A et C)

4) P(A / B) = P(A)
    P(A / C) = P(A)

Ce qui appliqué à notre cas, produit le tableau suivant :

Notation réduite
Notation par produit
Notation conditionnelle
P(m1=x / @x) = A P(m1=x) = A
P(m1=x)*P(x) = P(m1 et x)

P(m1=x) = A
P
(m1=x / x) = A

P(m2=m1 / @m1 et @x) = B P(m2=m1) = B
P(m2=m1)*P(m1) = P(m2 et m1)
P(m2=m1)*P(x) = P((m2=m1) et x)
P(m2=m1) = B
P
(m2=m1 / m1) = B
P(m2=m1 / x) = B

Les 2 brouillages étant indépendants, le calcul des probabilitées est relativement simple. On développe les 2 choix binaires succéccifs et indépendants et on multiplie leur probabilités pour obtenir un choix quaternaire avec chacune une probabilité résultante :

A*B
A*(1-B)
(1-A)*B
(1-A)*(1-B)

Le brouillage résultant de la composition série de A et de B, est un brouillage isotrope caractérisé comme suit :

 P(m2=x)     =    P(m2=x et m1=x) + P(m2=x et m1=¬x)        =    A*B + (1-A)*(1-B)
P(m2=¬x)    =    P(m2=¬x et m1=x) + P(m2=¬x et m1=¬x)   =     A*(1-B) + (1-A)*B

On construit la structure des brouillages isotropes avec l'opération interne de composition notée °. Un brouillage boolean isotrope est caractérisé par un réel compris entre 0 et 1. Les brouillages booleans isotropes sont implicitement plongés dans l'ensemble des nombres réelles, et leur composition se définie ansi :

A ° B    =    A*B + (1-A)*(1-B)

On remarque que les booléans sont également implicitement plongés dans les nombre réel avec leur représentant réel 0 et 1. Et que l'opération de négation ¬ peut être plongé également en l'opération (x --> 1-x) qui est alors plus générale. La composition série peut s'écrire plus simplement à l'aide de cette opération de négation ¬ : (x --> 1-x), par :

A ° B    =    A*B  +  ¬A*¬B

La composition ° est associative, commutative, et possède trois éléments remarquables 1, 1/2, 0 correspondant à l'identité, au brouillage totale, et à la négation.

(A°B)°C = A°(B°C)
A°B = B°A

Elément
Schéma
Libéllé
Propriété remarquable
1
Identité
1 ° A = A
1/2
Absorbant
1/2 ° A = 1/2
0
Non
0 ° A = 1-A

Le composant "non" qui effectue une négation, correspond au brouillage 0 :

¬A = 0°A = A°0 = 1-A

Le brouillage se traduit par une perte d'information irreversible. Aucun brouillage indépendant A autre que 0 et 1 n'est reversible, c-à-d qu'il n'existe pas de brouillage indépendant B tel que A°B = 1. Les brouillages booléans isotropes forment un monoïde commutatif où aucun élément n'est inversible autre que l'élément neutre "identité" 1 et l'élément "non" 0.

0°0 = 1°1 = 1

Le message m = x~A~B signifie que l'on émet x à travers une succession de deux canaux brouillés de probabilités respectives de non-erreur A puis B. Le message donne la valeur de x et les probabilité A et B et nous informe ainsi sur m. Le message x = A|B|m signifie que l'on a reçu une copie m de x qui a traversé successivement deux canaux brouillés de probabilités respectives de non-erreur A puis B. Le message donne la valeur de m et les probabilité A et B et nous informe ainsi sur x. Ces messages se simplifient grace à la composition des brouillages, et nous avons :

x~A~B = x~(A°B)
A|B|m = (A°B)|m

8.1) Cas anisotrope

Voyons comment se comporte l'opération de composition série de deux brouillages anisotropes (p1,q1) et (p2,q2).

P(m1=x / ¬x) = p1
P(m1=x / x) = q1
P(m2=m1 / ¬m1) = p2
P(m2=m1 / ¬m1 et x) = p2
P(m2=m1 / m1) = q2
P(m2=m1 / m1 et x) = q2

Les 2 brouillages étant indépendants, le calcul des probabilitées est relativement simple. Pour x=0, on développe les 2 choix binaires succéccifs conditionnés par ce qui précède, et indépendants, et on multiplie leur probabilités pour obtenir un choix quaternaire avec chacune une probabilité obtenue par le produit des probabilités indépendantes des choix succeccifs. Et on refait la même chose pour x=1.

p1*p2
p1*(1-p2)
(1-p1)*q2
(1-p1)*(1-q2)
q1*q2
q1*(1-q2)
(1-q1)*p2
(1-q1)*(1-p2)

Le brouillage résultant de la composition série de (p1,q1) et (p2,q2), est caractérisé comme suit :

P(m2=x / x=0)   =   P(m2=0 / x=0)
                           =    P(m2=0 et m1=0 / x=0) + P(m2=0 et m1=1 / x=0)
                           =    p1*p2 + (1-p1)*(1-q2)

P(m2≠x / x=0)   =   P(m2=1 / x=0)
                           =    P(m2=1 et m1=0 / x=0) + P(m2=1 et m1=1 / x=0)
                           =   
p1*(1-p2) + (1-p1)*q2

P(m2=x / x=1)   =   P(m2=1 / x=1)
                           =    P(m2=1 et m1=0 / x=1) + P(m2=1 et m1=1 / x=1)
                           =   
(1-q1)*(1-p2) + q1*q2

P(m2≠x / x=1)   =   P(m2=0 / x=1)
                           =    P(m2=0 et m1=0 / x=1) + P(m2=0 et m1=1 / x=1)
                           =   
(1-q1)*p2 + q1*(1-q2)

Ce qui est équivalent à :

P(m2 / x)      =    ¬q1*¬p2   +   q1*q2
P(m2 / ¬x)
   =     p1*¬p2    +   ¬p1*q2

On construit la structure des brouillages avec l'opération interne de composition noté °. Un brouillage boolean est caractérisé par un couple de réels compris entre 0 et 1. Les brouillages booléens sont implicitement plongés dans l'ensemble des couples de nombres réelles, et leur composition se définie ainsi :

(p1,q1) ° (p2,q2)    =    ( p1*p2 + (1-p1)*(1-q2), q1*q2 + (1-q1)*(1-p2))

L'opération de négation ¬ correspond à l'opération (x-->1-x). La composition série peut s'écrire plus simplement à l'aide de cette opération de négation ¬ : (x --> 1-x), par :

(p1,q1) ° (p2,q2)    =    ( p1*p2 + ¬p1*¬q2, q1*q2 + ¬q1*¬p2)

La composition ° est associative

La composition ° n'est pas commutative

Les brouillages booléans forment un monoïde non-commutatif où aucun élément n'est inversible autre que l'élément neutre "identité" 1 et l'élément "non" 0.

La structure des brouillages booléans isotropes se plonge dans la structure des brouillages booléans. Et on les identifie implicitement de tel sorte que le brouillage isotrope P est identique au brouillage (P,P). Nous avons :

P = (P,P)

Un brouillage est anisotrope si il est de la forme (A,B) avec AB.

Le composant "non" correspond au brouillage 0 = (0,0), et il ne commute pas avec les brouillages anisotropes.

 0 ° (a,b)       =    (¬b, ¬a)
(a,b) ° 0        =    (¬a, ¬b)
0° (a,b) ° 0   =    (b,a)

La négation d'un brouillage s'opère soit avant, soit aprés, et la notation consiste à utiliser les deux opérateur ¬, unaire gauche et unaire droite, comme suit :

¬(a,b)     =    (¬b, ¬a)
(a,b)¬     =    (¬a, ¬b)
¬(a,b)¬   =    (b,a)

Le message m = x~(a,b)~(c,d) signifie que l'on émet x à travers une succession de deux canaux brouillés de probabilités anisotropes respectives de non-erreur (a,b) puis (c,d). Le message donne la valeur de x et les probabilités (a,b), (c,d) et nous informe ainsi sur m. Le message x = (a,b)|(c,d)|m signifie que l'on a reçu une copie m de x qui a traversé successivement deux canaux brouillés de probabilités anisotropes respectives de non-erreur (a,b) puis (c,d). Le message donne la valeur de m et les probabilités (a,b), (c,d) et nous informe ainsi sur x. Ces messages se simplifient grace à la composition des brouillages, et nous avons :

x~(a,b)~(c,d)   =    x~((a,b)°(c,d))
(a,b)|(c,d)|m     =  ((a,b)°(c,d))|m

9) Les deux niveaux de message

Le premier niveau de message correspond à un booléan x. Le message informe le système de la valeur d'un bit, mais cette information peut être erronée. Le système mémorise alors ce qu'il croit être la valeur du bit.

Le deuxième niveau de message correspond à une probabilité, un réel compris entre 0 et 1. Et il y a deux sortes de message : les messages d'émission et les message de réception, bien que leur nom n'aient rien à voir avec le fait qu'ils soient émis ou reçus, mais précise seulement la nature des informations qu'ils apportent.

9.1) Les messages d'émission m = x~(a,b)

Le message d'émission informe le système de l'émission d'une copie d'un bit connu x et de sa transmission via un canal brouillé de probabilité anisotrope (a,b), et dans le but d'estimer ce qui a été finalement transmit, et qui est appelé m. Ce message est noté :

m = x~(a,b)

Si on ne s'intéresse qu'au seul but du message qui est l'acquisition de connaisance sur m, celui-ci contient alors deux redondances, l'une à cause de l'anisotropie, l'autre à cause de la négation :

En effet, si on a choisie une valeur booleénne x et une probabilité anisotrope (a,b), comme on connait x, on sait quelle des deux probabilités a ou b s'applique. L'anisotropie disparait. Enlevons cette redondance. Le message devient m = 0~a ou m = 1~b.

On peut prendre la négation de x et la probabilité peut effectuer aussi en quelque sorte une négation : le message m = x~p apporte exactement les mêmes informations sur m (qui est le résultat de la transmission du bit x), que le message m = (¬x)~(1-p) qui s'écrit aussi m = (¬x)~(¬p). En effet, il est identique de transmettre x via un canal brouillé, et de transmettre la négation de x via un canal qui procèdera à un brouillage symétrique équivalent. On enlève cette redondance en choisissant parmis ces deux messages équivalents, systématiquement celui où x=1.

Le message d'émission se résume donc à un message de la forme m = 1~p. On ommet le 1 et le message d'émission est noté simplement :

~p

Dans l'expression m = ~p, le symbôle ~ rappelle que c'est un message d'émission, c-à-d que la valeur 1 a été émise dans un canal brouillé de probabilité p et que le but de ce message est d'estimer la valeur du résultat de cette transmission. Nous avons donc :

~p        =    1~p
~(¬p)    =    0~p

Si nous n'avons que cet unique message m = ~p comme information sur m, alors la probabilité que m=1 vaut exactement p. Cette information est finalement simple à expliquer, c'est la probabilité d'une valeur booléenne, remplaçant ainsi la valeur booléenne par une valeur réel comprise entre 0 et 1.

m = ~p signifie exactement que P(m=1 / x=1) = p, c'est à dire que P(m / x) = p.

9.2) Les messages de réception x = (a,b)|m

Le message de reception informe le système de la réception d'une valeur m, qui est une copie d'un bit x inconnue transmis via un canal brouillé selon la probabilité anisotrope (a,b). Ainsi m est une copie brouillée de x. Et ce message à pour but d'estimer la valeur du bit x. Ce message est noté :

x = (a,b)|m

Si on ne s'intéresse qu'au seul but du message qui est d'estimer la valeur x, celui-ci contient alors une redondance, car la valeur inconnue x passe dans un canal où elle subit un brouillage pour devenir la valeur m qui nous est transmise, et qu'elle peut aussi passer dans un canal symétrique où elle subit un brouillage symétrique pour devenir la valeur ¬m, cette dernière peut alors passer dans un composant "non" qui retrouve alors la valeur m, obtenant ainsi le même effet statistiquement. Le message (a,b)|¬m apporte exactement les mêmes informations sur le bit original x, que le message ((a,b)¬)|m qui s'écrie (1-a,1-b)|m. On enlève cette redondance en choisissant systématiquement m=1, ce que l'on fait de la façon suivante : lorsque on recoit un message (a,b)|0, on le remplace par le message ((a,b)¬)|1 en prenant le brouillage symétrique (a,b)¬ = (1-a,1-b).

Le message de réception se résume donc à un message de la forme (a,b)|1. On ommet le 1 et le message de reception est noté simplement :

(a,b)|

Dans l'expression x = (a,b)|, le symbôle | rappelle que c'est un message de reception, c-à-d que une valeur inconnue a été émise dans un canal brouillé de probabilité anisotrope (a,b) et a produit comme résultat la valeur de recption 1, et que le but de ce message et d'estimer la valeur d'émission. Nous avons donc :

(a,b)|            =    (a,b)|1
((a,b)
¬)|       =    (a,b)|0

Si nous n'avons que cet unique message x = (a,b)| comme information sur le bit x, alors la probabilité que x = 1 vaut exactement µ*b / ((1-µ)*(1-a) + µ*b)) µ joue le rôle d'un paramètre caché inaccessible, qu'est la probabilité atemporelle de x, une probabilité non conitionnelle.

x = (a,b)| signifie exactement que :

P(x=1 / m=1)  =   µ*b / ((1-µ)*(1-a) + µ*b))

C'est à dire que :

P(x / m)  =   µ*b / (¬µ*¬a + µ*b).

10) La composition parallèle des brouillages

Deux copies de x sont transmises par deux canaux différents effectuant un brouillages respectif de probabilités de non-erreur A et B, pour produire u et v. Ces deux valeurs peuvent soient se confirmer (u=v) ou se contredire (u≠v). On suppose implicitement que les brouillages sont isotropes et indépendants.

On rappel les règles de probabilité sur les évènement indépendants. Etant donné des évènements e1, e2, e3, e4, e5 indépendants, que l'on note ainsi :

{e1, e2, e3, e4, e5} indépendants

La probabilité d'une conjontion d'évènements parmis ceux-ci et leur négation, à condition de ne pas choisir à la fois un évènement et sa négation, est égale au produit des probabilités des évènements ou de leur négation qui la compose. Par exemple :

P(e1 et ¬e3 et e4) = P(e1)*Pe3)*P(e4)

Le shémat est le suivant :

L'hypothèse se résume à la définition des deux probabilités A et B et à leur indépendance et à leur isotropie. Ce qui s'exprime par :

A = P(u=x)
B = P(v=x)
{x, x=u} indépendants
{x, x=v} indépendants
{x=u, x=v} indépendants

Comme les probabilités A et B sont indépendantes nous pouvons les multiplier pour obtenir la probabilité des deux évènements conjoints :

P(u=x et v=x) = P(u=x) * P(v=x) car les brouillages sont indépendantes.
P(u=x et v=x) = A*B

et avec le même procédé, nous obtenons la table de vérité suivante :

u
v
Probabilité
u=v
x
x
P(u=x et v=x) :
A*B
1
x
¬x
P(u=x et v≠x) :
A*(1-B)
0
¬x
x
P(u≠x et v=x) :
(1-A)*B
0
¬x
¬x
P(u≠x et v≠x) :
(1-A)*(1-B)
1

Il ne s'agit pas d'évènements élémentaires, mais d'une liste d'évènements disjoints et exhaustifs.

On connait la probabilité de u et de v sachant x. Le problème est de connaitre la probabilité de x sachant u et v. Et pour cela on calcul la probabilité que x=u sachant u=v :

P(x=u / u=v) = P(x=u et u=v) / P(u=v)
                    = P(x=u et u=v) / (P(x=u et u=v) + P(x≠u et u=v))
                    = P(u=x et v=x) / (P(u=x et v=x) + P(u≠x et v≠x))
                    = A*B / (A*B + (1-A)*(1-B))

P(x=u / u≠v) = P(x=u et u≠v) / P(u≠v)
                    = P(x=u et u≠v) / (P(x=u et u≠v) + P(x≠u et u≠v))
                    = P(u=x et v≠x) / (P(u=x et v≠x) + P(u≠x et v=x))
                    = A*(1-B) / (A*(1-B) + (1-A)*B)

P(x≠u / u=v) = P(x≠u et u=v) / P(u=v)
                    = P(x≠u et u=v) / (P(x=u et u=v) + P(x≠u et u=v))
                    = P(u≠x et v≠x) / (P(u=x et v=x) + P(u≠x et v≠x))
                    = (1-A)*(1-B) / (A*B + (1-A)*(1-B))

P(x≠u / u≠v) = P(x≠u et u≠v) / P(u≠v)
                    = P(x≠u et u≠v) / (P(x=u et u≠v) + P(x≠u et u≠v))
                    = P(u≠x et v=x) / (P(u=x et v≠x) + P(u≠x et v=x))
                    = (1-A)*B / (A*(1-B) + (1-A)*B)

u
v
Probabilité
Si A=1/2
Si B=1/2
u=v
x
x
P(x=u / u=v)
A*B / (A*B + ¬A*¬B)
B
A
1
x
¬x
P(x=u / u≠v)
A*¬B / (A*¬B + ¬A*B)
1-B
A
0
¬x
x
P(x≠u / u=v)
¬A*¬B / (A*B + ¬A*¬B)
1-B
1-A
0
¬x
¬x
P(x≠u / u≠v)
¬A*B / (A*¬B + ¬A*B)
B
1-A
1

Cela n'est pas trés satisfaisant du fait de l'absence de symétrie entre u et v. On refait donc le calcul des probabilité élémentaires en mettant d'emblé en avant l'indépendance des brouillages entre eux et avec x (isotropie) . Ainsi la probabilité que x=1 et u=x et v=x est égale au produit des trois probabilités µ*A*B :

P(x et u et v) = P(x et u=x et v=x)
                     = P(x)*P(u=x)*P(v=x)
                     = µ*A*B

On en déduit la table de vérité suivante :

x
u
v
Probabilité élémentaire
0
0
0
P(¬x et u=x et v=x)
P(¬x et ¬u et ¬v)
(1-µ)*A*B
µ*A*B
0
0
1
P(¬x et u=x et v≠x)
P(¬x et ¬u et v)
(1-µ)*A*(1-B)
¬µ*A*¬B
0
1
0
P(¬x et u≠x et v=x)
P(¬x et u et ¬v)
(1-µ)*(1-A)*B
¬µ*¬A*B
0
1
1
P(¬x et u≠x et v≠x)
P(¬x et u et v)
(1-µ)*(1-A)*(1-B)
¬µ*¬A*¬B
1
0
0
P(x et u≠x et v≠x)
P(x et ¬u et ¬v)
µ*(1-A)*(1-B)
µ*¬A*¬B
1
0
1
P(x et u≠x et v=x)
P(x et ¬u et v)
µ*(1-A)*B
µ*¬A*B
1
1
0
P(x et u=x et v≠x)
P(x et u et ¬v)
µ*A*(1-B)
µ*A*¬B
1
1
1
P(x et u=x et v=x)
P(x et u et v)
µ*A*B
µ*A*B

µ = P(x). C'est la probabilité atemporelle de x. Calculons maintenant la probabilité de x sachant u et v.

P(¬x / ¬u et ¬v) = P(¬x et ¬u et ¬v) / P(¬u et ¬v)
                          = P(¬x et ¬u et ¬v) / (P(¬x et ¬u et ¬v) + P(x et ¬u et ¬v))
                          = ¬µ*A*B / (¬µ*A*B + µ*¬A*¬B)

P(¬x / ¬u et v) = P(¬x et ¬u et v) / P(¬u et v)
                        = P(¬x et ¬u et v) / (P(¬x et ¬u et v) + P(x et ¬u et v))
                        = ¬µ*A*¬B / (¬µ*A*¬B + µ*¬A*B)

P(¬x / u et ¬v) = P(¬x et u et ¬v) / P(u et ¬v)
                        = P(¬x et u et ¬v) / (P(¬x et u et ¬v) + P(x et u et ¬v))
                        = ¬µ*¬A*B / (¬µ*¬A*B + µ*A*¬B))

P(¬x / u et v) = P(¬x et u et v) / P(u et v)
                     = P(¬x et u et v) / (P(¬x et u et v) + P(x et u et v))
                     = ¬µ*¬A*¬B / (¬µ*¬A*¬B + µ*A*B)

P(x / ¬u et ¬v) = P(x et ¬u et ¬v) / P(¬u et ¬v)
                        = P(x et ¬u et ¬v) / (P(¬x et ¬u et ¬v) + P(x et ¬u et ¬v))
                        = µ*¬A*¬B / (¬µ*A*B + µ*¬A*¬B)

P(x / ¬u et v) = P(x et ¬u et v) / P(¬u et v)
                     = P(x et ¬u et v) / (P(¬x et ¬u et v) + P(x et ¬u et v))
                     = µ*¬A*B / (¬µ*A*¬B + µ*¬A*B)

P(x / u et ¬v) = P(x et u et ¬v) / P(u et ¬v)
                     = P(x et u et ¬v) / (P(¬x et u et ¬v) + P(x et u et ¬v))
                     = µ*A*¬B / (¬µ*¬A*B + µ*A*¬B)

P(x / u et v) = P(x et u et v) / P(u et v)
                   = P(x et u et v) / (P(¬x et u et v) + P(x et u et v))
                   = µ*A*B / (¬µ*¬A*¬B + µ*A*B)

u
v
Probabilité que x=1 sachant (u,v)
0
0
P(x / ¬u et ¬v)
µ*¬A*¬B / ( ¬µ*A*B + µ*¬A*¬B)
0
1
P(x / ¬u et v)
µ*¬A*B / ( ¬µ*A*¬B + µ*¬A*B)
1
0
P(x / u et ¬v)
µ*A*¬B / ( ¬µ*¬A*B + µ*A*¬B)
1
1
P(x / u et v)
µ*A*B / ( ¬µ*¬A*¬B + µ*A*B)

Et nous avons bien : P(x / u et v) + P(x / ¬u et v) + P(x / u et ¬v) + P(x / ¬u et ¬v) = P(x)

10.1) La composition des messages d'émission m ← ~A et m ← ~B

Le système émet deux messages qui sont des copies brouillées de x et de y, par deux canaux différents, chacun brouillé respectivement avec des probabilités de non-erreur A et B pour finalement transmettre des valeurs identiques mais inconnue que l'on nomme m. La raison pour laquelle les deux valeurs transmises sont identiques à m constitue une hypothèse supplémentaire qui est faite. C'est le destinataire du message m qui nous informe qu'il a bien reçue deux fois la même valeur m sans nous dire laquelle.

Cette configuration n'est donc qu'un cas particulier. Il faut ajouter l'autre cas où le déstinataire nous informe qu'il a reçu deux valeurs distincts u et v, en nous informant seulement qu'il a reçu deux valeurs différentes sans nous dire les quelles. L'univers possède alors 4 degrés booléans de liberté. Il y a 4 variables d'univers x,y,u,v. C'est beaucoup pour commencer. La négativation possible des brouillages A et B selon les valeurs de x et y nous permet toujours de nous ramener au cas où x=1 et y=1. Dés lors, le cas anisotrope ne se pose pas, x et y sont choisis fixés à 1, et sont passés du statut de variable d'univers à celui de paramètre d'univers. L'univers n'a plus que 2 dimensions booléennes, 2 variables d'univers u, v.

L'hypothèse se résume au deux messages u = ~A et v = ~B, et à l'indépendance des brouillages A et B, c'est à dire à l'indépendance des évènements u et v. Ce qui s'écrit :

P(u) = A
P(v) = B
{u,v} indépendants

Cette indépendance permet de calculer les probabilités des évènements conjoints comme suit :

P(u et v)       =    P(u)*P(v)
                    =    A*B

P(u et ¬v)     =    P(x=u) * P(¬v)
                     =    A*(1-B)

P(¬u et v)     =    P(¬u) * P(v)
                     =    (1-A)*B

P(¬u et ¬v)    =    P(¬u) * P(¬v)
                      =    (1-A)*(1-B)

Et nous obtenons la table de vérité :

u
v
Probabilité
u=v
1
1
P(u et v) =
A*B
1
1
0
P(u et ¬v) =
A*(1-B)
0
0
1
P(¬u et v) =
(1-A)*B
0
0
0
P(¬u et ¬v) =
(1-A)*(1-B)
1

On connait la probabilité de u et on connait la probabilité de v. Il s'agit de connaitre la probabilité de u sachant que u=v, et la probabilité de u sachant que u≠v.

On rappel la définition des probabilités conditionnelles : P(X/Y) = P(X et Y) / P(Y)
Que {X,Y} est indépendants ssi P(X et Y) = P(X)*P(Y)
Que {X,Y} est indépendants entraine que {X, ¬Y}, {¬X,Y}, {¬X,¬Y} sont indépendants.
Et comment on peut diviser un évènement en deux : P(X) = P(X et Y) + P(X et ¬Y)

P(u / u=v)    = P(u et u=v) / P(u=v)
                    = P(u et u=v) / (P(u et u=v) + P(¬u et u=v))
                    = P(u et v) / (P(u et v) + P(¬u et ¬v))
                    = A*B / (A*B + (1-A)*(1-B))

P(u / u≠v)    = P(u et u≠v) / P(u≠v)
                    = P(u et u≠v) / (P(u et u≠v) + P(¬u et u≠v))
                    = P(u et ¬v) / (P(u et ¬v) + P(¬u et v)
                    = A*(1-B) / (A*(1-B) + (1-A)*B)

P(v / u=v)    = P(u / u=v)
P(v / u≠v)    = 1- P(u / u≠v)

Probabilité
u=v
P(u / u=v) =
A*B/(A*B + ¬A*¬B)
1
P(u / u≠v) =
A*¬B/(A*¬B + ¬A*B)
0

Conclusion :

La reception des messages u = ~A et v = ~B et de l'information "u=v", apportent une connaissance sur u explicitée par la probabilité suivante :

P(u / u=v)    =    A*B/(A*B + ¬A*¬B)

Si u=v alors les messages peuvent se noter simplement u ← ~A et u ← ~B, ou bien u = ~A et ~B, évitant ainsi de devoir préciser que u=v. Noter que les expressions "u ←" sont à interpréter comme des apports successifs de connaissance sur u, et non comme des affectations au sens classique, écrasant l'affectation précédente, que l'on note par "u =".

La reception des messages u = ~A et v = ~B et de l'information "u≠v", apportent une connaissance sur u et sur v explicitée par la probabilités suivantes :

P(u / u≠v)    =    A*¬B/(A*¬B + ¬A*B)

Le message équivalent :

Ces deux messages u ← ~A et u← ~B correspondent à la connaissance sur u apportée par un unique message d'émission u = ~P avec

P = A*B/(A*B + ¬A*¬B)

10.2) La composition des messages de reception x←A|u et x←B|v

Le système recoit deux valeurs u,v, qui sont des copies de x qui ont été transmises via des canaux brouillés avec une probabilité de non erreur respective A et B. Cela correspond à la reception de deux messages de reception A|u et B|v ayant le même but consistant à estimer l'unique source x. Ces deux messages sont : x←A|u et x←B|v. Noter que les expressions ici sont à interpréter comme des apports successifs de connaissance sur x, et non comme des affectations au sens classique, écrasant l'affectation précédente. Et pour totaliser l'information sur x, on écrira x = A|u et B|v.

L'univers possède alors 3 degrés booléans de liberté. Il y a 3 variables d'univers x,u,v. On normalise les messages de la façon suivante : les u et v sont remplacés par 1 en inversant éventuellement les probabilités de A en (1-A) ou de B en (1-B). Cela est toujours possible car il y a équivalence entre un canal brouillé de probabilité P transmettant 0 et un canal brouillé de probabilité (1-P) transmettant 1. Les deux messages sont alors de la forme : x←A|1 et x←B|1, qui s'écrivent de façon abrégé par x←A| et x←B|, et qui se regroupe en un seul message x = A| et B|.

Mais cette normalisation ne va-t'elle pas entrainer une relation de dépendance entre les deux brouillages A et B ?. Non. La simplification que l'on opère ici ne modifie pas le montage parallèle reel. En effet, le tableau chapitre 10 montre bien qu'on passe de la probabilité P(x / ¬u et ¬v) à P(x / u et v) en négativant A et B, et que l'on passe de la probabilité P(x / u et ¬v) à P(x / u et v) en négativant B, et que l'on passe de la probabilité P(x / ¬u et v) à P(x / u et v) en négativant A. Et ces probabilitées sont bien les résultats que nous recherchons en ce qu'elles résument l'ensemble des connaissances que nous pouvons avoir sur x. Néanmoins cela abouti à une contradiction P(x)=A et P(x)=B. Donc on ne peut pas procéder ainsi. Alors pouvions nous le faire également au chapitre précédent ?...

Les brouillages sont indépendants entre eux et isotropes, ce qui se traduit par l'indépendance des 3 évènements x, x=u, x=v, que nous notons par :

{x, x=u, x=v} indépendant

La probabilité d'une conjonction d'évènements parmis ces 3 évènements et leurs négations, et à condition de ne pas choisir à la fois un évènement et sa négation, est égale au produits des probabilités des évènements et de négation d'évènements qui la compose. Par exemple nous avons :

P(¬x et x=u et x≠v) = P(¬x)*P(x=u)*P(x≠v)

Les messages x←A|u et x←B|v nous informe des valeurs u et v et des probabilités de non erreur A et B, et on nomme µ la probabilité atemporelle de x qui restera une inconnue inaccessible.

µ = P(x)
A = P(x=u)
B = P(x=v)

On développe la probabilité conditionnelle de x sachant u et v, en une composition de probabilités d'évènement parmis x, x=u, x=v, ¬x, x≠u, x≠v, et de leurs différentes conjonctions.

P(x / u et v)     =   P(x et u et v) / P(u et v)
                       =   P(x et u et v) / (P(x et u et v) + P(¬x et u et v))
                       =   P(x et x=u et x=v) / (P(x et x=u et x=v) + P(¬x et x≠u et x≠v))
                       =   P(x)*P(x=u)*P(x=v) / (P(x)*P(x=u)*P(x=v) + P(¬x)*P(x≠u)*P(x≠v))
                       =    µ*A*B / (µ*A*B + ¬µ*¬A*¬B)

Et il est inutile de faire le calcul de probabilité conditionnelle pour d'autres conditions puisque on ne s'intéressera qu'au cas où u=1 et v=1.

Conclusion :

La reception des messages x←A|u et x←B|v apportent une connaissance sur x, sachant u=1 et v=1, explicitée par la probabilité suivante :

P(x / u et v)     =   µ*A*B / (µ*A*B + ¬µ*¬A*¬B)

Le message équivalent :

Ces deux messages x←A|u et x←B|v peuvent-ils apporter la même connaissance sur x sachant u=1 et v=1, que celle apportéee par un unique message de reception tel que x=P|m, sachant m=1, et dont la signification exacte en terme de probabilité est :

P(x / m=1)  =   µ*P / ((1-µ)*(1-P) + µ*P))

Ces deux schémas peuvent-il être équivalents ? :

P(x=1 / u et v)   =   µ*A*B / ((1-µ)*(1-A)*(1-B) + µ*A*B)
P(x / m)   =   µ*P / ((1-µ)*(1-P) + µ*P)

Pour que les deux probabilitées conditionnelles soient égales, il faut que :

µ*P / ((1-µ)*(1-P) + µ*P) =
µ*P*((1-µ)*(1-A)*(1-B) + µ*A*B)) =
µ*P*(1-µ)*(1-A)*(1-B) + µ*P*µ*A*B =
µ*P*(1-µ)*(1-A)*(1-B) =
P*(1-A)*(1-B) =
P*(1-A)*(1-B) =
P*((1-A)*(1-B) + A*B) =
P =
µ*A*B / ((1-µ)*(1-A)*(1-B) + µ*A*B)
µ*A*B*((1-µ)*(1-P) + µ*P)
µ*A*B*(1-µ)*(1-P) + µ*A*B*µ*P
µ*A*B*(1-µ)*(1-P)
A*B*(1-P)
A*B - P*A*B
A*B
A*B/(A*B + (1-A)*(1-B))

Cette condition est équivalente à l'identité remarquable suivante :

P/(1-P) = (A/(1-A)) * (B/(1-B))

et a pour solution :

P = A*B/(A*B + (1-A)*(1-B))

10.3) La composition parallèle des brouillages isotropes

Au vue des résultats précédents, on peut définir la composition parallèle de deux brouillages isotropes. La structure des brouillages isotropes se munie donc d'une opération interne de composition parallèle notée //.

A//B = A*B/(A*B + (1-A)*(1-B))

A//B = 1 / (1 + (1-A)*(1-B)/(A*B))

On remarque que :

A//B = A*B / A°B

L'opération de composition parallèle // est associative :

(A//B)//C = A//(B//C)

L'opération de composition parallèle // et commutative :

A//B = B//C

Les deux messages z← ~A et z← ~B, que l'on regroupe en un message noté z = ~A et ~B, correspondent à la connaissance sur z apportée par un unique message d'émission z = ~(A//B).

Autrement dit, si nous avons comme connaissance sur z que z = ~A, et si nous recevons un message z← ~B, alors notre connaissance sur z devient z = ~A et ~B et cette connaissance se développe en la connaissance z = ~(A//B)

Les deux messages z←A| et z←B|, que l'on regroupe en un message noté z ← A| et B|, correspondent à la connaissance sur z apportée par un unique message de reception z = (A//B)|.

Autrement dit, si nous avons comme connaissance sur z que z =A|, et si nous recevons un message z ← B|, alors notre connaissance sur z devient z = A| et B| et cette connaissance se développe en la connaissance z = (A//B)|

10.4) La composition des messages de reception x←(p,q)|u et x←(r,s)|v

Le système recoit deux messages qui sont des copies de x, transmises par deux canaux différents, chacun brouillé de façon anisotrope respectivement avec des probabilités de non-erreur (p,q) et (r,s), et produisant comme résultat respectivement u et v.

p = P(x=u / ¬x)
q = P(x=u / x)
r = P(x=v / ¬x)

s = P(x=v / x)

L'hypothèse contient implicitement une information supplémentaire essentielle qu'est l'indépendance des brouillages. Les brouillages sont indépendants, cela veut dire que la probabilité p est indépendante de la probabilité r et que la probabilité q est indépendante de la probabilité s, c'est à dire que l'évènement x=u sachant x est indépendant de l'évènement x=v sachant x et que l'évènement x=u sachant ¬x est indépendant de l'évènement x=v sachant ¬x.

Le "sachant x" et le "sachant ¬x" correspond à des projection d'univers, à des univers diminués d'une dimension.

On note les relations d'indépendance dans ces univers projetés par :

{x=u, x=v} indépendant sachant x
{x=u, x=v} indépendant sachant ¬x

On rappelle comment obtenir une probabilité non conditionelle à partir de probabilités conditionnelles. Etant donnée deux évènements quelconques X,Y, nous avons :

P(X) = P(X/Y)*P(Y) + P(X/¬Y)*P(¬Y)
P(X) = P(X et Y) + P(X et ¬Y)

Et d'une manière plus générale, si nous avons n évènements exclusifs et exhanstifs tel que Y1, Y2, Y3, alors nous avons :

P(X) = P(X/Y1)*P(Y1) + P(X/Y2)*P(Y2) + P(X/Y3)*P(Y3)
P(X) = P(X et Y1) + P(X et Y2) + P(X et Y3)

On nomme µ la probabilité atemporelle de x qui restera une inconnue inaccessible.

µ = P(x)

Les hypothèses se résument par :

µ = P(x)
p = P(x=u / ¬x)
r = P(x=v / ¬x)
{x=u, x=v} indépendant sachant ¬x
q = P(x=u / x)
s = P(x=v / x)

{x=u, x=v} indépendant sachant x

On développe la probabilité conditionnelle de x sachant u et v, en une composition de probabilités d'évènement parmis x, x=u, x=v, ¬x, x≠u, x≠v, et de leurs différentes conjonctions. Les évènements x=u, x=v étant indépendant sachant x et indépendant sachant ¬x, nous pouvons scinder la probabilité de leur conjonction en produit de probabilités :

P(x / u et v)     =   P(x et u et v) / P(u et v)
                       =   P(x et u et v) / (P(x et u et v) + P(¬x et u et v))
                       =   P(x et x=u et x=v) / (P(x et x=u et x=v) + P(¬x et x≠u et x≠v))

On applique la règle de calcule explicité plus haut pour chacun des deux termes présents :

P(x et x=u et x=v) = P(x et x=u et x=v / x)*P(x) + P(x et x=u et x=v / ¬x)*P(¬x)
                             = P(x=u et x=v / x)*P(x)
                             = P(x=u / x)*P(x=v / x)*P(x)
                             = q*s*µ

P(¬x et x≠u et x≠v) = P(¬x et x≠u et x≠v / x)*P(x) + P(¬x et x≠u et x≠v / ¬x)*P(¬x)
                               = P(x≠u et x≠v / ¬x)*P(¬x)
                               = P(x≠u / ¬x)*P(x≠v / ¬x)*P(¬x)
                               = (1-p)*(1-r)*(1-µ)

Puis on regroupe le résultat :

P(x / u et v)     =  q*s*µ / (q*s*µ + (1-p)*(1-r)*(1-µ))

que l'on peut écrire de façon réduite par :

P(x / u et v)     =  q*s*µ / (q*s*µ + ¬p*¬r*¬µ)

Et il semble inutile de faire le calcul de probabilité conditionnelle pour d'autres conditions puisque on ne s'intéressera apriori qu'au cas où u=1 et v=1.

Conclusion :

La reception des messages x←(p,q)|u et x←(r,s)|v apportent une connaissance sur x, sachant u=1 et v=1, explicitée par la probabilité suivante :

P(x / u et v)     =  µ*q*s / (µ*q*s + ¬µ*¬p*¬r)

Le message équivalent :

Ces deux messages x←(p,q)|u et x←(r,s)|v peuvent-ils apporter la même connaissance sur x sachant u=1 et v=1, que celle apportéee par un unique message de reception tel que x=(a,b)|m, sachant m=1, et dont la signification exacte en terme de probabilité est :

P(x / m)  =   µ*b / (¬µ*¬a + µ*b).

Comme il y a deux inconnues a,b et qu'une seul équation, il existe une infinité de solution. Pour que les deux probabilitées conditionnelles soient égales, il faut que :

µ*b / (¬µ*¬a + µ*b) =
µ*b*(µ*q*s + ¬µ*¬p*¬r) =
µ*b*¬µ*¬p*¬r + µ*b*µ*q*s =
µ*b*¬µ*¬p*¬r =
bp*¬r =
µ*q*s / (µ*q*s + ¬µ*¬p*¬r)
µ*q*s*(¬µ*¬a + µ*b)
µ*q*s*¬µ*¬a + µ*q*s*µ*b
µ*q*s*¬µ*¬a
q*s*¬a

Cette condition est équivalente à l'identité remarquable suivante :

bp*¬r = q*s*¬a

que l'on met sous cette forme plus explicite.

b/(1-a) = (q/(1-p)) * (s/(1-r))

Il y a des solutions simples mais qui ne sont pas pertinentes. La première ne conservent pas l'éventuelle isotropie c'est à dire qu'elle ne respecte pas la règle (si p=q et r=s alors a=b), c'est a = ¬(¬p*¬r) et b = q*s. La seconde propose toujours une solution isotrope, elle consiste simplement à ajouter l'équation a=b, et à en déduire que : a = q*s / p*¬r + q*s).

La solution pertinente consiste à exiger l'égalité des probabilités dans deux univers projetés, la deuxième équations est ainsi introduite avec le moins d'arbitraire possible :

P(x / m) = P(x / u et v)
P(x / ¬m) = P(x / ¬u et ¬v)

Il nous faut alors calculer la probabilité pour u=0 et v=0, et m=0.

P(x / ¬u et ¬v)   =   P(x et ¬u et ¬v) / P(¬u et ¬v)
                          =   P(x et ¬u et ¬v) / (P(x et ¬u et ¬v) + P(¬x et ¬u et ¬v))
                          =   P(x et x≠u et x≠v) / (P(x et x≠u et x≠v) + P(¬x et x=u et x=v))

Pour chacun des deux termes présents, nous avons :

P(x et x≠u et x≠v) = P(x et x≠u et x≠v / x)*P(x) + P(x et x≠u et x≠v / ¬x)*P(¬x)
                             = P(x≠u et x≠v / x)*P(x)
                             = P(x≠u / x)*P(x≠v / x)*P(x)
                             = ¬q*¬s*µ

P(¬x et x=u et x=v) = P(¬x et x=u et x=v / x)*P(x) + P(¬x et x=u et x=v / ¬x)*P(¬x)
                               = P(x=u et x=v / ¬x)*P(¬x)
                               = P(x=u / ¬x)*P(x=v / ¬x)*P(¬x)
                               = p*r*¬µ

Puis on regroupe le résultat :

P(x / ¬u et ¬v)     =  ¬q*¬s*µ / (¬q*¬s*µ + p*r*¬µ)

Et d'autre part nous avons :

P(x / ¬m)   =   µ*¬b / (µ*¬b + ¬µ*a)

Nous obtenons alors deux équations :

µ*b / (µ*b + ¬µ*¬a) = µ*q*s / (µ*q*s + ¬µ*¬p*¬r)
 µ*¬b / (µ*¬b + ¬µ*a) = ¬q*¬s*µ / (¬q*¬s*µ + p*r*¬µ)

On passe de l'une à l'autre en négativant a,b,p,q,r,s. Cela est donc équivalent aux deux identités remarquables suivantes :

¬p*¬r*b = q*s*¬a
p*r*¬b = ¬q*¬s*a

¬p*¬r*b = q*s*(1-a)
p*r*(1-b) = ¬q*¬s*a

[¬q*¬s, p*r] [a] = [p*r]
[q*s, ¬p*¬r] [b] = [q*s]

Det = ¬q*¬s*¬p*¬r - q*s*p*r

a = (¬p*¬r*p*r - p*r*q*s)/Det
b = (- q*s*p*r + ¬q*¬s*q*s)/Det

a = p*r*(¬p*¬r - q*s)/Det
b = q*s*(¬q*¬s - p*r)/Det

On remarque que si p=q et r=s alors a=b, et cela correspond alors à la composition paralèlle de deux brouillages isotropes :

a = p*r*(¬p*¬r - p*r)/p*¬r*¬p*¬r - p*r*p*r)
a = p*r*(¬p*¬r - p*r)/((¬p*¬r - p*r) p*¬r + p*r))
a = p*r*/p*¬r + p*r)

10.5) La composition parallèle des brouillages anisotrope

On étend l'opération de composition paralèlle des brouillages isotropes en une opération de composition parallèle des brouillages, que l'on note paraillement par le symbôle //.

(p,q) // (r,s) = (p*r*(¬p*¬r - q*s)/Det, q*s*(¬q*¬s - p*r)/Det) avec Det = ¬q*¬s*¬p*¬r - q*s*p*r

L'opération de composition parallèle // est associative :

((a,b)//(p,q))//(r,s) = (a,b) //((p,q) //(r,s))

L'opération de composition parallèle // et commutative :

(p,q)//(r,s) = (r,s)//(p,q)

Les deux messages z←(p,q)| et z←(r,s)|, que l'on regroupe en un message noté z ← (p,q)| et (r,s)|, correspondent à la connaissance sur z apportée par un unique message de reception z = ((p,q)//(r,s))|.

Autrement dit, si nous avons comme connaissance sur z que z =(p,q)|, et si nous recevons un message z ← (r,s)|, alors notre connaissance sur z devient z = (p,q)| et (r,s)| et cette connaissance se développe en la connaissance z = ((p,q)//(r,s))|

10.6) La composition des messages m ←x~A et m←B|u

Le système est informé que m est le résultat de l'envoie du bit x via un cannal brouillé A, et qu'une copie de m nous est parvenue via un canal brouillé B. L'univers possède trois dimensions, possède trois variables booléennes m,x,u. Voici le shémat :

Les brouillages ont un sens et détermine un ensemble de relations d'indépendance respectant la suite causale. Les brouillages sont supposée indépendants des éléments qui ne sont pas dans leurs sillages, c'est à dire qui ne font pas partis de leur effets, de leur conséquences, de quelque manière que cela soit. Cela se traduit par :

{x, x=m, m=u} indépendant
{m, m=u} indépendant

P(x=m) = A
P(m=u) = B

La connaissance sur m apportée par ces deux messages m = x~A et B|u est la probabilité de m sachant x et u calculée dans cet univers :

P(m / x et u) = P(m et x et u) / P(x et u)
                    = P(m et x et u) / (P(m et x et u) + P(¬m et x et u))
                    = P(x et x=m et m=u) / (P(x et x=m et m=u) + P(x et x≠m et m≠u))
                    = P(x)*P(x=m)*P(m=u) / (P(x)*P(x=m)*P(m=u) + P(x)*P(x≠m)*P(m≠u))
                    = µ*A*B / (µ*A*B + µ*¬A*¬B)
                    = A*B / (A*B + ¬A*¬B)
                    = A // B

Conclusion :

La reception des messages m ←x~A et m←B|u apportent une connaissance sur m, sachant x=1 et u=1, explicitée par la probabilité suivante :

P(m / x et u)     =  A*B / (A*B + ¬A*¬B)
P(m / x et u)     =  A // B

Le message équivalent :

Ces deux messages m ← x~A et m ← B|u apportent la même connaissance sur m sachant x=1 et u=1, que celle apportéee par l'unique message d'émission m ← z ~ (A//B)|m, sachant z=1.

Autrement dit, si nous avons comme connaissance sur m que m = ~A, et si nous recevons un message m← B|, alors notre connaissance sur m devient m = ~A et B| et cette connaissance se développe en la connaissance m = ~(A//B). Et si nous avons comme connaissance sur m que m =A|, et si nous recevons un message m← ~B, alors notre connaissance sur m devient m = A| et ~B et cette connaissance se développe en la connaissance m = ~(A//B)

10.7) La composition des messages m ←x~A et m←(p,q)|u

Le système est informé que m est le résultat de l'envoie du bit x via un cannal brouillé A, et qu'une copie de m nous est parvenue en u via un canal brouillé anisotrope (p,q). L'univers possède trois dimensions, possède trois variables booléennes m,x,u. Voici le shémat :

Les brouillages ont un sens. On détermine un ensemble de relations d'indépendance respectant la suite causale. Les brouillages sont supposée indépendants des éléments qui ne sont pas dans leurs sillages, c'est à dire qui ne font pas partis de leur effets, de leur conséquences, de quelque manière que cela soit. Cela se traduit par les relations d'indépendance dans deux univers projetés :

{x, x=m} indépendant

{x=m, m=u} indépendant sachant m
{x, m=u} indépendant sachant m

{x, m=u} indépendant sachant ¬m
{x=m, m=u} indépendant sachant ¬m

P(x=m) = A
P(m=u / m) = q
P(m=u / ¬m) = p

On note µ = P(m) la probabilité atemporelle de m.

La connaissance sur m apportée par ces deux messages m = x~A et (p,q)|u est la probabilité de m sachant x et u calculée dans cet univers, ainsi que la probabilité de m sachant ¬x et ¬u qui est utile pour produire une deuxième équation dans les cas d'anisotropie.

P(m / x et u) = P(m et x et u) / P(x et u)
                    = P(m et x et u) / (P(m et x et u) + P(¬m et x et u))
                    = P(m et x=m et m=u) / (P(m et x=m et m=u) + P(¬m et x≠m et m≠u))

Pour chacun des deux termes présents, nous avons :

P(m et x=m et m=u) = P(m et x=m et m=u / m)*P(m) + P(m et x=m et m=u / ¬m)*P(¬m)
                                = P(m et x=m et m=u / m)*P(m)
                                = P(x=m / m)*P(m=u / m)*P(m)
                                = A*q*µ

P(¬m et x≠m et m≠u) = P(¬m et x≠m et m≠u / m)*P(m) + P(¬m et x≠m et m≠u / ¬m)*P(¬m)
                                  = P(¬m et x≠m et m≠u / ¬m)*P(¬m)
                                  = P(x≠m / ¬m)*P(m≠u / ¬m)*P(¬m)
                                  = ¬A*¬p*¬µ

Puis on regroupe le résultat :

P(m / x et u) = A*q*µ / (A*q*µ + ¬A*¬p*¬µ)

La probabilité de m sachant ¬x et ¬u calculée dans cet univers :

P(m / ¬x et ¬u) = P(m et ¬x et ¬u) / P(¬x et ¬u)
                         = P(m et ¬x et ¬u) / (P(m et ¬x et ¬u) + P(¬m et ¬x et ¬u))
                         = P(m et x≠m et m≠u) / (P(m et x≠m et m≠u) + P(¬m et x=m et m=u))

Pour chacun des deux termes présents, nous avons :

P(m et x≠m et m≠u) = P(m et x≠m et m≠u / m)*P(m) + P(m et x≠m et m≠u / ¬m)*P(¬m)
                                = P(m et x≠m et m≠u / m)*P(m)
                                = P(x≠m / m)*P(m≠u / m)*P(m)
                                = ¬A*¬q*µ

P(¬m et x=m et m=u) = P(¬m et x=m et m=u / m)*P(m) + P(¬m et x=m et m=u / ¬m)*P(¬m)
                                  = P(¬m et x=m et m=u / ¬m)*P(¬m)
                                  = P(x=m / ¬m)*P(m=u / ¬m)*P(¬m)
                                  = A*p*¬µ

Puis on regroupe le résultat :

P(m / ¬x et ¬u) = ¬A*¬q*µ / (¬A*¬q*µ + A*p*¬µ)

et on compare avec la connaissance sur m apporté par les messages m←(a,b)|x et m←(r,s)|u, sachant x=1 et u=1, et sachant x=0 et u=0 explicitée par les deux probabilité suivante :

Dans l'univers m = x~A et (p,q)|u :

P(m / x et u)          = A*q*µ / (A*q*µ + ¬A*¬p*¬µ)
P
(m / ¬x et ¬u)     = ¬A*¬q*µ / (¬A*¬q*µ + A*p*¬µ)

Dans l'univers m←(a,b)|x et (r,s)|u :

P(m / x et u)          =  b*s*µ / (b*s*µ + ¬a*¬r*¬µ*)
P(m / ¬x et ¬u)     =  ¬b*¬s*µ / (¬b*¬s*µ + a*r*¬µ)

Il y a équivalence en posant a=A, b=A, r=p, s=q. Le message m = x~A et (p,q)|u sachant x=u est donc équivalent au message m←A|x et (r,s)|u sachant x=u, qui se développe en le message m←(A//(r,s))|z

La probabilité atemporelle de x et de m sont liées de façon non symétrique car {x, x=m}sont indépendants mais pas {x=m, m}. Nous avons :

P(m) = P(m et x) + P(m et ¬x)
P(m) = P(x et x=m) + P(¬x et x≠m)
P(m) = P(x)*P(x=m) + P(¬x)*P(x≠m)
P(m) = P(x)*A + ¬P(x)*¬A

11) La composition série de 3 brouillages

L'associativité de l'opération de composition série ° vue plus haut, ne démontre pas de façon formelle l'équivalence, concernant la connaissance sur w, du messages w← x~A~B~C, avec le message w ← x~(A°B°C). Voyons cela de plus près. L'univers comprend 4 variables x,u,v,w selon le shémat suivant :

Les brouillages ont un sens. On détermine un ensemble de relations d'indépendance respectant la suite causale. Les brouillages sont supposée indépendants des éléments qui ne sont pas dans leurs sillages, c'est à dire qui ne font pas partis de leur effets, de leur conséquences, de quelque manière que cela soit. Cela se traduit par :

{x, x=u, u=v, v=w} indépendant
{u, u=v, v=w} indépendant
{v, v=w} indépendant

P(x=u) = A
P(u=v) = B
P(v=w) = C

La connaissance sur w apportée par le messages w ← x~A~B~C, est la probabilité de w sachant x calculée dans cet univers :

P(w / x) = P(w et x) / P(x)

P(x et w) = P(x et u et v et w) + P(x et u et ¬v et w) + P(x et ¬u et v et w) + P(x et ¬u et ¬v et w)
               = P(x et x=u et u=v et v=w) + P(x et x=u et uv et v≠w) + P(x et xu et u≠v et v=w) + P(x et x≠u et u=v et v≠w)
               = P(x)*P(x=u)*P(u=v)*P(v=w) + P(x)*P(x=u)*P(uv)*P(v≠w) + P(x)*P(xu)*P(u≠v)*P(v=w) + P(x)*P(x≠u)*P(u=v)*P(v≠w)
               = µ*A*B*C + µ*A*¬B*¬C + µ*¬A*¬B*C + µ*¬A*B*¬C
               = µ*(A*B*C + A*¬B*¬C + ¬A*¬B*C + ¬A*B*¬C)

P(x) = µ

P(x / w) = A*B*C + A*¬B*¬C + ¬A*¬B*C + ¬A*B*¬C

et cela est égale à A°B°C

12) La composition parallèle de 3 brouillages en émission

L'associativité de l'opération de composition parallèle // vue plus haut, ne démontre pas de façon formelle l'équivalence, concernant la connaissance sur x, due aux message x ← ~A et ~B et ~C , avec le message x ← ~(A//B//C). Voyons cela de plus près. L'univers comprend 3 variables x,y,z selon le shémat suivant :

Et nous avons les messages suivants x← ~A, y← ~B, z← ~C, et un message supplémentaire nous informant que x=y et que x=z.

Les brouillages ont un sens. On détermine un ensemble de relations d'indépendance respectant la suite causale. Les brouillages sont supposée indépendants des éléments qui ne sont pas dans leurs sillages, c'est à dire qui ne font pas partie de leur effets, de leur conséquences, de quelque manière que cela soit. Cela se traduit par :

{x, y, z} indépendant

P(x) = A
P(y) = B
P(z) = C

La connaissance sur x apportée par les messages x ← ~A, x ← ~B, x ← ~C, "x=y", "x=z" est la probabilité de x sachant x=y et x=z calculée dans cet univers :

P(x / x=y et x=z) = P(x et x=y et x=z) / P(x=y et x=z)
                           = P(x et y et z) / (P(x et x=y et x=z) + P(¬x et x=y et x=z))
                           = P(x et y et z) / (P(x et y et z) + P(¬x et ¬y et ¬z))
                           = P(x)*P(y)*P(z) / (P(x)*P(y)*P(z) + P(¬x)*P(¬y)*P(¬z))
                           = A*B*C / (A*B*C + ¬A*¬B*¬C)

et cela est égale à A//B//C

13) La composition parallèle de 3 brouillages en réception

L'associativité de l'opération de composition parallèle // vue plus haut, ne démontre pas de façon formelle l'équivalence, concernant la connaissance sur x, due aux message x ← A|u et B|v et C|w sachant u,v,w, avec le message x ← (A//B//C)|m sachant m. Voyons cela de plus près. L'univers comprend 4 variables x,u,v,w selon le shémat suivant :

Et nous avons les messages suivants x← A|u, x← ~B|v, x← ~C|w,

Les brouillages ont un sens. On détermine un ensemble de relations d'indépendance respectant la suite causale. Les brouillages sont supposée indépendants des éléments qui ne sont pas dans leurs sillages, c'est à dire qui ne font pas partie de leur effets, de leur conséquences, de quelque manière que cela soit. Cela se traduit par :

{x, x=u, x=v, x=w} indépendant

P(x=u) = A
P(x=v) = B
P(x=w) = C

La connaissance sur x apportée par les messages x← A|u, x← ~B|v, x← ~C|w, sachant u et v et w est la probabilité de x sachant u et v et w calculée dans cet univers :

P(x / u et v et w) = P(x et u et v et w) / P(u et v et w)
                          = P(x et u et v et w) / (P(x et u et v et w) + P(¬x et u et v et w))
                          = P(x et x=u et x=v et x=w) / (P(x et x=u et x=v et x=w) + P(¬x et x≠u et x≠v et x≠w))
                          = P(x)*P(x=u)*P(x=v)*P(x=w) / (P(x)*P(x=u)*P(x=v)*P(x=w) + P(¬x)*P(x≠u)*P(x≠v)*P(x≠w))
                          = µ*A*B*C / (µ*A*B*C + ¬µ*¬A*¬B*¬C)

et cela est égale à µ*(A//B//C) / (µ*(A//B//C ) + ¬µ*¬(A//B//C))

14) L'absence de poid dans les compositions séries et parallèles

La composition se généralise avec n termes, et nous avons les identités remarquables suivantes :

A°B = A*B + ¬A*¬B
A°B°C = A*B*C + A*¬B*¬C + ¬A*¬B*C + ¬A*B*¬C
A°B°C°D = A*B*C*D + A*B*¬C*¬D + A*¬B*C*¬D + ¬A*B*C*¬D + A*¬B*¬C*D + ¬A*B*¬C*D + ¬A*¬B*C*D + ¬A*¬B*¬C*¬D
La règle semble être la suivante : On somme les produits des n probabilités en parcourant toutes les possibilité de négativer un nombre paires de probabilité.

A//B = A*B/(A*B + ¬A*¬B)
A//B//C = A*B*C / (A*B*C + ¬A*¬B*¬C)
A//B//C//D = A*B*C*D / (A*B*C*D + ¬A*¬B*¬C*¬D)
A//B//C//D = A*B*C*D*E / (A*B*C*D*E + ¬A*¬B*¬C*¬D*¬E)
La règle semble être la suivante : On divise le produit des n probabilités par la sommes du produits des n probabilités et du produits des n probabilités négativés.

Il semblerait donc que la connaissance sur un bit inconnue à partir de messages de reception et d'émission peut se résumer à un seul message de reception ou d'émission sans autre poid necessaire.


D. Mabboux-Stromberg

 

 

-------- 19 mars 2012 -------