Vai al contenuto principale

Informazione classica

Per descrivere l'informazione quantistica e il suo funzionamento, inizieremo con una panoramica dell'informazione classica. È naturale chiedersi perché si presti così tanta attenzione all'informazione classica in un corso sull'informazione quantistica, ma le ragioni sono valide.

Da un lato, sebbene l'informazione quantistica e quella classica differiscano in modi spettacolari, le loro descrizioni matematiche sono in realtà molto simili. L'informazione classica funge anche da punto di riferimento familiare nello studio dell'informazione quantistica, nonché da fonte di analogie che si rivelano sorprendentemente utili. È comune che le persone pongano domande sull'informazione quantistica che hanno analoghi classici naturali, e spesso quelle domande hanno risposte semplici che possono fornire chiarezza e intuizione riguardo alle domande originali sull'informazione quantistica. In effetti, non è affatto irragionevole affermare che non si possa comprendere davvero l'informazione quantistica senza comprendere quella classica.

Alcuni lettori potrebbero già avere familiarità con il materiale che verrà discusso in questa sezione, mentre altri no — ma la discussione è pensata per entrambi i tipi di pubblico. Oltre a mettere in evidenza gli aspetti dell'informazione classica più rilevanti per un'introduzione all'informazione quantistica, questa sezione introduce la notazione di Dirac, spesso utilizzata per descrivere vettori e matrici nell'informazione e nel calcolo quantistico. Come si scoprirà, la notazione di Dirac non è specifica dell'informazione quantistica; può essere utilizzata ugualmente bene nel contesto dell'informazione classica, nonché in molti altri ambiti in cui compaiono vettori e matrici.

Stati classici e vettori di probabilità

Supponiamo di avere un sistema che memorizza informazioni. Più precisamente, assumeremo che questo sistema possa trovarsi in uno tra un numero finito di stati classici in ogni istante. Il termine stato classico va inteso in senso intuitivo, come una configurazione che può essere riconosciuta e descritta senza ambiguità.

L'esempio archetipico, a cui torneremo ripetutamente, è quello di un bit, ovvero un sistema i cui stati classici sono 00 e 1.1. Altri esempi includono un dado standard a sei facce, i cui stati classici sono 1,1, 2,2, 3,3, 4,4, 55 e 66 (rappresentati dal numero corrispondente di punti sulla faccia rivolta verso l'alto); una base azotata in un filamento di DNA, i cui stati classici sono A, C, G e T; e un interruttore di un ventilatore elettrico, i cui stati classici sono (tipicamente) alto, medio, basso e spento. In termini matematici, la specifica degli stati classici di un sistema è, in effetti, il punto di partenza: definiamo un bit come un sistema che ha stati classici 00 e 1,1, e analogamente per sistemi con insiemi di stati classici diversi.

Per comodità, diamo il nome X\mathsf{X} al sistema in esame, e usiamo il simbolo Σ\Sigma per indicare l'insieme degli stati classici di X.\mathsf{X}. Oltre all'assunzione che Σ\Sigma sia finito, già menzionata, assumiamo naturalmente che Σ\Sigma sia non vuoto — poiché non avrebbe senso che un sistema fisico non avesse alcuno stato. E sebbene abbia senso considerare sistemi fisici con un numero infinito di stati classici, ignoreremo questa possibilità, che è certamente interessante ma non rilevante per questo corso. Per questi motivi, e per comodità e brevità, useremo d'ora in poi il termine insieme di stati classici per indicare qualsiasi insieme finito e non vuoto.

Ecco alcuni esempi:

  1. Se X\mathsf{X} è un bit, allora Σ={0,1}.\Sigma = \{0,1\}. In parole, chiamiamo questo insieme alfabeto binario.
  2. Se X\mathsf{X} è un dado a sei facce, allora Σ={1,2,3,4,5,6}.\Sigma = \{1,2,3,4,5,6\}.
  3. Se X\mathsf{X} è un interruttore di ventilatore elettrico, allora Σ={alto,medio,basso,spento}.\Sigma = \{\mathrm{alto}, \mathrm{medio}, \mathrm{basso}, \mathrm{spento}\}.

Quando si pensa a X\mathsf{X} come portatore di informazione, i diversi stati classici di X\mathsf{X} potrebbero avere certi significati, portando a esiti o conseguenze diversi. In tali casi, potrebbe essere sufficiente descrivere X\mathsf{X} come semplicemente trovarsi in uno dei suoi possibili stati classici. Per esempio, se X\mathsf{X} è un interruttore di ventilatore, potremmo sapere con certezza che è impostato su alto, il che potrebbe portarci a spostarlo su medio.

Spesso nell'elaborazione dell'informazione, tuttavia, la nostra conoscenza è incerta. Un modo per rappresentare la nostra conoscenza dello stato classico di un sistema X\mathsf{X} è associare probabilità ai suoi diversi possibili stati classici, ottenendo quello che chiameremo uno stato probabilistico.

Per esempio, supponiamo che X\mathsf{X} sia un bit. In base a ciò che sappiamo o ci aspettiamo riguardo a ciò che è accaduto a X\mathsf{X} in passato, potremmo credere che X\mathsf{X} si trovi nello stato classico 00 con probabilità 3/43/4 e nello stato 11 con probabilità 1/4.1/4. Possiamo rappresentare queste credenze scrivendo:

Pr(X=0)=34ePr(X=1)=14.\operatorname{Pr}(\mathsf{X}=0) = \frac{3}{4} \quad\text{e}\quad \operatorname{Pr}(\mathsf{X}=1) = \frac{1}{4}.

Un modo più sintetico per rappresentare questo stato probabilistico è tramite un vettore colonna.

(3414)\begin{pmatrix} \frac{3}{4}\\[2mm] \frac{1}{4} \end{pmatrix}

La probabilità che il bit sia 00 è posta in cima al vettore e la probabilità che il bit sia 11 è posta in fondo, poiché questo è il modo convenzionale di ordinare l'insieme {0,1}.\{0,1\}.

In generale, possiamo rappresentare uno stato probabilistico di un sistema con qualsiasi insieme di stati classici allo stesso modo, come un vettore di probabilità. Le probabilità possono essere ordinate in qualsiasi modo si scelga, ma di solito esiste un modo naturale o predefinito per farlo. Per essere precisi, possiamo rappresentare qualsiasi stato probabilistico tramite un vettore colonna che soddisfa due proprietà:

  1. Tutte le componenti del vettore sono numeri reali non negativi.
  2. La somma delle componenti è uguale a 1.1.

Al contrario, qualsiasi vettore colonna che soddisfa queste due proprietà può essere preso come rappresentazione di uno stato probabilistico. D'ora in poi, ci riferiremo a vettori di questa forma come vettori di probabilità.

Insieme alla sintesi di questa notazione, identificare gli stati probabilistici come vettori colonna ha il vantaggio che le operazioni sugli stati probabilistici sono rappresentate dalla moltiplicazione matrice–vettore, come verrà discusso a breve.

Misura degli stati probabilistici

Consideriamo ora cosa succede quando misuriamo un sistema che si trova in uno stato probabilistico. In questo contesto, misurare un sistema significa semplicemente osservarlo e riconoscere senza ambiguità lo stato classico in cui si trova. In senso intuitivo, non possiamo "vedere" uno stato probabilistico di un sistema; quando lo osserviamo, vediamo semplicemente uno dei possibili stati classici.

Misurando un sistema, possiamo anche cambiare la nostra conoscenza di esso, e quindi lo stato probabilistico che gli associamo può cambiare. Cioè, se riconosciamo che X\mathsf{X} si trova nello stato classico aΣ,a\in\Sigma, allora il nuovo vettore di probabilità che rappresenta la nostra conoscenza dello stato di X\mathsf{X} diventa il vettore con un 11 nella componente corrispondente ad aa e 00 per tutte le altre componenti. Questo vettore indica che X\mathsf{X} si trova nello stato classico aa con certezza — come sappiamo avendolo appena riconosciuto — e denotiamo questo vettore con a,\vert a\rangle, che si legge "ket aa" per una ragione che verrà spiegata a breve. I vettori di questo tipo sono anche chiamati vettori della base standard.

Per esempio, assumendo che il sistema in questione sia un bit, i vettori della base standard sono dati da

0=(10)e1=(01). \vert 0\rangle = \begin{pmatrix}1\\[1mm] 0\end{pmatrix} \quad\text{e}\quad \vert 1\rangle = \begin{pmatrix}0\\[1mm] 1\end{pmatrix}.

Si noti che qualsiasi vettore colonna bidimensionale può essere espresso come combinazione lineare di questi due vettori. Per esempio,

(3414)=340+141.\begin{pmatrix} \frac{3}{4}\\[2mm] \frac{1}{4} \end{pmatrix} = \frac{3}{4}\,\vert 0\rangle + \frac{1}{4}\,\vert 1\rangle.

Questo fatto si generalizza naturalmente a qualsiasi insieme di stati classici: qualsiasi vettore colonna può essere scritto come combinazione lineare di vettori della base standard. Spesso esprimiamo i vettori esattamente in questo modo.

Tornando al cambiamento di uno stato probabilistico in seguito alla misurazione, possiamo notare la seguente connessione con le nostre esperienze quotidiane. Supponiamo di lanciare una moneta equa, ma di coprirla prima di guardarla. Diremmo quindi che il suo stato probabilistico è

(1212)=12testa+12croce.\begin{pmatrix} \frac{1}{2}\\[2mm] \frac{1}{2} \end{pmatrix} = \frac{1}{2}\,\vert\text{testa}\rangle + \frac{1}{2}\,\vert\text{croce}\rangle.

Qui, l'insieme degli stati classici della nostra moneta è {testa,croce}.\{\text{testa},\text{croce}\}. Scegliamo di ordinare questi stati con testa per prima e croce per seconda.

testa=(10)ecroce=(01)\vert\text{testa}\rangle = \begin{pmatrix}1\\[1mm] 0\end{pmatrix} \quad\text{e}\quad \vert\text{croce}\rangle = \begin{pmatrix}0\\[1mm] 1\end{pmatrix}

Se scoprissimo la moneta e la guardassimo, vedremmo uno dei due stati classici: testa o croce. Supponendo che il risultato fosse croce, aggiorneremmo naturalmente la nostra descrizione dello stato probabilistico della moneta in modo che diventi croce.|\text{croce}\rangle. Ovviamente, se poi coprissimo di nuovo la moneta, e poi la scoprissimo e la guardassimo di nuovo, lo stato classico sarebbe ancora croce, il che è coerente con lo stato probabilistico descritto dal vettore croce.|\text{croce}\rangle.

Questo potrebbe sembrare banale, e in un certo senso lo è. Tuttavia, mentre i sistemi quantistici si comportano in modo del tutto analogo, le loro proprietà di misurazione sono spesso considerate strane o insolite. Stabilendo le proprietà analoghe dei sistemi classici, il funzionamento dell'informazione quantistica potrebbe sembrare meno insolito.

Un'ultima osservazione riguardo alla misurazione degli stati probabilistici: gli stati probabilistici descrivono conoscenza o credenza, non necessariamente qualcosa di reale, e misurare cambia semplicemente la nostra conoscenza e non il sistema stesso. Per esempio, lo stato di una moneta dopo che l'abbiamo lanciata, ma prima di guardarla, è testa o croce — non sappiamo quale fino a quando non la guardiamo. Vedendo che lo stato classico è croce, ad esempio, aggiorneremmo naturalmente il vettore che descrive la nostra conoscenza a croce,|\text{croce}\rangle, ma per qualcun altro che non ha visto la moneta quando è stata scoperta, lo stato probabilistico rimarrebbe invariato. Questo non è un motivo di preoccupazione; individui diversi possono avere conoscenze o credenze diverse riguardo a un particolare sistema, e quindi descrivere quel sistema con vettori di probabilità diversi.

Operazioni classiche

Nell'ultima parte di questa breve sintesi dell'informazione classica, considereremo i tipi di operazioni che possono essere eseguite su un sistema classico.

Operazioni deterministiche

Prima di tutto, ci sono le operazioni deterministiche, in cui ogni stato classico aΣa\in\Sigma viene trasformato in f(a)f(a) per qualche funzione ff della forma f:ΣΣ.f:\Sigma\rightarrow\Sigma.

Per esempio, se Σ={0,1},\Sigma = \{0,1\}, ci sono quattro funzioni di questa forma, f1,f_1, f2,f_2, f3f_3 e f4,f_4, che possono essere rappresentate da tabelle di valori come segue:

af1(a)0010af2(a)0011af3(a)0110af4(a)0111\begin{array}{c|c} a & f_1(a)\\ \hline 0 & 0\\ 1 & 0 \end{array} \qquad \begin{array}{c|c} a & f_2(a)\\ \hline 0 & 0\\ 1 & 1 \end{array} \qquad \begin{array}{c|c} a & f_3(a)\\ \hline 0 & 1\\ 1 & 0 \end{array} \qquad \begin{array}{c|c} a & f_4(a)\\ \hline 0 & 1\\ 1 & 1 \end{array}

La prima e l'ultima di queste funzioni sono costanti: f1(a)=0f_1(a) = 0 e f4(a)=1f_4(a) = 1 per ogni aΣ.a\in\Sigma. Le due centrali non sono costanti, sono bilanciate: ciascuno dei due valori di output compare lo stesso numero di volte (una volta, in questo caso) al variare dei possibili input. La funzione f2f_2 è la funzione identità: f2(a)=af_2(a) = a per ogni aΣ.a\in\Sigma. E f3f_3 è la funzione f3(0)=1f_3(0) = 1 e f3(1)=0,f_3(1) = 0, più nota come funzione NOT.

Le azioni delle operazioni deterministiche sugli stati probabilistici possono essere rappresentate dalla moltiplicazione matrice-vettore. Più precisamente, la matrice MM che rappresenta una data funzione f:ΣΣf:\Sigma\rightarrow\Sigma è quella che soddisfa

Ma=f(a)M \vert a \rangle = \vert f(a)\rangle

per ogni aΣ.a\in\Sigma. Tale matrice esiste sempre ed è univocamente determinata da questo requisito. Le matrici che rappresentano operazioni deterministiche hanno sempre esattamente un 11 in ogni colonna, e 00 per tutte le altre componenti.

Per esempio, le matrici M1,,M4M_1,\ldots,M_4 corrispondenti alle funzioni f1,,f4f_1,\ldots,f_4 sopra sono le seguenti:

M1=(1100),M2=(1001),M3=(0110),M4=(0011). M_1 = \begin{pmatrix} 1 & 1\\ 0 & 0 \end{pmatrix}, \hspace{4mm} M_2 = \begin{pmatrix} 1 & 0\\ 0 & 1 \end{pmatrix}, \hspace{4mm} M_3 = \begin{pmatrix} 0 & 1\\ 1 & 0 \end{pmatrix}, \hspace{4mm} M_4 = \begin{pmatrix} 0 & 0\\ 1 & 1 \end{pmatrix}.

Ecco una rapida verifica che mostra che la prima matrice è corretta. Le altre tre possono essere verificate in modo analogo.

M10=(1100)(10)=(10)=0=f1(0)M11=(1100)(01)=(10)=0=f1(1)\begin{aligned} M_1 \vert 0\rangle & = \begin{pmatrix} 1 & 1\\ 0 & 0 \end{pmatrix} \begin{pmatrix} 1\\ 0 \end{pmatrix} = \begin{pmatrix} 1\\ 0 \end{pmatrix} = \vert 0\rangle = \vert f_1(0)\rangle \\[4mm] M_1 \vert 1\rangle & = \begin{pmatrix} 1 & 1\\ 0 & 0 \end{pmatrix} \begin{pmatrix} 0\\ 1 \end{pmatrix} = \begin{pmatrix} 1\\ 0 \end{pmatrix} = \vert 0\rangle = \vert f_1(1)\rangle \end{aligned}

Un modo conveniente per rappresentare matrici di queste e altre forme fa uso di una notazione analoga per i vettori riga a quella discussa in precedenza per i vettori colonna: denotiamo con a\langle a \vert il vettore riga con un 11 nella componente corrispondente ad aa e zero per tutte le altre componenti, per ogni aΣ.a\in\Sigma. Questo vettore si legge "bra a.a."

Per esempio, se Σ={0,1},\Sigma = \{0,1\}, allora

0=(10)e1=(01). \langle 0 \vert = \begin{pmatrix} 1 & 0 \end{pmatrix} \quad\text{e}\quad \langle 1 \vert = \begin{pmatrix} 0 & 1 \end{pmatrix}.

Per qualsiasi insieme di stati classici Σ,\Sigma, possiamo vedere i vettori riga e colonna come matrici, ed eseguire la moltiplicazione matriciale ba.\vert b\rangle \langle a\vert. Otteniamo una matrice quadrata con un 11 nella componente corrispondente alla coppia (b,a),(b,a), nel senso che la riga della componente corrisponde allo stato classico bb e la colonna corrisponde allo stato classico a,a, con 00 per tutte le altre componenti. Per esempio,

01=(10)(01)=(0100). \vert 0 \rangle \langle 1 \vert = \begin{pmatrix} 1\\ 0 \end{pmatrix} \begin{pmatrix} 0 & 1 \end{pmatrix} = \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix}.

Usando questa notazione, possiamo esprimere la matrice MM che corrisponde a qualsiasi funzione f:ΣΣf:\Sigma\rightarrow\Sigma come

M=aΣf(a)a. M = \sum_{a\in\Sigma} \vert f(a) \rangle \langle a \vert.

Per esempio, consideriamo la funzione f4f_4 sopra, per cui Σ={0,1}.\Sigma = \{0,1\}. Otteniamo la matrice

M4=f4(0)0+f4(1)1=10+11=(0010)+(0001)=(0011).M_4 = \vert f_4(0) \rangle \langle 0 \vert + \vert f_4(1) \rangle \langle 1 \vert = \vert 1\rangle \langle 0\vert + \vert 1\rangle \langle 1\vert = \begin{pmatrix} 0 & 0\\ 1 & 0 \end{pmatrix} + \begin{pmatrix} 0 & 0\\ 0 & 1 \end{pmatrix} = \begin{pmatrix} 0 & 0\\ 1 & 1 \end{pmatrix}.

Il motivo per cui questo funziona è il seguente. Se pensiamo di nuovo ai vettori come matrici, e questa volta consideriamo la moltiplicazione ab,\langle a \vert \vert b \rangle, otteniamo una matrice 1×1,1\times 1, che possiamo pensare come uno scalare (cioè, un numero). Per semplicità, scriviamo questo prodotto come ab\langle a \vert b\rangle anziché ab.\langle a \vert \vert b \rangle. Questo prodotto soddisfa la seguente semplice formula:

ab={1a=b0ab. \langle a \vert b \rangle = \begin{cases} 1 & a = b\\[1mm] 0 & a \neq b. \end{cases}

Usando questa osservazione, insieme al fatto che la moltiplicazione matriciale è associativa e lineare, otteniamo

Mb=(aΣf(a)a)b=aΣf(a)ab=f(b), M \vert b \rangle = \Biggl( \sum_{a\in\Sigma} \vert f(a) \rangle \langle a \vert \Biggr) \vert b\rangle = \sum_{a\in\Sigma} \vert f(a) \rangle \langle a \vert b \rangle = \vert f(b)\rangle,

per ogni bΣ,b\in\Sigma, che è esattamente ciò che richiediamo alla matrice M.M.

Come discuteremo in modo più dettagliato in una lezione successiva, ab\langle a \vert b \rangle può essere visto anche come un prodotto interno tra i vettori a\vert a\rangle e b.\vert b\rangle. I prodotti interni sono di fondamentale importanza nell'informazione quantistica, ma ne rimandiamo la discussione a quando saranno necessari.

A questo punto i nomi "bra" e "ket" potrebbero essere evidenti: mettendo insieme un "bra" a\langle a\vert con un "ket" b\vert b\rangle si ottiene una "parentesi" (in inglese "bracket") ab.\langle a \vert b\rangle. Questa notazione e terminologia si deve a Paul Dirac, e per questo motivo è nota come notazione di Dirac.

Operazioni probabilistiche e matrici stocastiche

Oltre alle operazioni deterministiche, abbiamo le operazioni probabilistiche.

Per esempio, consideriamo la seguente operazione su un bit. Se lo stato classico del bit è 0,0, viene lasciato invariato; se lo stato classico del bit è 1,1, viene invertito, in modo che diventi 00 con probabilità 1/21/2 e 11 con probabilità 1/2.1/2. Questa operazione è rappresentata dalla matrice

(112012). \begin{pmatrix} 1 & \frac{1}{2}\\[1mm] 0 & \frac{1}{2} \end{pmatrix}.

Si può verificare che questa matrice si comporta correttamente moltiplicando i due vettori della base standard per essa.

Per una scelta arbitraria di un insieme di stati classici, possiamo descrivere l'insieme di tutte le operazioni probabilistiche in termini matematici come quelle rappresentate da matrici stocastiche, ovvero matrici che soddisfano queste due proprietà:

  1. Tutte le componenti sono numeri reali non negativi.
  2. La somma delle componenti in ogni colonna è uguale a 1.1.

In modo equivalente, le matrici stocastiche sono matrici le cui colonne formano tutte vettori di probabilità.

Possiamo pensare alle operazioni probabilistiche a livello intuitivo come quelle in cui la casualità potrebbe essere in qualche modo usata o introdotta durante l'operazione, proprio come nell'esempio precedente. Riguardo alla descrizione tramite matrice stocastica di un'operazione probabilistica, ogni colonna può essere vista come una rappresentazione vettoriale dello stato probabilistico che viene generato dato l'input di stato classico corrispondente a quella colonna.

Possiamo anche pensare alle matrici stocastiche come esattamente quelle matrici che mappano sempre i vettori di probabilità in vettori di probabilità. Vale a dire, le matrici stocastiche mappano sempre i vettori di probabilità in vettori di probabilità, e qualsiasi matrice che mappa sempre i vettori di probabilità in vettori di probabilità deve essere una matrice stocastica.

Infine, un modo diverso di pensare alle operazioni probabilistiche è che sono scelte casuali di operazioni deterministiche. Per esempio, possiamo pensare all'operazione nell'esempio sopra come applicare la funzione identità o la funzione costante 0, ciascuna con probabilità 1/2.1/2. Questo è coerente con l'equazione

(112012)=12(1001)+12(1100). \begin{pmatrix} 1 & \frac{1}{2}\\[1mm] 0 & \frac{1}{2} \end{pmatrix} = \frac{1}{2} \begin{pmatrix} 1 & 0\\[1mm] 0 & 1 \end{pmatrix} + \frac{1}{2} \begin{pmatrix} 1 & 1\\[1mm] 0 & 0 \end{pmatrix}.

Tale espressione è sempre possibile, per una scelta arbitraria di un insieme di stati classici e qualsiasi matrice stocastica con righe e colonne identificate con quell'insieme di stati classici.

Composizioni di operazioni probabilistiche

Supponiamo che X\mathsf{X} sia un sistema con insieme di stati classici Σ,\Sigma, e che M1,,MnM_1,\ldots,M_n siano matrici stocastiche che rappresentano operazioni probabilistiche sul sistema X.\mathsf{X}.

Se la prima operazione M1M_1 viene applicata allo stato probabilistico rappresentato da un vettore di probabilità u,u, lo stato probabilistico risultante è rappresentato dal vettore M1u.M_1 u. Se poi applichiamo la seconda operazione probabilistica M2M_2 a questo nuovo vettore di probabilità, otteniamo il vettore di probabilità

M2(M1u)=(M2M1)u. M_2 (M_1 u) = (M_2 M_1) u.

L'uguaglianza segue dal fatto che la moltiplicazione matriciale (che include la moltiplicazione matrice-vettore come caso speciale) è un'operazione associativa. Quindi, l'operazione probabilistica ottenuta componendo la prima e la seconda operazione probabilistica, dove prima applichiamo M1M_1 e poi applichiamo M2,M_2, è rappresentata dalla matrice M2M1,M_2 M_1, che è necessariamente stocastica.

Più in generale, la composizione delle operazioni probabilistiche rappresentate dalle matrici M1,,MnM_1,\ldots,M_n in questo ordine, cioè M1M_1 viene applicata per prima, M2M_2 per seconda, e così via, con MnM_n applicata per ultima, è rappresentata dal prodotto matriciale

MnM1. M_n \,\cdots\, M_1.

Si noti che l'ordine è importante qui: sebbene la moltiplicazione matriciale sia associativa, non è un'operazione commutativa. Per esempio, se

M1=(1100)eM2=(0110), M_1 = \begin{pmatrix} 1 & 1\\[1mm] 0 & 0 \end{pmatrix} \quad\text{e}\quad M_2 = \begin{pmatrix} 0 & 1\\[1mm] 1 & 0 \end{pmatrix},

allora

M2M1=(0011)eM1M2=(1100). M_2 M_1 = \begin{pmatrix} 0 & 0 \\[1mm] 1 & 1 \end{pmatrix} \quad\text{e}\quad M_1 M_2 = \begin{pmatrix} 1 & 1\\[1mm] 0 & 0 \end{pmatrix}.

Vale a dire, l'ordine in cui le operazioni probabilistiche vengono composte è importante; cambiare l'ordine in cui le operazioni vengono applicate in una composizione può cambiare l'operazione risultante.