Vai al contenuto principale

Informazione classica

Come nella lezione precedente, inizieremo questa lezione con una discussione sull'informazione classica. Ancora una volta, le descrizioni probabilistica e quantistica sono matematicamente simili, e riconoscere come funziona la matematica nel contesto familiare dell'informazione classica è utile per capire perché l'informazione quantistica viene descritta nel modo in cui è.

Stati classici tramite il prodotto cartesiano

Inizieremo dal livello più elementare, con gli stati classici di sistemi multipli. Per semplicità, cominceremo discutendo solo due sistemi, per poi generalizzare a più di due sistemi.

Per essere precisi, sia X\mathsf{X} un sistema il cui insieme di stati classici è Σ,\Sigma, e sia Y\mathsf{Y} un secondo sistema il cui insieme di stati classici è Γ.\Gamma. Nota che, poiché ci siamo riferiti a questi insiemi come insiemi di stati classici, la nostra ipotesi è che Σ\Sigma e Γ\Gamma siano entrambi finiti e non vuoti. Potrebbe essere che Σ=Γ,\Sigma = \Gamma, ma non è necessariamente così — e in ogni caso, sarà utile usare nomi diversi per riferirsi a questi insiemi nell'interesse della chiarezza.

Immagina ora che i due sistemi, X\mathsf{X} e Y,\mathsf{Y}, siano posti fianco a fianco, con X\mathsf{X} a sinistra e Y\mathsf{Y} a destra. Se vogliamo, possiamo vedere questi due sistemi come se formassero un unico sistema, che possiamo denotare con (X,Y)(\mathsf{X},\mathsf{Y}) o XY\mathsf{XY} a seconda della nostra preferenza. Una domanda naturale da porre su questo sistema composto (X,Y)(\mathsf{X},\mathsf{Y}) è: "Quali sono i suoi stati classici?"

La risposta è che l'insieme degli stati classici di (X,Y)(\mathsf{X},\mathsf{Y}) è il prodotto cartesiano di Σ\Sigma e Γ,\Gamma, che è l'insieme definito come

Σ×Γ={(a,b):aΣ  e  bΓ}. \Sigma\times\Gamma = \bigl\{(a,b)\,:\,a\in\Sigma\;\text{e}\;b\in\Gamma\bigr\}.

In termini semplici, il prodotto cartesiano è esattamente la nozione matematica che cattura l'idea di considerare un elemento di un insieme e un elemento di un secondo insieme insieme, come se formassero un unico elemento di un unico insieme. Nel caso in esame, dire che (X,Y)(\mathsf{X},\mathsf{Y}) si trova nello stato classico (a,b)Σ×Γ(a,b)\in\Sigma\times\Gamma significa che X\mathsf{X} si trova nello stato classico aΣa\in\Sigma e Y\mathsf{Y} si trova nello stato classico bΓ;b\in\Gamma; e se lo stato classico di X\mathsf{X} è aΣa\in\Sigma e lo stato classico di Y\mathsf{Y} è bΓ,b\in\Gamma, allora lo stato classico del sistema congiunto (X,Y)(\mathsf{X},\mathsf{Y}) è (a,b).(a,b).

Per più di due sistemi, la situazione si generalizza in modo naturale. Se supponiamo che X1,,Xn\mathsf{X}_1,\ldots,\mathsf{X}_n siano sistemi con insiemi di stati classici Σ1,,Σn,\Sigma_1,\ldots,\Sigma_n, rispettivamente, per qualsiasi intero positivo n,n, l'insieme degli stati classici della nn-upla (X1,,Xn),(\mathsf{X}_1,\ldots,\mathsf{X}_n), vista come un unico sistema congiunto, è il prodotto cartesiano

Σ1××Σn={(a1,,an):a1Σ1,,anΣn}. \Sigma_1\times\cdots\times\Sigma_n = \bigl\{(a_1,\ldots,a_n)\,:\, a_1\in\Sigma_1,\:\ldots,\:a_n\in\Sigma_n\bigr\}.

Ovviamente, siamo liberi di usare qualsiasi nome vogliamo per i sistemi, e di ordinarli come preferiamo. In particolare, se abbiamo nn sistemi come sopra, potremmo invece scegliere di nominarli X0,,Xn1\mathsf{X}_{0},\ldots,\mathsf{X}_{n-1} e disporli da destra a sinistra, in modo che il sistema congiunto diventi (Xn1,,X0).(\mathsf{X}_{n-1},\ldots,\mathsf{X}_0). Seguendo lo stesso schema per nominare gli stati classici associati e gli insiemi di stati classici, potremmo quindi riferirci a uno stato classico

(an1,,a0)Σn1××Σ0(a_{n-1},\ldots,a_0) \in \Sigma_{n-1}\times \cdots \times \Sigma_0

di questo sistema composto. Questa è, di fatto, la convenzione di ordinamento usata da Qiskit quando nomina più qubit. Torneremo su questa convenzione e su come si collega ai circuiti quantistici nella prossima lezione, ma inizieremo a usarla già da ora per abituarci.

Spesso è conveniente scrivere uno stato classico della forma (an1,,a0)(a_{n-1},\ldots,a_0) come una stringa an1a0a_{n-1}\cdots a_0 per brevità, in particolare nella situazione molto comune in cui gli insiemi di stati classici Σ0,,Σn1\Sigma_0,\ldots,\Sigma_{n-1} sono associati a insiemi di simboli o caratteri. In questo contesto, il termine alfabeto è comunemente usato per riferirsi a insiemi di simboli usati per formare stringhe, ma la definizione matematica di alfabeto è esattamente la stessa della definizione di insieme di stati classici: è un insieme finito e non vuoto.

Per esempio, supponi che X0,,X9\mathsf{X}_0,\ldots,\mathsf{X}_9 siano bit, in modo che gli insiemi di stati classici di questi sistemi siano tutti uguali.

Σ0=Σ1==Σ9={0,1} \Sigma_0 = \Sigma_1 = \cdots = \Sigma_9 = \{0,1\}

Ci sono quindi 210=10242^{10} = 1024 stati classici del sistema congiunto (X9,,X0),(\mathsf{X}_9,\ldots,\mathsf{X}_0), che sono gli elementi dell'insieme

Σ9×Σ8××Σ0={0,1}10. \Sigma_9\times\Sigma_8\times\cdots\times\Sigma_0 = \{0,1\}^{10}.

Scritti come stringhe, questi stati classici appaiono così:

000000000000000000010000000010000000001100000001001111111111 \begin{array}{c} 0000000000\\ 0000000001\\ 0000000010\\ 0000000011\\ 0000000100\\ \vdots\\[1mm] 1111111111 \end{array}

Per lo stato classico 0000000110,0000000110, per esempio, vediamo che X1\mathsf{X}_1 e X2\mathsf{X}_2 si trovano nello stato 1,1, mentre tutti gli altri sistemi si trovano nello stato 0.0.

Stati probabilistici

Ricorda dalla lezione precedente che uno stato probabilistico associa una probabilità a ciascuno stato classico di un sistema. Quindi, uno stato probabilistico di sistemi multipli — visti collettivamente come un unico sistema — associa una probabilità a ciascun elemento del prodotto cartesiano degli insiemi di stati classici dei singoli sistemi.

Per esempio, supponi che X\mathsf{X} e Y\mathsf{Y} siano entrambi bit, in modo che i loro corrispondenti insiemi di stati classici siano Σ={0,1}\Sigma = \{0,1\} e Γ={0,1},\Gamma = \{0,1\}, rispettivamente. Ecco uno stato probabilistico della coppia (X,Y):(\mathsf{X},\mathsf{Y}):

Pr((X,Y)=(0,0))=1/2Pr((X,Y)=(0,1))=0Pr((X,Y)=(1,0))=0Pr((X,Y)=(1,1))=1/2 \begin{aligned} \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (0,0)\bigr) & = 1/2 \\[2mm] \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (0,1)\bigr) & = 0\\[2mm] \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (1,0)\bigr) & = 0\\[2mm] \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (1,1)\bigr) & = 1/2 \end{aligned}

Questo stato probabilistico è uno in cui sia X\mathsf{X} che Y\mathsf{Y} sono bit casuali — ognuno è 00 con probabilità 1/21/2 e 11 con probabilità 1/21/2 — ma gli stati classici dei due bit coincidono sempre. Questo è un esempio di correlazione tra questi sistemi.

Ordinamento degli insiemi di stati del prodotto cartesiano

Gli stati probabilistici dei sistemi possono essere rappresentati da vettori di probabilità, come discusso nella lezione precedente. In particolare, le voci del vettore rappresentano le probabilità che il sistema si trovi nei possibili stati classici di quel sistema, e si intende che sia stata selezionata una corrispondenza tra le voci e l'insieme degli stati classici.

Scegliere tale corrispondenza significa effettivamente decidere un ordinamento degli stati classici, che spesso è naturale o determinato da una convenzione standard. Per esempio, l'alfabeto binario {0,1}\{0,1\} è naturalmente ordinato con 00 per primo e 11 per secondo, quindi la prima voce in un vettore di probabilità che rappresenta uno stato probabilistico di un bit è la probabilità che si trovi nello stato 0,0, e la seconda voce è la probabilità che si trovi nello stato 1.1.

Nulla cambia nel contesto dei sistemi multipli, ma occorre prendere una decisione. L'insieme degli stati classici di più sistemi insieme, visti collettivamente come un unico sistema, è il prodotto cartesiano degli insiemi di stati classici dei singoli sistemi — quindi dobbiamo decidere come ordinare gli elementi dei prodotti cartesiani degli insiemi di stati classici.

Esiste una semplice convenzione che seguiamo per fare questo, che consiste nel partire dagli ordinamenti già in uso per i singoli insiemi di stati classici, e poi ordinare gli elementi del prodotto cartesiano alfabeticamente. Un altro modo per dirlo è che le voci in ogni nn-upla (o, equivalentemente, i simboli in ogni stringa) sono trattati come se avessero un'importanza che decresce da sinistra a destra. Per esempio, secondo questa convenzione, il prodotto cartesiano {1,2,3}×{0,1}\{1,2,3\}\times\{0,1\} è ordinato così:

(1,0),  (1,1),  (2,0),  (2,1),  (3,0),  (3,1). (1,0),\; (1,1),\; (2,0),\; (2,1),\; (3,0),\; (3,1).

Quando le nn-uple sono scritte come stringhe e ordinate in questo modo, osserviamo pattern familiari, come {0,1}×{0,1}\{0,1\}\times\{0,1\} ordinato come 00,01,10,11,00, 01, 10, 11, e l'insieme {0,1}10\{0,1\}^{10} ordinato come è stato scritto all'inizio della lezione. Come ulteriore esempio, vedendo l'insieme {0,1,,9}×{0,1,,9}\{0, 1, \dots, 9\} \times \{0, 1, \dots, 9\} come un insieme di stringhe, otteniamo i numeri a due cifre da 0000 a 99,99, ordinati numericamente. Questo non è ovviamente una coincidenza; il nostro sistema numerico decimale usa esattamente questo tipo di ordinamento alfabetico, dove la parola alfabetico deve essere intesa in senso ampio, includendo le cifre oltre alle lettere.

Tornando all'esempio dei due bit di cui sopra, lo stato probabilistico descritto in precedenza è quindi rappresentato dal seguente vettore di probabilità, dove le voci sono etichettate esplicitamente per chiarezza.

(120012)probabilitaˋ di trovarsi nello stato 00probabilitaˋ di trovarsi nello stato 01probabilitaˋ di trovarsi nello stato 10probabilitaˋ di trovarsi nello stato 11(1) \begin{pmatrix} \frac{1}{2}\\[1mm] 0\\[1mm] 0\\[1mm] \frac{1}{2} \end{pmatrix} \begin{array}{l} \leftarrow \text{probabilità di trovarsi nello stato 00}\\[1mm] \leftarrow \text{probabilità di trovarsi nello stato 01}\\[1mm] \leftarrow \text{probabilità di trovarsi nello stato 10}\\[1mm] \leftarrow \text{probabilità di trovarsi nello stato 11} \end{array} \tag{1}

Indipendenza di due sistemi

Un tipo speciale di stato probabilistico di due sistemi è quello in cui i sistemi sono indipendenti. In modo intuitivo, due sistemi sono indipendenti se conoscere lo stato classico di uno dei due sistemi non ha alcun effetto sulle probabilità associate all'altro. Cioè, sapere in quale stato classico si trova uno dei sistemi non fornisce alcuna informazione sullo stato classico dell'altro.

Per definire questa nozione con precisione, supponiamo ancora una volta che X\mathsf{X} e Y\mathsf{Y} siano sistemi con insiemi di stati classici Σ\Sigma e Γ,\Gamma, rispettivamente. Con riferimento a un dato stato probabilistico di questi sistemi, si dice che sono indipendenti se vale la condizione

Pr((X,Y)=(a,b))=Pr(X=a)Pr(Y=b)(2) \operatorname{Pr}((\mathsf{X},\mathsf{Y}) = (a,b)) = \operatorname{Pr}(\mathsf{X} = a) \operatorname{Pr}(\mathsf{Y} = b) \tag{2}

per ogni scelta di aΣa\in\Sigma e bΓ.b\in\Gamma.

Per esprimere questa condizione in termini di vettori di probabilità, supponi che il dato stato probabilistico di (X,Y)(\mathsf{X},\mathsf{Y}) sia descritto da un vettore di probabilità, scritto nella notazione di Dirac come

(a,b)Σ×Γpabab.\sum_{(a,b) \in \Sigma\times\Gamma} p_{ab} \vert a b\rangle.

La condizione (2)(2) per l'indipendenza è equivalente all'esistenza di due vettori di probabilità

ϕ=aΣqaaeψ=bΓrbb,(3)\vert \phi \rangle = \sum_{a\in\Sigma} q_a \vert a \rangle \quad\text{e}\quad \vert \psi \rangle = \sum_{b\in\Gamma} r_b \vert b \rangle, \tag{3}

che rappresentano le probabilità associate agli stati classici di X\mathsf{X} e Y,\mathsf{Y}, rispettivamente, tali che

pab=qarb(4)p_{ab} = q_a r_b \tag{4}

per tutti aΣa\in\Sigma e bΓ.b\in\Gamma.

Per esempio, lo stato probabilistico di una coppia di bit (X,Y)(\mathsf{X},\mathsf{Y}) rappresentato dal vettore

1600+11201+1210+1411 \frac{1}{6} \vert 00 \rangle + \frac{1}{12} \vert 01 \rangle + \frac{1}{2} \vert 10 \rangle + \frac{1}{4} \vert 11 \rangle

è uno in cui X\mathsf{X} e Y\mathsf{Y} sono indipendenti. In particolare, la condizione richiesta per l'indipendenza è vera per i vettori di probabilità

ϕ=140+341eψ=230+131. \vert \phi \rangle = \frac{1}{4} \vert 0 \rangle + \frac{3}{4} \vert 1 \rangle \quad\text{e}\quad \vert \psi \rangle = \frac{2}{3} \vert 0 \rangle + \frac{1}{3} \vert 1 \rangle.

Per esempio, affinché le probabilità per lo stato 0000 coincidano, abbiamo bisogno che 16=14×23,\frac{1}{6} = \frac{1}{4} \times \frac{2}{3}, e in effetti questo è vero. Le altre voci possono essere verificate in modo simile.

D'altra parte, lo stato probabilistico (1),(1), che possiamo scrivere come

1200+1211,(5) \frac{1}{2} \vert 00 \rangle + \frac{1}{2} \vert 11 \rangle, \tag{5}

non rappresenta l'indipendenza tra i sistemi X\mathsf{X} e Y.\mathsf{Y}. Ecco un modo semplice per dimostrarlo.

Supponi che esistessero vettori di probabilità ϕ\vert \phi\rangle e ψ,\vert \psi \rangle, come nell'equazione (3)(3) sopra, per i quali la condizione (4)(4) è soddisfatta per ogni scelta di aa e b.b. Sarebbe necessariamente vero che

q0r1=Pr((X,Y)=(0,1))=0. q_0 r_1 = \operatorname{Pr}\bigl((\mathsf{X},\mathsf{Y}) = (0,1)\bigr) = 0.

Questo implica che q0=0q_0 = 0 oppure r1=0,r_1 = 0, perché se entrambi fossero diversi da zero, anche il prodotto q0r1q_0 r_1 sarebbe diverso da zero. Questo porta alla conclusione che q0r0=0q_0 r_0 = 0 (nel caso q0=0q_0 = 0) oppure q1r1=0q_1 r_1 = 0 (nel caso r1=0r_1 = 0). Vediamo tuttavia che nessuna di queste uguaglianze può essere vera perché dobbiamo avere q0r0=1/2q_0 r_0 = 1/2 e q1r1=1/2.q_1 r_1 = 1/2. Quindi, non esistono vettori ϕ\vert\phi\rangle e ψ\vert\psi\rangle che soddisfano la proprietà richiesta per l'indipendenza.

Avendo definito l'indipendenza tra due sistemi, possiamo ora definire cosa si intende per correlazione: è una mancanza di indipendenza. Per esempio, poiché i due bit nello stato probabilistico rappresentato dal vettore (5)(5) non sono indipendenti, sono, per definizione, correlati.

Prodotti tensoriali di vettori

La condizione di indipendenza appena descritta può essere espressa in modo conciso attraverso la nozione di prodotto tensoriale. Sebbene i prodotti tensoriali siano una nozione molto generale, e possano essere definiti in modo piuttosto astratto e applicati a una varietà di strutture matematiche, possiamo adottare una definizione semplice e concreta nel caso in esame.

Dati due vettori

ϕ=aΣαaaeψ=bΓβbb,\vert \phi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle \quad\text{e}\quad \vert \psi \rangle = \sum_{b\in\Gamma} \beta_b \vert b \rangle,

il prodotto tensoriale ϕψ\vert \phi \rangle \otimes \vert \psi \rangle è il vettore definito come

ϕψ=(a,b)Σ×Γαaβbab. \vert \phi \rangle \otimes \vert \psi \rangle = \sum_{(a,b)\in\Sigma\times\Gamma} \alpha_a \beta_b \vert ab\rangle.

Le voci di questo nuovo vettore corrispondono agli elementi del prodotto cartesiano Σ×Γ,\Sigma\times\Gamma, che sono scritti come stringhe nell'equazione precedente. In modo equivalente, il vettore π=ϕψ\vert \pi \rangle = \vert \phi \rangle \otimes \vert \psi \rangle è definito dall'equazione

abπ=aϕbψ\langle ab \vert \pi \rangle = \langle a \vert \phi \rangle \langle b \vert \psi \rangle

che vale per ogni aΣa\in\Sigma e bΓ.b\in\Gamma.

Possiamo ora riformulare la condizione per l'indipendenza: per un sistema congiunto (X,Y)(\mathsf{X}, \mathsf{Y}) in uno stato probabilistico rappresentato da un vettore di probabilità π,\vert \pi \rangle, i sistemi X\mathsf{X} e Y\mathsf{Y} sono indipendenti se π\vert\pi\rangle si ottiene prendendo un prodotto tensoriale

π=ϕψ \vert \pi \rangle = \vert \phi \rangle \otimes \vert \psi \rangle

di vettori di probabilità ϕ\vert \phi \rangle e ψ\vert \psi \rangle su ciascuno dei sottosistemi X\mathsf{X} e Y.\mathsf{Y}. In questa situazione, si dice che π\vert \pi \rangle è uno stato prodotto o vettore prodotto.

Spesso omettiamo il simbolo \otimes quando prendiamo il prodotto tensoriale di ket, come scrivere ϕψ\vert \phi \rangle \vert \psi \rangle invece di ϕψ.\vert \phi \rangle \otimes \vert \psi \rangle. Questa convenzione cattura l'idea che il prodotto tensoriale è, in questo contesto, il modo più naturale o predefinito di fare il prodotto di due vettori. Sebbene sia meno comune, la notazione ϕψ\vert \phi\otimes\psi\rangle viene usata a volte.

Quando usiamo la convenzione alfabetica per ordinare gli elementi dei prodotti cartesiani, otteniamo la seguente specifica per il prodotto tensoriale di due vettori colonna.

(α1αm)(β1βk)=(α1β1α1βkα2β1α2βkαmβ1αmβk) \begin{pmatrix} \alpha_1\\ \vdots\\ \alpha_m \end{pmatrix} \otimes \begin{pmatrix} \beta_1\\ \vdots\\ \beta_k \end{pmatrix} = \begin{pmatrix} \alpha_1 \beta_1\\ \vdots\\ \alpha_1 \beta_k\\ \alpha_2 \beta_1\\ \vdots\\ \alpha_2 \beta_k\\ \vdots\\ \alpha_m \beta_1\\ \vdots\\ \alpha_m \beta_k \end{pmatrix}

Come osservazione importante a parte, nota la seguente espressione per i prodotti tensoriali dei vettori della base standard:

ab=ab.\vert a \rangle \otimes \vert b \rangle = \vert ab \rangle.

Potremmo in alternativa scrivere (a,b)(a,b) come coppia ordinata, invece di una stringa, nel qual caso otteniamo ab=(a,b).\vert a \rangle \otimes \vert b \rangle = \vert (a,b) \rangle. È tuttavia più comune omettere le parentesi in questa situazione, scrivendo invece ab=a,b.\vert a \rangle \otimes \vert b \rangle = \vert a,b \rangle. Questo è tipico in matematica più in generale; le parentesi che non aggiungono chiarezza o non rimuovono ambiguità sono spesso semplicemente omesse.

Il prodotto tensoriale di due vettori ha l'importante proprietà di essere bilineare, il che significa che è lineare in ciascuno dei due argomenti separatamente, supponendo che l'altro argomento sia fisso. Questa proprietà può essere espressa attraverso queste equazioni:

1. Linearità nel primo argomento:

(ϕ1+ϕ2)ψ=ϕ1ψ+ϕ2ψ(αϕ)ψ=α(ϕψ)\begin{aligned} \bigl(\vert\phi_1\rangle + \vert\phi_2\rangle\bigr)\otimes \vert\psi\rangle & = \vert\phi_1\rangle \otimes \vert\psi\rangle + \vert\phi_2\rangle \otimes \vert\psi\rangle \\[1mm] \bigl(\alpha \vert \phi \rangle\bigr) \otimes \vert \psi \rangle & = \alpha \bigl(\vert \phi \rangle \otimes \vert \psi \rangle \bigr) \end{aligned}

2. Linearità nel secondo argomento:

ϕ(ψ1+ψ2)=ϕψ1+ϕψ2ϕ(αψ)=α(ϕψ)\begin{aligned} \vert \phi \rangle \otimes \bigl(\vert \psi_1 \rangle + \vert \psi_2 \rangle \bigr) & = \vert \phi \rangle \otimes \vert \psi_1 \rangle + \vert \phi \rangle \otimes \vert \psi_2 \rangle\\[1mm] \vert \phi \rangle \otimes \bigl(\alpha \vert \psi \rangle \bigr) & = \alpha \bigl(\vert\phi\rangle\otimes\vert\psi\rangle\bigr) \end{aligned}

Considerando la seconda equazione in ciascuna di queste coppie di equazioni, vediamo che gli scalari "fluttuano liberamente" all'interno dei prodotti tensoriali:

(αϕ)ψ=ϕ(αψ)=α(ϕψ).\bigl(\alpha \vert \phi \rangle\bigr) \otimes \vert \psi \rangle = \vert \phi \rangle \otimes \bigl(\alpha \vert \psi \rangle \bigr) = \alpha \bigl(\vert \phi \rangle \otimes \vert \psi \rangle \bigr).

Non vi è quindi ambiguità nello scrivere semplicemente αϕψ,\alpha\vert\phi\rangle\otimes\vert\psi\rangle, o in alternativa αϕψ\alpha\vert\phi\rangle\vert\psi \rangle o αϕψ,\alpha\vert\phi\otimes\psi\rangle, per riferirsi a questo vettore.

Indipendenza e prodotti tensoriali per tre o più sistemi

Le nozioni di indipendenza e prodotti tensoriali si generalizzano in modo diretto a tre o più sistemi. Se X0,,Xn1\mathsf{X}_0,\ldots,\mathsf{X}_{n-1} sono sistemi con insiemi di stati classici Σ0,,Σn1,\Sigma_0,\ldots,\Sigma_{n-1}, rispettivamente, allora uno stato probabilistico del sistema combinato (Xn1,,X0)(\mathsf{X}_{n-1},\ldots,\mathsf{X}_0) è uno stato prodotto se il vettore di probabilità associato assume la forma

ψ=ϕn1ϕ0 \vert \psi \rangle = \vert \phi_{n-1} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle

per vettori di probabilità ϕ0,,ϕn1\vert \phi_0 \rangle,\ldots,\vert \phi_{n-1}\rangle che descrivono stati probabilistici di X0,,Xn1.\mathsf{X}_0,\ldots,\mathsf{X}_{n-1}. Qui, la definizione del prodotto tensoriale si generalizza in modo naturale: il vettore

ψ=ϕn1ϕ0\vert \psi \rangle = \vert \phi_{n-1} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle

è definito dall'equazione

an1a0ψ=an1ϕn1a0ϕ0 \langle a_{n-1} \cdots a_0 \vert \psi \rangle = \langle a_{n-1} \vert \phi_{n-1} \rangle \cdots \langle a_0 \vert \phi_0 \rangle

che vale per ogni a0Σ0,an1Σn1.a_0\in\Sigma_0, \ldots a_{n-1}\in\Sigma_{n-1}.

Un modo diverso, ma equivalente, per definire il prodotto tensoriale di tre o più vettori è ricorsivamente in termini di prodotti tensoriali di due vettori:

ϕn1ϕ0=ϕn1(ϕn2ϕ0). \vert \phi_{n-1} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle = \vert \phi_{n-1} \rangle \otimes \bigl( \vert \phi_{n-2} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle \bigr).

Analogamente al prodotto tensoriale di due soli vettori, il prodotto tensoriale di tre o più vettori è lineare in ciascuno degli argomenti individualmente, supponendo che tutti gli altri argomenti siano fissi. In questo caso si dice che il prodotto tensoriale di tre o più vettori è multilineare.

Come nel caso di due sistemi, potremmo dire che i sistemi X0,,Xn1\mathsf{X}_0,\ldots,\mathsf{X}_{n-1} sono indipendenti quando si trovano in uno stato prodotto, ma il termine mutuamente indipendenti è più preciso. Esistono altri concetti di indipendenza per tre o più sistemi, come l'indipendenza a coppie, che sono sia interessanti che importanti — ma non nel contesto di questo corso.

Generalizzando l'osservazione precedente riguardante i prodotti tensoriali dei vettori della base standard, per qualsiasi intero positivo nn e qualsiasi stato classico a0,,an1,a_0,\ldots,a_{n-1}, abbiamo

an1a0=an1a0.\vert a_{n-1} \rangle \otimes \cdots \otimes \vert a_0 \rangle = \vert a_{n-1} \cdots a_0 \rangle.

Misurazioni di stati probabilistici

Passiamo ora alle misurazioni di stati probabilistici di sistemi multipli. Scegliendo di considerare più sistemi insieme come un unico sistema, otteniamo immediatamente una specifica di come devono funzionare le misurazioni per sistemi multipli — a condizione che vengano misurati tutti i sistemi.

Ad esempio, se lo stato probabilistico di due bit (X,Y)(\mathsf{X},\mathsf{Y}) è descritto dal vettore di probabilità

1200+1211, \frac{1}{2} \vert 00 \rangle + \frac{1}{2} \vert 11 \rangle,

allora l'esito 0000 — ovvero 00 per la misurazione di X\mathsf{X} e 00 per la misurazione di Y\mathsf{Y} — si ottiene con probabilità 1/21/2 e anche l'esito 1111 si ottiene con probabilità 1/2.1/2. In ciascun caso aggiorniamo di conseguenza la descrizione tramite vettore di probabilità della nostra conoscenza, in modo che lo stato probabilistico diventi 00|00\rangle o 11,|11\rangle, rispettivamente.

Potremmo tuttavia scegliere di misurare non ogni sistema, ma solo alcuni di essi. Questo produrrà un esito di misurazione per ogni sistema che viene misurato, e influenzerà anche (in generale) la nostra conoscenza dei sistemi rimanenti che non abbiamo misurato.

Per spiegare come funziona, ci concentreremo sul caso di due sistemi, uno dei quali viene misurato. La situazione più generale — in cui viene misurato un sottoinsieme proprio di tre o più sistemi — si riduce effettivamente al caso di due sistemi quando consideriamo i sistemi misurati collettivamente come se formassero un unico sistema e i sistemi non misurati come se formassero un secondo sistema.

Per essere precisi, supponiamo che X\mathsf{X} e Y\mathsf{Y} siano sistemi i cui insiemi di stati classici sono Σ\Sigma e Γ,\Gamma, rispettivamente, e che i due sistemi insieme si trovino in qualche stato probabilistico. Considereremo cosa succede quando misuriamo solo X\mathsf{X} e non facciamo nulla a Y.\mathsf{Y}. La situazione in cui viene misurato solo Y\mathsf{Y} e non accade nulla a X\mathsf{X} è trattata in modo simmetrico.

Prima di tutto, sappiamo che la probabilità di osservare un particolare stato classico aΣa\in\Sigma quando viene misurato solo X\mathsf{X} deve essere coerente con le probabilità che otterremmo nell'ipotesi che anche Y\mathsf{Y} fosse stato misurato. Cioè, dobbiamo avere

Pr(X=a)=bΓPr((X,Y)=(a,b)). \operatorname{Pr}(\mathsf{X} = a) = \sum_{b\in\Gamma} \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (a,b) \bigr).

Questa è la formula per il cosiddetto stato probabilistico ridotto (o marginale) di X\mathsf{X} da solo.

Questa formula ha perfettamente senso a livello intuitivo, nel senso che dovrebbe accadere qualcosa di molto strano affinché fosse errata. Se fosse errata, ciò significherebbe che misurare Y\mathsf{Y} potrebbe in qualche modo influenzare le probabilità associate ai diversi esiti della misurazione di X,\mathsf{X}, indipendentemente dall'esito effettivo della misurazione di Y.\mathsf{Y}. Se Y\mathsf{Y} si trovasse in una posizione distante, come da qualche parte in un'altra galassia per esempio, ciò permetterebbe una segnalazione più veloce della luce — che rifiutiamo sulla base della nostra comprensione della fisica. Un altro modo per capire questo deriva dall'interpretazione della probabilità come riflesso di un grado di credenza. Il semplice fatto che qualcun altro potrebbe decidere di osservare Y\mathsf{Y} non può cambiare lo stato classico di X,\mathsf{X}, quindi senza alcuna informazione su ciò che ha fatto o non ha visto, le proprie credenze sullo stato di X\mathsf{X} non dovrebbero cambiare di conseguenza.

Ora, data l'ipotesi che solo X\mathsf{X} venga misurato e Y\mathsf{Y} non lo sia, potrebbe ancora esistere incertezza sullo stato classico di Y.\mathsf{Y}. Per questo motivo, anziché aggiornare la nostra descrizione dello stato probabilistico di (X,Y)(\mathsf{X},\mathsf{Y}) a ab\vert ab\rangle per qualche scelta di aΣa\in\Sigma e bΓ,b\in\Gamma, dobbiamo aggiornare la nostra descrizione in modo che questa incertezza su Y\mathsf{Y} sia correttamente riflessa.

La seguente formula di probabilità condizionale riflette questa incertezza.

Pr(Y=bX=a)=Pr((X,Y)=(a,b))Pr(X=a) \operatorname{Pr}(\mathsf{Y} = b \,\vert\, \mathsf{X} = a) = \frac{ \operatorname{Pr}\bigl((\mathsf{X},\mathsf{Y}) = (a,b)\bigr) }{ \operatorname{Pr}(\mathsf{X} = a) }

Qui, l'espressione Pr(Y=bX=a)\operatorname{Pr}(\mathsf{Y} = b \,\vert\, \mathsf{X} = a) denota la probabilità che Y=b\mathsf{Y} = b condizionata su (o dato che) X=a.\mathsf{X} = a. Tecnicamente parlando, questa espressione ha senso solo se Pr(X=a)\operatorname{Pr}(\mathsf{X}=a) è diverso da zero, poiché se Pr(X=a)=0,\operatorname{Pr}(\mathsf{X}=a) = 0, allora stiamo dividendo per zero e otteniamo la forma indeterminata 00.\frac{0}{0}. Questo non è un problema, però, perché se la probabilità associata ad aa è zero, allora non otterremo mai aa come esito di una misurazione di X,\mathsf{X}, quindi non dobbiamo preoccuparci di questa possibilità.

Per esprimere queste formule in termini di vettori di probabilità, consideriamo un vettore di probabilità π\vert \pi \rangle che descrive uno stato probabilistico congiunto di (X,Y).(\mathsf{X},\mathsf{Y}).

π=(a,b)Σ×Γpabab \vert\pi\rangle = \sum_{(a,b)\in\Sigma\times\Gamma} p_{ab} \vert ab\rangle

Misurare solo X\mathsf{X} produce ogni possibile esito aΣa\in\Sigma con probabilità

Pr(X=a)=cΓpac. \operatorname{Pr}(\mathsf{X} = a) = \sum_{c\in\Gamma} p_{ac}.

Il vettore che rappresenta lo stato probabilistico di X\mathsf{X} da solo è quindi dato da

aΣ(cΓpac)a. \sum_{a\in\Sigma} \biggl(\sum_{c\in\Gamma} p_{ac}\biggr) \vert a\rangle.

Avendo ottenuto un particolare esito aΣa\in\Sigma della misurazione di X,\mathsf{X}, lo stato probabilistico di Y\mathsf{Y} viene aggiornato secondo la formula delle probabilità condizionali, in modo che sia rappresentato da questo vettore di probabilità:

ψa=bΓpabbcΓpac. \vert \psi_a \rangle = \frac{\sum_{b\in\Gamma}p_{ab}\vert b\rangle}{\sum_{c\in\Gamma} p_{ac}}.

Nel caso in cui la misurazione di X\mathsf{X} abbia prodotto lo stato classico a,a, aggiorniamo quindi la nostra descrizione dello stato probabilistico del sistema congiunto (X,Y)(\mathsf{X},\mathsf{Y}) a aψa.\vert a\rangle \otimes \vert\psi_a\rangle.

Un modo per pensare a questa definizione di ψa\vert\psi_a\rangle è vederla come una normalizzazione del vettore bΓpabb,\sum_{b\in\Gamma} p_{ab} \vert b\rangle, dove dividiamo per la somma delle voci di questo vettore per ottenere un vettore di probabilità. Questa normalizzazione tiene efficacemente conto di un condizionamento sull'evento che la misurazione di X\mathsf{X} ha prodotto l'esito a.a.

Per un esempio specifico, supponiamo che l'insieme degli stati classici di X\mathsf{X} sia Σ={0,1},\Sigma = \{0,1\}, l'insieme degli stati classici di Y\mathsf{Y} sia Γ={1,2,3},\Gamma = \{1,2,3\}, e lo stato probabilistico di (X,Y)(\mathsf{X},\mathsf{Y}) sia

π=120,1+1120,3+1121,1+161,2+161,3. \vert \pi \rangle = \frac{1}{2} \vert 0,1 \rangle + \frac{1}{12} \vert 0,3 \rangle + \frac{1}{12} \vert 1,1 \rangle + \frac{1}{6} \vert 1,2 \rangle + \frac{1}{6} \vert 1,3 \rangle.

Il nostro obiettivo sarà determinare le probabilità dei due possibili esiti (00 e 11), e calcolare quale sia lo stato probabilistico risultante di Y\mathsf{Y} per i due esiti, assumendo che il sistema X\mathsf{X} venga misurato.

Usando la bilinearità del prodotto tensore, e in particolare il fatto che è lineare nel secondo argomento, possiamo riscrivere il vettore π\vert \pi \rangle come segue:

π=0(121+1123)+1(1121+162+163). \vert \pi \rangle = \vert 0\rangle \otimes \biggl( \frac{1}{2} \vert 1 \rangle + \frac{1}{12} \vert 3 \rangle\biggr) + \vert 1\rangle \otimes \biggl( \frac{1}{12} \vert 1 \rangle + \frac{1}{6} \vert 2\rangle + \frac{1}{6} \vert 3 \rangle\biggr).

In parole, quello che abbiamo fatto è isolare i distinti vettori di base standard per il primo sistema (cioè quello che viene misurato), tenendo in tensore ciascuno con la combinazione lineare di vettori di base standard per il secondo sistema che otteniamo selezionando le voci del vettore originale coerenti con il corrispondente stato classico del primo sistema. Pensandoci un momento, si capisce che questo è sempre possibile, indipendentemente dal vettore da cui siamo partiti.

Avendo espresso il nostro vettore di probabilità in questo modo, gli effetti della misurazione del primo sistema diventano facili da analizzare. Le probabilità dei due esiti possono essere ottenute sommando le probabilità tra parentesi.

Pr(X=0)=12+112=712Pr(X=1)=112+16+16=512 \begin{aligned} \operatorname{Pr}(\mathsf{X} = 0) & = \frac{1}{2} + \frac{1}{12} = \frac{7}{12}\\[3mm] \operatorname{Pr}(\mathsf{X} = 1) & = \frac{1}{12} + \frac{1}{6} + \frac{1}{6} = \frac{5}{12} \end{aligned}

Queste probabilità sommano a uno, come previsto — ma questo è un utile controllo sui nostri calcoli.

E ora, lo stato probabilistico di Y\mathsf{Y} condizionato su ogni possibile esito può essere dedotto normalizzando i vettori tra parentesi. Cioè, dividiamo questi vettori per le probabilità associate che abbiamo appena calcolato, in modo che diventino vettori di probabilità.

Quindi, condizionato su X\mathsf{X} uguale a 0,0, lo stato probabilistico di Y\mathsf{Y} diventa

121+1123712=671+173, \frac{\frac{1}{2} \vert 1 \rangle + \frac{1}{12} \vert 3 \rangle}{\frac{7}{12}} = \frac{6}{7} \vert 1 \rangle + \frac{1}{7} \vert 3 \rangle,

e condizionato sulla misurazione di X\mathsf{X} uguale a 1,1, lo stato probabilistico di Y\mathsf{Y} diventa

1121+162+163512=151+252+253. \frac{\frac{1}{12} \vert 1 \rangle + \frac{1}{6} \vert 2\rangle + \frac{1}{6} \vert 3 \rangle}{\frac{5}{12}} = \frac{1}{5} \vert 1 \rangle + \frac{2}{5} \vert 2 \rangle + \frac{2}{5} \vert 3 \rangle.

Operazioni su stati probabilistici

Per concludere questa discussione sull'informazione classica per sistemi multipli, considereremo le operazioni su sistemi multipli in stati probabilistici. Seguendo la stessa idea di prima, possiamo considerare più sistemi collettivamente come sistemi singoli e composti, e poi fare riferimento alla lezione precedente per vedere come funziona.

Tornando alla configurazione tipica in cui abbiamo due sistemi X\mathsf{X} e Y,\mathsf{Y}, consideriamo le operazioni classiche sul sistema composto (X,Y).(\mathsf{X},\mathsf{Y}). Sulla base della lezione precedente e della discussione precedente, concludiamo che qualsiasi tale operazione è rappresentata da una matrice stocastica le cui righe e colonne sono indicizzate dal prodotto cartesiano Σ×Γ.\Sigma\times\Gamma.

Ad esempio, supponiamo che X\mathsf{X} e Y\mathsf{Y} siano bit, e consideriamo un'operazione con la seguente descrizione.

Operazione

Se X=1,\mathsf{X} = 1, eseguire un'operazione NOT su Y.\mathsf{Y}.
Altrimenti non fare nulla.

Questa è un'operazione deterministica nota come operazione controlled-NOT, dove X\mathsf{X} è il bit di controllo che determina se applicare o meno un'operazione NOT al bit target Y.\mathsf{Y}. Ecco la rappresentazione matriciale di questa operazione:

(1000010000010010).\begin{pmatrix} 1 & 0 & 0 & 0\\[2mm] 0 & 1 & 0 & 0\\[2mm] 0 & 0 & 0 & 1\\[2mm] 0 & 0 & 1 & 0 \end{pmatrix}.

La sua azione sugli stati di base standard è la seguente.

0000010110111110\begin{aligned} \vert 00 \rangle & \mapsto \vert 00 \rangle\\ \vert 01 \rangle & \mapsto \vert 01 \rangle\\ \vert 10 \rangle & \mapsto \vert 11 \rangle\\ \vert 11 \rangle & \mapsto \vert 10 \rangle \end{aligned}

Se scambiassimo i ruoli di X\mathsf{X} e Y,\mathsf{Y}, prendendo Y\mathsf{Y} come bit di controllo e X\mathsf{X} come bit target, la rappresentazione matriciale dell'operazione diventerebbe

(1000000100100100)\begin{pmatrix} 1 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 1\\[2mm] 0 & 0 & 1 & 0\\[2mm] 0 & 1 & 0 & 0 \end{pmatrix}

e la sua azione sugli stati di base standard sarebbe questa:

0000011110101101\begin{aligned} \vert 00 \rangle & \mapsto \vert 00 \rangle\\ \vert 01 \rangle & \mapsto \vert 11 \rangle\\ \vert 10 \rangle & \mapsto \vert 10 \rangle\\ \vert 11 \rangle & \mapsto \vert 01 \rangle \end{aligned}

Un altro esempio è l'operazione con questa descrizione:

Operazione

Eseguire una delle seguenti due operazioni, ciascuna con probabilità 1/2:1/2:

  1. Impostare Y\mathsf{Y} uguale a X.\mathsf{X}.
  2. Impostare X\mathsf{X} uguale a Y.\mathsf{Y}.

La rappresentazione matriciale di questa operazione è la seguente:

(11212000000000012121)=12(1100000000000011)+12(1010000000000101).\begin{pmatrix} 1 & \frac{1}{2} & \frac{1}{2} & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & \frac{1}{2} & \frac{1}{2} & 1 \end{pmatrix} = \frac{1}{2} \begin{pmatrix} 1 & 1 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 1 & 1 \end{pmatrix} + \frac{1}{2} \begin{pmatrix} 1 & 0 & 1 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 1 & 0 & 1 \end{pmatrix}.

L'azione di questa operazione sui vettori di base standard è la seguente:

0000011200+1211101200+12111111\begin{aligned} \vert 00 \rangle & \mapsto \vert 00 \rangle\\[1mm] \vert 01 \rangle & \mapsto \frac{1}{2} \vert 00 \rangle + \frac{1}{2}\vert 11\rangle\\[3mm] \vert 10 \rangle & \mapsto \frac{1}{2} \vert 00 \rangle + \frac{1}{2}\vert 11\rangle\\[2mm] \vert 11 \rangle & \mapsto \vert 11 \rangle \end{aligned}

In questi esempi, stiamo semplicemente considerando due sistemi insieme come un unico sistema e procedendo come nella lezione precedente.

Lo stesso si può fare per qualsiasi numero di sistemi. Ad esempio, immagina di avere tre bit e di incrementare i tre bit modulo 88 — ovvero pensiamo ai tre bit come alla codifica di un numero tra 00 e 77 usando la notazione binaria, aggiungiamo 11 e poi prendiamo il resto dopo la divisione per 8.8. Un modo per esprimere questa operazione è così:

001000+010001+011010+100011+101100+110101+111110+000111.\begin{aligned} & \vert 001 \rangle \langle 000 \vert + \vert 010 \rangle \langle 001 \vert + \vert 011 \rangle \langle 010 \vert + \vert 100 \rangle \langle 011 \vert\\[1mm] & \quad + \vert 101 \rangle \langle 100 \vert + \vert 110 \rangle \langle 101 \vert + \vert 111 \rangle \langle 110 \vert + \vert 000 \rangle \langle 111 \vert. \end{aligned}

Un altro modo per esprimerla è come

k=07(k+1)mod8k,\sum_{k = 0}^{7} \vert (k+1) \bmod 8 \rangle \langle k \vert,

assumendo che sia stato concordato che i numeri da 00 a 77 all'interno dei ket si riferiscano alle codifiche binarie a tre bit di quei numeri. Una terza opzione è esprimere questa operazione come matrice.

(0000000110000000010000000010000000010000000010000000010000000010)\begin{pmatrix} 0 & 0 & 0 & 0 & 0 & 0 & 0 & 1\\ 1 & 0 & 0 & 0 & 0 & 0 & 0 & 0\\ 0 & 1 & 0 & 0 & 0 & 0 & 0 & 0\\ 0 & 0 & 1 & 0 & 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 1 & 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 0 & 1 & 0 & 0 & 0\\ 0 & 0 & 0 & 0 & 0 & 1 & 0 & 0\\ 0 & 0 & 0 & 0 & 0 & 0 & 1 & 0 \end{pmatrix}

Operazioni indipendenti

Supponiamo ora di avere più sistemi e di eseguire indipendentemente operazioni diverse sui singoli sistemi.

Ad esempio, prendendo la nostra configurazione tipica di due sistemi X\mathsf{X} e Y\mathsf{Y} con insiemi di stati classici Σ\Sigma e Γ,\Gamma, rispettivamente, supponiamo di eseguire un'operazione su X\mathsf{X} e, in modo completamente indipendente, un'altra operazione su Y.\mathsf{Y}. Come sappiamo dalla lezione precedente, queste operazioni sono rappresentate da matrici stocastiche — e per essere precisi, diciamo che l'operazione su X\mathsf{X} è rappresentata dalla matrice MM e l'operazione su Y\mathsf{Y} è rappresentata dalla matrice N.N. Quindi, le righe e le colonne di MM hanno indici che corrispondono agli elementi di Σ\Sigma e, allo stesso modo, le righe e le colonne di NN corrispondono agli elementi di Γ.\Gamma.

Una domanda naturale da porsi è questa: se consideriamo X\mathsf{X} e Y\mathsf{Y} insieme come un unico sistema composto (X,Y),(\mathsf{X},\mathsf{Y}), qual è la matrice che rappresenta l'azione combinata delle due operazioni su questo sistema composto? Per rispondere a questa domanda dobbiamo prima introdurre i prodotti tensore di matrici, che sono simili ai prodotti tensore di vettori e sono definiti in modo analogo.

Prodotti tensore di matrici

Il prodotto tensore MNM\otimes N delle matrici

M=a,bΣαabab M = \sum_{a,b\in\Sigma} \alpha_{ab} \vert a\rangle \langle b\vert

e

N=c,dΓβcdcd N = \sum_{c,d\in\Gamma} \beta_{cd} \vert c\rangle \langle d\vert

è la matrice

MN=a,bΣc,dΓαabβcdacbd M \otimes N = \sum_{a,b\in\Sigma} \sum_{c,d\in\Gamma} \alpha_{ab} \beta_{cd} \vert ac \rangle \langle bd \vert

In modo equivalente, il prodotto tensore di MM e NN è definito dall'equazione

acMNbd=aMbcNd\langle ac \vert M \otimes N \vert bd\rangle = \langle a \vert M \vert b\rangle \langle c \vert N \vert d\rangle

che è vera per ogni scelta di a,bΣa,b\in\Sigma e c,dΓ.c,d\in\Gamma.

Un modo alternativo, ma equivalente, per descrivere MNM\otimes N è che si tratta dell'unica matrice che soddisfa l'equazione

(MN)(ϕψ)=(Mϕ)(Nψ) (M \otimes N) \bigl( \vert \phi \rangle \otimes \vert \psi \rangle \bigr) = \bigl(M \vert\phi\rangle\bigr) \otimes \bigl(N \vert\psi\rangle\bigr)

per ogni possibile scelta di vettori ϕ\vert\phi\rangle e ψ,\vert\psi\rangle, assumendo che gli indici di ϕ\vert\phi\rangle corrispondano agli elementi di Σ\Sigma e gli indici di ψ\vert\psi\rangle corrispondano a Γ.\Gamma.

Seguendo la convenzione descritta in precedenza per l'ordinamento degli elementi dei prodotti cartesiani, possiamo anche scrivere esplicitamente il prodotto tensore di due matrici come segue:

(α11α1mαm1αmm)(β11β1kβk1βkk)=(α11β11α11β1kα1mβ11α1mβ1kα11βk1α11βkkα1mβk1α1mβkkαm1β11αm1β1kαmmβ11αmmβ1kαm1βk1αm1βkkαmmβk1αmmβkk)\begin{gathered} \begin{pmatrix} \alpha_{11} & \cdots & \alpha_{1m} \\ \vdots & \ddots & \vdots \\ \alpha_{m1} & \cdots & \alpha_{mm} \end{pmatrix} \otimes \begin{pmatrix} \beta_{11} & \cdots & \beta_{1k} \\ \vdots & \ddots & \vdots\\ \beta_{k1} & \cdots & \beta_{kk} \end{pmatrix} \hspace{6cm}\\[8mm] \hspace{1cm} = \begin{pmatrix} \alpha_{11}\beta_{11} & \cdots & \alpha_{11}\beta_{1k} & & \alpha_{1m}\beta_{11} & \cdots & \alpha_{1m}\beta_{1k} \\ \vdots & \ddots & \vdots & \hspace{2mm}\cdots\hspace{2mm} & \vdots & \ddots & \vdots \\ \alpha_{11}\beta_{k1} & \cdots & \alpha_{11}\beta_{kk} & & \alpha_{1m}\beta_{k1} & \cdots & \alpha_{1m}\beta_{kk} \\[2mm] & \vdots & & \ddots & & \vdots & \\[2mm] \alpha_{m1}\beta_{11} & \cdots & \alpha_{m1}\beta_{1k} & & \alpha_{mm}\beta_{11} & \cdots & \alpha_{mm}\beta_{1k} \\ \vdots & \ddots & \vdots & \hspace{2mm}\cdots\hspace{2mm} & \vdots & \ddots & \vdots \\ \alpha_{m1}\beta_{k1} & \cdots & \alpha_{m1}\beta_{kk} & & \alpha_{mm}\beta_{k1} & \cdots & \alpha_{mm}\beta_{kk} \end{pmatrix} \end{gathered}

I prodotti tensore di tre o più matrici sono definiti in modo analogo. Se M0,,Mn1M_0, \ldots, M_{n-1} sono matrici i cui indici corrispondono agli insiemi di stati classici Σ0,,Σn1,\Sigma_0,\ldots,\Sigma_{n-1}, allora il prodotto tensore Mn1M0M_{n-1}\otimes\cdots\otimes M_0 è definito dalla condizione che

an1a0Mn1M0bn1b0=an1Mn1bn1a0M0b0\langle a_{n-1}\cdots a_0 \vert M_{n-1}\otimes\cdots\otimes M_0 \vert b_{n-1}\cdots b_0\rangle = \langle a_{n-1} \vert M_{n-1} \vert b_{n-1} \rangle \cdots\langle a_0 \vert M_0 \vert b_0 \rangle

per ogni scelta di stati classici a0,b0Σ0,,an1,bn1Σn1.a_0,b_0\in\Sigma_0,\ldots,a_{n-1},b_{n-1}\in\Sigma_{n-1}. In alternativa, i prodotti tensore di tre o più matrici possono essere definiti ricorsivamente, in termini di prodotti tensore di due matrici, in modo simile a quanto osservato per i vettori.

Si dice a volte che il prodotto tensore di matrici sia moltiplicativo perché l'equazione

(Mn1M0)(Nn1N0)=(Mn1Nn1)(M0N0) (M_{n-1}\otimes\cdots\otimes M_0)(N_{n-1}\otimes\cdots\otimes N_0) = (M_{n-1} N_{n-1})\otimes\cdots\otimes (M_0 N_0)

è sempre vera, per qualsiasi scelta di matrici M0,,Mn1M_0,\ldots,M_{n-1} e N0,Nn1,N_0\ldots,N_{n-1}, a condizione che i prodotti M0N0,,Mn1Nn1M_0 N_0, \ldots, M_{n-1} N_{n-1} abbiano senso.

Operazioni indipendenti (continua)

Possiamo ora rispondere alla domanda posta in precedenza: se MM è un'operazione probabilistica su X,\mathsf{X}, NN è un'operazione probabilistica su Y,\mathsf{Y}, e le due operazioni vengono eseguite indipendentemente, allora l'operazione risultante sul sistema composto (X,Y)(\mathsf{X},\mathsf{Y}) è il prodotto tensore MN.M\otimes N.

Quindi, sia per gli stati probabilistici che per le operazioni probabilistiche, i prodotti tensore rappresentano l'indipendenza. Se abbiamo due sistemi X\mathsf{X} e Y\mathsf{Y} che si trovano indipendentemente negli stati probabilistici ϕ\vert\phi\rangle e ψ,\vert\psi\rangle, allora il sistema composto (X,Y)(\mathsf{X},\mathsf{Y}) si trova nello stato probabilistico ϕψ;\vert\phi\rangle\otimes\vert\psi\rangle; e se applichiamo operazioni probabilistiche MM e NN ai due sistemi indipendentemente, allora l'azione risultante sul sistema composto (X,Y)(\mathsf{X},\mathsf{Y}) è descritta dall'operazione MN.M\otimes N.

Diamo un'occhiata a un esempio, che richiama un'operazione probabilistica su un singolo bit dalla lezione precedente: se lo stato classico del bit è 0,0, viene lasciato invariato; e se lo stato classico del bit è 1,1, viene invertito a 0 con probabilità 1/2.1/2. Abbiamo osservato che questa operazione è rappresentata dalla matrice

(112012). \begin{pmatrix} 1 & \frac{1}{2}\\[1mm] 0 & \frac{1}{2} \end{pmatrix}.

Se questa operazione viene eseguita su un bit X,\mathsf{X}, e un'operazione NOT viene eseguita (indipendentemente) su un secondo bit Y,\mathsf{Y}, allora l'operazione congiunta sul sistema composto (X,Y)(\mathsf{X},\mathsf{Y}) ha la rappresentazione matriciale

(112012)(0110)=(01012101200001200120). \begin{pmatrix} 1 & \frac{1}{2}\\[1mm] 0 & \frac{1}{2} \end{pmatrix} \otimes \begin{pmatrix} 0 & 1\\[1mm] 1 & 0 \end{pmatrix} = \begin{pmatrix} 0 & 1 & 0 & \frac{1}{2} \\[1mm] 1 & 0 & \frac{1}{2} & 0 \\[1mm] 0 & 0 & 0 & \frac{1}{2} \\[1mm] 0 & 0 & \frac{1}{2} & 0 \end{pmatrix}.

Per ispezione, vediamo che questa è una matrice stocastica. Questo sarà sempre il caso: il prodotto tensore di due o più matrici stocastiche è sempre stocastico.

Una situazione comune che incontriamo è quella in cui viene eseguita un'operazione su un sistema e non viene fatto nulla a un altro. In tal caso, si segue esattamente la stessa prescrizione, tenendo presente che non fare nulla è rappresentato dalla matrice identità. Ad esempio, reimpostare il bit X\mathsf{X} allo stato 00 e non fare nulla a Y\mathsf{Y} produce l'operazione probabilistica (e in realtà deterministica) su (X,Y)(\mathsf{X},\mathsf{Y}) rappresentata dalla matrice

(1100)(1001)=(1010010100000000). \begin{pmatrix} 1 & 1\\[1mm] 0 & 0 \end{pmatrix} \otimes \begin{pmatrix} 1 & 0\\[1mm] 0 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 0 & 1 & 0 \\[1mm] 0 & 1 & 0 & 1 \\[1mm] 0 & 0 & 0 & 0 \\[1mm] 0 & 0 & 0 & 0 \end{pmatrix}.