Vai al contenuto principale

Prodotti interni e proiezioni

Per prepararci meglio a esplorare le capacità e i limiti dei circuiti quantistici, introduciamo ora alcuni concetti matematici aggiuntivi: il prodotto interno tra vettori (e il suo legame con la norma euclidea), le nozioni di ortogonalità e ortonormalità per insiemi di vettori, e le matrici di proiezione, che ci permetteranno di introdurre una comoda generalizzazione delle misurazioni nella base standard.

Prodotti interni

Ricordiamo che quando utilizziamo la notazione di Dirac per indicare un generico vettore colonna come ket, ad esempio

ψ=(α1α2αn),\vert \psi \rangle = \begin{pmatrix} \alpha_1\\ \alpha_2\\ \vdots\\ \alpha_n \end{pmatrix},

il corrispondente vettore bra è il trasposto coniugato di questo vettore:

ψ=(ψ)=(α1α2αn).(1)\langle \psi \vert = \bigl(\vert \psi \rangle \bigr)^{\dagger} = \begin{pmatrix} \overline{\alpha_1} & \overline{\alpha_2} & \cdots & \overline{\alpha_n} \end{pmatrix}. \tag{1}

In alternativa, se abbiamo in mente un insieme di stati classici Σ\Sigma ed esprimiamo un vettore colonna come ket, ad esempio

ψ=aΣαaa,\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle,

allora il corrispondente vettore riga (o bra) è il trasposto coniugato

ψ=aΣαaa.(2)\langle \psi \vert = \sum_{a\in\Sigma} \overline{\alpha_a} \langle a \vert. \tag{2}

Abbiamo anche che il prodotto di un vettore bra e un vettore ket, visti come matrici con una singola riga o una singola colonna, dà come risultato uno scalare. In particolare, se abbiamo due vettori colonna

ψ=(α1α2αn)eϕ=(β1β2βn),\vert \psi \rangle = \begin{pmatrix} \alpha_1\\ \alpha_2\\ \vdots\\ \alpha_n \end{pmatrix} \quad\text{e}\quad \vert \phi \rangle = \begin{pmatrix} \beta_1\\ \beta_2\\ \vdots\\ \beta_n \end{pmatrix},

in modo che il vettore riga ψ\langle \psi \vert sia come nell'equazione (1),(1), allora

ψϕ=ψϕ=(α1α2αn)(β1β2βn)=α1β1++αnβn.\langle \psi \vert \phi \rangle = \langle \psi \vert \vert \phi \rangle = \begin{pmatrix} \overline{\alpha_1} & \overline{\alpha_2} & \cdots & \overline{\alpha_n} \end{pmatrix} \begin{pmatrix} \beta_1\\ \beta_2\\ \vdots\\ \beta_n \end{pmatrix} = \overline{\alpha_1} \beta_1 + \cdots + \overline{\alpha_n}\beta_n.

In alternativa, se abbiamo due vettori colonna scritti come

ψ=aΣαaaeϕ=bΣβbb,\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle \quad\text{e}\quad \vert \phi \rangle = \sum_{b\in\Sigma} \beta_b \vert b \rangle,

in modo che ψ\langle \psi \vert sia il vettore riga (2),(2), troviamo che

ψϕ=ψϕ=(aΣαaa)(bΣβbb)=aΣbΣαaβbab=aΣαaβa,\begin{aligned} \langle \psi \vert \phi \rangle & = \langle \psi \vert \vert \phi \rangle\\ & = \Biggl(\sum_{a\in\Sigma} \overline{\alpha_a} \langle a \vert\Biggr) \Biggl(\sum_{b\in\Sigma} \beta_b \vert b\rangle\Biggr)\\ & = \sum_{a\in\Sigma}\sum_{b\in\Sigma} \overline{\alpha_a} \beta_b \langle a \vert b \rangle\\ & = \sum_{a\in\Sigma} \overline{\alpha_a} \beta_a, \end{aligned}

dove l'ultima uguaglianza segue dall'osservazione che aa=1\langle a \vert a \rangle = 1 e ab=0\langle a \vert b \rangle = 0 per stati classici aa e bb con ab.a\neq b.

Il valore ψϕ\langle \psi \vert \phi \rangle è chiamato il prodotto interno tra i vettori ψ\vert \psi\rangle e ϕ.\vert \phi \rangle. I prodotti interni sono fondamentali nell'informazione e nel calcolo quantistico; non potremmo comprendere l'informazione quantistica a livello matematico senza di essi.

Raccogliamo ora alcune proprietà fondamentali dei prodotti interni tra vettori.

  1. Relazione con la norma euclidea. Il prodotto interno di un qualsiasi vettore

    ψ=aΣαaa\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle

    con se stesso è

    ψψ=aΣαaαa=aΣαa2=ψ2.\langle \psi \vert \psi \rangle = \sum_{a\in\Sigma} \overline{\alpha_a} \alpha_a = \sum_{a\in\Sigma} \vert\alpha_a\vert^2 = \bigl\| \vert \psi \rangle \bigr\|^2.

    Quindi, la norma euclidea di un vettore può essere espressa alternativamente come

    ψ=ψψ.\bigl\| \vert \psi \rangle \bigr\| = \sqrt{ \langle \psi \vert \psi \rangle }.

    Nota che la norma euclidea di un vettore è sempre un numero reale non negativo. Inoltre, l'unico modo in cui la norma euclidea di un vettore può essere uguale a zero è se ogni elemento è uguale a zero, ovvero che il vettore è il vettore nullo.

    Possiamo riassumere queste osservazioni così: per ogni vettore ψ\vert \psi \rangle abbiamo

    ψψ0,\langle \psi \vert \psi \rangle \geq 0,

    con ψψ=0\langle \psi \vert \psi \rangle = 0 se e solo se ψ=0.\vert \psi \rangle = 0. Questa proprietà del prodotto interno viene talvolta chiamata definitezza positiva.

  2. Simmetria coniugata. Per due qualsiasi vettori

    ψ=aΣαaaeϕ=bΣβbb,\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle \quad\text{e}\quad \vert \phi \rangle = \sum_{b\in\Sigma} \beta_b \vert b \rangle,

    abbiamo

    ψϕ=aΣαaβaeϕψ=aΣβaαa,\langle \psi \vert \phi \rangle = \sum_{a\in\Sigma} \overline{\alpha_a} \beta_a \quad\text{e}\quad \langle \phi \vert \psi \rangle = \sum_{a\in\Sigma} \overline{\beta_a} \alpha_a,

    e quindi

    ψϕ=ϕψ.\overline{\langle \psi \vert \phi \rangle} = \langle \phi \vert \psi \rangle.
  3. Linearità nel secondo argomento (e linearità coniugata nel primo). Supponiamo che ψ,\vert \psi \rangle, ϕ1,\vert \phi_1 \rangle, e ϕ2\vert \phi_2 \rangle siano vettori e α1\alpha_1 e α2\alpha_2 siano numeri complessi. Se definiamo un nuovo vettore

    ϕ=α1ϕ1+α2ϕ2,\vert \phi\rangle = \alpha_1 \vert \phi_1\rangle + \alpha_2 \vert \phi_2\rangle,

    allora

    ψϕ=ψ(α1ϕ1+α2ϕ2)=α1ψϕ1+α2ψϕ2.\langle \psi \vert \phi \rangle = \langle \psi \vert \bigl( \alpha_1\vert \phi_1 \rangle + \alpha_2\vert \phi_2 \rangle\bigr) = \alpha_1 \langle \psi \vert \phi_1 \rangle + \alpha_2 \langle \psi \vert \phi_2 \rangle.

    Vale a dire, il prodotto interno è lineare nel secondo argomento. Questo si può verificare sia attraverso le formule precedenti, sia semplicemente notando che la moltiplicazione matriciale è lineare in ciascun argomento (e in particolare nel secondo).

    Combinando questo fatto con la simmetria coniugata si scopre che il prodotto interno è lineare coniugatamente nel primo argomento. Ovvero, se ψ1,\vert \psi_1 \rangle, ψ2,\vert \psi_2 \rangle, e ϕ\vert \phi \rangle sono vettori e α1\alpha_1 e α2\alpha_2 sono numeri complessi, e definiamo

    ψ=α1ψ1+α2ψ2,\vert \psi \rangle = \alpha_1 \vert \psi_1\rangle + \alpha_2 \vert \psi_2 \rangle,

    allora

    ψϕ=(α1ψ1+α2ψ2)ϕ=α1ψ1ϕ+α2ψ2ϕ.\langle \psi \vert \phi \rangle = \bigl( \overline{\alpha_1} \langle \psi_1 \vert + \overline{\alpha_2} \langle \psi_2 \vert \bigr) \vert\phi\rangle = \overline{\alpha_1} \langle \psi_1 \vert \phi \rangle + \overline{\alpha_2} \langle \psi_2 \vert \phi \rangle.
  4. La disuguaglianza di Cauchy–Schwarz. Per ogni coppia di vettori ϕ\vert \phi \rangle e ψ\vert \psi \rangle con lo stesso numero di elementi, abbiamo

    ψϕψϕ.\bigl\vert \langle \psi \vert \phi \rangle\bigr| \leq \bigl\| \vert\psi \rangle \bigr\| \bigl\| \vert \phi \rangle \bigr\|.

    Questa è una disuguaglianza straordinariamente utile, ampiamente impiegata nell'informazione quantistica (e in molti altri ambiti di studio).

Insiemi ortogonali e ortonormali

Due vettori ϕ\vert \phi \rangle e ψ\vert \psi \rangle si dicono ortogonali se il loro prodotto interno è zero:

ψϕ=0.\langle \psi \vert \phi \rangle = 0.

Geometricamente, possiamo pensare ai vettori ortogonali come vettori perpendicolari tra loro.

Un insieme di vettori {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} è detto insieme ortogonale se ogni vettore dell'insieme è ortogonale a tutti gli altri. In altri termini, l'insieme è ortogonale se

ψjψk=0\langle \psi_j \vert \psi_k\rangle = 0

per ogni scelta di j,k{1,,m}j,k\in\{1,\ldots,m\} con jk.j\neq k.

Un insieme di vettori {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} è detto ortonormale se è un insieme ortogonale e, in aggiunta, ogni vettore dell'insieme è un vettore unitario. In alternativa, tale insieme è ortonormale se vale

ψjψk={1j=k0jk(3)\langle \psi_j \vert \psi_k\rangle = \begin{cases} 1 & j = k\\[1mm] 0 & j\neq k \end{cases} \tag{3}

per ogni scelta di j,k{1,,m}.j,k\in\{1,\ldots,m\}.

Infine, un insieme {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} è una base ortonormale se, oltre a essere un insieme ortonormale, forma una base. Ciò equivale a richiedere che {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} sia un insieme ortonormale e che mm sia uguale alla dimensione dello spazio da cui ψ1,,ψm\vert \psi_1\rangle,\ldots,\vert\psi_m\rangle sono tratti.

Ad esempio, per qualsiasi insieme di stati classici Σ,\Sigma, l'insieme di tutti i vettori della base standard

{a:aΣ}\big\{ \vert a \rangle \,:\, a\in\Sigma\bigr\}

è una base ortonormale. L'insieme {+,}\{\vert+\rangle,\vert-\rangle\} è una base ortonormale per lo spazio bidimensionale corrispondente a un singolo qubit, e la base di Bell {ϕ+,ϕ,ψ+,ψ}\{\vert\phi^+\rangle, \vert\phi^-\rangle, \vert\psi^+\rangle, \vert\psi^-\rangle\} è una base ortonormale per lo spazio quadridimensionale corrispondente a due qubit.

Estendere insiemi ortonormali a basi ortonormali

Supponiamo che ψ1,,ψm\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle siano vettori che vivono in uno spazio nn-dimensionale, e supponiamo inoltre che {ψ1,,ψm}\{\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle\} sia un insieme ortonormale. Gli insiemi ortonormali sono sempre insiemi linearmente indipendenti, quindi questi vettori necessariamente generano un sottospazio di dimensione m.m. Da questo concludiamo che mnm\leq n, poiché la dimensione del sottospazio generato da questi vettori non può essere maggiore della dimensione dell'intero spazio da cui sono tratti.

Se m<n,m<n, è sempre possibile scegliere altri nmn-m vettori ψm+1,,ψn\vert \psi_{m+1}\rangle,\ldots,\vert\psi_n\rangle tali che {ψ1,,ψn}\{\vert\psi_1\rangle,\ldots,\vert\psi_n\rangle\} formi una base ortonormale. Una procedura nota come processo di ortonormalizzazione di Gram–Schmidt può essere utilizzata per costruire questi vettori.

Insiemi ortonormali e matrici unitarie

Gli insiemi ortonormali di vettori sono strettamente connessi alle matrici unitarie. Un modo per esprimere questa connessione è affermare che le seguenti tre affermazioni sono logicamente equivalenti (cioè sono tutte vere o tutte false) per qualsiasi matrice quadrata UU:

  1. La matrice UU è unitaria (ovvero UU=I=UUU^{\dagger} U = \mathbb{I} = U U^{\dagger}).
  2. Le righe di UU formano un insieme ortonormale.
  3. Le colonne di UU formano un insieme ortonormale.

Questa equivalenza è abbastanza diretta quando pensiamo a come funzionano la moltiplicazione matriciale e il trasposto coniugato. Supponiamo, ad esempio, di avere una matrice 3×33\times 3 come questa:

U=(α1,1α1,2α1,3α2,1α2,2α2,3α3,1α3,2α3,3)U = \begin{pmatrix} \alpha_{1,1} & \alpha_{1,2} & \alpha_{1,3} \\[1mm] \alpha_{2,1} & \alpha_{2,2} & \alpha_{2,3} \\[1mm] \alpha_{3,1} & \alpha_{3,2} & \alpha_{3,3} \end{pmatrix}

Il trasposto coniugato di UU appare così:

U=(α1,1α2,1α3,1α1,2α2,2α3,2α1,3α2,3α3,3)U^{\dagger} = \begin{pmatrix} \overline{\alpha_{1,1}} & \overline{\alpha_{2,1}} & \overline{\alpha_{3,1}} \\[1mm] \overline{\alpha_{1,2}} & \overline{\alpha_{2,2}} & \overline{\alpha_{3,2}} \\[1mm] \overline{\alpha_{1,3}} & \overline{\alpha_{2,3}} & \overline{\alpha_{3,3}} \end{pmatrix}

Moltiplicando le due matrici, con il trasposto coniugato a sinistra, otteniamo questa matrice:

(α1,1α2,1α3,1α1,2α2,2α3,2α1,3α2,3α3,3)(α1,1α1,2α1,3α2,1α2,2α2,3α3,1α3,2α3,3)=(α1,1α1,1+α2,1α2,1+α3,1α3,1α1,1α1,2+α2,1α2,2+α3,1α3,2α1,1α1,3+α2,1α2,3+α3,1α3,3α1,2α1,1+α2,2α2,1+α3,2α3,1α1,2α1,2+α2,2α2,2+α3,2α3,2α1,2α1,3+α2,2α2,3+α3,2α3,3α1,3α1,1+α2,3α2,1+α3,3α3,1α1,3α1,2+α2,3α2,2+α3,3α3,2α1,3α1,3+α2,3α2,3+α3,3α3,3)\begin{aligned} &\begin{pmatrix} \overline{\alpha_{1,1}} & \overline{\alpha_{2,1}} & \overline{\alpha_{3,1}} \\[1mm] \overline{\alpha_{1,2}} & \overline{\alpha_{2,2}} & \overline{\alpha_{3,2}} \\[1mm] \overline{\alpha_{1,3}} & \overline{\alpha_{2,3}} & \overline{\alpha_{3,3}} \end{pmatrix} \begin{pmatrix} \alpha_{1,1} & \alpha_{1,2} & \alpha_{1,3} \\[1mm] \alpha_{2,1} & \alpha_{2,2} & \alpha_{2,3} \\[1mm] \alpha_{3,1} & \alpha_{3,2} & \alpha_{3,3} \end{pmatrix}\\[4mm] \quad &= \begin{pmatrix} \overline{\alpha_{1,1}}\alpha_{1,1} + \overline{\alpha_{2,1}}\alpha_{2,1} + \overline{\alpha_{3,1}}\alpha_{3,1} & \overline{\alpha_{1,1}}\alpha_{1,2} + \overline{\alpha_{2,1}}\alpha_{2,2} + \overline{\alpha_{3,1}}\alpha_{3,2} & \overline{\alpha_{1,1}}\alpha_{1,3} + \overline{\alpha_{2,1}}\alpha_{2,3} + \overline{\alpha_{3,1}}\alpha_{3,3} \\[2mm] \overline{\alpha_{1,2}}\alpha_{1,1} + \overline{\alpha_{2,2}}\alpha_{2,1} + \overline{\alpha_{3,2}}\alpha_{3,1} & \overline{\alpha_{1,2}}\alpha_{1,2} + \overline{\alpha_{2,2}}\alpha_{2,2} + \overline{\alpha_{3,2}}\alpha_{3,2} & \overline{\alpha_{1,2}}\alpha_{1,3} + \overline{\alpha_{2,2}}\alpha_{2,3} + \overline{\alpha_{3,2}}\alpha_{3,3} \\[2mm] \overline{\alpha_{1,3}}\alpha_{1,1} + \overline{\alpha_{2,3}}\alpha_{2,1} + \overline{\alpha_{3,3}}\alpha_{3,1} & \overline{\alpha_{1,3}}\alpha_{1,2} + \overline{\alpha_{2,3}}\alpha_{2,2} + \overline{\alpha_{3,3}}\alpha_{3,2} & \overline{\alpha_{1,3}}\alpha_{1,3} + \overline{\alpha_{2,3}}\alpha_{2,3} + \overline{\alpha_{3,3}}\alpha_{3,3} \end{pmatrix} \end{aligned}

Se formiamo tre vettori dalle colonne di U,U,

ψ1=(α1,1α2,1α3,1),ψ2=(α1,2α2,2α3,2),ψ3=(α1,3α2,3α3,3),\vert \psi_1\rangle = \begin{pmatrix} \alpha_{1,1}\\ \alpha_{2,1}\\ \alpha_{3,1} \end{pmatrix}, \quad \vert \psi_2\rangle = \begin{pmatrix} \alpha_{1,2}\\ \alpha_{2,2}\\ \alpha_{3,2} \end{pmatrix}, \quad \vert \psi_3\rangle = \begin{pmatrix} \alpha_{1,3}\\ \alpha_{2,3}\\ \alpha_{3,3} \end{pmatrix},

possiamo esprimere alternativamente il prodotto precedente come segue:

UU=(ψ1ψ1ψ1ψ2ψ1ψ3ψ2ψ1ψ2ψ2ψ2ψ3ψ3ψ1ψ3ψ2ψ3ψ3)U^{\dagger} U = \begin{pmatrix} \langle \psi_1\vert \psi_1 \rangle & \langle \psi_1\vert \psi_2 \rangle & \langle \psi_1\vert \psi_3 \rangle \\ \langle \psi_2\vert \psi_1 \rangle & \langle \psi_2\vert \psi_2 \rangle & \langle \psi_2\vert \psi_3 \rangle \\ \langle \psi_3\vert \psi_1 \rangle & \langle \psi_3\vert \psi_2 \rangle & \langle \psi_3\vert \psi_3 \rangle \end{pmatrix}

Riferendosi all'equazione (3),(3), vediamo ora che la condizione affinché questa matrice sia uguale alla matrice identità equivale all'ortonormalità dell'insieme {ψ1,ψ2,ψ3}.\{\vert\psi_1\rangle,\vert\psi_2\rangle,\vert\psi_3\rangle\}.

Questo argomento si generalizza a matrici unitarie di qualsiasi dimensione. Il fatto che le righe di una matrice formino una base ortonormale se e solo se la matrice è unitaria segue poi dal fatto che una matrice è unitaria se e solo se il suo trasposto è unitario.

Data l'equivalenza descritta sopra, insieme al fatto che ogni insieme ortonormale può essere esteso per formare una base ortonormale, concludiamo il seguente fatto utile: Dato qualsiasi insieme ortonormale di vettori {ψ1,,ψm}\{\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle\} tratti da uno spazio nn-dimensionale, esiste una matrice unitaria UU le cui prime mm colonne sono i vettori ψ1,,ψm.\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle. Graficamente, possiamo sempre trovare una matrice unitaria di questa forma:

U=(ψ1ψ2ψmψm+1ψn).U = \left( \begin{array}{ccccccc} \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt}\\ \vert\psi_1\rangle & \vert\psi_2\rangle & \cdots & \vert\psi_m\rangle & \vert\psi_{m+1}\rangle & \cdots & \vert\psi_n\rangle\\[2mm] \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt} \end{array} \right).

Qui, le ultime nmn-m colonne vengono completate con una qualsiasi scelta di vettori ψm+1,,ψn\vert\psi_{m+1}\rangle,\ldots,\vert\psi_n\rangle che rendono {ψ1,,ψn}\{\vert\psi_1\rangle,\ldots,\vert\psi_n\rangle\} una base ortonormale.

Proiezioni e misurazioni proiettive

Matrici di proiezione

Una matrice quadrata Π\Pi è detta proiezione se soddisfa due proprietà:

  1. Π=Π.\Pi = \Pi^{\dagger}.
  2. Π2=Π.\Pi^2 = \Pi.

Le matrici che soddisfano la prima condizione — ovvero che sono uguali alla propria trasposta coniugata — sono chiamate matrici Hermitiane, mentre quelle che soddisfano la seconda condizione — elevandole al quadrato rimangono invariate — sono chiamate matrici idempotenti.

È opportuno fare una precisazione: il termine proiezione viene talvolta usato per indicare qualsiasi matrice che soddisfa solo la seconda condizione, non necessariamente la prima; in tal caso si usa il termine proiezione ortogonale per le matrici che soddisfano entrambe le proprietà. Nel contesto dell'informazione e del calcolo quantistico, tuttavia, i termini proiezione e matrice di proiezione si riferiscono più comunemente alle matrici che soddisfano entrambe le condizioni.

Un esempio di proiezione è la matrice

Π=ψψ(4)\Pi = \vert \psi \rangle \langle \psi \vert \tag{4}

per qualsiasi vettore unitario ψ.\vert \psi\rangle. Possiamo verificare che questa matrice è Hermitiana nel modo seguente:

Π=(ψψ)=(ψ)(ψ)=ψψ=Π.\Pi^{\dagger} = \bigl( \vert \psi \rangle \langle \psi \vert \bigr)^{\dagger} = \bigl( \langle \psi \vert \bigr)^{\dagger}\bigl( \vert \psi \rangle \bigr)^{\dagger} = \vert \psi \rangle \langle \psi \vert = \Pi.

Qui, per ottenere la seconda uguaglianza, abbiamo usato la formula

(AB)=BA,(A B)^{\dagger} = B^{\dagger} A^{\dagger},

che è sempre valida per qualsiasi coppia di matrici AA e BB per cui il prodotto ABAB abbia senso.

Per verificare che la matrice Π\Pi in (4)(4) è idempotente, usiamo l'ipotesi che ψ\vert\psi\rangle sia un vettore unitario, e quindi soddisfi ψψ=1.\langle \psi \vert \psi\rangle = 1. Abbiamo quindi

Π2=(ψψ)2=ψψψψ=ψψ=Π.\Pi^2 = \bigl( \vert\psi\rangle\langle \psi\vert \bigr)^2 = \vert\psi\rangle\langle \psi\vert\psi\rangle\langle\psi\vert = \vert\psi\rangle\langle\psi\vert = \Pi.

Più in generale, se {ψ1,,ψm}\{\vert \psi_1\rangle,\ldots,\vert \psi_m\rangle\} è un qualsiasi insieme ortonormale di vettori, allora la matrice

Π=k=1mψkψk(5)\Pi = \sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert \tag{5}

è una proiezione. In particolare, abbiamo

Π=(k=1mψkψk)=k=1m(ψkψk)=k=1mψkψk=Π,\begin{aligned} \Pi^{\dagger} &= \biggl(\sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\biggr)^{\dagger} \\ &= \sum_{k = 1}^m \bigl(\vert\psi_k\rangle\langle\psi_k\vert\bigr)^{\dagger} \\ &= \sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\\ &= \Pi, \end{aligned}

e

Π2=(j=1mψjψj)(k=1mψkψk)=j=1mk=1mψjψjψkψk=k=1mψkψk=Π,\begin{aligned} \Pi^2 & = \biggl( \sum_{j = 1}^m \vert \psi_j\rangle \langle \psi_j \vert\Bigr)\Bigl(\sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\biggr) \\ & = \sum_{j = 1}^m\sum_{k = 1}^m \vert \psi_j\rangle \langle \psi_j \vert \psi_k\rangle \langle \psi_k \vert \\ & = \sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\\ & = \Pi, \end{aligned}

dove l'ortonormalità di {ψ1,,ψm}\{\vert \psi_1\rangle,\ldots,\vert \psi_m\rangle\} implica la penultima uguaglianza.

In realtà, questo esaurisce tutte le possibilità: ogni proiezione Π\Pi può essere scritta nella forma (5)(5) per una qualche scelta di un insieme ortonormale {ψ1,,ψm}.\{\vert \psi_1\rangle,\ldots,\vert \psi_m\rangle\}. (Tecnicamente, la matrice zero Π=0,\Pi=0, che è una proiezione, costituisce un caso particolare. Per inserirla nella forma generale (5)(5) è necessario ammettere la possibilità di una somma vuota, che dà appunto la matrice zero.)

Misurazioni proiettive

Il concetto di misurazione di un sistema quantistico è più generale delle semplici misurazioni nella base standard. Le misurazioni proiettive sono misurazioni descritte da una collezione di proiezioni la cui somma è uguale alla matrice identità. In simboli, una collezione {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} di matrici di proiezione descrive una misurazione proiettiva se

Π0++Πm1=I.\Pi_0 + \cdots + \Pi_{m-1} = \mathbb{I}.

Quando tale misurazione viene eseguita su un sistema X\mathsf{X} che si trova in uno stato ψ,\vert\psi\rangle, accadono due cose:

  1. Per ogni k{0,,m1},k\in\{0,\ldots,m-1\}, il risultato della misurazione è kk con probabilità uguale a

    Pr(il risultato eˋ k)=Πkψ2.\operatorname{Pr}\bigl(\text{il risultato è $k$}\bigr) = \bigl\| \Pi_k \vert \psi \rangle \bigr\|^2.
  2. Per qualunque risultato kk produca la misurazione, lo stato di X\mathsf{X} diventa

    ΠkψΠkψ.\frac{\Pi_k \vert\psi\rangle}{\bigl\|\Pi_k \vert\psi\rangle\bigr\|}.

È possibile scegliere anche risultati diversi da {0,,m1}\{0,\ldots,m-1\} per le misurazioni proiettive. Più in generale, per qualsiasi insieme finito e non vuoto Σ,\Sigma, se abbiamo una collezione di matrici di proiezione

{Πa:aΣ}\{\Pi_a:a\in\Sigma\}

che soddisfa la condizione

aΣΠa=I,\sum_{a\in\Sigma} \Pi_a = \mathbb{I},

allora questa collezione descrive una misurazione proiettiva i cui possibili risultati coincidono con l'insieme Σ,\Sigma, dove le regole sono le stesse di prima:

  1. Per ogni aΣ,a\in\Sigma, il risultato della misurazione è aa con probabilità uguale a

    Pr(il risultato eˋ a)=Πaψ2.\operatorname{Pr}\bigl(\text{il risultato è $a$}\bigr) = \bigl\| \Pi_a \vert \psi \rangle \bigr\|^2.
  2. Per qualunque risultato aa produca la misurazione, lo stato di X\mathsf{X} diventa

    ΠaψΠaψ.\frac{\Pi_a \vert\psi\rangle}{\bigl\|\Pi_a \vert\psi\rangle\bigr\|}.

Le misurazioni nella base standard sono ad esempio equivalenti a misurazioni proiettive, dove Σ\Sigma è l'insieme degli stati classici del sistema X\mathsf{X} in questione e l'insieme delle matrici di proiezione è {aa:aΣ}.\{\vert a\rangle\langle a\vert:a\in\Sigma\}.

Un altro esempio di misurazione proiettiva, questa volta su due qubit (X,Y),(\mathsf{X},\mathsf{Y}), è dato dall'insieme {Π0,Π1},\{\Pi_0,\Pi_1\}, dove

Π0=ϕ+ϕ++ϕϕ+ψ+ψ+eΠ1=ψψ.\Pi_0 = \vert \phi^+\rangle\langle \phi^+ \vert + \vert \phi^-\rangle\langle \phi^- \vert + \vert \psi^+\rangle\langle \psi^+ \vert \quad\text{e}\quad \Pi_1 = \vert\psi^-\rangle\langle\psi^-\vert.

Se abbiamo più sistemi che si trovano congiuntamente in uno stato quantistico e si esegue una misurazione proiettiva su uno solo di essi, l'effetto è analogo a quello che abbiamo visto per le misurazioni nella base standard — e di fatto ora possiamo descrivere questa azione in termini molto più semplici rispetto a prima.

Per essere precisi, supponiamo di avere due sistemi (X,Y)(\mathsf{X},\mathsf{Y}) in uno stato quantistico ψ,\vert\psi\rangle, e che una misurazione proiettiva descritta dalla collezione {Πa:aΣ}\{\Pi_a : a\in\Sigma\} venga eseguita sul sistema X,\mathsf{X}, mentre non viene fatto nulla su Y.\mathsf{Y}. Questo è equivalente a eseguire la misurazione proiettiva descritta dalla collezione

{ΠaI:aΣ}\bigl\{ \Pi_a \otimes \mathbb{I} \,:\, a\in\Sigma\bigr\}

sul sistema congiunto (X,Y).(\mathsf{X},\mathsf{Y}). Ogni risultato di misurazione aa si ottiene con probabilità

(ΠaI)ψ2,\bigl\| (\Pi_a \otimes \mathbb{I})\vert \psi\rangle \bigr\|^2,

e condizionatamente all'esito a,a, lo stato del sistema congiunto (X,Y)(\mathsf{X},\mathsf{Y}) diventa

(ΠaI)ψ(ΠaI)ψ.\frac{(\Pi_a \otimes \mathbb{I})\vert \psi\rangle}{\bigl\| (\Pi_a \otimes \mathbb{I})\vert \psi\rangle \bigr\|}.

Implementare le misurazioni proiettive

Le misurazioni proiettive arbitrarie possono essere implementate tramite operazioni unitarie, misurazioni nella base standard e un sistema di lavoro aggiuntivo, come verrà spiegato di seguito.

Supponiamo che X\mathsf{X} sia un sistema e {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} una misurazione proiettiva su X.\mathsf{X}. Potremmo facilmente generalizzare questa discussione a misurazioni proiettive con diversi insiemi di risultati, ma per semplicità assumeremo che l'insieme dei possibili risultati sia {0,,m1}.\{0,\ldots,m-1\}.

Notiamo esplicitamente che mm non è necessariamente uguale al numero di stati classici di X\mathsf{X} — indicheremo con nn il numero di stati classici di X,\mathsf{X}, il che significa che ogni matrice Πk\Pi_k è una matrice di proiezione n×n.n\times n.

Poiché assumiamo che {Π0,Πm1}\{\Pi_0\ldots,\Pi_{m-1}\} rappresenti una misurazione proiettiva, è necessariamente vero che

k=0m1Πk=In.\sum_{k = 0}^{m-1} \Pi_k = \mathbb{I}_n.

Il nostro obiettivo è eseguire un processo che abbia lo stesso effetto dell'esecuzione di questa misurazione proiettiva su X,\mathsf{X}, ma utilizzando solo operazioni unitarie e misurazioni nella base standard.

Per farlo utilizzeremo un sistema di lavoro aggiuntivo Y,\mathsf{Y}, e in particolare sceglieremo come insieme di stati classici di Y\mathsf{Y} l'insieme {0,,m1},\{0,\ldots,m-1\}, che coincide con l'insieme dei risultati della misurazione proiettiva. L'idea è di eseguire una misurazione nella base standard su Y\mathsf{Y} e interpretarne il risultato come equivalente al risultato della misurazione proiettiva su X.\mathsf{X}. Dovremo assumere che Y\mathsf{Y} sia inizializzato in uno stato fisso, che scegliamo essere 0.\vert 0\rangle. (Qualsiasi altra scelta di vettore di stato quantistico fisso funzionerebbe, ma scegliere 0\vert 0\rangle rende molto più semplice la spiegazione che segue.)

Ovviamente, affinché una misurazione nella base standard di Y\mathsf{Y} ci dica qualcosa su X,\mathsf{X}, dovremo permettere che X\mathsf{X} e Y\mathsf{Y} interagiscano in qualche modo prima di misurare Y,\mathsf{Y}, eseguendo un'operazione unitaria sul sistema (Y,X).(\mathsf{Y},\mathsf{X}). Consideriamo prima questa matrice:

M=k=0m1k0Πk.M = \sum_{k = 0}^{m-1} \vert k \rangle \langle 0 \vert \otimes \Pi_k.

Espressa esplicitamente come una cosiddetta matrice a blocchi — ovvero una matrice di matrici che interpretiamo come un'unica matrice di dimensioni maggiori — MM si presenta così:

M=(Π000Π100Πm100).M = \begin{pmatrix} \Pi_0 & 0 & \cdots & 0\\[1mm] \Pi_1 & 0 & \cdots & 0\\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] \Pi_{m-1} & 0 & \cdots & 0 \end{pmatrix}.

Qui, ogni 00 rappresenta una matrice n×nn\times n interamente composta di zeri, cosicché l'intera matrice MM è una matrice nm×nm.nm\times nm.

Ora, MM non è certamente una matrice unitaria (a meno che m=1,m=1, nel qual caso Π0=I,\Pi_0 = \mathbb{I}, il che dà M=IM = \mathbb{I} in questo caso banale) perché le matrici unitarie non possono avere colonne (o righe) interamente pari a 0;0; le matrici unitarie hanno colonne che formano basi ortonormali, e il vettore tutto-zero non è un vettore unitario.

Tuttavia, le prime nn colonne della matrice MM sono ortonormali, e questo segue dall'ipotesi che {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} sia una misurazione. Per verificare questa affermazione, si noti che per ogni j{0,,n1},j\in\{0,\ldots,n-1\}, il vettore formato dalla colonna numero jj di MM è il seguente:

ψj=M0,j=k=0m1kΠkj.\vert \psi_j\rangle = M \vert 0, j\rangle = \sum_{k = 0}^{m-1} \vert k \rangle \otimes \Pi_k \vert j\rangle.

Nota che qui stiamo numerando le colonne a partire dalla colonna 0.0. Calcolando il prodotto interno della colonna ii con la colonna jj per i,j{0,,n1}i,j\in\{0,\ldots,n-1\} si ottiene

ψiψj=(k=0m1kΠki)(l=0m1lΠlj)=k=0m1l=0m1kliΠkΠlj=k=0m1iΠkΠkj=k=0m1iΠkj=iIj={1i=j0ij,\begin{aligned} \langle \psi_i \vert \psi_j \rangle & = \biggl(\sum_{k = 0}^{m-1} \vert k \rangle \otimes \Pi_k \vert i\rangle\biggr)^{\dagger} \biggl(\sum_{l = 0}^{m-1} \vert l \rangle \otimes \Pi_l \vert j\rangle\biggr) \\ & = \sum_{k = 0}^{m-1} \sum_{l = 0}^{m-1} \langle k \vert l \rangle \langle i \vert \Pi_k \Pi_l \vert j\rangle\\ & = \sum_{k = 0}^{m-1} \langle i \vert \Pi_k \Pi_k \vert j\rangle\\ & = \sum_{k = 0}^{m-1} \langle i \vert \Pi_k \vert j\rangle\\ & = \langle i \vert \mathbb{I} \vert j \rangle\\ & = \begin{cases} 1 & i = j\\ 0 & i\neq j, \end{cases} \end{aligned}

che è esattamente ciò che volevamo dimostrare.

Quindi, poiché le prime nn colonne della matrice MM sono ortonormali, possiamo sostituire tutte le voci zero rimanenti con valori complessi opportuni in modo che l'intera matrice sia unitaria.

U=(Π0??Π1??Πm1??)U = \begin{pmatrix} \Pi_0 & \fbox{?} & \cdots & \fbox{?}\\[1mm] \Pi_1 & \fbox{?} & \cdots & \fbox{?}\\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] \Pi_{m-1} & \fbox{?} & \cdots & \fbox{?} \end{pmatrix}

Date le matrici Π0,,Πm1,\Pi_0,\ldots,\Pi_{m-1}, possiamo calcolare le matrici adatte da inserire al posto dei blocchi contrassegnati con ?\fbox{?} — tramite il processo di Gram–Schmidt — ma per questa discussione non è importante sapere esattamente quali siano.

Possiamo infine descrivere il processo di misurazione: prima eseguiamo UU sul sistema congiunto (Y,X)(\mathsf{Y},\mathsf{X}) e poi misuriamo Y\mathsf{Y} con una misurazione nella base standard. Per un arbitrario stato ϕ\vert \phi \rangle di X,\mathsf{X}, otteniamo lo stato

U(0ϕ)=M(0ϕ)=k=0m1kΠkϕ,U \bigl( \vert 0\rangle \vert \phi\rangle\bigr) = M \bigl( \vert 0\rangle \vert \phi\rangle\bigr) = \sum_{k = 0}^{m-1} \vert k\rangle \otimes \Pi_k \vert\phi\rangle,

dove la prima uguaglianza segue dal fatto che UU e MM coincidono sulle prime nn colonne. Quando eseguiamo una misurazione nella base standard su Y,\mathsf{Y}, otteniamo ciascun risultato kk con probabilità

Πkϕ2,\bigl\| \Pi_k \vert \phi\rangle \bigr\|^2,

nel qual caso lo stato di (Y,X)(\mathsf{Y},\mathsf{X}) diventa

kΠkϕΠkϕ.\vert k\rangle \otimes \frac{\Pi_k \vert \phi\rangle}{\bigl\| \Pi_k \vert \phi\rangle \bigr\|}.