Vai al contenuto principale

Equivalenza delle rappresentazioni

Abbiamo ora discusso tre diversi modi per rappresentare i canali in termini matematici: le rappresentazioni di Stinespring, le rappresentazioni di Kraus e le rappresentazioni di Choi. Abbiamo anche la definizione di canale, che stabilisce che un canale è una mappa lineare che trasforma sempre le matrici densità in matrici densità, anche quando il canale viene applicato solo a una parte di un sistema composto. Il resto della lezione è dedicato a una dimostrazione matematica che le tre rappresentazioni sono equivalenti e catturano con precisione la definizione.

Panoramica della dimostrazione

Il nostro obiettivo è stabilire l'equivalenza di un insieme di quattro enunciati, e inizieremo scrivendoli in modo preciso. Tutti e quattro gli enunciati seguono le stesse convenzioni usate nel corso della lezione, ovvero che Φ\Phi è una mappa lineare da matrici quadrate a matrici quadrate, le righe e le colonne delle matrici in ingresso sono state messe in corrispondenza con gli stati classici di un sistema X\mathsf{X} (il sistema di ingresso), e le righe e le colonne delle matrici in uscita sono state messe in corrispondenza con gli stati classici di un sistema Y\mathsf{Y} (il sistema di uscita).

  1. Φ\Phi è un canale da X\mathsf{X} a Y.\mathsf{Y}. Cioè, Φ\Phi trasforma sempre le matrici densità in matrici densità, anche quando agisce su una parte di un sistema composto più grande.

  2. La matrice di Choi J(Φ)J(\Phi) è semidefinita positiva e soddisfa la condizione TrY(J(Φ))=IX.\operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) = \mathbb{I}_{\mathsf{X}}.

  3. Esiste una rappresentazione di Kraus per Φ.\Phi. Cioè, esistono matrici A0,,AN1A_0,\ldots,A_{N-1} per cui l'equazione Φ(ρ)=k=0N1AkρAk\Phi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger} è vera per ogni ingresso ρ,\rho, e che soddisfano la condizione k=0N1AkAk=IX.\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}.

  4. Esiste una rappresentazione di Stinespring per Φ.\Phi. Cioè, esistono sistemi W\mathsf{W} e G\mathsf{G} per cui le coppie (W,X)(\mathsf{W},\mathsf{X}) e (G,Y)(\mathsf{G},\mathsf{Y}) hanno lo stesso numero di stati classici, insieme a una matrice unitaria UU che rappresenta un'operazione unitaria da (W,X)(\mathsf{W},\mathsf{X}) a (G,Y),(\mathsf{G},\mathsf{Y}), tale che Φ(ρ)=TrG(U(00ρ)U).\Phi(\rho) = \operatorname{Tr}_{\mathsf{G}}\bigl( U (\vert 0\rangle\langle 0 \vert \otimes \rho) U^{\dagger} \bigr).

Il modo in cui funziona la dimostrazione è che si prova un ciclo di implicazioni: il primo enunciato nella nostra lista implica il secondo, il secondo implica il terzo, il terzo implica il quarto, e il quarto enunciato implica il primo. Questo stabilisce che tutti e quattro gli enunciati sono equivalenti — ovvero che sono tutti veri o tutti falsi per una data scelta di Φ\Phi — perché le implicazioni possono essere seguite transitivamente da un enunciato a qualsiasi altro.

Questa è una strategia comune quando si dimostra che un insieme di enunciati è equivalente, e un trucco utile da usare in tale contesto è impostare le implicazioni in modo da renderle il più semplice possibile da dimostrare. È questo il caso qui — e in effetti abbiamo già incontrato due delle quattro implicazioni.

Dai canali alle matrici di Choi

Riferendoci agli enunciati elencati sopra tramite i loro numeri, la prima implicazione da dimostrare è 1 \Rightarrow 2. Questa implicazione è già stata discussa nel contesto dello stato di Choi di un canale. Qui riassumeremo i dettagli matematici.

Supponiamo che l'insieme degli stati classici del sistema di ingresso X\mathsf{X} sia Σ\Sigma e sia n=Σ.n = \vert\Sigma\vert. Consideriamo la situazione in cui Φ\Phi viene applicato alla seconda di due copie di X\mathsf{X} nello stato

ψ=1naΣaa,\vert \psi \rangle = \frac{1}{\sqrt{n}} \sum_{a \in \Sigma} \vert a \rangle \otimes \vert a \rangle,

che, come matrice densità, è data da

ψψ=1na,bΣabab.\vert \psi \rangle \langle \psi \vert = \frac{1}{n} \sum_{a,b \in \Sigma} \vert a\rangle\langle b \vert \otimes \vert a\rangle\langle b \vert.

Il risultato può essere scritto come

(IdΦ)(ψψ)=1na,b=0n1abΦ(ab)=J(Φ)n,(\operatorname{Id}\otimes \,\Phi) \bigl(\vert \psi \rangle \langle \psi \vert\bigr) = \frac{1}{n} \sum_{a,b = 0}^{n-1} \vert a\rangle\langle b \vert \otimes \Phi\bigl(\vert a\rangle\langle b \vert\bigr) = \frac{J(\Phi)}{n},

e per l'assunzione che Φ\Phi sia un canale, questo deve essere una matrice densità. Come tutte le matrici densità deve essere semidefinita positiva, e moltiplicare una matrice semidefinita positiva per un numero reale positivo produce un'altra matrice semidefinita positiva, e quindi J(Φ)0.J(\Phi) \geq 0.

Inoltre, sotto l'assunzione che Φ\Phi sia un canale, deve preservare la traccia, e quindi

TrY(J(Φ))=a,bΣTr(Φ(ab))ab=a,bΣTr(ab)ab=aΣaa=IX.\begin{aligned} \operatorname{Tr}_{\mathsf{Y}} (J(\Phi)) & = \sum_{a,b\in\Sigma} \operatorname{Tr}\bigl(\Phi( \vert a\rangle\langle b \vert)\bigr) \, \vert a\rangle\langle b \vert\\ & = \sum_{a,b\in\Sigma} \operatorname{Tr}\bigl(\vert a\rangle\langle b \vert\bigr) \, \vert a\rangle\langle b \vert\\ & = \sum_{a\in\Sigma} \vert a\rangle\langle a \vert\\ & = \mathbb{I}_{\mathsf{X}}. \end{aligned}

Dalla rappresentazione di Choi a quella di Kraus

La seconda implicazione, sempre riferendoci agli enunciati nella nostra lista tramite i loro numeri, è 2 \Rightarrow 3. Per essere chiari, stiamo ignorando gli altri enunciati — e in particolare non possiamo fare l'assunzione che Φ\Phi sia un canale. Tutto ciò con cui abbiamo a che fare è che Φ\Phi è una mappa lineare la cui rappresentazione di Choi soddisfa J(Φ)0J(\Phi) \geq 0 e TrY(J(Φ))=IX.\operatorname{Tr}_{\mathsf{Y}} (J(\Phi)) = \mathbb{I}_{\mathsf{X}}.

Questo, tuttavia, è tutto ciò che ci serve per concludere che Φ\Phi ha una rappresentazione di Kraus

Φ(ρ)=k=0N1AkρAk\Phi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger}

per cui la condizione

k=0N1AkAk=IX\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}

è soddisfatta.

Iniziamo con l'assunzione fondamentale che J(Φ)J(\Phi) sia semidefinita positiva, il che significa che è possibile esprimerla nella forma

J(Φ)=k=0N1ψkψk(1)J(\Phi) = \sum_{k = 0}^{N-1} \vert \psi_k \rangle \langle \psi_k \vert \tag{1}

per qualche scelta dei vettori ψ0,,ψN1.\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle. In generale ci saranno più modi per farlo — e in effetti questo rispecchia direttamente la libertà che si ha nello scegliere una rappresentazione di Kraus per Φ.\Phi.

Un modo per ottenere tale espressione è usare prima il teorema spettrale per scrivere

J(Φ)=k=0N1λkγkγk,J(\Phi) = \sum_{k = 0}^{N-1} \lambda_k \vert \gamma_k \rangle \langle \gamma_k \vert,

in cui λ0,,λN1\lambda_0,\ldots,\lambda_{N-1} sono gli autovalori di J(Φ)J(\Phi) (che sono necessariamente numeri reali non negativi perché J(Φ)J(\Phi) è semidefinita positiva) e γ0,,γN1\vert\gamma_0\rangle,\ldots,\vert\gamma_{N-1}\rangle sono autovettori unitari corrispondenti agli autovalori λ0,,λN1.\lambda_0,\ldots,\lambda_{N-1}.

Nota che, sebbene non vi sia libertà nella scelta degli autovalori (eccetto per come vengono ordinati), vi è libertà nella scelta degli autovettori, in particolare quando ci sono autovalori con molteplicità maggiore di uno. Quindi, questa non è un'espressione unica di J(Φ)J(\Phi) — stiamo solo assumendo di averne una. In ogni caso, poiché gli autovalori sono numeri reali non negativi, hanno radici quadrate non negative, e quindi possiamo scegliere

ψk=λkγk\vert\psi_k\rangle = \sqrt{\lambda_k} \vert \gamma_k\rangle

per ogni k=0,,N1k = 0,\ldots,N-1 per ottenere un'espressione della forma (1).(1).

Non è tuttavia essenziale che l'espressione (1)(1) provenga da una decomposizione spettrale in questo modo, e in particolare i vettori ψ0,,ψN1\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle non devono essere ortogonali in generale. È degno di nota, però, che possiamo scegliere questi vettori in modo che siano ortogonali se lo desideriamo — e inoltre non è mai necessario che NN sia maggiore di nmnm (ricordando che nn e mm denotano i numeri di stati classici di X\mathsf{X} e Y,\mathsf{Y}, rispettivamente).

Successivamente, ciascuno dei vettori ψ0,,ψN1\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle può essere ulteriormente decomposto come

ψk=aΣaϕk,a,\vert\psi_k\rangle = \sum_{a\in\Sigma} \vert a\rangle \otimes \vert \phi_{k,a}\rangle,

dove i vettori {ϕk,a}\{ \vert \phi_{k,a}\rangle \} hanno componenti corrispondenti agli stati classici di Y\mathsf{Y} e possono essere determinati esplicitamente dall'equazione

ϕk,a=(aIY)ψk\vert \phi_{k,a}\rangle = \bigl( \langle a \vert \otimes \mathbb{I}_{\mathsf{Y}}\bigr) \vert \psi_k\rangle

per ogni aΣa\in\Sigma e k=0,,N1.k=0,\ldots,N-1. Sebbene ψ0,,ψN1\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle non siano necessariamente vettori unitari, questo è lo stesso processo che useremmo per analizzare cosa accadrebbe se venisse eseguita una misura nella base standard sul sistema X\mathsf{X} dato un vettore di stato quantistico della coppia (X,Y).(\mathsf{X},\mathsf{Y}).

Ed ecco il trucco che fa funzionare questa parte della dimostrazione. Definiamo le nostre matrici di Kraus A0,,AN1A_0,\ldots,A_{N-1} secondo la seguente equazione.

Ak=aΣϕk,aaA_k = \sum_{a\in\Sigma} \vert \phi_{k,a}\rangle\langle a \vert

Possiamo pensare a questa formula in modo puramente simbolico: a\vert a\rangle viene effettivamente ribaltato per formare a\langle a\vert e spostato sul lato destro, formando una matrice. Ai fini della verifica della dimostrazione, la formula è tutto ciò che ci serve.

Esiste tuttavia una relazione semplice e intuitiva tra il vettore ψk\vert\psi_k\rangle e la matrice AkA_k, ovvero che vettorizzando AkA_k si ottiene ψk.\vert\psi_k\rangle. Vettorizzare AkA_k significa impilare le colonne una sull'altra (con la colonna più a sinistra in cima e quella più a destra in fondo), per formare un vettore. Ad esempio, se X\mathsf{X} e Y\mathsf{Y} sono entrambi qubit, e per qualche scelta di kk abbiamo

ψk=α0000+α0101+α1010+α1111=(α00α01α10α11),\begin{aligned} \vert\psi_k\rangle & = \alpha_{00} \vert 0\rangle \otimes \vert 0\rangle + \alpha_{01} \vert 0\rangle \otimes \vert 1\rangle + \alpha_{10} \vert 1\rangle \otimes \vert 0\rangle + \alpha_{11} \vert 1\rangle \otimes \vert 1\rangle\\[2mm] & = \begin{pmatrix} \alpha_{00} \\[1mm] \alpha_{01} \\[1mm] \alpha_{10} \\[1mm] \alpha_{11} \end{pmatrix}, \end{aligned}

allora

Ak=α0000+α0110+α1001+α1111=(α00α10α01α11).\begin{aligned} A_k & = \alpha_{00} \vert 0\rangle\langle 0\vert + \alpha_{01} \vert 1\rangle\langle 0\vert + \alpha_{10} \vert 0\rangle\langle 1\vert + \alpha_{11} \vert 1\rangle\langle 1\vert\\[2mm] & = \begin{pmatrix} \alpha_{00} & \alpha_{10}\\[1mm] \alpha_{01} & \alpha_{11} \end{pmatrix}. \end{aligned}

(Attenzione: a volte la vettorizzazione di una matrice è definita in modo leggermente diverso, ovvero che le righe della matrice vengono trasposte e impilate una sull'altra per formare un vettore colonna.)

Prima verificheremo che questa scelta di matrici di Kraus descriva correttamente la mappa Φ,\Phi, dopodiché verificheremo l'altra condizione richiesta. Per tenere le cose chiare, definiamo una nuova mappa Ψ\Psi come segue.

Ψ(ρ)=k=0N1AkρAk\Psi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger}

Quindi, il nostro obiettivo è verificare che Ψ=Φ.\Psi = \Phi.

Il modo in cui possiamo farlo è confrontare le rappresentazioni di Choi di queste mappe. Le rappresentazioni di Choi sono fedeli, quindi Ψ=Φ\Psi = \Phi se e solo se J(Φ)=J(Ψ).J(\Phi) = J(\Psi). A questo punto possiamo semplicemente calcolare J(Ψ)J(\Psi) usando le espressioni

ψk=aΣaϕk,aeAk=aΣϕk,aa\vert\psi_k\rangle = \sum_{a\in\Sigma} \vert a\rangle \otimes \vert \phi_{k,a}\rangle \quad\text{e}\quad A_k = \sum_{a\in\Sigma} \vert \phi_{k,a}\rangle\langle a \vert

insieme alla bilinearità dei prodotti tensoriali per semplificare.

J(Ψ)=a,bΣabk=0N1AkabAk=a,bΣabk=0N1ϕk,aϕk,b=k=0N1(aΣaϕk,a)(bΣbϕk,b)=k=0N1ψkψk=J(Φ)\begin{aligned} J(\Psi) & = \sum_{a,b\in\Sigma} \vert a\rangle \langle b \vert \otimes \sum_{k = 0}^{N-1} A_k \vert a\rangle \langle b \vert A_k^{\dagger}\\[2mm] & = \sum_{a,b\in\Sigma} \vert a\rangle \langle b \vert \otimes \sum_{k = 0}^{N-1} \vert \phi_{k,a} \rangle \langle \phi_{k,b} \vert \\[2mm] & = \sum_{k = 0}^{N-1} \biggl(\sum_{a\in\Sigma} \vert a\rangle \otimes \vert \phi_{k,a} \rangle\biggr) \biggl(\sum_{b\in\Sigma} \langle b\vert \otimes \langle \phi_{k,b} \vert\biggr)\\[2mm] & = \sum_{k = 0}^{N-1} \vert \psi_k \rangle \langle \psi_k \vert \\[2mm] & = J(\Phi) \end{aligned}

Quindi, le nostre matrici di Kraus descrivono correttamente Φ.\Phi.

Resta da verificare la condizione richiesta su A0,,AN1,A_0,\ldots,A_{N-1}, che risulta essere equivalente all'assunzione TrY(J(Φ))=IX\operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) = \mathbb{I}_{\mathsf{X}} (che non abbiamo ancora usato). Quello che mostreremo è questa relazione:

(k=0N1AkAk)T=TrY(J(Φ))(2)\Biggl( \sum_{k = 0}^{N-1} A_k^{\dagger} A_k \Biggr)^{T} = \operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) \tag{2}

(in cui ci riferiamo alla trasposta della matrice sul lato sinistro).

Partendo dal lato sinistro, possiamo prima osservare che

(k=0N1AkAk)T=(k=0N1a,bΣbϕk,bϕk,aa)T=k=0N1a,bΣϕk,bϕk,aab.\begin{aligned} \Biggl(\sum_{k = 0}^{N-1} A_k^{\dagger} A_k\Biggr)^T & = \Biggl(\sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \vert b \rangle \langle \phi_{k,b} \vert \phi_{k,a} \rangle \langle a \vert\Biggr)^T\\ & = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \langle \phi_{k,b} \vert \phi_{k,a} \rangle \vert a \rangle \langle b \vert. \end{aligned}

L'ultima uguaglianza segue dal fatto che la trasposizione è lineare e manda ba\vert b\rangle\langle a \vert in ab.\vert a\rangle\langle b \vert.

Passando al lato destro della nostra equazione, abbiamo

J(Φ)=k=0N1ψkψk=k=0N1a,bΣabϕk,aϕk,bJ(\Phi) = \sum_{k = 0}^{N-1} \vert \psi_k\rangle\langle\psi_k \vert = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \vert a\rangle \langle b \vert \otimes \vert\phi_{k,a}\rangle\langle \phi_{k,b} \vert

e quindi

TrY(J(Φ))=k=0N1a,bΣTr(ϕk,aϕk,b)ab=k=0N1a,bΣϕk,bϕk,aab.\begin{aligned} \operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) & = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \operatorname{Tr}\bigl(\vert\phi_{k,a}\rangle\langle \phi_{k,b} \vert \bigr)\, \vert a\rangle \langle b \vert\\ & = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \langle \phi_{k,b} \vert \phi_{k,a} \rangle \vert a \rangle \langle b \vert. \end{aligned}

Abbiamo ottenuto lo stesso risultato, e quindi l'equazione (2)(2) è stata verificata. Ne consegue, per l'assunzione TrY(J(Φ))=IX,\operatorname{Tr}_{\mathsf{Y}} (J(\Phi)) = \mathbb{I}_{\mathsf{X}}, che

(k=0N1AkAk)T=IX\Biggl(\sum_{k = 0}^{N-1} A_k^{\dagger} A_k\Biggr)^T = \mathbb{I}_{\mathsf{X}}

e quindi, poiché la matrice identità è la propria trasposta, la condizione richiesta è vera.

k=0N1AkAk=IX\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}

Da Kraus a rappresentazioni di Stinespring

Supponiamo ora di avere una rappresentazione di Kraus di una mappatura

Φ(ρ)=k=0N1AkρAk\Phi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger}

per cui

k=0N1AkAk=IX.\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}.

Il nostro obiettivo è trovare una rappresentazione di Stinespring per Φ.\Phi.

La prima cosa che vogliamo fare è scegliere il sistema spazzatura G\mathsf{G} in modo che il suo insieme di stati classici sia {0,,N1}.\{0,\ldots,N-1\}. Affinché (W,X)(\mathsf{W},\mathsf{X}) e (G,Y)(\mathsf{G},\mathsf{Y}) abbiano la stessa dimensione, però, è necessario che nn divida mN,m N, il che ci permette di scegliere W\mathsf{W} con stati classici {0,,d1}\{0,\ldots,d-1\} dove d=mN/n.d = mN/n.

Per una scelta arbitraria di n,n, mm e N,N, potrebbe non essere garantito che mN/nmN/n sia un intero, quindi non siamo liberi di scegliere G\mathsf{G} con insieme di stati classici {0,,N1}\{0,\ldots,N-1\} in modo incondizionato. Possiamo però sempre aumentare NN arbitrariamente nella rappresentazione di Kraus scegliendo Ak=0A_k = 0 per quanti valori aggiuntivi di kk desideriamo.

Quindi, se assumiamo implicitamente che mN/nmN/n sia un intero — il che equivale a richiedere che NN sia un multiplo di m/gcd(n,m)m/\operatorname{gcd}(n,m) — siamo liberi di prendere G\mathsf{G} con insieme di stati classici {0,,N1}.\{0,\ldots,N-1\}. In particolare, se N=nm,N = nm, possiamo scegliere W\mathsf{W} con m2m^2 stati classici.

Resta da scegliere U,U, e lo faremo seguendo il pattern sottostante.

U=(A0??A1??AN1??)U = \begin{pmatrix} A_{0} & \fbox{?} & \cdots & \fbox{?} \\[1mm] A_{1} & \fbox{?} & \cdots & \fbox{?} \\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] A_{N-1} & \fbox{?} & \cdots & \fbox{?} \end{pmatrix}

Per essere precisi, questo pattern intende rappresentare una matrice a blocchi, dove ogni blocco (inclusi A0,,AN1A_{0},\ldots,A_{N-1} e i blocchi contrassegnati con un punto interrogativo) ha mm righe e nn colonne. Ci sono NN righe di blocchi, il che significa che ci sono d=mN/nd = mN/n colonne di blocchi.

Espresso in termini più formali, definiremo UU come

U=k=0N1j=0d1kjMk,j=(M0,0M0,1M0,d1M1,0M1,1M1,d1MN1,0MN1,1MN1,d1)\begin{aligned} U & = \sum_{k=0}^{N-1} \sum_{j=0}^{d-1} \vert k \rangle \langle j \vert \otimes M_{k,j} \\[4mm] & = \begin{pmatrix} M_{0,0} & M_{0,1} & \cdots & M_{0,d-1} \\[1mm] M_{1,0} & M_{1,1} & \cdots & M_{1,d-1} \\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] M_{N-1,0} & M_{N-1,1} & \cdots & M_{N-1,d-1} \end{pmatrix} \end{aligned}

dove ogni matrice Mk,jM_{k,j} ha mm righe e nn colonne, e in particolare poniamo Mk,0=AkM_{k,0} = A_k per k=0,,N1.k = 0,\ldots,N-1.

Questa deve essere una matrice unitaria, e i blocchi contrassegnati con un punto interrogativo — ovvero Mk,jM_{k,j} per j>0j>0 — devono essere scelti tenendo ciò a mente; al di là del fatto che consentono a UU di essere unitaria, tuttavia, questi blocchi non avranno alcuna rilevanza nella dimostrazione.

Mettiamo da parte per un momento la preoccupazione che UU sia unitaria e concentriamoci sull'espressione

TrG(U(00Wρ)U)\operatorname{Tr}_{\mathsf{G}} \bigl( U (\vert 0\rangle \langle 0 \vert_{\mathsf{W}} \otimes \rho)U^{\dagger}\bigr)

che descrive lo stato di uscita di Y\mathsf{Y} dato lo stato di ingresso ρ\rho di X\mathsf{X} nella nostra rappresentazione di Stinespring. Possiamo riscrivere

U(00ρ)U=U(0IW)ρ(0IW)U,U(\vert 0\rangle\langle 0 \vert \otimes \rho)U^{\dagger} = U(\vert 0\rangle\otimes\mathbb{I}_{\mathsf{W}}) \rho (\langle 0\vert \otimes \mathbb{I}_{\mathsf{W}}) U^{\dagger},

e dalla nostra scelta di UU vediamo che

U(0IW)=k=0N1kAk.U(\vert 0\rangle\otimes\mathbb{I}_{\mathsf{W}}) = \sum_{k = 0}^{N-1} \vert k\rangle \otimes A_k.

Troviamo quindi che

U(00ρ)U=j,k=0N1kjAkρAj,U(\vert 0\rangle\langle 0 \vert \otimes \rho)U^{\dagger} = \sum_{j,k = 0}^{N-1} \vert k\rangle\langle j\vert \otimes A_k \rho A_j^{\dagger},

e quindi

TrG(U(00Wρ)U)=j,k=0N1Tr(kj)AkρAj=k=0N1AkρAk=Φ(ρ).\begin{aligned} \operatorname{Tr}_{\mathsf{G}} \bigl( U (\vert 0\rangle \langle 0 \vert_{\mathsf{W}} \otimes \rho) U^{\dagger}\bigr) & = \sum_{j,k = 0}^{N-1} \operatorname{Tr}\bigl(\vert k\rangle\langle j\vert\bigr) \, A_k \rho A_j^{\dagger} \\ & = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger} \\ & = \Phi(\rho). \end{aligned}

Abbiamo quindi ottenuto una rappresentazione corretta per la mappatura Φ,\Phi, e resta da verificare che possiamo scegliere UU unitaria.

Consideriamo le prime nn colonne di UU quando viene scelta secondo il pattern sopra. Prendendo solo queste colonne, abbiamo una matrice a blocchi

(A0A1AN1).\begin{pmatrix} A_0\\[1mm] A_1\\[1mm] \vdots\\[1mm] A_{N-1} \end{pmatrix}.

Ci sono nn colonne, una per ogni stato classico di X,\mathsf{X}, e come vettori le denominiamo γa\vert \gamma_a \rangle per ogni aΣ.a\in\Sigma. Ecco una formula per questi vettori che può essere confrontata con la rappresentazione a blocchi sopra.

γa=k=0N1kAka\vert \gamma_a\rangle = \sum_{k = 0}^{N-1} \vert k\rangle \otimes A_k \vert a \rangle

Calcoliamo ora il prodotto interno tra due qualsiasi di questi vettori, ossia quelli corrispondenti a una qualsiasi scelta di a,bΣ.a,b\in\Sigma.

γaγb=j,k=0N1kjaAkAjb=a(k=0N1AkAk)b\langle \gamma_a \vert \gamma_b \rangle = \sum_{j,k = 0}^{N-1} \langle k \vert j \rangle \, \langle a \vert A_k^{\dagger} A_j \vert b\rangle = \langle a \vert \Biggl( \sum_{k = 0}^{N-1} A_k^{\dagger} A_k \Biggr) \vert b\rangle

Per l'ipotesi

k=0m1AkAk=IX\sum_{k = 0}^{m-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}

concludiamo che gli nn vettori colonna {γa:aΣ}\{\vert\gamma_a\rangle\,:\,a\in\Sigma\} formano un insieme ortonormale:

γaγb={1a=b0ab\langle \gamma_a \vert \gamma_b \rangle = \begin{cases} 1 & a = b\\ 0 & a\neq b \end{cases}

per ogni a,bΣ.a,b\in\Sigma.

Questo implica che è possibile completare le colonne rimanenti di UU in modo da renderla una matrice unitaria. In particolare, per selezionare le colonne rimanenti si può usare il processo di ortonormalizzazione di Gram-Schmidt. Qualcosa di analogo è stato fatto nella lezione Quantum circuits di "Basics of quantum information" nel contesto del problema della discriminazione degli stati.

Da rappresentazioni di Stinespring alla definizione

L'ultima implicazione è 4 \Rightarrow 1. Ossia, assumiamo di avere un'operazione unitaria che trasforma una coppia di sistemi (W,X)(\mathsf{W},\mathsf{X}) in una coppia (G,Y),(\mathsf{G},\mathsf{Y}), e il nostro obiettivo è concludere che la mappatura

Φ(ρ)=TrG(U(00Wρ)U)\Phi(\rho) = \operatorname{Tr}_{\mathsf{G}} \bigl( U (\vert 0\rangle \langle 0 \vert_{\mathsf{W}} \otimes \rho)U^{\dagger}\bigr)

è un canale valido. Dalla sua forma è evidente che Φ\Phi è lineare, e resta da verificare che trasformi sempre matrici densità in matrici densità. Questo è abbastanza diretto e abbiamo già discusso i punti chiave.

In particolare, se partiamo da una matrice densità σ\sigma di un sistema composto (Z,X)(\mathsf{Z},\mathsf{X}) e aggiungiamo un ulteriore sistema di workspace W,\mathsf{W}, otterremo certamente ancora una matrice densità. Se riordiniamo i sistemi (W,Z,X)(\mathsf{W},\mathsf{Z},\mathsf{X}) per comodità, possiamo scrivere questo stato come

00Wσ.\vert 0\rangle\langle 0\vert_{\mathsf{W}} \otimes \sigma.

Applichiamo poi l'operazione unitaria U,U, che come abbiamo già discusso è un canale valido e quindi mappa matrici densità in matrici densità. Infine, la traccia parziale di una matrice densità è anch'essa una matrice densità.

Un altro modo per dirlo è osservare innanzitutto che ognuna delle seguenti operazioni è un canale valido:

  1. Introdurre un sistema di workspace inizializzato.
  2. Eseguire un'operazione unitaria.
  3. Tracciare fuori un sistema.

E infine, qualsiasi composizione di canali è ancora un canale — il che è immediato dalla definizione, ma è anche un fatto degno di nota di per sé.