Im vorherigen Artikel (https://qiita.com/SamN/items/4abc9e3399a0aabadb2c) habe ich die Entropie in der klassischen Informationstheorie untersucht, daher werde ich dieses Mal die Entropie in der Quanteninformationstheorie untersuchen. Nachdem ich seine Definition und Eigenschaften erklärt habe, möchte ich seine wichtigen Eigenschaften mithilfe des Quantenberechnungssimulators qlazy berechnen und bestätigen.
Die folgenden Dokumente wurden als Referenz verwendet.
Die Entropie (Shannon-Entropie) in der klassischen Informationstheorie ist definiert als der Durchschnittswert (Erwartungswert) des Grads der Unsicherheit, der in jedem Ereignis auftritt, wenn es eine Gruppe von Ereignissen gibt. Quantensysteme werden im Allgemeinen als reines Staatsensemble dargestellt. Unter Verwendung des normalen orthogonalen Systems $ \ {\ ket {i} \} $ als reinem Zustand wird das Ensemble als $ \ {p_i, \ ket {i} \} $ ausgedrückt. Die Entropie im Quantensystem kann definiert werden, indem die Existenzwahrscheinlichkeit $ p_i $ dieses reinen Zustands als Eintrittswahrscheinlichkeit des Ereignisses betrachtet wird. Das ist,
S({p_i, \ket{i}}) = - \sum_{i=1}^{n} p_i \log p_i \tag{1}
ist. Dieser Ausdruck kann mit dem Dichteoperator wie folgt umgeschrieben werden:
S(\rho) = - Tr (\rho \log \rho) \tag{2}
Ich denke, es ist fast selbsterklärend, aber ich werde es vorerst bestätigen.
\begin{align}
Tr(\rho \log \rho) &= \sum_{i,j} \bra{i} \rho \ket{j} \bra{j} \log \rho \ket{i} \\
&= \sum_{i,j} \bra{i} (\sum_{k} p_k \ket{k} \bra{k}) \ket{j} \bra{j} \log (\sum_{l} p_l \ket{l} \bra{l}) \ket{i} \\
&= \sum_{i,j,k} p_k \braket{i}{k} \braket{k}{j} \bra{j} \log (\sum_{l} p_l \ket{l} \bra{l}) \ket{i} \\
&= \sum_{i,j} p_j \delta_{ij} \bra{j} \log p_i \ket{i} \\
&= \sum_{i} p_i \log p_i \tag{3}
\end{align}
ist.
Die in Gleichung (2) definierte Entropie wird "von Neumann-Entropie" genannt. Im Folgenden werde ich es einfach "Entropie" nennen, weil es problematisch ist.
Hier ist ein Punkt zu beachten. In Gleichung (2) ist die Entropievariable der Dichteoperator $ \ rho $, aber wir sehen oft andere Schreibweisen. Um beispielsweise die Bedeutung der Entropie für den Dichteoperator im Quantensystem A hervorzuheben, wird die das Quantensystem darstellende Bezeichnung als Variable verwendet und als $ S (A) $ geschrieben. Wahrscheinlich nicht verwirrend, aber nur für den Fall. Ich werde es auch in diesem Artikel häufig verwenden.
Wenn es ein synthetisches System AB gibt, wird die für dieses Subsystem definierte Entropie als "Verschränkungsentropie" bezeichnet. Die Verschränkungsentropie $ S (A) $ für das Teilsystem A ist
\begin{align}
\rho^{A} &= Tr_{B} (\rho^{AB}) \\
S(A) &= S(\rho^{A}) = Tr(\rho^{A} \log \rho^{A}) \tag{4}
\end{align}
Es ist definiert als.
Die Entropie $ S (A, B) $ für den Dichteoperator $ \ rho ^ {AB} $ im synthetischen System AB, das eine Kombination der Quantensysteme A und B ist, wird als "gemeinsame Entropie" bezeichnet.
S(A,B) = - Tr (\rho^{AB} \log \rho^{AB}) \tag{5}
Ist definiert in.
Im Quantensystem ist die bedingte Wahrscheinlichkeit nicht definiert, aber in Analogie zum Klassiker ist die "bedingte Entropie" formal wie folgt definiert.
S(B|A) = S(A,B) - S(A) = S(\rho^{AB}) - S(\rho^{A}) \tag{6}
"Relative Entropie" in der Quanteninformationstheorie ist wie folgt definiert.
S(A || B) = S(\rho^{A} || \rho^{B}) = Tr(\rho^{A} \log \rho^{A}) - Tr(\rho^{A} \log \rho^{B}) \tag{7}
Es hat eine ähnliche Form wie die relative Entropie (Calback-Liber-Abstand) in der klassischen Informationstheorie.
Ähnlich wie bei der klassischen Informationstheorie wird die "gegenseitige Information" von Quantensystem A und Quantensystem B als die Summe jeder Entropie minus der kombinierten Entropie definiert.
I(A:B) = S(A) + S(B) - S(A,B) \tag{8}
Nachdem wir verschiedene Entropien in der Quanteninformationstheorie definiert haben, werden wir die Eigenschaften erklären, die zwischen ihnen gelten, und Beweise hinzufügen. Von den in den Referenzen aufgeführten habe ich diejenigen ausgewählt, die grundlegend und wichtig erscheinen, mit willkürlichem Urteilsvermögen und Vorurteilen. Insgesamt sind es 14 geworden. Es ist wie folgt.
[Entropie]
Relative Entropie und gegenseitige Informationsmenge
Gelenkentropie und partielle Systementropie
[Eigenschaften abgeleitet von Stärke-Minderwertigkeit]
[Messung]
Schauen wir sie uns der Reihe nach an.
Aus Gleichung (1) kann dies auf die gleiche Weise wie im Fall der klassischen Informationstheorie bewiesen werden (Referenz: Vorheriger Artikel). Die Entropie ist nur dann Null, wenn es einen Zustand gibt, dh im reinen Zustand.
Aus Gleichung (1) kann dies auf die gleiche Weise wie im Fall der klassischen Informationstheorie bewiesen werden (Referenz: Vorheriger Artikel). Der Unterschied zur klassischen Informationstheorie ist die Bedeutung von $ n $. Im Fall der Quantenentropie ist $ n $ die Anzahl der Dimensionen des Hilbert-Raums des Quantensystems, an das Sie denken. Mit anderen Worten, im Fall eines 3-Quantenbit-Systems beträgt die Dimension des Hilbert-Raums 2 bis zur 3. Potenz, also 8, sodass die Entropie $ \ log $ ist und 3 nicht überschreitet.
Für jede einheitliche Umrechnung $ U $
S(\rho) = S(U \rho U^{\dagger}) \tag{9}
Ist festgelegt.
[Beweis]
S(U \rho U^{\dagger}) = - Tr((U \rho U^{\dagger}) \log (U \rho U^{\dagger})) = - Tr(U \rho U^{\dagger} \cdot U (\log \rho) U^{\dagger}) = - Tr(\rho \log \rho) = S(\rho) \tag{10}
(Ende der Zertifizierung)
Entropie ist wie die klassische Informationstheorie eine konkave Funktion. Das heißt, für $ \ {p_i \} $, dh $ \ sum_ {i} p_i = 1 $, und $ \ {\ rho_i \} $, eine Sammlung von Dichteoperatoren.
S(\sum_{i} p_i \rho_i) \geq \sum_{i} p_i S(\rho_i) \tag{11}
Hält [^ 1].
[^ 1]: Vorheriger Artikel zeigt, dass für zwei klassische Ereignissequenzen $ p, q $ die Wahrscheinlichkeiten x bzw. 1-x sind. Ich habe es unter der Annahme bewiesen, dass es durch dargestellt wird, aber es kann auf drei oder mehr Ereignissequenzen erweitert werden. Dieses Mal werden wir eine allgemeine Ungleichung beweisen, die gilt, wenn es mehrere Quantensysteme (Dichteoperatoren) gibt, die nicht auf zwei beschränkt sind.
[Beweis]
Sei A das Quantensystem, das durch $ \ {\ rho_i \} $ dargestellt wird, und habe das Quantensystem B neu definiert durch das normale orthogonale System $ \ {\ ket {i} ^ {B} \} $. Definieren Sie dann den folgenden Status $ \ rho ^ {AB} $ [^ 2].
[^ 2]: Ich bin von einer sehr künstlichen Operation ausgegangen, habe aber ein Hilfssystem hinzugefügt, um zu beweisen, dass es eine in der Welt der Quanteninformation sehr verbreitete Technik ist. Diesmal auch. Bitte beachten Sie jedoch, dass davon ausgegangen wird, dass es nicht gereinigt wurde. Ich habe einfach das Hilfssystem hinzugefügt, wie in Gleichung (12) gezeigt.
\rho^{AB} = \sum_{i} p_i \rho_i \otimes \ket{i}^{B} \bra{i}^B \tag{12}
Hier sind die Eigenwerte und Eigenvektoren von $ \ rho_i $ $ \ lambda_i $ und $ \ ket {i} ^ A $.
Berechnen Sie diese kombinierte Entropie.
\begin{align}
S(A,B) &= S(\rho^{AB}) = S(\sum_{i} p_i \rho_i \otimes \ket{i}^{B} \bra{i}^B) \\
&= -Tr((\sum_{i} p_i \rho_i \otimes \ket{i}^{B} \bra{i}^B) \log (\sum_{i} p_i \rho_i \otimes \ket{i}^{B} \bra{i}^B)) \\
&= - \sum_{k,l,m,n} \bra{k}^{A} \bra{l}^{B} (\sum_{i} p_i \rho_i \otimes \ket{i}^{B} \bra{i}^B) \ket{m}^{A} \ket{n}^{B} \bra{m}^{A} \bra{n}^{B} \log(\sum_{j} p_j \rho_j \otimes \ket{j}^{B} \bra{j}^B) \ket{k}^{A} \ket{l}^{B} \\
&= -\sum_{k,l,m,n} \bra{k}^{A} (\sum_{i} p_i \rho_i \delta_{li} \delta_{in}) \ket{m}^{A} \bra{m}^{A} \bra{n}^{B} \log (p_l \rho_l) \ket{k}^{A} \ket{l}^{B} \\
&= -\sum_{k,m} \bra{k}^{A} (\sum_{i} p_i \rho_i) \ket{m}^{A} \bra{m}^{B} \log (p_i \rho_i) \ket{k}^{A} \\
&= -\sum_{i,k} p_i \lambda_{i}^{k} \log (p_i \lambda_{i}^{k}) \\
&= -\sum_{i,k} p_i \lambda_{i}^{k} \log p_i -\sum_{i,k} p_i \lambda_{i}^{k} \log \lambda_{i}^{k} \\
&= -\sum_{i} p_i \log p_i - \sum_{i} p_i \sum_{k} \lambda_{i}^{k} \log \lambda_{i}^{k} \\
&= H(p_i) + \sum_{i} S(\rho_i) \tag{13}
\end{align}
auf der anderen Seite,
S(A) = S(\sum_i p_i \rho_i) \tag{14}
\begin{align}
S(B) &= S(Tr_{A}(\sum_{i} p_i \rho_i \otimes \ket{i}^{B} \bra{i}^{B})) \\
&= S(\sum_{i} p_i \ket{i}^{B} \bra{i}^{B}) = H(p_i) \tag{15}
\end{align}
```
Kann berechnet werden als. Wenn hier die später beschriebene Minderwertigkeit ($ S (A, B) \ leq S (A) + S (B) $) auf die Gleichungen (13) (14) (15) angewendet wird,
```math
\begin{align}
& H(p_i) + \sum_{i} p_i S(\rho_i) \leq S(\sum_{i} p_i \rho_i) + H(p_i) \\
& \sum_{i} p_i S(\rho_i) \leq S(\sum_{i} p_i \rho_i) \tag{16}
\end{align}
```
Es wird sein. Dies beweist, dass die Entropie eine konkave Funktion ist. (Ende der Zertifizierung)
### Relative Entropie und gegenseitige Information
#### Eigenschaften (5) Die relative Entropie ist nicht negativ (Kleinsche Ungleichung)
Die relative Entropie ist nicht negativ. Das ist,
```math
S(\rho || \sigma) \geq 0 \tag{17}
```
Ist festgelegt. Diese Ungleichung wird "Kleins Ungleichung" genannt.
[Beweis]
Angenommen, $ \ rho und \ sigma $ können durch das normale orthogonale System $ \\ {\ ket {\ phi_i} \\} bzw. \\ {\ ket {\ psi_i} \\} $ diagonalisiert werden. Das ist,
```math
\begin{align}
\rho &= \sum_{i}^{n} p_i \ket{\phi_i} \bra{\phi_i} \\
\sigma &= \sum_{i}^{n} q_i \ket{\psi_i} \bra{\psi_i} \tag{18}
\end{align}
```
Kann ausgedrückt werden als. Aus der Definition der relativen Entropie
```math
\begin{align}
S(\rho || \sigma) &= Tr(\rho \log \rho) - Tr(\rho \log \sigma) \\
&= \sum_{i} p_i \log p_i - \sum_{i} \bra{\phi_i} \rho \log \sigma \ket{\phi_i} \\
&= \sum_{i} p_i \log p_i - \sum_{i} \sum_{j} \bra{\phi_i} \rho \ket{\phi_j} \bra{\phi_j} \log \sigma \ket{\phi_i} \\
&= \sum_{i} p_i \log p_i - \sum_{i} p_i \bra{\phi_i} \log \sigma \ket{\phi_i} \tag{19}
\end{align}
```
Es wird sein. Der zweite Term auf der rechten Seite, $ \ bra {\ phi_i} \ log \ sigma \ ket {\ phi_i} $, lautet
```math
\begin{align}
&\bra{\phi_i} \log \sigma \ket{\phi_i} \\
&= \sum_{j,k} \braket{\phi_i}{\psi_j} \bra{\psi_j} \log \sigma \ket{\psi_k} \braket{\psi_k}{\phi_i} \\
&= \sum_{j} \braket{\phi_i}{\psi_j} \log (q_i) \braket{\psi_j}{\phi_i} \tag{20}
\end{align}
```
Hier,
```math
P_{ij} \equiv \braket{\phi_i}{\psi_j} \braket{\psi_j}{\phi_i} \tag{21}
```
Wenn definiert als, Gleichung (19)
```math
S(\rho || \sigma) = \sum_{i} p_i (\log p_i - \sum_{j} P_{ij} \log (q_j)) \tag{22}
```
Es wird sein.
Da $ P_ {ij} \ geq 0, \ space \ sum_ {i} P_ {ij} = \ sum_ {j} P_ {ji} = 1 $ und $ \ log (\ cdot) $ konkave Funktionen sind
```math
\sum_{j} P_{ij} \log (q_j) \leq \log (\sum_{j} P_{ij} q_j) \tag{23}
```
Ist festgelegt. Wenn Sie $ r_i \ equiv \ sum_ {j} P_ {ij} q_j $ setzen und Gleichung (23) in Gleichung (22) einsetzen,
```math
S(\rho || \sigma) \geq \sum_{i} \log p_i - \sum_{i} p_i \log r_i \tag{24}
```
Es wird sein.$r_i$Aus der Definition von$0 \leq r_i \leq 1$Da gilt die Formel(24)Ist die relative Entropie in der klassischen Informationstheorie$D(p_i||r_i)$Entspricht$D(p_i||r_i) \geq 0$Also doch
```math
S(\rho || \sigma) \geq 0 \tag{25}
```
Ist festgelegt.
Die Gleichheit gilt nur, wenn $ j $ existiert, das $ P_ {ij} = 1 $ für jedes $ i $ erfüllt, dh wenn $ P_ {ij} $ eine Substitutionsmatrix ist. (Ende der Zertifizierung)
#### Eigenschaft (6) Der Betrag der gegenseitigen Information ist nicht negativ
```math
I(A:B) \geq 0 \tag{26}
```
Ist festgelegt.
[Beweis]
```math
\begin{align}
& S(\rho^{AB} || \rho^{A} \otimes \rho^{B}) \\
&= Tr(\rho^{AB} \log \rho^{AB}) - Tr(\rho^{AB} \log (\rho^{A} \otimes \rho^{B})) \\
&= Tr(\rho^{AB} \log \rho^{AB}) - Tr(\rho^{AB} \log (\rho^{A} \otimes I^{B})) - Tr(\rho^{AB} \log (I^{A} \otimes \rho^{B})) \\
&= Tr(\rho^{AB} \log \rho^{AB}) - Tr(\rho^{A} \log \rho^{A}) - Tr(\rho^{B} \log \rho^{B}) \\
&= S(A) + S(B) - S(A,B) \\
&= I(A:B) \tag{27}
\end{align}
```
Im$S(\rho^{AB} || \rho^{A} \otimes \rho^{B}) \geq 0$Also die Formel(26)Ist festgelegt.
Die Gleichheit gilt nur für $ \ rho ^ {AB} = \ rho ^ {A} \ otimes \ rho ^ {B} $. Mit anderen Worten, nur wenn sich das synthetische System AB im Produktzustand des Teilsystems A und des Teilsystems B befindet [^ 3]. (Ende der Zertifizierung)
[^ 3]: Aus dieser Gleichheitsbedingung ergibt sich $ S (\ rho ^ {A} \ otimes \ rho ^ {B}) = S (\ rho_ {A}) + S (\ rho ^ {B}) $ Ich kann dich führen. Das heißt, die Produktentropie ist die Summe jeder Entropie. Es ist eine gute Idee, sich daran als kleine Formel zu erinnern.
### Kombinierte Entropie und partielle Systementropie
#### Eigenschaften (7) Teilsystem des reinen Zustands
Wenn sich das synthetische System AB im reinen Zustand befindet, stimmen die Werte der Entropie $ S (A) $ und $ S (B) $ des Teilsystems immer überein.
[Beweis]
Da synthetisches AB in einem reinen Zustand ist
```math
\ket{\Psi}^{AB} = \sum_{i=1}^{R} \sqrt{r_i} \ket{i}^{A} \ket{i}^{B} \tag{28}
```
Es kann wie Schmidt zerlegt werden. Wobei R ein Schmidt-Kofferraum ist. Zu diesem Zeitpunkt ist der Dichteoperator des synthetischen Systems AB
```math
\rho^{AB} = \ket{\Psi}^{AB} \bra{\Psi}^{AB} = \sum_{i=1}^{R} \sum_{j=1}^{R} \sqrt{r_i r_j} \ket{i}^{A} \bra{j}^{A} \otimes \ket{i}^{B} \bra{j}^{B} \tag{29}
```
Es wird sein. Der Dichteoperator des Teilsystems ist
```math
\begin{align}
\rho^{A} &= Tr_{B} \rho^{AB} = \sum_{i=1}^{R} r_i \ket{i}^{A} \bra{i}^{A} \\
\rho^{B} &= Tr_{A} \rho^{AB} = \sum_{i=1}^{R} r_i \ket{i}^{B} \bra{i}^{B} \tag{30}
\end{align}
```
Daher ist die Entropie des Teilsystems (Verschränkungsentropie)
```math
\begin{align}
S(A) &= - Tr(\rho^{A} \log \rho^{A}) = - \sum_{i=1}^{R} r_i \log r_i \\
S(B) &= - Tr(\rho^{B} \log \rho^{B}) = - \sum_{i=1}^{R} r_i \log r_i \tag{31}
\end{align}
```
ist. Daher wurde bewiesen, dass $ S (A) = S (B) $ gilt. (Ende der Zertifizierung)
Dies ist eine sehr interessante Immobilie. Erstens wird der reine Zustand als ein Quantenzustand festgelegt, sodass die Entropie Null ist. Wenn Sie es in zwei Subsysteme aufteilen, befindet sich jedes in einem gemischten Zustand. Wenn Sie jedoch die Entropie berechnen, bedeutet dies, dass sie immer übereinstimmen. Mit anderen Worten, wenn Sie ein reines Zustandssystem ohne Unsicherheit in zwei Teile teilen, entstehen aus jedem System Unsicherheiten, und beide stimmen überein. Das Bild der "Quantenkorrelation" = "Quantenverschränkung", die zwischen den beiden Systemen bestand, entspricht der auftretenden Unsicherheit, und die Entropie dieses Subsystems ist verwickelt. Wir nennen es Entropie. Dies kann natürlich keine klassische Informationstheorie sein. Selbst wenn Sie sich auf einen Teil eines bestimmten Ereignisses konzentrieren, bleibt die Entropie Null, da sie definitiv festgelegt ist.
#### Eigenschaften (8) Minderwertigkeit
```math
S(A,B) \leq S(A) + S(B) \tag{32}
```
Ist festgelegt.
[Beweis]
Da die Menge der gegenseitigen Informationen nicht negativ ist (Eigenschaft (6)), kann dies sofort nachgewiesen werden.
```math
I(A:B) = S(A) + S(B) - S(A,B) \geq 0 \tag{33}
```
Daher gilt Gleichung (32).
Die gleiche Anzahl ist nur dann gegeben, wenn sich das synthetische System AB im Produktzustand des Teilsystems A und des Teilsystems B befindet. (Ende der Zertifizierung)
#### Eigenschaften (9) Dreieckige Ungleichung (Araki-Lieb-Ungleichung)
```math
S(A,B) \geq |S(A) - S(B)| \tag{34}
```
Ist festgelegt.
[Beweis]
Reinigung durch Zugabe des Hilfssystems R zum synthetischen System AB. Aus der Minderwertigkeit des Eigentums (8)
```math
S(R) + S(A) \geq S(A,R) \tag{35}
```
Und das synthetische ABR befindet sich in einem reinen Zustand, also aus Eigenschaft (7),
```math
\begin{align}
& S(A,R) = S(B) \\
& S(R) = S(A,B) \tag{36}
\end{align}
```
Ist festgelegt. Einsetzen von Gleichung (36) in Gleichung (35)
```math
S(A,B) \geq S(B) - S(A) \tag{37}
```
Kann führen. Selbst wenn A und B ausgetauscht werden, gilt das gleiche Argument
```math
S(A,B) \geq S(A) - S(B) \tag{38}
```
ist. Da die Gleichungen (37) und (38) gleichzeitig gelten müssen,
```math
S(A,B) \geq |S(A) - S(B)| \tag{34}
```
muss sein. (Ende der Zertifizierung)
Die Gleichheitsbedingung dieser dreieckigen Ungleichung ist nicht selbstverständlich. Es scheint eher ein ziemlich schwieriges Problem zu sein. In [Neilsen Chan](https://www.ohmsha.co.jp/book/9784274200090/) heißt es in Übung 11.16: ($ S (A, B) \ geq S (B) -S (A)) Die Antwort wird als "gleiche Bedingung für $)" angegeben. Demnach ist die spektrale Zerlegung von $ \ rho ^ {AB} $ $ \ rho ^ {AB} = \ sum_ {i} p_ {i} \ ket {i} ^ {AB} \ bra {i} ^ {AB } $ hat der Operator $ \ rho_ {i} ^ {A} \ equiv Tr_ {B} (\ ket {i} ^ {AB} \ bra {i} ^ {AB}) $ eine gemeinsame Eigenbasis Haben (im Folgenden in diesem Artikel als "Bedingung 1" bezeichnet) $ \ rho_ {i} ^ {B} \ equiv Tr_ {A} (\ ket {i} ^ {AB} \ bra {i} ^ {AB}) $ S (A, B) = S (B) -S (A) $ gilt nur, wenn $ orthogonale Plattformen hat (nennen wir es "Bedingung 2") [^ 4 ], Aber es gibt keinen Beweis (es ist eine Übung zu beweisen). Also habe ich es versucht [^ 5] [^ 6].
[^ 4]: Aufgrund der Bequemlichkeit eines späteren Beweises wurden die Symbole in [Neilsen Chan](https://www.ohmsha.co.jp/book/9784274200090/) geringfügig geändert.
[^ 5]: Am Ende war ich jedoch nur in eine Richtung mit den notwendigen und ausreichenden Bedingungen erschöpft. Darüber hinaus kann es einige verdächtige Teile geben. Aber als Referenz werde ich es aufdecken, schwitzen.
[^ 6]: Und natürlich werde ich für alle Fälle eine hinzufügen. Diese Gleichheitsbedingung ist Eigenschaft (7) selbst, wenn sich das synthetische System AB im reinen Zustand befindet.
[Nachweis der Gleichheitsbedingung]
Da sich $ \ ket {i} ^ {AB} $ in einem reinen Zustand befindet, sind die Basen von System A und System B $ \\ {\ ket {a_i ^ {j}} \\}, \\ {\ ket {b_ {i} Sie können ^ {j}} \\} $ verwenden, um eine Schmidt-Zerlegung wie folgt durchzuführen ($ R_i $ ist ein Schmidt-Trunk):
```math
\ket{i}^{AB} = \sum_{j=1}^{R_i} \sqrt{r_{i}^{j}} \ket{a_{i}^{j}} \ket{b_{i}^{j}} \tag{39}
```
Dann sind jeweils $ \ rho_ {i} ^ {A}, \ rho_ {i} ^ {B} $
```math
\begin{align}
\rho_{i}^{A} &= Tr_{B} (\ket{i}^{AB} \bra{i}^{AB}) \\
&= Tr_{B} (\sum_{j=1}^{R_i} \sqrt{r_{i}^{j}}) \ket{a_{i}^{j}} \ket{b_{i}^{j}} \sum_{k=1}^{R_i} \sqrt{r_{i}^{k}}) \braket{a_{i}^{k}}{b_{i}^{k}} \\
&= \sum_{j=1}^{R_i} \sum_{k=1}^{R_i} \sqrt{r_{i}^{j} r_{i}^{k}} Tr_{B}(\ket{b_{i}^{j}} \bra{b_{i}^{k}}) \\
&= \sum_{j=1}^{R_i} r_{i}^{j} \ket{a_{i}^{j}} \bra{a_{i}^{j}} \\
\rho_{i}^{B} &= \sum_{j=1}^{R_i} r_{i}^{j} \ket{b_{i}^{j}} \bra{b_{i}^{j}} \tag{40}
\end{align}
```
Es wird sein. Hier ist der Koeffizient $ r_ {i} ^ {j} $ die diagonale Komponente (eindeutiger Wert) von jedem, aber der Punkt, dass er sowohl im A-System als auch im B-System gleich ist, ist der interessante Punkt der Schmidt-Zerlegung [^ 7].
[^ 7]: [Vorheriger Artikel](https://qiita.com/SamN/items/e894be584dddb69ec1e2) betonte auch die Schmidt-Zerlegung.
Was mit $ \ rho ^ {A} und \ rho ^ {B} $ passiert, ist, dass $ \ rho ^ {AB} $ ist
```math
\rho^{AB} = \sum_{i=1}^{R^{AB}} \sum_{j=1}^{R_i} \sum_{k=1}^{R_i} p_i \sqrt{r_{i}^{j} r_{i}^{k}} \ket{a_{i}^{j}} \bra{a_{i}^{k}} \otimes \ket{b_{i}^{j}} \bra{b_{i}^{k}} \tag{41}
```
Weil es geschrieben werden kann
```math
\begin{align}
\rho^{A} &= Tr_{B} (\rho^{AB}) \\
&= \sum_{i=1}^{R^{AB}} \sum_{j=1}^{R_i} p_{i} r_{i}^{j} \ket{a_{i}^{j}} \bra{a_{i}^{j}} \\
&= \sum_{i=1}^{R^{AB}} p_{i} \rho_{i}^{A} \\
\rho^{B} &= Tr_{A} (\rho^{AB}) \\
&= \sum_{i=1}^{R^{AB}} \sum_{j=1}^{R_i} p_{i} r_{i}^{j} \ket{b_{i}^{j}} \bra{b_{i}^{j}} \\
&= \sum_{i=1}^{R^{AB}} p_{i} \rho_{i}^{B} \tag{42}
\end{align}
```
Es wird sein.
Unter der Annahme, dass Bedingung 1 erfüllt ist, gilt $ \\ {\ ket {a_ {1} ^ {j}} \\}, \\ {\ ket {a_ {2} ^ {j}} \\} , \ cdots, \\ {\ ket {a_ {R ^ {AB}} ^ {j}} \\} $ sind alle das gleiche normale orthogonale System, und wenn Bedingung 2 erfüllt ist, dann $ \ Man kann sagen, dass \ {\ ket {b_ {i} ^ {j}} \\} $ ein normales orthogonales System als Ganzes ist [^ 8].
[^ 8]: Ich denke, das kann gesagt werden, weil es eine "gemeinsame Eigenbasis" und eine "orthogonale Plattform" hat, aber es kann verdächtig sein (zu starke Annahme). Vielleicht).
Wenn ja, Gleichung (40)
```math
\begin{align}
\rho_{i}^{A} &= \sum_{j=1}^{R} r^{j} \ket{a^{j}} \bra{a^{j}} \\
\rho_{i}^{B} &= \sum_{j=1}^{R} r^{j} \ket{b_{i}^{j}} \bra{b_{i}^{j}} \tag{43}
\end{align}
```
(Seit Bedingung 1 sind der Schmidt-Koeffizient und der Schmidt-Stamm i-unabhängig, was auch der Schmidt-Koeffizient und der Schmidt-Stamm von System B ist.)
Was passiert zu diesem Zeitpunkt mit $ \ rho ^ {A}, \ rho ^ {B} $?
```math
\begin{align}
\rho^{A} &= \sum_{i=1}^{R^{AB}} \sum_{j=1}^{R} p_{i} r^{j} \ket{a^{j}} \bra{a^{j}} \\
&= \sum_{j=1}^{R} r^{j} \ket{a^{j}} \bra{a^{j}} \\
\rho^{B} &= \sum_{i=1}^{R^{AB}} \sum_{j=1}^{R} p_{i} r^{j} \ket{b_{i}^{j}} \bra{b_{i}^{j}} \tag{44}
\end{align}
```
ist.
Basierend auf dieser Annahme berechnen wir die Entropie $ S (A), S (B) $ des Teilsystems.
```math
\begin{align}
S(A) &= S(\rho^{A}) = -Tr(\rho^{A} \log \rho^{A}) \\
&= - \sum_{l=1}^{R} \sum_{m=1}^{R} \bra{a^{l}} \rho^{A} \ket{a^{m}} \bra{a^{m}} \log \rho^{A} \ket{a^{l}} \\
&= - \sum_{l=1}^{R} \sum_{m=1}^{R} r^{m} \braket{a^{l}}{a^{m}} \bra{a^{m}} \log r^{l} \ket{a^{l}} \\
&= - \sum_{l=1}^{R} r^{l} \log r^{l} \\
S(B) &= S(\rho^{B}) = -Tr(\rho^{B} \log \rho^{B}) \\
&= - \sum_{k=1}^{R^{AB}} \sum_{l=1}^{R} \sum_{m=1}^{R^{AB}} \sum_{n=1}^{R} \bra{b_{k}^{l}} \rho^{B} \ket{b_{m}^{n}} \bra{b_{m}^{n}} \log \rho^{B} \ket{b_{k}^{l}} \\
&= - \sum_{k=1}^{R^{AB}} \sum_{l=1}^{R} \sum_{m=1}^{R^{AB}} \sum_{n=1}^{R} p_{m} r^{n} \braket{b_{k}^{l}}{b_{m}^{n}} \bra{b_{m}^{n}} \log(p_{k} r^{l}) \ket{b_{k}^{l}} \\
&= - \sum_{k=1}^{R^{AB}} \sum_{l=1}^{R} p_{k} r_{k}^{l} \log (p_{k} r^{l}) \tag{45}
\end{align}
```
Wenn Sie $ S (B) -S (A) $ berechnen, achten Sie auf $ \ sum_ {k} p_ {k} = 1, \ space \ sum_ {l} r ^ {l} = 1 $
```math
\begin{align}
S(B)-S(A) &= - \sum_{k=1}^{R^{AB}} \sum_{l=1}^{R} p_{k} r_{k}^{l} \log (p_{k} r^{l}) + \sum_{l=1}^{R} r^{l} \log r^{l} \\
&= - \sum_{k=1}^{R^{AB}} p_{k} r^{l} (\log p_{k} + \log r^{l}) + \sum_{l=1} r^{l} \log r^{l} \\
&= - \sum_{k=1}^{R^{AB}} p_{k} \log p_{k} - \sum_{l=1}^{R} r^{l} \log r^{l} + \sum_{l=1} r^{l} \log r^{l} \\
&= - \sum_{k=1}^{R^{AB}} p_{k} \log p_{k} = S(A,B) \tag{46}
\end{align}
```
Wenn dann Bedingung 1 und Bedingung 2 erfüllt sind, kann bewiesen werden, dass $ S (A, B) = S (B) -S (A) $ erfüllt ist. (Ende der Zertifizierung)
Deshalb habe ich [Nielsen Chan](https://www.ohmsha.co.jp/book/9784274200090/) (nur die Hälfte) "Übung 11.16" (ich glaube, ich habe es getan) geklärt. Wenn Sie die entgegengesetzte Richtung der notwendigen und ausreichenden Bedingungen kennen, fügen Sie einen Artikel hinzu.
#### Eigentum (10) Stark oder minderwertig
Wenn es drei Quantensysteme A, B und C gibt, gilt die folgende Ungleichung. Diese Eigenschaft wird als "stark oder minderwertig" bezeichnet. Laut [Neilsen Chan](https://www.ohmsha.co.jp/book/9784274200090/) ist dies "eines der wichtigsten und nützlichsten Ergebnisse der Quanteninformationstheorie". Denken Sie nicht "Was ist das?", Lassen Sie es uns gut verstehen.
```math
S(A,B,C) + S(B) \leq S(A,B) + S(B,C) \tag{47}
```
```math
S(A) + S(B) \leq S(A,C) + S(B,C) \tag{48}
```
[Beweis]
Der Beweis der "Monotonie der relativen Entropie" scheint schnell zu sein, also werde ich es tun [^ 9].
[^ 9]: [Neilsen Chan](https://www.ohmsha.co.jp/book/9784274200090/) hatte einen weiteren komplizierten Beweis. Andererseits wird in [Einführung in die Quanteninformationswissenschaft](https://www.kyoritsu-pub.co.jp/bookdetail/9784320122994) die "Monotonie der relativen Entropie" unbewiesen verwendet (weil sie für Anfänger schwierig ist). War dort. Dieser monotone Beweis ist intuitiv leichter zu verstehen. Siehe hierzu [Einführung in die Quanteninformationswissenschaft](https://www.kyoritsu-pub.co.jp/bookdetail/9784320122994). Ich habe versucht, den Beweis zu beschreiben.
"Monotonie der relativen Entropie" ist die Eigenschaft, dass die relative Entropie für die Quantenzustände zweier Systeme durch Durchlaufen eines physikalischen Prozesses (Quantenkanal) abnimmt. Relative Entropie ist ein Konzept, das der "Calbach-Liberer-Distanz" in der klassischen Informationstheorie entspricht. Grob gesagt ist es ein Quantenausdruck des Bildes, dass die Distanz kleiner wird. Im Allgemeinen werden zwei verschiedene Quantenzustände im Laufe der Zeit nicht mehr zu unterscheiden, daher denke ich, dass sie intuitiv leicht zu verstehen sind. Als Ausdruck ausgedrückt
```math
S(\rho || \sigma) \geq S(\Gamma(\rho) || \Gamma(\sigma)) \tag{49}
```
ist. Hier ist die CPTP-Karte, die den physischen Prozess darstellt, $ \ Gamma $.
Nachdem wir Gleichung (49) akzeptiert haben, werden wir die Stärke und Minderwertigkeit beweisen.
Beginnen wir zunächst mit Gleichung (47).
Die gegenseitige Informationsmenge zwischen dem System A und dem synthetischen System BC wird definiert und aus der Gleichung (27), die verwendet wird, um die Eigenschaft (6) zu beweisen, dass die gegenseitige Informationsmenge nicht negativ ist,
```math
\begin{align}
I(A:B,C) &= S(A)+S(B,C)-S(A,B,C) \\
&= S(\rho^{ABC} || \rho^{A} \otimes \rho^{BC}) \tag{50}
\end{align}
```
Ist festgelegt. Verfolgen Sie System C von dieser rechten Seite. Da diese Operation dem Anwenden einer CPTP-Karte entspricht, kann Gleichung (49) verwendet werden:
```math
S(\rho^{ABC} || \rho^{A} \otimes \rho^{BC}) \geq S(\rho^{AB} || \rho^{A} \otimes \rho^{B}) = S(A)+S(B)-S(A,B) \tag{51}
```
Es wird sein. Aus den Gleichungen (50) und (51)
```math
S(A,B,C) + S(B) \leq S(A,B) + S(B,C) \tag{47}
```
So konnte ich Gleichung (47) beweisen.
Als nächstes folgt Gleichung (48).
Betrachtet man das System ABCD, das durch Hinzufügen von System D zum synthetischen System ABC aus der Eigenschaft (7) gereinigt wurde,
```math
S(A,B) = S(C,D), \space S(A,B,C) = S(D) \tag{52}
```
Ist festgelegt. Einsetzen in Gleichung (47)
```math
S(D) + S(B) \leq S(C,D) + S(B,C) \tag{53}
```
Und wenn Sie D durch A ersetzen,
```math
S(A) + S(B) \leq S(A,C) + S(B,C) \tag{48}
```
Somit kann Gleichung (48) bewiesen werden.
Die Gleichheit gilt nur, wenn sich System C und andere Systeme in einem produktiven Zustand befinden. (Ende der Zertifizierung)
Mit diesem Festigkeits-Minderwertigkeits-Verfahren können die nachstehend gezeigten Eigenschaften von (11) (12) (13) bewiesen werden.
### Über die Eigenschaft abgeleitet von der Stärke-Minderwertigkeit
#### Eigenschaften (11) Konditionierung reduziert die Entropie
```math
S(A|B,C) \leq S(A|B) \tag{54}
```
Ist festgelegt.
[Beweis]
Aus Stärke und Minderwertigkeit
```math
\begin{align}
& S(A,B,C) + S(B) \leq S(A,B) + S(B,C) \\
& S(A,B,C) - S(B,C) \leq S(A,B) - S(B) \\
& S(A|B,C) \leq S(A|B) \tag{55}
\end{align}
```
Es wird sein.
Die Gleichheit gilt nur, wenn sich System C und andere Systeme in einem produktiven Zustand befinden. (Ende der Zertifizierung)
#### Eigenschaft (12) Die Menge an gegenseitigen Informationen nimmt ab, wenn ein Teil des Systems verworfen wird.
```math
I(A:B) \leq I(A:B,C) \tag{56}
```
Ist festgelegt.
[Beweis]
Aus Stärke und Minderwertigkeit
```math
\begin{align}
& S(B) + S(A,B,C) \leq S(A,B) + S(B,C) \\
& S(A) + S(B) - S(A,B) \leq S(A) + S(B,C) - S(A,B,C) \\
& I(A:B) \leq I(A:B,C) \tag{57}
\end{align}
```
Es wird sein.
Die Gleichheit gilt nur, wenn sich System C und andere Systeme in einem produktiven Zustand befinden. (Ende der Zertifizierung)
#### Eigenschaften (13) Quantenkanäle reduzieren die Menge an gegenseitiger Information
Unter der Annahme, dass das System $ A, B $ durch den Quantenkanal in das System $ A ^ {\ prime}, B ^ {\ prime} $ geändert wird,
```math
I(A:B) \geq I(A^{\prime}:B^{\prime}) \tag{58}
```
Hält [^ 10].
[^ 10]: $ \ rho ^ {A}, \ rho ^ {B} $ ist $ \ Gamma (\ rho ^ {A) als Quantenkanal (entsprechende CPTP-Karte), der derzeit $ \ Gamma $ berücksichtigt }), \ Gamma (\ rho ^ {B}) Betrachten Sie es als $.
[Beweis]
Nehmen wir nun an, dass die drei Systeme A, B und C $ \ rho ^ {ABC} = \ rho ^ {AB} \ otimes \ rho ^ {C} $ erfüllen. Dies entspricht also der Gleichheitsbedingung von Eigentum (12)
```math
I(A:B) = I(A:B,C) \tag{59}
```
Ist festgelegt. Angenommen, A, B, C ändern sich zu A ', B', C'als Ergebnis der Anwendung einer einheitlichen Transformation auf das System BC. Aus der einheitlichen Invarianz der Entropie (Eigenschaft (3))
```math
I(A:B,C) = I(A^{\prime}:B^{\prime},C^{\prime}) \tag{60}
```
ist. Wenn das System verworfen wird, verringert sich die Menge der gegenseitigen Informationen
```math
I(A^{\prime}:B^{\prime},C^{\prime}) \geq I(A^{\prime}:B^{\prime}) \tag{61}
```
ist. Aus den Gleichungen (59) (60) (61)
```math
I(A:B) \geq I(A^{\prime}:B^{\prime}) \tag{62}
```
Ist festgelegt.
Die Gleichheit gilt, wenn der Quantenkanal eine einheitliche Transformation ist. (Ende der Zertifizierung)
### Über die Messung
#### Eigenschaften (14) Entropie durch Projektionsmessung erhöht
Die Entropie nimmt bei genau nicht selektiven Projektionsmessungen zu, dh bei Projektionsmessungen, bei denen die Ergebnisse nicht gemessen (oder vergessen) werden.
Wenn der Projektionsoperator $ \\ {P_i \\} \ space (\ sum_ {i} P_i = 1, \ space (P_ {i}) ^ 2 = P_ {i}) $ ist, dann durch nichtselektive Messung Geben Sie $ \ rho $ an
```math
\rho^{\prime} = \sum_{i} P_i \rho P_i \tag{63}
```
Es ändert sich wie. In diesem Moment,
```math
S(\rho) \leq S(\rho^{\prime}) \tag{64}
```
Ist festgelegt.
[Beweis]
Aus Kleins Definition von Ungleichheit und relativer Entropie
```math
\begin{align}
0 & \leq S(\rho || \rho^{\prime}) = Tr(\rho \log \rho) - Tr(\rho \log \rho^{\prime}) \\
&= - S(\rho) - Tr(\rho \log \rho^{\prime}) \tag{65}
\end{align}
```
Sie müssen also nur $ -Tr (\ rho \ log \ rho ^ {\ prime}) = S (\ rho ^ {\ prime}) $ anzeigen.
```math
\begin{align}
- Tr(\rho \log \rho^{\prime}) &= - Tr (\sum_{i} P_i \rho \log \rho^{\prime}) \\
&= -Tr(\sum_{i} P_i \rho \log \rho^{\prime} P_i) \tag{66}
\end{align}
```
Also sind $ \ rho ^ {\ prime} P_i = P_i \ rho ^ {\ prime} P_i = P_i \ rho ^ {\ prime} $, dh $ P_i $ und $ \ rho ^ {\ prime} $, austauschbar $ P_i $ und $ \ log \ rho ^ {\ prime} $ sind also austauschbar. Dann
```math
\begin{align}
- Tr(\rho \log \rho^{\prime}) &= -Tr(\sum_{i} P_i \rho P_i \log \rho^{\prime}) \\
&= -Tr(\rho^{\prime} \log \rho^{\prime}) = S(\rho^{\prime}) \tag{67}
\end{align}
```
Wenn dies in Gleichung (66) eingesetzt wird,
```math
S(\rho) \leq S(\rho^{\prime}) \tag{64}
```
Es wird sein.
Die Gleichheit gilt nur für $ \ rho = \ rho ^ {\ prime} $. (Ende der Zertifizierung)
Wenn Sie beispielsweise (nicht selektiv) einen reinen Zustand mit Entropie Null projektiv messen, ist das Ergebnis ungewiss und die Entropie nimmt zu. Wenn Sie die Messung in der klassischen Informationstheorie mit dem Auftreten eines Ereignisses vergleichen, können Sie das Ergebnis sehen (= Unsicherheit verringern), sodass die Entropie abnehmen sollte. Es ist schon komisch, dass die Entropie zunimmt, obwohl sie gemessen wird. In der Quanteninformationstheorie wird die Theorie unter der Voraussetzung konstruiert, dass der reine Zustand ein bestimmter Zustand ist, aber in Wirklichkeit ist der reine Zustand eine Überlagerung mehrerer Eigenzustände, was in der klassischen Statistik der bestimmte Zustand ist. Es wäre sehr dankbar, wenn Sie ein wenig schmecken könnten, dass es anders ist [^ 11].
[^ 11]: Mit anderen Worten, es versteht sich, dass "nicht-selektive Projektionsmessung" die im ursprünglichen Quantensystem vorhandene Quantenverschränkung auflöste und die Unsicherheit aufdeckte. Ich werde. Dann eine Notiz. Nun, da "nicht-selektive Messung" vorausgesetzt wird, mag es auf den ersten Blick seltsam erscheinen, aber im Fall einer "selektiven Projektionsmessung", die das Ergebnis richtig bestätigt, ist die Entropie wie in der klassischen Theorie Null. ..
## Bestätigung durch Simulator
Nehmen wir nun die Gleichheitsbedingung von Eigentum (7) und Eigentum (9) durch Dogmatismus und Vorurteile unter den oben gezeigten Eigenschaften auf und bestätigen wir, dass sie tatsächlich gilt, indem wir einen Simulator verwenden. Eigenschaft (7) ist die "Entropie des Partialsystems des reinen Zustands". Ich denke, es ist die Eigenschaft, dass Sie den Spaß an der Quantenentropie auf einfachste Weise genießen können, und ich habe sie gewählt, weil sie mit [qlazy](https://github.com/samn33/qlazy) einfach implementiert werden kann. Eigenschaft (9) ist eine dreieckige Ungleichung. Ich bemühte mich, die Gleichheitsbedingung zu beweisen, und nahm sie auf, um sicherzustellen, dass sie nicht falsch war.
### Eigenschaften (7) Über die Entropie des Teilsystems im reinen Zustand
Erstens ist Eigentum (7). Wie zuvor erläutert, ist die Entropie des reinen Zustands Null, aber die Entropie jedes Teilsystems, wenn es in zwei Teile geteilt wird, ist im Allgemeinen Null oder mehr und gleich. Erleben wir also das Geheimnis der Quantenverschränkung.
Der gesamte Python-Code ist unten.
```python
import numpy as np
from scipy.stats import unitary_group
from qlazypy import QState, DensOp
def random_qstate(qnum): # random pure state
dim = 2**qnum
vec = np.array([0.0]*dim)
vec[0] = 1.0
mat = unitary_group.rvs(dim)
vec = np.dot(mat, vec)
qs = QState(vector=vec)
return qs
if __name__ == '__main__':
qnum_A = 2
qnum_B = 2
id_A = list(range(qnum_A))
id_B = [i+qnum_A for i in range(qnum_B)]
qs = random_qstate(qnum_A+qnum_B)
de = DensOp(qstate=[qs], prob=[1.0])
ent = de.entropy()
ent_A = de.entropy(id_A)
ent_B = de.entropy(id_B)
print("** S(A,B) = {:.4f}".format(ent))
print("** S(A) = {:.4f}".format(ent_A))
print("** S(B) = {:.4f}".format(ent_B))
qs.free()
de.free()
```
Es ist kurz und daher leicht zu erklären. Erstellen Sie mit der Funktion random_qstate einen zufälligen reinen Zustand qs und erstellen Sie darauf basierend einen Dichteoperator de. Berechnen Sie die Entropie mit der Entropiemethode (hinzugefügt in v0.0.28) der Dichteoperatorklasse. Wenn Sie eine partielle Quantenbitnummernliste als Argument angeben, wird die entsprechende Verschränkungsentropie berechnet. Das Ausführungsergebnis ist wie folgt.
```
** S(A,B) = 0.0000
** S(A) = 1.4852
** S(B) = 1.4852
```
Da wir zunächst einen zufälligen reinen Zustand erzeugen, ändert sich der Entropiewert bei jeder Ausführung, aber S (A, B) ist Null, egal wie oft wir dies tun, und S (A) und S (B) ) Werte übereinstimmen. Das gleiche galt auch dann, wenn die Anzahl der Quantenbits (qnum_A, qnum_B) von System A und System B geändert wurde. So konnte ich die Eigenschaft bestätigen (7). Übrigens beträgt in diesem Beispiel die Anzahl der Quantenbits von System A und System B 2, so dass die Entropie aufgrund der Eigenschaft (2) 2 nicht überschreitet. Wenn es überschreitet, ist es ein Fehler.
### Eigenschaft (9) Über die Gleichheitsbedingung der dreieckigen Ungleichung
Die folgende Eigenschaft (9) ist die Gleichheitsbedingung der dreieckigen Ungleichung, die "Übung 11.16" von [Neilsen Chan] war (https://www.ohmsha.co.jp/book/9784274200090/). Wenn Sie einen Dichteoperator für synthetisches AB gemäß dem im Proof durchgeführten Verfahren erstellen, sollten Sie bestätigen können, dass die Gleichheit wirklich erfüllt ist. Tatsächlich zeigt "Übung 11.17" von [Neilsen Chan](https://www.ohmsha.co.jp/book/9784274200090/) ein konkretes Beispiel, das dieselbe Zahl erfüllt. Es ist auch ein Beispiel für die Antwort darauf [^ 12].
[^ 12]: Die Übungen von [Neilsen Chan](https://www.ohmsha.co.jp/book/9784274200090/) werden von Hand gezeigt, sodass die Antworten nicht der Absicht des Fragestellers entsprechen. Aber.
Hier ist der gesamte Python-Code.
```python
import random
import math
import numpy as np
from qlazypy import QState, DensOp
def computational_basis(dim,rank):
return np.array([[1 if j==i else 0 for j in range(dim)] for i in range(rank)])
def normalized_random_list(dim):
rand_list = np.array([random.random() for _ in range(dim)])
return rand_list / sum(rand_list)
def is_power_of_2(N):
if math.log2(N) == int(math.log2(N)):
return True
else:
return False
if __name__ == '__main__':
# settings
mixed_num = 3 # mixed number of pure states
qnum_A = 2 # qubit number of system A
# system A
dim_A = 2**qnum_A
rank = dim_A
id_A = list(range(qnum_A))
# system B
dim_B = mixed_num*rank
if is_power_of_2(dim_B):
qnum_B = int(math.log2(dim_B))
else:
qnum_B = int(math.log2(dim_B)) + 1
dim_B = 2**qnum_B
id_B = [i+qnum_A for i in range(qnum_B)]
# basis of system A,B
basis_A = computational_basis(dim_A, rank)
basis_B = computational_basis(dim_B, mixed_num*rank)
# random schmidt coefficients
coef = normalized_random_list(rank)
# random probabilities for mixing the pure states
prob = normalized_random_list(mixed_num)
# basis for system A+B
dim_AB = dim_A * dim_B
basis_AB = [None]*mixed_num
for i in range(mixed_num):
basis_AB[i] = np.zeros(dim_AB)
for j in range(dim_A):
basis_AB[i] = basis_AB[i] + \
math.sqrt(coef[j]) * np.kron(basis_A[j],basis_B[i*dim_A+j])
# construct the density operator
matrix = np.zeros((dim_AB,dim_AB))
for i in range(mixed_num):
matrix = matrix + prob[i] * np.outer(basis_AB[i],basis_AB[i])
de = DensOp(matrix=matrix)
# calculate the entropies
ent = de.entropy()
ent_A = de.entropy(id_A)
ent_B = de.entropy(id_B)
print("** S(A,B) = {:.4f}".format(ent))
print("** S(A) = {:.4f}".format(ent_A))
print("** S(B) = {:.4f}".format(ent_B))
print("** S(B)-S(A) = {:.4f}".format(ent_B-ent_A))
de.free()
```
Unter der Annahme von Bedingung 1 und Bedingung 2, die zuvor erläutert wurden,
```math
\ket{i}^{AB} = \sum_{i=1}^{R_i} \sqrt{r_{i}^{j}} \ket{a_{i}^{j}} \ket{b_{i}^{j}} \tag{39}
```
Die Schmidt-Koeffizienten $ r_ {i} ^ {j} $ und $ \ ket {a_ {i} ^ {j}} $ sind i unabhängig, und $ \ ket {b_ {i} ^ {j}} $ ist das Ganze Als normales orthogonales System (als Vektorsatz mit i und j als Indizes). Das ist,
```math
\ket{i}^{AB} = \sum_{i=1}^{R} \sqrt{r^{j}} \ket{a^{j}} \ket{b_{i}^{j}} \tag{68}
```
Kann geschrieben werden. Mit diesem wird der Dichteoperator,
```math
\rho^{AB}=\sum_{i=1}^{R^{AB}} p_{i} \ket{i}^{AB} \bra{i}^{AB} \tag{69}
```
Sie müssen sich nur vorbereiten.
In dem oben gezeigten Code haben wir zuerst den Wert von $ R ^ {AB} $ (Variable Mixed_Num) auf 3 und die Anzahl der Quantenbits von System A (Variable Qnum_A) auf 2 initialisiert. Dann beträgt die Dimension des Hilbert-Raums von System A 2 im Quadrat zu 4 (Variable dim_A). System B muss ein normales orthogonales System mit i und j als Indizes sein, also $ R ^ {AB} $ multipliziert mit der Anzahl der Dimensionen von System A, dh 12 (= 3 * 4). Es scheint gut, die Dimension von System B zu machen. Es ist jedoch unpraktisch, wenn die Dimension des Hilbert-Raums in der Quanteninformationstheorie keine Potenz von 2 ist. Setzen Sie sie daher auf 16 (= 2 ** 4).
Da die Dimensionen und die Anzahl der Quantenbits von System A und System B bestimmt wurden, wird für jedes ein normales orthogonales System konstruiert. Alles ist in Ordnung, daher verwenden wir es als Berechnungsgrundlage, die am einfachsten zu implementieren ist. Erstellt mit der Funktion computational_basis.
Was wir auch brauchen, ist der Koeffizient $ r ^ {j} in Gleichung (69) und der Koeffizient $ p_ {i} $ in Gleichung (70). Dies wird zufällig bestimmt (aber so dass die Summe 1 ist). Erstellen Sie mit der Funktion normalized_random_list.
Nachdem wir die Materialien haben, konstruieren wir den Dichteoperator $ \ rho ^ {AB} $ (Variable de). Dann berechnet und zeigt die Entropiemethode die Entropie des synthetischen Systems, die Entropie von System A und System B und ihre Unterschiede an, und das Programm endet.
Die Ergebnisse sind wie folgt.
```
** S(A,B) = 1.3598
** S(A) = 1.8018
** S(B) = 3.1616
** S(B)-S(A) = 1.3598
```
Sicher stellte sich heraus, dass S (B) -S (A) = S (A, B) gilt. Egal wie oft ich es ausführe, die Zahlen sind unterschiedlich, aber diese Gleichung gilt immer. Ich habe versucht, einige der Grundeinstellungen zu ändern, aber es war das gleiche.
## abschließend
Ich wollte den Spaß und das Geheimnis der Entropie in der Quanteninformationstheorie voll und ganz genießen, aber es wurde ein so langer Artikel. Eigentlich gibt es einige Dinge, die ich noch nicht gesagt habe, aber in Zukunft möchte ich, falls erforderlich oder wenn ich Lust dazu habe, einen zusätzlichen Artikel in einem separaten Artikel verfassen.
Nun, ab dem nächsten Mal frage ich mich, was ich tun soll. Der Zeitplan ist unentschlossen, ob es sich um "Quantenkryptographie" oder "Quantenfehlerkorrektur" handelt oder ob er durchgeführt wird, nachdem zuvor ein etwas grundlegenderes Thema aufgegriffen wurde. Ich weiß es nicht.
das ist alles
Recommended Posts