Frühere Artikel
Es gibt eine integrierte Informationstheorie, die den Grad des "Bewusstseins" eines Netzwerks auf einen Wert von Φ berechnet und quantifiziert.
Wir werden uns die Berechnungsmethode von Φ ansehen und uns dabei auf das offizielle Dokument von PyPhi beziehen, einer Bibliothek, die sich mit integrierter Informationstheorie befasst.
Es ist eine ziemlich komplizierte Berechnung, daher werde ich sie auf verschiedene Arten weglassen. Für diejenigen, die den Originalartikel lesen möchten,
Siehe den obigen Artikel. Es enthält auch die Geschichte des vorherigen Artikels zwei, den ich geschrieben habe. Ich werde.
Ich mache nur eine grobe japanische Übersetzung mit unzureichenden Kenntnissen, daher wäre ich dankbar, wenn ein Experte darauf hinweisen würde.
Wer es richtig lesen möchte, sollte es lesen, während er es mit dem offiziellen Folienmaterial [Berechnung von φ] vergleicht (https://journals.plos.org/ploscompbiol/article/file?id=10.1371/journal.pcbi.1006343.s001&type=supplementary). Überlegen.
Stellen Sie sich ein Netzwerk vor, das aus diesen drei Elementen OR, AND und XOR besteht.
Jedes Element von A, B und C hat zum Zeitpunkt $ t $ entweder ein EIN- oder ein AUS-Element und Ein- und Ausgänge für das verbundene Element. Das Ergebnis ändert den Status zum Zeitpunkt $ t + 1 $.
Da es aus OR, AND und XOR besteht, kann die folgende Tabelle erstellt werden, indem der Zeitstatus $ t $ in Zeilenrichtung und der Zeitstatus $ t + 1 $ in Spaltenrichtung verwendet werden.
t | \ | t+1 | |||||||||
---|---|---|---|---|---|---|---|---|---|---|---|
A | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 1 | |||
B | 0 | 0 | 1 | 1 | 0 | 0 | 1 | 1 | |||
C | 0 | 0 | 0 | 0 | 1 | 1 | 1 | 1 | |||
A | B | C | ↑ | ↑ | ↑ | ↑ | ↑ | ↑ | ↑ | ↑ | |
0 | 0 | 0 | → | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 |
1 | 0 | 0 | → | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 |
0 | 1 | 0 | → | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 |
1 | 1 | 0 | → | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 |
0 | 0 | 1 | → | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 |
1 | 0 | 1 | → | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 |
0 | 1 | 1 | → | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 |
1 | 1 | 1 | → | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 |
Wenn in dieser Tabelle beispielsweise $ t $ $ (0, 1, 1) $ ist, beträgt die Wahrscheinlichkeit, bei $ t + 1 $ $ (1, 0, 1) $ zu werden, $ 1 $.
Diese Tabelle heißt TPM (Transition Probability Matrix).
Lassen Sie uns über verschiedene Kombinationen der drei Elemente A, B und C nachdenken, wie "nur A wird herausgenommen", "nur AB wird herausgenommen" und "nur BC wird herausgenommen".
Nehmen wir als Voraussetzung für die von hier aus durchzuführende Berechnung an, dass $ (A, B, C) = (1, 0, 0) $ fest ist.
Lassen Sie uns zunächst "$ (B, C) $ in $ t + 1 $ für $ t $ state $ (A, B, C) $" untersuchen.
Durch Reduzieren der Informationen von A in $ t + 1 $ aus der vorherigen Tabelle können wir die folgende Tabelle schreiben.
t | \ | t+1 | |||||
---|---|---|---|---|---|---|---|
B | 0 | 1 | 0 | 1 | |||
C | 0 | 0 | 1 | 1 | |||
A | B | C | |||||
0 | 0 | 0 | 1 | 0 | 0 | 0 | |
1 | 0 | 0 | 0 | 0 | 1 | 0 | |
0 | 1 | 0 | 0 | 0 | 1 | 0 | |
1 | 1 | 0 | 1 | 0 | 0 | 0 | |
0 | 0 | 1 | 1 | 0 | 0 | 0 | |
1 | 0 | 1 | 0 | 0 | 0 | 1 | |
0 | 1 | 1 | 0 | 0 | 1 | 0 | |
1 | 1 | 1 | 0 | 1 | 0 | 0 |
Besonders wenn $ (A, B, C) = (1, 0, 0) $
B | 0 | 1 | 0 | 1 |
C | 0 | 0 | 1 | 1 |
0 | 0 | 1 | 0 |
Sie können sehen, dass die Wahrscheinlichkeit, dass $ (B, C) = (0, 1) $ ist, 1 ist.
Wenn Sie sich "$ (B, C) $ bei $ t + 1 $ für den Zustand $ (C) $ bei $ t $" ansehen,
| | ||||
---|---|---|---|---|
B | 0 | 1 | 0 | |
C | 0 | 0 | 1 | |
C | ||||
0 | 1/2 | 0 | 1/2 | |
1 | 1/4 | 1/4 | 1/4 |
Es wird so aussehen.
Besonders bei den aktuell festgelegten $ (1, 0, 0) $
B | 0 | 1 | 0 | 1 |
C | 0 | 0 | 1 | 1 |
1/2 | 0 | 1/2 | 0 |
Die Tabelle wird erstellt.
Außerdem erstellen wir eine Tabelle mit "$ (A) $ in $ t + 1 $ für den Zustand $ (\ varnothing) $ (unabhängig von irgendetwas) in $ t $".
A | 0 | 1 |
1/4 | 3/4 |
Diese auf diese Weise erstellten Tabellen werden als Effektrepertoire bezeichnet.
Sie können das Gesamteffektrepertoire auch berechnen, indem Sie die zuvor erstellten Tabellen multiplizieren.
A | 0 | 1 | 0 | 1 | 0 | 1 | 0 |
B | 0 | 0 | 1 | 1 | 0 | 0 | 1 |
C | 0 | 0 | 0 | 0 | 1 | 1 | 1 |
1/8 | 3/8 | 0 | 0 | 1/8 | 3/8 | 0 |
Früher haben wir den Effekt Repertoire gesehen, der der Effekt von $ t $ auf $ t + 1 $ ist.
Schauen wir uns als nächstes die Auswirkung von $ t-1 $ auf $ t $ an.
Werfen wir einen Blick auf "$ (B, C) $ in $ t-1 $ für den Zustand $ (C) $ in $ t $".
C | 0 | 1 | ||
B | C | |||
0 | 0 | 1/2 | 1/2 | |
1 | 0 | 1/2 | 1/2 | |
0 | 1 | 1/2 | 1/2 | |
1 | 1 | 1/2 | 1/2 |
Besonders im festen Zustand $ (1, 0, 0) $ diesmal
B | C | ||
0 | 0 | 1/4 | |
1 | 0 | 1/4 | |
0 | 1 | 1/4 | |
1 | 1 | 1/4 |
Ich finde es. (Standardisiert und die Summe ist 1)
Dies bedeutet, dass $ B und C $ für $ C $ 0 in jedem Zustand gleichermaßen sein können.
Lassen Sie uns auch "$ (A) $ in $ t-1 $ für Zustand $ (\ varnothing) $ (Zustand unabhängig) in $ t $" finden.
A | ||
0 | 1/2 | |
1 | 1/2 |
Jetzt das.
Multiplizieren wir nach wie vor die beiden Tabellen.
$ = $
A | B | C | ||
0 | 0 | 0 | 1/8 | |
1 | 0 | 0 | 1/8 | |
0 | 1 | 0 | 1/8 | |
1 | 1 | 0 | 1/8 | |
0 | 0 | 1 | 1/8 | |
1 | 0 | 1 | 1/8 | |
0 | 1 | 1 | 1/8 | |
1 | 1 | 1 | 1/8 |
Ich konnte so rechnen.
Schauen wir uns nach wie vor das Effektrepertoire von $ (A, B, C) $ für $ (A, C) $ an.
A | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 1 | ||
B | 0 | 0 | 1 | 1 | 0 | 0 | 1 | 1 | ||
C | 0 | 0 | 0 | 0 | 1 | 1 | 1 | 1 | ||
A | C | |||||||||
1 | 0 | 1/4 | 1/4 | 0 | 0 | 1/4 | 1/4 | 0 | 0 |
Dieses Repertoire
Es wird ausgedrückt als. Zerlegen Sie dies
Machen wir es in Form von.
Schauen wir uns zunächst $ (A, B) $ für $ (A, C) $ an.
A | 0 | 1 | 0 | 1 | ||
B | 0 | 0 | 1 | 1 | ||
A | C | |||||
1 | 0 | 1/2 | 1/2 | 0 | 0 |
Schauen Sie sich außerdem $ C $ für $ \ varnothing $ an (nicht angegeben).
C | 0 | 1 | 0 |
1/2 | 1/2 |
$ (A, B) $ für $ (A, C) $, $ C $ für $ \ varnothing $ (nicht angegeben), das Produkt dieser beiden Tabellen ist $ (A) für $ (A, C) $ , B, C) Entspricht der $ -Tabelle.
Es gibt viele Möglichkeiten, eine Kombination zu wählen, die sich so teilt. Lassen Sie uns sie unten auflisten.
Finden Sie das Ursachenrepertoire für dieses Trennzeichen ** all ** und vergleichen Sie es mit dem ursprünglichen $ {AC \ over ABC} $.
Die Division, die die Abweichung vom ursprünglichen Wert minimiert, wird als MIP (minimale Informationspartition) bewertet, und die Abweichung zu diesem Zeitpunkt wird als $ φ $ (kleines Phi) bewertet. In diesem Fall wird
Berechnen wir $ φ $ verschiedener Bereiche aus dem Effektrepertoire.
Der MIP für $ ABC \ über A $ ist $ {A \ über \ varnothing} \ times {BC \ über A} $ und $ φ = 0 $. Der MIP für $ ABC \ über B $ ist $ {A \ über \ varnothing} \ times {BC \ über B} $ und $ φ = 0 $. Der MIP für $ ABC \ über C $ ist $ {C \ über \ varnothing} \ times {AB \ über C} $ und $ φ = 0 $. Der MIP für $ ABC \ über AB $ ist $ {A \ über \ varnothing} \ times {BC \ über AB} $, was $ φ = 0,5 $ ist. Der MIP für $ ABC \ über AC $ ist $ {\ varnothing \ über C} \ mal {ABC \ über A} $ und $ φ = 0 $. Der MIP für $ ABC \ über BC $ ist $ {AB \ über C} \ mal {C \ über B} $ und $ φ = 0,25 $.
Von diesen hat $ ABC \ über AB $ den höchsten $ φ_ \ mathrm {Effekt} ^ {\ mathrm {max}} $. Dies wird als Repertoire an maximal reduzierbaren Effekten bezeichnet.
Dieselbe Berechnung durchführen Sie können auch $ φ_ \ mathrm {Ursache} ^ {\ mathrm {max}} $ für das Ursachenrepertoire finden.
Das kleinere der beiden wird als $ φ $ des Bereichs (ABC) $ angenommen.
Berechnen wir dies für $ A, B, C, AB, BC, ABC $.
A | B | C | AB | BC | ABC | |
---|---|---|---|---|---|---|
0.17 | 0.17 | 0.50 | 0.25 | 0.33 | 0.50 | |
0.25 | 0.25 | 0.25 | 0.50 | 0.50 | 0.50 | |
0.17 | 0.17 | 0.25 | 0.25 | 0.33 | 0.50 |
Bisher haben wir berechnet, wie irreduzibel jede Unterstruktur ist.
Aber was halten Sie vom Gesamtsystem?
Lassen Sie uns hier das Konzept des Schnitts vorstellen.
Es schneidet den "Austritts" -Pfad von "Element A" aus der ODER-Schaltung ab.
Jetzt hat der Wert von $ A $ keine externen Auswirkungen. Beachten Sie zu diesem Zeitpunkt, dass der Wert von A nicht als "0", sondern als "Rauschen" behandelt wird. Beachten Sie auch, dass die Route, die B, C "von" A verbindet, lebendig ist.
Schauen wir uns zunächst das TPM von ($ A, B, C
A(OR) | 0 | 1 | |||
A | B | C | |||
0 | 0 | 0 | 1 | 0 | |
1 | 0 | 0 | 1 | 0 | |
0 | 1 | 0 | 0 | 1 | |
1 | 1 | 0 | 0 | 1 | |
0 | 0 | 1 | 0 | 1 | |
1 | 0 | 1 | 0 | 1 | |
0 | 1 | 1 | 0 | 1 | |
1 | 1 | 1 | 0 | 1 |
Schauen wir uns als nächstes das TPM von ($ A, B, C
B(AND) | 0 | 1 | |||
A | B | C | |||
0 | 0 | 0 | 1 | 0 | |
1 | 0 | 0 | 1 | 0 | |
0 | 1 | 0 | 1 | 0 | |
1 | 1 | 0 | 1 | 0 | |
0 | 0 | 1 | 1/2 | 1/2 | |
1 | 0 | 1 | 1/2 | 1/2 | |
0 | 1 | 1 | 1/2 | 1/2 | |
1 | 1 | 1 | 1/2 | 1/2 |
B kann nicht bestimmen, ob der Wert von $ (A, C) $ $ (0, 1) $ oder $ (1, 1) $ ist, da die Route unterbrochen ist. Daher ändert sich der Wert mit einer Wahrscheinlichkeit von 1/2.
In ähnlicher Weise finden Sie C.
C(XOR) | 0 | 1 | |||
A | B | C | |||
0 | 0 | 0 | 1/2 | 1/2 | |
1 | 0 | 0 | 1/2 | 1/2 | |
0 | 1 | 0 | 1/2 | 1/2 | |
1 | 1 | 0 | 1/2 | 1/2 | |
0 | 0 | 1 | 1/2 | 1/2 | |
1 | 0 | 1 | 1/2 | 1/2 | |
0 | 1 | 1 | 1/2 | 1/2 | |
1 | 1 | 1 | 1/2 | 1/2 |
Da es sich um XOR handelt, kann es nur beurteilt werden, wenn der Wert von A festgelegt ist.
Multiplizieren wir nun die drei bisher erhaltenen Tabellen.
t | \ | t+1 | |||||||||
---|---|---|---|---|---|---|---|---|---|---|---|
A | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 1 | |||
B | 0 | 0 | 1 | 1 | 0 | 0 | 1 | 1 | |||
C | 0 | 0 | 0 | 0 | 1 | 1 | 1 | 1 | |||
A | B | C | |||||||||
0 | 0 | 0 | 1/2 | 0 | 0 | 0 | 1/2 | 0 | 0 | 0 | |
1 | 0 | 0 | 1/2 | 0 | 0 | 0 | 1/2 | 0 | 0 | 0 | |
0 | 1 | 0 | 0 | 1/2 | 0 | 0 | 0 | 1/2 | 0 | 0 | |
1 | 1 | 0 | 0 | 1/2 | 0 | 0 | 0 | 1/2 | 0 | 0 | |
0 | 0 | 1 | 0 | 1/4 | 0 | 1/4 | 0 | 1/4 | 0 | 1/4 | |
1 | 0 | 1 | 0 | 1/4 | 0 | 1/4 | 0 | 1/4 | 0 | 1/4 | |
0 | 1 | 1 | 0 | 1/4 | 0 | 1/4 | 0 | 1/4 | 0 | 1/4 | |
1 | 1 | 1 | 0 | 1/4 | 0 | 1/4 | 0 | 1/4 | 0 | 1/4 |
Dies ist das "TPM, das die Route von A nach B und C schneidet".
Es ist wichtig, wie sich das getrennte Netzwerk im Vergleich zum TPM des nicht verbundenen Netzwerks geändert hat.
Berechnen wir das Maximum-ir-reduzierbare Ursache-Wirkungs-Repertoire erneut basierend auf diesem TPM.
Berechnen wir den Bereich neu, den wir zuvor berechnet haben ... und ...
Nur das maximal irreduzible Ursache-Wirkungs-Repertoire für $ B $ hat sich geändert. Bei der Berechnung des TPM-Fehlers für jede Ursache-Wirkung mit und ohne Unterbrechung ergab sich ein Unterschied von 0,17 $.
Darüber hinaus ist dies nicht das Ende. Maximal irreduzible Ursache-Wirkung Der verbleibende Bereich $ A, C, AB, BC, ABC $, in dem sich das Repertoire nicht geändert hat, wird beim Schneiden mit TPM im Bereich $ \ varnothing $ (nicht angegeben) verglichen. Ich werde. Es gab eine Differenz von $ 0,583, 1, 1, 1,25, 2 $ in jedem Wert.
Multiplizieren Sie diese Unterschiede mit dem $ φ $ -Wert jedes Bereichs und addieren Sie sie.
A | B | C | AB | BC | ABC | |
---|---|---|---|---|---|---|
Unterschied im TPM von sich selbst | 0 | 0.17 | 0 | 0 | 0 | 0 |
Reichweite |
0.583 | 1 | 1 | 1.25 | 2 | |
0.17 | 0.17 | 0.50 | 0.25 | 0.33 | 0.50 | |
Mit dem Unterschied (entweder) |
0.097 | 0.289 | 0.25 | 0.25 | 0.4125 | 1 |
Die letzten Spalten der Tabelle ergeben $ = 2.0416 $. Dies ist der Wert, der als integrierte konzeptionelle Information bezeichnet wird, $ Φ $ (großes Phi).
Dies ist der Wert, wenn "die Route von A" geschnitten wird, aber "die Route von B", "die Route von C", "die Route von AB", "die Route von BC" und "die Route von AC" geschnitten werden. In diesem Fall wird $ Φ $ separat berechnet.
Die berechneten Werte sind in der Tabelle aufgeführt.
Route Quelle zum Trennen | A | BC | B | AC | C | AB |
---|---|---|---|---|---|---|
2.042 | 1.924 | 2.042 | 1.924 | 1.972 | 1.917 |
Der Wert, der $ Φ $ aus diesen Werten zum kleinsten macht, ist $ Φ $ für das gesamte System, und der Begrenzer ist zu diesem Zeitpunkt MIP (Minimum). Es heißt Informationspartition). In diesem Fall scheint es, dass MIP die Verbindung basierend auf AB trennen soll.
Daher wurde gefunden, dass der Wert, der die Informationsintegrationsfähigkeit von $ ABC $ angibt, $ Φ = 1,917 $ ist.
Berechnen wir diesen Wert mit einer Bibliothek namens pyphi. Der Code von vorheriger Artikel wurde gerade eingefügt. Weitere Informationen zur Codeseite finden Sie hier (obwohl dies ein wenig ist).
Schreiben Sie zuerst das TPM (das Format ist unterschiedlich, aber der Inhalt ist der gleiche), beschreiben Sie die Netzwerkverbindung und erstellen Sie die Klasse pyphi.Network ()
...
import pyphi
import numpy as np
tpm = np.array([
[0, 0, 0],
[0, 0, 1],
[1, 0, 1],
[1, 0, 0],
[1, 0, 0],
[1, 1, 1],
[1, 0, 1],
[1, 1, 0]
])
cm = np.array([
[0, 1, 1],
[1, 0, 1],
[1, 1, 0]
])
labels = ('A', 'B', 'C')
#In diesem Fall kann cm weggelassen werden
network = pyphi.Network(tpm, cm=cm, node_labels=labels)
Stellen Sie den Anfangszustand von ABC ein (1, 0, 0) ...
state = (1, 0, 0)
Berechnungsziel festlegen ...
subsystem = pyphi.Subsystem(network, state)
Berechnung.
pyphi.compute.phi(subsystem)
# 1.916665
Ähnliche Ergebnisse wurden erhalten.
Grundsätzlich wird es gemäß dem Inhalt der folgenden Artikel ins Japanische übersetzt. Wenn Sie es etwas mehr sehen möchten, lesen Sie bitte hier. Dieser Artikel enthält zu viele Konzepte zum Überspringen.
https://journals.plos.org/ploscompbiol/article/file?id=10.1371/journal.pcbi.1006343.s001&type=supplementary
Das offizielle Dokument von Pyphi ist unten.
https://pyphi.readthedocs.io/
Ich wäre Ihnen sehr dankbar, wenn Sie auf Punkte hinweisen könnten. Der Artikel war zu lang und es war die Hölle. Über 200 Seiten des ursprünglichen Folienmaterials waren lächerlich.
Recommended Posts