[PYTHON] Quantifizierung des "Bewusstseins" in der integrierten Informationstheorie (IIT3.0), Berechnungsmethode von Φ

Vorwort

Frühere Artikel

Einführung einer Bibliothek zum Umgang mit integrierter Informationstheorie und einfachem Verwendungsbeispiel

Analyse des XOR-Netzwerks

Es gibt eine integrierte Informationstheorie, die den Grad des "Bewusstseins" eines Netzwerks auf einen Wert von Φ berechnet und quantifiziert.

Wir werden uns die Berechnungsmethode von Φ ansehen und uns dabei auf das offizielle Dokument von PyPhi beziehen, einer Bibliothek, die sich mit integrierter Informationstheorie befasst.

Es ist eine ziemlich komplizierte Berechnung, daher werde ich sie auf verschiedene Arten weglassen. Für diejenigen, die den Originalartikel lesen möchten,

Offizielles Dokument

Calculating φ

Siehe den obigen Artikel. Es enthält auch die Geschichte des vorherigen Artikels zwei, den ich geschrieben habe. Ich werde.

Ich mache nur eine grobe japanische Übersetzung mit unzureichenden Kenntnissen, daher wäre ich dankbar, wenn ein Experte darauf hinweisen würde.

Wer es richtig lesen möchte, sollte es lesen, während er es mit dem offiziellen Folienmaterial [Berechnung von φ] vergleicht (https://journals.plos.org/ploscompbiol/article/file?id=10.1371/journal.pcbi.1006343.s001&type=supplementary). Überlegen.

Netzwerk und TPM (Transition Probability Matrix)

phigraph.png

Stellen Sie sich ein Netzwerk vor, das aus diesen drei Elementen OR, AND und XOR besteht.

Jedes Element von A, B und C hat zum Zeitpunkt $ t $ entweder ein EIN- oder ein AUS-Element und Ein- und Ausgänge für das verbundene Element. Das Ergebnis ändert den Status zum Zeitpunkt $ t + 1 $.

Da es aus OR, AND und XOR besteht, kann die folgende Tabelle erstellt werden, indem der Zeitstatus $ t $ in Zeilenrichtung und der Zeitstatus $ t + 1 $ in Spaltenrichtung verwendet werden.

t \ t+1
A 0 1 0 1 0 1 0 1
B 0 0 1 1 0 0 1 1
C 0 0 0 0 1 1 1 1
A B C
0 0 0 1 0 0 0 0 0 0 0
1 0 0 0 0 0 0 1 0 0 0
0 1 0 0 0 0 0 0 1 0 0
1 1 0 0 1 0 0 0 0 0 0
0 0 1 0 1 0 0 0 0 0 0
1 0 1 0 0 0 0 0 0 0 1
0 1 1 0 0 0 0 0 1 0 0
1 1 1 0 0 0 1 0 0 0 0

Wenn in dieser Tabelle beispielsweise $ t $ $ (0, 1, 1) $ ist, beträgt die Wahrscheinlichkeit, bei $ t + 1 $ $ (1, 0, 1) $ zu werden, $ 1 $.

Diese Tabelle heißt TPM (Transition Probability Matrix).

Effektrepertoires?

Lassen Sie uns über verschiedene Kombinationen der drei Elemente A, B und C nachdenken, wie "nur A wird herausgenommen", "nur AB wird herausgenommen" und "nur BC wird herausgenommen".

Nehmen wir als Voraussetzung für die von hier aus durchzuführende Berechnung an, dass $ (A, B, C) = (1, 0, 0) $ fest ist.

Lassen Sie uns zunächst "$ (B, C) $ in $ t + 1 $ für $ t $ state $ (A, B, C) $" untersuchen.

Durch Reduzieren der Informationen von A in $ t + 1 $ aus der vorherigen Tabelle können wir die folgende Tabelle schreiben.

t \ t+1
B 0 1 0 1
C 0 0 1 1
A B C
0 0 0 1 0 0 0
1 0 0 0 0 1 0
0 1 0 0 0 1 0
1 1 0 1 0 0 0
0 0 1 1 0 0 0
1 0 1 0 0 0 1
0 1 1 0 0 1 0
1 1 1 0 1 0 0

Besonders wenn $ (A, B, C) = (1, 0, 0) $

B 0 1 0 1
C 0 0 1 1
0 0 1 0

Sie können sehen, dass die Wahrscheinlichkeit, dass $ (B, C) = (0, 1) $ ist, 1 ist.

Wenn Sie sich "$ (B, C) $ bei $ t + 1 $ für den Zustand $ (C) $ bei $ t $" ansehen,

|
B 0 1 0
C 0 0 1
C
0 1/2 0 1/2
1 1/4 1/4 1/4

Es wird so aussehen.

Besonders bei den aktuell festgelegten $ (1, 0, 0) $

B 0 1 0 1
C 0 0 1 1
1/2 0 1/2 0

Die Tabelle wird erstellt.

Außerdem erstellen wir eine Tabelle mit "$ (A) $ in $ t + 1 $ für den Zustand $ (\ varnothing) $ (unabhängig von irgendetwas) in $ t $".

A 0 1
1/4 3/4

Diese auf diese Weise erstellten Tabellen werden als Effektrepertoire bezeichnet.

Sie können das Gesamteffektrepertoire auch berechnen, indem Sie die zuvor erstellten Tabellen multiplizieren.

無題.png

=

A 0 1 0 1 0 1 0
B 0 0 1 1 0 0 1
C 0 0 0 0 1 1 1
1/8 3/8 0 0 1/8 3/8 0

Repertoire verursachen?

Früher haben wir den Effekt Repertoire gesehen, der der Effekt von $ t $ auf $ t + 1 $ ist.

Schauen wir uns als nächstes die Auswirkung von $ t-1 $ auf $ t $ an.

Werfen wir einen Blick auf "$ (B, C) $ in $ t-1 $ für den Zustand $ (C) $ in $ t $".

C 0 1
B C
0 0 1/2 1/2
1 0 1/2 1/2
0 1 1/2 1/2
1 1 1/2 1/2

Besonders im festen Zustand $ (1, 0, 0) $ diesmal

B C
0 0 1/4
1 0 1/4
0 1 1/4
1 1 1/4

Ich finde es. (Standardisiert und die Summe ist 1)

Dies bedeutet, dass $ B und C $ für $ C $ 0 in jedem Zustand gleichermaßen sein können.

Lassen Sie uns auch "$ (A) $ in $ t-1 $ für Zustand $ (\ varnothing) $ (Zustand unabhängig) in $ t $" finden.

A
0 1/2
1 1/2

Jetzt das.

Multiplizieren wir nach wie vor die beiden Tabellen.

無1題.png

$ = $

A B C
0 0 0 1/8
1 0 0 1/8
0 1 0 1/8
1 1 0 1/8
0 0 1 1/8
1 0 1 1/8
0 1 1 1/8
1 1 1 1/8

Ich konnte so rechnen.

Irreduzibilität?

Schauen wir uns nach wie vor das Effektrepertoire von $ (A, B, C) $ für $ (A, C) $ an.

A 0 1 0 1 0 1 0 1
B 0 0 1 1 0 0 1 1
C 0 0 0 0 1 1 1 1
A C
1 0 1/4 1/4 0 0 1/4 1/4 0 0

Dieses Repertoire

{AC\over ABC}

Es wird ausgedrückt als. Zerlegen Sie dies

{AC\over AB} \times {\varnothing \over C}

Machen wir es in Form von.

Schauen wir uns zunächst $ (A, B) $ für $ (A, C) $ an.

A 0 1 0 1
B 0 0 1 1
A C
1 0 1/2 1/2 0 0

Schauen Sie sich außerdem $ C $ für $ \ varnothing $ an (nicht angegeben).

C 0 1 0
1/2 1/2

$ (A, B) $ für $ (A, C) $, $ C $ für $ \ varnothing $ (nicht angegeben), das Produkt dieser beiden Tabellen ist $ (A) für $ (A, C) $ , B, C) Entspricht der $ -Tabelle.

{AC \ over ABC} und {AC \ over AB} \ times {\ varnothing \ over C} stimmen überein.

Es gibt viele Möglichkeiten, eine Kombination zu wählen, die sich so teilt. Lassen Sie uns sie unten auflisten.

{\varnothing \over A}\times {AC\over BC}, {\varnothing \over B}\times {AC\over AC}, {\varnothing \over C}\times {AC\over AB}
{\varnothing \over AB}\times {AC\over C}, {\varnothing \over BC}\times {AC\over A}, {\varnothing \over AC}\times {AC\over B}
{\varnothing \over ABC}\times {AC\over \varnothing}, {A \over \varnothing}\times {C\over ABC}, {A \over A}\times {C\over BC}
{A \over B}\times {C\over AC}, {A \over AB}\times {C\over C}, {A \over C}\times {C\over BC}
{A \over BC}\times {C\over A}, {A \over ABC}\times {C\over \varnothing}

Finden Sie das Ursachenrepertoire für dieses Trennzeichen ** all ** und vergleichen Sie es mit dem ursprünglichen $ {AC \ over ABC} $.

Die Division, die die Abweichung vom ursprünglichen Wert minimiert, wird als MIP (minimale Informationspartition) bewertet, und die Abweichung zu diesem Zeitpunkt wird als $ φ $ (kleines Phi) bewertet. In diesem Fall wird $ {AC \ over AB} \ times {\ varnothing \ over C} $ auf $$ φ = 0 $ begrenzt, was der MIP ist.

Maximal irreduzibles Ursache-Wirkungs-Repertoire (maximales irreduzibles Ursache-Wirkungs-Repertoire)

ABC\over ABC

Berechnen wir $ φ $ verschiedener Bereiche aus dem Effektrepertoire.

Der MIP für $ ABC \ über A $ ist $ {A \ über \ varnothing} \ times {BC \ über A} $ und $ φ = 0 $. Der MIP für $ ABC \ über B $ ist $ {A \ über \ varnothing} \ times {BC \ über B} $ und $ φ = 0 $. Der MIP für $ ABC \ über C $ ist $ {C \ über \ varnothing} \ times {AB \ über C} $ und $ φ = 0 $. Der MIP für $ ABC \ über AB $ ist $ {A \ über \ varnothing} \ times {BC \ über AB} $, was $ φ = 0,5 $ ist. Der MIP für $ ABC \ über AC $ ist $ {\ varnothing \ über C} \ mal {ABC \ über A} $ und $ φ = 0 $. Der MIP für $ ABC \ über BC $ ist $ {AB \ über C} \ mal {C \ über B} $ und $ φ = 0,25 $.

Von diesen hat $ ABC \ über AB $ den höchsten $ φ_ \ mathrm {Effekt} ^ {\ mathrm {max}} $. Dies wird als Repertoire an maximal reduzierbaren Effekten bezeichnet.

Dieselbe Berechnung durchführen Sie können auch $ φ_ \ mathrm {Ursache} ^ {\ mathrm {max}} $ für das Ursachenrepertoire finden.

φ_\mathrm{cause}^{\mathrm{max} } ,

φ_\mathrm{effect}^{\mathrm{max} }

Das kleinere der beiden wird als $ φ $ des Bereichs (ABC) $ angenommen.

Berechnen wir dies für $ A, B, C, AB, BC, ABC $.

A B C AB BC ABC
φ_\mathrm{cause}^{\mathrm{max} } 0.17 0.17 0.50 0.25 0.33 0.50
φ_\mathrm{effect}^{\mathrm{max} } 0.25 0.25 0.25 0.50 0.50 0.50
φ 0.17 0.17 0.25 0.25 0.33 0.50

Systemschnitte

Bisher haben wir berechnet, wie irreduzibel jede Unterstruktur ist.

Aber was halten Sie vom Gesamtsystem?

Lassen Sie uns hier das Konzept des Schnitts vorstellen.

Es schneidet den "Austritts" -Pfad von "Element A" aus der ODER-Schaltung ab.

1.png

Jetzt hat der Wert von $ A $ keine externen Auswirkungen. Beachten Sie zu diesem Zeitpunkt, dass der Wert von A nicht als "0", sondern als "Rauschen" behandelt wird. Beachten Sie auch, dass die Route, die B, C "von" A verbindet, lebendig ist.

Schauen wir uns zunächst das TPM von ($ A, B, C ) bis ( A $) an. Dies ist eine gewöhnliche ODER-Schaltung wie zuvor.

A(OR) 0 1
A B C
0 0 0 1 0
1 0 0 1 0
0 1 0 0 1
1 1 0 0 1
0 0 1 0 1
1 0 1 0 1
0 1 1 0 1
1 1 1 0 1

Schauen wir uns als nächstes das TPM von ($ A, B, C ) bis ( B $) an. B ist eine UND-Schaltung, aber der Wert von A ist "Rauschen", und für B ändert er sich, wenn er ein zufälliger Wert wird.

B(AND) 0 1
A B C
0 0 0 1 0
1 0 0 1 0
0 1 0 1 0
1 1 0 1 0
0 0 1 1/2 1/2
1 0 1 1/2 1/2
0 1 1 1/2 1/2
1 1 1 1/2 1/2

B kann nicht bestimmen, ob der Wert von $ (A, C) $ $ (0, 1) $ oder $ (1, 1) $ ist, da die Route unterbrochen ist. Daher ändert sich der Wert mit einer Wahrscheinlichkeit von 1/2.

In ähnlicher Weise finden Sie C.

C(XOR) 0 1
A B C
0 0 0 1/2 1/2
1 0 0 1/2 1/2
0 1 0 1/2 1/2
1 1 0 1/2 1/2
0 0 1 1/2 1/2
1 0 1 1/2 1/2
0 1 1 1/2 1/2
1 1 1 1/2 1/2

Da es sich um XOR handelt, kann es nur beurteilt werden, wenn der Wert von A festgelegt ist.

Multiplizieren wir nun die drei bisher erhaltenen Tabellen.

t \ t+1
A 0 1 0 1 0 1 0 1
B 0 0 1 1 0 0 1 1
C 0 0 0 0 1 1 1 1
A B C
0 0 0 1/2 0 0 0 1/2 0 0 0
1 0 0 1/2 0 0 0 1/2 0 0 0
0 1 0 0 1/2 0 0 0 1/2 0 0
1 1 0 0 1/2 0 0 0 1/2 0 0
0 0 1 0 1/4 0 1/4 0 1/4 0 1/4
1 0 1 0 1/4 0 1/4 0 1/4 0 1/4
0 1 1 0 1/4 0 1/4 0 1/4 0 1/4
1 1 1 0 1/4 0 1/4 0 1/4 0 1/4

Dies ist das "TPM, das die Route von A nach B und C schneidet".

Es ist wichtig, wie sich das getrennte Netzwerk im Vergleich zum TPM des nicht verbundenen Netzwerks geändert hat.

Berechnen wir Big-Phi

Berechnen wir das Maximum-ir-reduzierbare Ursache-Wirkungs-Repertoire erneut basierend auf diesem TPM.

Berechnen wir den Bereich neu, den wir zuvor berechnet haben ... und ...

Nur das maximal irreduzible Ursache-Wirkungs-Repertoire für $ B $ hat sich geändert. Bei der Berechnung des TPM-Fehlers für jede Ursache-Wirkung mit und ohne Unterbrechung ergab sich ein Unterschied von 0,17 $.

Darüber hinaus ist dies nicht das Ende. Maximal irreduzible Ursache-Wirkung Der verbleibende Bereich $ A, C, AB, BC, ABC $, in dem sich das Repertoire nicht geändert hat, wird beim Schneiden mit TPM im Bereich $ \ varnothing $ (nicht angegeben) verglichen. Ich werde. Es gab eine Differenz von $ 0,583, 1, 1, 1,25, 2 $ in jedem Wert.

Multiplizieren Sie diese Unterschiede mit dem $ φ $ -Wert jedes Bereichs und addieren Sie sie.

A B C AB BC ABC
Unterschied im TPM von sich selbst 0 0.17 0 0 0 0
Reichweite\varnothingTPM Unterschied mit 0.583 1 1 1.25 2
φ 0.17 0.17 0.50 0.25 0.33 0.50
Mit dem Unterschied (entweder)φWert multipliziert mit 0.097 0.289 0.25 0.25 0.4125 1

Die letzten Spalten der Tabelle ergeben $ = 2.0416 $. Dies ist der Wert, der als integrierte konzeptionelle Information bezeichnet wird, $ Φ $ (großes Phi).

Dies ist der Wert, wenn "die Route von A" geschnitten wird, aber "die Route von B", "die Route von C", "die Route von AB", "die Route von BC" und "die Route von AC" geschnitten werden. In diesem Fall wird $ Φ $ separat berechnet.

Die berechneten Werte sind in der Tabelle aufgeführt.

Route Quelle zum Trennen A BC B AC C AB
Φ 2.042 1.924 2.042 1.924 1.972 1.917

Der Wert, der $ Φ $ aus diesen Werten zum kleinsten macht, ist $ Φ $ für das gesamte System, und der Begrenzer ist zu diesem Zeitpunkt MIP (Minimum). Es heißt Informationspartition). In diesem Fall scheint es, dass MIP die Verbindung basierend auf AB trennen soll.

Daher wurde gefunden, dass der Wert, der die Informationsintegrationsfähigkeit von $ ABC $ angibt, $ Φ = 1,917 $ ist.

Berechnen wir mit der Bibliothek

Berechnen wir diesen Wert mit einer Bibliothek namens pyphi. Der Code von vorheriger Artikel wurde gerade eingefügt. Weitere Informationen zur Codeseite finden Sie hier (obwohl dies ein wenig ist).

Schreiben Sie zuerst das TPM (das Format ist unterschiedlich, aber der Inhalt ist der gleiche), beschreiben Sie die Netzwerkverbindung und erstellen Sie die Klasse pyphi.Network () ...

import pyphi
import numpy as np
tpm = np.array([
     [0, 0, 0],
     [0, 0, 1],
     [1, 0, 1],
     [1, 0, 0],
     [1, 0, 0],
     [1, 1, 1],
     [1, 0, 1],
     [1, 1, 0]
 ])
cm = np.array([
     [0, 1, 1],
     [1, 0, 1],
     [1, 1, 0]
 ])
labels = ('A', 'B', 'C')
#In diesem Fall kann cm weggelassen werden
network = pyphi.Network(tpm, cm=cm, node_labels=labels)

Stellen Sie den Anfangszustand von ABC ein (1, 0, 0) ...

state = (1, 0, 0)

Berechnungsziel festlegen ...

subsystem = pyphi.Subsystem(network, state)

Berechnung.

pyphi.compute.phi(subsystem)
# 1.916665

Ähnliche Ergebnisse wurden erhalten.

Referenzquelle

Grundsätzlich wird es gemäß dem Inhalt der folgenden Artikel ins Japanische übersetzt. Wenn Sie es etwas mehr sehen möchten, lesen Sie bitte hier. Dieser Artikel enthält zu viele Konzepte zum Überspringen.

https://journals.plos.org/ploscompbiol/article/file?id=10.1371/journal.pcbi.1006343.s001&type=supplementary

Das offizielle Dokument von Pyphi ist unten.

https://pyphi.readthedocs.io/

Ich wäre Ihnen sehr dankbar, wenn Sie auf Punkte hinweisen könnten. Der Artikel war zu lang und es war die Hölle. Über 200 Seiten des ursprünglichen Folienmaterials waren lächerlich.

Recommended Posts

Quantifizierung des "Bewusstseins" in der integrierten Informationstheorie (IIT3.0), Berechnungsmethode von Φ
Einführung von PyPhi, einer Bibliothek zum Umgang mit integrierter Informationstheorie (IIT)
Grundlagen der Quanteninformationstheorie: Universelle Quantenberechnung durch Oberflächencode (1)
Grundlagen der Quanteninformationstheorie: Entropie (2)