[PYTHON] Das verallgemeinerte lineare Modell (GLM) und das neuronale Netz sind gleich (1)

Es klingt etwas rau, ist aber dasselbe wie das allgemeine Linearisierungsmodell (GLM) und das mehrschichtige Perzeptron des neuronalen Netzes. In den verstreuten Daten werde ich eine überzeugende Linie ziehen. Ich denke, es gibt viele Leute, die in beiden Bereichen arbeiten, aber ich denke, es ist einfacher, es gleichzeitig zu verstehen.

In jeder der statistischen Modellierungs- und Diskriminanzfunktionen ・ Wie wäre es mit dem Zeichnen einer geraden Linie in Daten mit einem linearen Modell (LM)? → Zeichnen wir nichtlineare Linien durch Verallgemeinern (GLM).

Aus Sicht der statistischen Modellierung: Generalized Linear Model (GLM)

Für lineares Modell und verallgemeinertes lineares Modell, Die Materialien für die statistische Lösungsstudie werden hier zusammengefasst, was recht einfach zu verstehen ist. " Statistische Studiengruppe Materialien - Tag 2 Verallgemeinertes lineares Modell: Logik von Blau "

Wenn Sie also ein lineares Modell, ein einfaches Regressionsmodell oder ein multiples Regressionsmodell im Allgemeinen schreiben,


{ \displaystyle
y_i = \alpha + \beta_1 x_1 + \beta_2 x_2 + \beta_3 x_3 … + \beta_i x_i + \varepsilon_i
}

Wenn in einer Matrix geschrieben,


\begin{equation}

\left(
    \begin{array}{c}
      y_1 \\
      y_2 \\
・\\
・\\
      y_n
    \end{array} 

\right)

=

\left(

 \begin{array}{ccc}
      1 & x_{11} & x_{12} \\
      1 & x_{12} & x_{22} \\
・&・&・\\
・&・&・\\
      1 & x_{n1} & x_{n2}
    \end{array}
\right)

\left(
   \begin{array}{c}
     \alpha \\
     \beta_1 \\
・\\
・\\
     \beta_n 
    \end{array}
\right)

+

\left(
   \begin{array}{c}
     \varepsilon_1 \\
     \varepsilon_2 \\
・\\
・\\
     \varepsilon_n 
    \end{array}
\right)


\end{equation}

des Weiteren

y = B X + \epsilon

Kann auch geschrieben werden. Dieses Mal wird der Einfachheit halber die Erklärungsvariable auf 2 gesetzt.

y = \beta_1 x_1 + \beta_2 x_2 = BX

Nachdenken über.

Um die Einschränkung, nur eine gerade und normale Verteilung anzunehmen, aus der obigen Gleichung zu entfernen, Verwenden Sie die Verknüpfungsfunktion auf der linken Seite der Regressionsgleichung. Annahme der Bernoulli-Verteilung mit der Logit Link-Funktion

\log \frac{y}{1-y} = \beta_1 x_1 + \beta_2 x_2

Die linke Seite ist die Verknüpfungsfunktion und die rechte Seite ist der lineare Prädiktor. Wenn diese Formel durch die Umkehrfunktion konvertiert wird,

  y = \frac{1}{1+exp(-(\beta_1 x_1 + \beta_2 x_2))} = \frac{1}{1+exp(-BX)}  (1)

Kann erhalten werden.

In der statistischen Modellierung werden danach Parameter unter Verwendung einer Wahrscheinlichkeitsfunktion usw. verwendet.

\beta_1  \beta_2
```Erstellen eines Modells durch Schätzen=Zeichnen Sie eine Linie in die Daten.

 Es wird länger, also werde ich im nächsten Artikel fortfahren.


Recommended Posts

Das verallgemeinerte lineare Modell (GLM) und das neuronale Netz sind gleich (1)
Das verallgemeinerte lineare Modell (GLM) und das neuronale Netz sind gleich (2)
Python open und io.open sind gleich
[Python3] "A // B" und "math.floor (A / B)" sind nicht immer gleich! ??
[PyTorch] Überprüfen Sie, ob sich Modell und Datensatz im Cuda-Modus befinden
Ich habe versucht, GLM (Generalized Linear Model) für Aktienkursdaten zu verwenden
Schätzung / Vorhersage des verallgemeinerten linearen Modells bei Lasso und Ridge
Neuronales Netzwerk mit OpenCV 3 und Python 3
Einfaches Klassifizierungsmodell mit neuronalem Netz
Einfache Theorie und Implementierung des neuronalen Netzes
Berühren Sie das Objekt des neuronalen Netzes
[Für Anfänger] Warum brauchen Sie das "Gewicht" und die "Tendenz" des neuronalen Netzwerks?
Behalten Sie das mit PyBrain aufgebaute neuronale Netzwerk bei
2. Mittelwert und Standardabweichung beim neuronalen Netz!