Es klingt etwas rau, ist aber dasselbe wie das allgemeine Linearisierungsmodell (GLM) und das mehrschichtige Perzeptron des neuronalen Netzes. In den verstreuten Daten werde ich eine überzeugende Linie ziehen. Ich denke, es gibt viele Leute, die in beiden Bereichen arbeiten, aber ich denke, es ist einfacher, es gleichzeitig zu verstehen.
In jeder der statistischen Modellierungs- und Diskriminanzfunktionen ・ Wie wäre es mit dem Zeichnen einer geraden Linie in Daten mit einem linearen Modell (LM)? → Zeichnen wir nichtlineare Linien durch Verallgemeinern (GLM).
Für lineares Modell und verallgemeinertes lineares Modell, Die Materialien für die statistische Lösungsstudie werden hier zusammengefasst, was recht einfach zu verstehen ist. " Statistische Studiengruppe Materialien - Tag 2 Verallgemeinertes lineares Modell: Logik von Blau "
Wenn Sie also ein lineares Modell, ein einfaches Regressionsmodell oder ein multiples Regressionsmodell im Allgemeinen schreiben,
{ \displaystyle
y_i = \alpha + \beta_1 x_1 + \beta_2 x_2 + \beta_3 x_3 … + \beta_i x_i + \varepsilon_i
}
Wenn in einer Matrix geschrieben,
\begin{equation}
\left(
\begin{array}{c}
y_1 \\
y_2 \\
・\\
・\\
y_n
\end{array}
\right)
=
\left(
\begin{array}{ccc}
1 & x_{11} & x_{12} \\
1 & x_{12} & x_{22} \\
・&・&・\\
・&・&・\\
1 & x_{n1} & x_{n2}
\end{array}
\right)
\left(
\begin{array}{c}
\alpha \\
\beta_1 \\
・\\
・\\
\beta_n
\end{array}
\right)
+
\left(
\begin{array}{c}
\varepsilon_1 \\
\varepsilon_2 \\
・\\
・\\
\varepsilon_n
\end{array}
\right)
\end{equation}
des Weiteren
y = B X + \epsilon
Kann auch geschrieben werden. Dieses Mal wird der Einfachheit halber die Erklärungsvariable auf 2 gesetzt.
y = \beta_1 x_1 + \beta_2 x_2 = BX
Nachdenken über.
Um die Einschränkung, nur eine gerade und normale Verteilung anzunehmen, aus der obigen Gleichung zu entfernen, Verwenden Sie die Verknüpfungsfunktion auf der linken Seite der Regressionsgleichung. Annahme der Bernoulli-Verteilung mit der Logit Link-Funktion
\log \frac{y}{1-y} = \beta_1 x_1 + \beta_2 x_2
Die linke Seite ist die Verknüpfungsfunktion und die rechte Seite ist der lineare Prädiktor. Wenn diese Formel durch die Umkehrfunktion konvertiert wird,
y = \frac{1}{1+exp(-(\beta_1 x_1 + \beta_2 x_2))} = \frac{1}{1+exp(-BX)} (1)
Kann erhalten werden.
In der statistischen Modellierung werden danach Parameter unter Verwendung einer Wahrscheinlichkeitsfunktion usw. verwendet.
\beta_1 \beta_2
```Erstellen eines Modells durch Schätzen=Zeichnen Sie eine Linie in die Daten.
Es wird länger, also werde ich im nächsten Artikel fortfahren.
Recommended Posts