PRML Kapitel 7 In Python implementierte Regression der Relevanzvektormaschine (RVM).
Jupyter-Notizbuch, in dem der Code und die experimentellen Ergebnisse zusammengefasst sind.
Bedingte Wahrscheinlichkeitsverteilung der Realwert-Zielvariablen $ t $ für einen gegebenen Eingabevektor $ \ mathbf {x} $
Hier wird $ \ beta = \ sigma ^ {-2} $ durch den Rauschgenauigkeitsparameter (die Umkehrung der Rauschdispersion) definiert, und der Durchschnittswert wird durch das folgende lineare Modell definiert.
Als Basisfunktion wird eine Kernelfunktion mit einzelnen Trainingsdaten als Argument verwendet.
Die Gesamtzahl der Parameter beträgt $ M = N + 1 $. Die Wahrscheinlichkeitsfunktion ist durch die folgende Gleichung gegeben.
Eine Gaußsche Vorverteilung mit einem Durchschnitt von 0 wird als Vorverteilung des Parametervektors $ \ mathbf {w} $ verwendet. In RVM wird für jeden Gewichtungsparameter $ w {i} $ ein anderer Superparameter $ \ alpha {i} $ verwendet. __ Das heißt, die vorherige Verteilung für Gewichte ist wie folgt.
Wobei $ \ alpha_ {i} $ die Genauigkeit des entsprechenden Gewichtungsparameters $ w_ {i} $ darstellt, $ \ mathbf {\ alpha} = (\ alpha_ {1}, \ dots, \ alpha_ {M}) ^ {T} $. Das Maximieren der Evidenz für diese Superparameter führt bei den meisten Superparametern zu einer Unendlichkeit, wobei die posteriore Verteilung der entsprechenden Gewichtungsparameter auf den Nullpunkt konzentriert wird. Dann spielt die diesen Parametern entsprechende Basisfunktion (die Kernelfunktion, die den Abstand zum entsprechenden Datenpunkt darstellt) keine Rolle bei der Vorhersage, so dass sie entfernt werden kann und ein spärliches Modell erhalten wird.
Die hintere Wahrscheinlichkeit für den Gewichtsvektor ist wieder Gaußsch und wird in der folgenden Form ausgedrückt.
Hier sind der Mittelwert und die Kovarianz durch die folgenden Gleichungen gegeben.
$ \ Mathbf {\ Phi} $ ist jedoch das Element $ \ Phi_ {ni} = \ phi_ {i} (\ mathbf {x_ {n}}) $ für $ i = 1, \ dots, N $ und $ N \ times M $ Planungsmatrix mit Element $ \ Phi_ {nM} = 1 $ für $ n = 1, \ dots, N $, $ \ mathbf {A} = \ rm {diag} (\ alpha_ {i}) $.
Die Werte von $ \ mathbf {\ alpha} $ und $ \ beta $ werden durch die zweite Art der wahrscheinlichsten Schätzung erhalten, die auch als __evidence approximation __ bekannt ist. Um den zweiten Typ der wahrscheinlichsten Schätzung durchzuführen, integrieren Sie zuerst die Gewichtsparameter.
Da diese Gleichung ein Faltungsintegral zweier Gaußscher Verteilungen ist, kann das Integral analytisch ausgeführt werden, und die logarithmische Wahrscheinlichkeit kann wie folgt erhalten werden.
Hier ist $ \ mathbf {t} = (t_ {1}, \ dots, t_ {N}) ^ {T} $. Wir haben auch die $ N \ times N $ -Matrix $ \ mathbf {C} $ wie folgt definiert.
Durch Setzen des Differentials der erhaltenen logarithmischen Wahrscheinlichkeit auf 0 wird die Aktualisierungsgleichung des Superparameters wie folgt erhalten.
Hier ist $ \ gamma_ {i} $ eine Größe, die angibt, wie gut der entsprechende Gewichtungsparameter $ w_ {i} $ in den Daten angegeben und durch die folgende Gleichung definiert ist.
Unter Verwendung der obigen Ergebnisse läuft das Lernen von Superparametern wie folgt ab. Zunächst werden der Durchschnitt der posterioren Wahrscheinlichkeiten $ \ mathbf {m} $ und die Kovarianz $ \ mathbf {\ Sigma} $ aus den Anfangswerten von $ \ mathbf {\ alpha} $ und $ \ beta $ geschätzt, die entsprechend ausgewählt wurden. Als nächstes werden die Superparameter aus den erhaltenen Werten geschätzt. Dieser Vorgang wird abwechselnd wiederholt, bis die entsprechenden Konvergenzbedingungen erfüllt sind.
Vektoren, die nicht mit der Ausgabe $ \ mathbf {t} $ zusammenhängen, haben den Wert $ \ alpha $ von $ \ infty $. Mit anderen Worten, die Spalte mit dem größeren Wert von $ \ alpha ^ {-1} $ ist der zugehörige Vektor.
Recommended Posts