[PYTHON] DEEP PROBABILISTIC PROGRAMMING --- Bibliothek "Deep Learning + Bayes" --- Einführung von Edward

WHY

Edward

Wir werden es unter folgenden Gesichtspunkten einführen, mit Erwartungen an die Zunahme und das zukünftige Wachstum.

Ich habe Deep Probabilistic Programming gelesen und werde daher einen Auszug aus diesem Inhalt vorstellen.


Welche Sache?

Einführung einer Bibliothek, die flexibler als herkömmliches Deep Learning ist und probabilistische Programmierung mit hoher Recheneffizienz ermöglicht. Das gleiche Modell kann mit verschiedenen Inferenzmaschinen verwendet werden. Da die Darstellung des Modells als Teil der Inferenz wiederverwendet werden kann, sind eine Vielzahl von Netzwerkkonfigurationen möglich. Das Backend besteht aus Tensorflow und es gibt so etwas wie Caffees Model Zoo Probability Zoo


Was ist erstaunlich im Vergleich zu früheren Forschungen?

・ Recheneffizienz ist besser als tiefes Lernen ・ Erstellen eines flexiblen Inferenzteils ・ 35-mal schneller mit logistischer Regression als Stan und PyMC3


Wo ist der Schlüssel zu Technologie und Methode?

・ Besteht aus zufälliger Wertgenerierung und Inferenz ・ Erstellt mit offener Technologie (Backend ist Tensorflow) -Der Teil, der die Konstruktion des Modells im Inferenzteil enthält, unterscheidet sich von dem herkömmlichen. ・ Bayesianisches wiederkehrendes neuronales Netzwerk mit variabler Länge


Konkretes Beispiel

Bayesian Recurrent Neural Network with Variable Length

Normal: Normalverteilung

Lernen Sie den Mittelwert und die Varianz der Normalverteilung von Gewicht und Regularisierung

Screen Shot 2017-02-28 at 8.01.05.png


GAN

Ein Netzwerk zur Erzeugung und ein Netzwerk zur Identifizierung werden konfiguriert und Datenparameter werden aus der Verteilung erzeugt. Der vorhergesagte Wert wird auch aus der Verteilung generiert

Screen Shot 2017-02-28 at 8.03.09.png


Spekulanten-Verbundwerkstoff

EM Algorithm

Screen Shot 2017-02-28 at 8.06.14.png


Wie haben Sie überprüft, ob es gültig ist?

Vergleich jeder Methode

Screen Shot 2017-02-28 at 8.07.27.png

Vergleich mit herkömmlicher Bibliothek

Geschwindigkeitsüberprüfung mit PyMC und Stan

Etwa 20-mal so viel wie Stan Etwa 40-mal so viel wie PyMC

Spec
12-core Intel i7-5930K CPU 3.5GHz NVIDIA Titan X(Maxwell) GPU

Task
generate posterior samples with Hamiltonian Monte Carlo

Data
Covertype dataset (N = 581012, D = 54; responses were binarized)

Other
100 HMC iterations, with 10 leapfrog updates per iteration and a step size of 0.5/N

35x speedup from stan 

Gibt es eine Diskussion?

Die neueste Technologie möchte traditionellere Bayes'sche Methoden einbeziehen Ich möchte es auch auf große Datenmengen anwenden können


Welches Papier soll ich als nächstes lesen?

Das folgende Dokument wird empfohlen, da Sie sehen können, wie Sie es ernsthaft verwenden. Tran, Dustin, et al. "Edward: A library for probabilistic modeling, inference, and criticism." arXiv preprint arXiv:1610.09787 (2016).


Reference

Deep Probabilistic Programming

Recommended Posts

DEEP PROBABILISTIC PROGRAMMING --- Bibliothek "Deep Learning + Bayes" --- Einführung von Edward
Python & Machine Learning Study Memo Introduction: Einführung in die Bibliothek
Deep Learning 1 Übung des Deep Learning
DNN (Deep Learning) Library: Vergleich von Chainer und TensorFlow (1)
Deep Learning Gaiden ~ GPU-Programmierung ~
Deep Running 2 Tuning von Deep Learning
Tiefe Stärkung des Lernens 1 Einführung in die Stärkung des Lernens
Erster Monat des Programmierlernens
Tiefes Lernen der Verstärkung 2 Implementierung des Lernens der Verstärkung
Einführung in Deep Learning ~ Backpropagation ~
Deep Learning Model Lightening Library Distiller
Einführung in das tiefe Lernen ~ Funktionsnäherung ~
Einführung in Deep Learning ~ Codierungsvorbereitung ~
Einführung in die Bibliothek für maschinelles Lernen SHOGUN
Microsoft Deep Learning Library "CNTK" Tutorial
Einführung in Deep Learning ~ Dropout Edition ~
Einführung in Deep Learning ~ Forward Propagation ~
Einführung in Deep Learning ~ CNN Experiment ~
Lerngeschichte des Programmierens von Transzendenz-Anfängern
(Python) Deep Learning Library Chainer-Grundlagen Grundlagen
Othello-Aus der dritten Zeile von "Implementation Deep Learning" (3)
Einführung in Deep Learning ~ Falten und Pooling ~
Bedeutung von Deep-Learning-Modellen und -Parametern
Versuchen Sie mit Kipoi tiefes Erlernen der Genomik
Visualisieren Sie die Auswirkungen von Deep Learning / Regularisierung
Emotionale Analyse von Tweets mit Deep Learning
Lernbericht über das Lesen von "Deep Learning von Grund auf neu"
Othello-Aus der dritten Zeile von "Implementation Deep Learning" (2)
Kostenlose Version von DataRobot! ?? Einführung in "PyCaret", eine Bibliothek, die maschinelles Lernen automatisiert
Tiefes Lernen
Einführung der neuen Sprachfeaturextraktionsbibliothek Surfboard
Die Geschichte des tiefen Lernens mit TPU
Ein Amateur versuchte Deep Learning mit Caffe (Einführung)
Deep Learning / Fehler-Backpropagation der Sigmoid-Funktion
Ein Memorandum zum Studieren und Implementieren von Deep Learning
Grundlegendes Verständnis der Stereo-Tiefenschätzung (Deep Learning)
Einführung der Python Imaging Library (PIL) mit HomeBrew
Paralleles Lernen von Deep Learning durch Keras und Kubernetes
Einführung in Deep Learning ~ Lokalisierungs- und Verlustfunktion ~
[Übersetzung] scikit-learn 0.18 Einführung in maschinelles Lernen durch Tutorial scikit-learn