pytorch verwendet v1.5.1. Die Ausgabe von Linear wird auf (x, y, vxx, vyy, vxy) gesetzt, eine verteilte, gemeinsam verteilte Matrix wird erstellt und an MultivariateNormal übergeben.
fc = nn.Linear(n, 5)
output = fc(x)
mean = output[:2]
vxx, vyy = nn.Softplus()(output[2:4])
vxy = output[-1]
covariance_matrix = torch.zeros(2, 2)
covariance_matrix[0, 0] += vxx
covariance_matrix[0, 1] += vxy
covariance_matrix[1, 0] += vxy
covariance_matrix[1, 1] += vyy
dist = MultivariateNormal(mean, covariance_matrix)
RuntimeError: cholesky_cuda: For batch 0: U(6,6) is zero, singular U. Da MultivariateNormal die verteilte, gemeinsam verteilte Matrix nach Choleskey zerlegt, muss eine positive Konstantwertmatrix angegeben werden. Der obige Fehler tritt auf, weil covariance_matrix nicht garantiert eine positive Wertematrix ist.
fc = nn.Linear(n, 5)
output = fc(x)
mean = output[:2]
a, c = nn.Softplus()(output[2:4])
b = output[-1]
L = torch.zeros(2, 2)
L[0, 0] += a
L[1, 0] += b
L[1, 1] += c
dist = MultivariateNormal(mean, scale_tril=L)
scale_tril (Tensor) – lower-triangular factor of covariance, with positive-valued diagonal
Daher werden die diagonalen Komponenten $ a und c $ durch softplus auf positive Werte gesetzt.
Cholesky-Zersetzung bei der Herstellung einer verteilten, gemeinsam verteilten Matrix
\Sigma = LL^{T}
in Übereinstimmung mit,
covariance_matrix = np.dot(L, L.T)
Und es ist ausreichend.
Recommended Posts