[PYTHON] Traduction japonaise appropriée de pytorch tensor_tutorial

%matplotlib inline

WHAT IS PYTORCH?

It’s a Python-based scientific computing package targeted at two sets of audiences:

Tensors Tensors are similar to Numpy's ndarrays, with the addtion being that Tensors can also be used on GPU to accelerate computing.

Qu'est-ce que PyTorch?

Pytorch est un produit basé sur Python développé pour les utilisateurs avec les objectifs suivants: C'est un progiciel de calcul scientifique.

Getting Started

Tenseurs

Les tensols sont similaires aux ndarrays de Numpy, sauf qu'ils peuvent être calculés sur le GPU.

from __future__ import print_function
import torch

Note

An uninitialized matrix is declared, but does not contain definite known values before it is used. When an uninitialized matrix is created, whatever values were in the allocated memory at the time will appear as the initial values.

Construct a 5x3 matrix, uninitialized: Générer une matrice 5x3 non initialisée

x = torch.empty(5, 3)
print(x)

Construct a randomly initialized matrix:

Générer une matrice initialisée au hasard

x = torch.rand(5, 3)
print(x)

Construct a matrix filled zeros and of dtype long:

Générer une matrice de type long initialisée à zéro

x = torch.zeros(5, 3, dtype=torch.long)
print(x)

Construct a tensor directly from data:

Générer une matrice à partir de données

x = torch.tensor([5.5, 3])
print(x)

or create a tensor based on an existing tensor. These methods will reuse properties of the input tensor, e.g. dtype, unless new values are provided by user

Vous pouvez également générer un tenseur à partir d'un tenseur existant. Ces méthodes réutilisent les propriétés de tenseur entrées à moins qu'elles ne soient spécifiées par l'utilisateur. Exemple: type

x = x.new_ones(5, 3, dtype=torch.double)      # new_* methods take in sizes
print(x)

x = torch.randn_like(x, dtype=torch.float)    # override dtype!
print(x)                                      # result has the same size

Get its size:

Obtenez la taille du tenseur

print(x.size())

Note

``torch.Size`` is in fact a tuple, so it supports all tuple operations.

Operations

There are multiple syntaxes for operations. In the following example, we will take a look at the addition operation.

Addition: syntax 1

opération

Il existe différentes distributions dans l'opération. La grammaire de l'addition est présentée ci-dessous.

Addition 1

y = torch.rand(5, 3)
print(x + y)
---------------------------------------------------------------------------

NameError                                 Traceback (most recent call last)

<ipython-input-1-3846198563ac> in <module>
----> 1 y = torch.rand(5, 3)
      2 print(x + y)


NameError: name 'torch' is not defined

Addition: syntax 2

Addition 2

print(torch.add(x, y))

Addition: providing an output tensor as argument

Addition: Passez le tenseur de sortie comme argument

result = torch.empty(5, 3)
torch.add(x, y, out=result)
print(result)

Addition: in-place

Ajout: sur place

# adds x to y
y.add_(x)
print(y)

Note

Any operation that mutates a tensor in-place is post-fixed with an ``_``. For example: ``x.copy_(y)``, ``x.t_()``, will change ``x``.

You can use standard NumPy-like indexing with all bells and whistles!

Vous pouvez utiliser presque n'importe quelle indexation Numpy! !!

print(x[:, 1])

Resizing: If you want to resize/reshape tensor, you can use torch.view:

Redimensionner: Si vous souhaitez modifier la forme du tenseur, vous pouvez utiliser `` torch.view '':

x = torch.randn(4, 4)
y = x.view(16)
z = x.view(-1, 8)  # the size -1 is inferred from other dimensions
print(x.size(), y.size(), z.size())

If you have a one element tensor, use .item() to get the value as a Python number

Utilisez `` .item () '' pour récupérer des nombres Python à partir d'un tenseur avec un élément

x = torch.randn(1)
print(x)
print(x.item())

Read later:

100+ Tensor operations, including transposing, indexing, slicing, mathematical operations, linear algebra, random numbers, etc., are described here <https://pytorch.org/docs/torch>_.

** Lire plus tard **

Pour plus d'informations https://pytorch.org/docs/torch

NumPy Bridge

Converting a Torch Tensor to a NumPy array and vice versa is a breeze.

The Torch Tensor and NumPy array will share their underlying memory locations (if the Torch Tensor is on CPU), and changing one will change the other.

Converting a Torch Tensor to a NumPy Array ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^

Numpy Bridge

Facile à convertir le tenseur de torche en tableau Numpy

Le tenseur de torche et le tableau Numpy partagent la mémoire (en forme de pointeur) Si vous modifiez le tenseur, le tableau Numpy change également. Et vice versa

a = torch.ones(5)
print(a)
b = a.numpy()
print(b)

See how the numpy array changed in value.

Voyons comment le tenseur de la torche change.

a.add_(1)
print(a)
print(b)

Converting NumPy Array to Torch Tensor ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ See how changing the np array changed the Torch Tensor automatically

Convertir un tableau Numpy en tenseur de torche

import numpy as np
a = np.ones(5)
b = torch.from_numpy(a)
np.add(a, 1, out=a)
print(a)
print(b)

All the Tensors on the CPU except a CharTensor support converting to NumPy and back.

CUDA Tensors

Tensors can be moved onto any device using the .to method.

Tous les tenseurs, à l'exception de CharTensor, prennent en charge la conversion en tableau Numpy.

CUDA Tensors

Les tensols peuvent être déplacés vers n'importe quel appareil en utilisant `` .to ''.

# let us run this cell only if CUDA is available
# We will use ``torch.device`` objects to move tensors in and out of GPU
if torch.cuda.is_available():
    device = torch.device("cuda")          # a CUDA device object
    y = torch.ones_like(x, device=device)  # directly create a tensor on GPU
    x = x.to(device)                       # or just use strings ``.to("cuda")``
    z = x + y
    print(z)
    print(z.to("cpu", torch.double))       # ``.to`` can also change dtype together!

Recommended Posts

Traduction japonaise appropriée de pytorch tensor_tutorial
Traduction japonaise du manuel sysstat
Traduction japonaise du manuel Linux
Traduction japonaise du manuel e2fsprogs
Traduction japonaise du manuel man-db
Traduction japonaise du manuel util-linux
Traduction japonaise du manuel iproute2
Traduction japonaise: PEP 20 - Le Zen de Python
Traduction japonaise sosreport
Traduction de scsi_mid_low_api.txt
traduction japonaise man systemd
streamlit explication traduction japonaise
Streamlit tutorial traduction japonaise
Localisation japonaise de Pycharm
Dockerfile Reference traduction japonaise
docker-compose --aide à la traduction en japonais
docker help traduction en japonais
Traduction japonaise du matériel pédagogique public du diplôme nano d'apprentissage profond
[PyTorch] Classification des images du CIFAR-10
Affichage japonais de matplotlib, seaborn
Paramètre de localisation japonais de PyCharm
À propos du chemin japonais de pyminizip
Tutoriel [PyTorch] (version japonaise) ② ~ AUTOGRAD ~
docker build --aider la traduction en japonais
Prédiction de la moyenne Nikkei avec Pytorch 2
Tutoriel [PyTorch] (version japonaise) ① ~ Tensol ~
Prédiction de la moyenne Nikkei avec Pytorch
docker run --aider la traduction en japonais