Aller au contenu

PyTorch

Un article de Wikipédia, l'encyclopédie libre.
Ceci est une version archivée de cette page, en date du 27 avril 2022 à 14:41 et modifiée en dernier par 185.218.212.62 (discuter). Elle peut contenir des erreurs, des inexactitudes ou des contenus vandalisés non présents dans la version actuelle.
PyTorch
Description de l'image Pytorch logo.png.

Informations
Créateur Adam Paszke, Sam Gross, Soumith Chintala, Gregory Chanan
Dernière version 2.4.0 ()[1]Voir et modifier les données sur Wikidata
Dépôt github.com/pytorch/pytorchVoir et modifier les données sur Wikidata
Écrit en C++, Python, C et Compute Unified Device ArchitectureVoir et modifier les données sur Wikidata
Système d'exploitation Linux, macOS et Microsoft WindowsVoir et modifier les données sur Wikidata
Type Bibliothèque logicielle
Bibliothèque logicielle Python (d)
Structure logicielle d'apprentissage automatique (d)Voir et modifier les données sur Wikidata
Licence BSD 3-clausesVoir et modifier les données sur Wikidata
Documentation pytorch.org/docs/stable/index.htmlVoir et modifier les données sur Wikidata
Site web pytorch.orgVoir et modifier les données sur Wikidata

PyTorch est une bibliothèque logicielle Python open source d'apprentissage machine qui s'appuie sur Torch (en) développée par Meta[2].

PyTorch permet d'effectuer les calculs tensoriels nécessaires notamment pour l'apprentissage profond (deep learning). Ces calculs sont optimisés et effectués soit par le processeur (CPU) soit, lorsque c'est possible, par un processeur graphique (GPU) supportant CUDA. Il est issu des équipes de recherche de Facebook, et avant cela de Ronan Collobert dans l'équipe de Samy Bengio[3] à l'IDIAP.

PyTorch est dérivé d'un logiciel antérieur, Torch, qui s'utilisait avec le langage Lua. PyTorch est indépendant de Lua et se programme en Python.

PyTorch permet de:

  • manipuler des tenseurs (tableaux multidimensionnels), de les échanger facilement avec Numpy et d'effectuer des calculs efficaces sur CPU ou GPU (par exemple, des produits de matrices ou des convolutions);
  • calculer des gradients pour appliquer facilement des algorithmes d'optimisation par descente de gradient. PyTorch utilise la bibliothèque autograd[4].

Tenseurs PyTorch

PyTorch définit une classe appelée Tensor (torch.Tensor) pour stocker et opérer sur des tableaux rectangulaires multidimensionnels homogènes de nombres. Les tenseurs PyTorch sont similaires aux tableaux NumPy, mais peuvent également être utilisés sur un GPU Nvidia compatible CUDA. PyTorch prend en charge divers sous-types de Tensors.[5]

Historique

En Caffe2 fusionne avec PyTorch [6]

Exemple

Le programme suivant montre la fonctionnalité de la bibliothèque avec un exemple simple:[7]

import torch
dtype = torch.float
device = torch.device("cpu") # Tous les calculs seront exécutés sur le processeur
# device = torch.device("cuda:0") # Tous les calculs seront exécutés sur la carte graphique

# Création d'un tenseur rempli avec des nombres aléatoires
a = torch.randn(2, 3, device=device, dtype=dtype)
print(a) # Affichage du tenseur a
# Output: tensor([[-1.1884,  0.8498, -1.7129],
#                  [-0.8816,  0.1944,  0.5847]])

# Création d'un tenseur rempli avec des nombres aléatoires
b = torch.randn(2, 3, device=device, dtype=dtype)
print(b) # Affichage du tenseur b
# Output: tensor([[ 0.7178, -0.8453, -1.3403],
#                  [ 1.3262,  1.1512, -1.7070]])

print(a*b) # Affichage du produit (terme à terme) des deux tenseurs
# Output: tensor([[-0.8530, -0.7183,  2.58],
#                  [-1.1692,  0.2238, -0.9981]])

print(a.sum()) # Affichage de la somme de tous les éléments du tenseur a
# Output: tensor(-2.1540)

print(a[1,2]) # Affichage de l'élément de la 2ème rangée et de la 3ème colonne de a
# Output: tensor(0.5847)

print(a.min()) # Affichage de la valeur minimale du tenseur a
# Output: tensor(-1.7129)

Annexes

Notes et références

  1. « Release 2.4.0 », (consulté le )
  2. Julien Bergounhoux, « Avec PyTorch 1.0, Facebook cherche à créer la boite à outil ultime pour l'intelligence artificielle », L'Usine digitale,‎ (lire en ligne)
  3. (en) « Torch: A Modular Machine Learning Software Library », sur citeseerx.ist.psu.edu, (consulté le )
  4. « Automatic differentiation package - torch.autograd — PyTorch master documentation », sur pytorch.org (consulté le )
  5. « An Introduction to PyTorch – A Simple yet Powerful Deep Learning Library », sur analyticsvidhya.com, (consulté le )
  6. https://caffe2.ai/blog/2018/05/02/Caffe2_PyTorch_1_0.html
  7. Jeremy Howard, Sylvain Gugger, Deep Learning for Coders with fastai and PyTorch, O'Reilly, (ISBN 978-1492045526, lire en ligne)