Aller au contenu

Discussion:Supercalculateur exaflopique

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Une page de Wikipédia, l'encyclopédie libre.
Autres discussions [liste]
  • Admissibilité
  • Neutralité
  • Droit d'auteur
  • Article de qualité
  • Bon article
  • Lumière sur
  • À faire
  • Archives
  • Commons

Relecture[modifier le code]

Bonjour à vous !

Tout d'abord, félicitations pour votre article ! Il est vraiment complet, et j'ai appris pas mal de trucs que je ne savais pas.

Concernant la relecture, j'ai quelque remarques à faire sur la forme. Je relirais sur le fond plus tard ce week-end et je vous mettrais ce que j'en pense ici ;)

Est-ce que l'article des supercalculateurs exaflopiques ne serait pas un article détaillé de l'article sur les supercalculateurs? Par conséquent, il faudrait un lien vers l'article principal en haut de page.

Oui, nous n'avons pas voulu le mettre comme article principal car il n'était pas assez complet à mon sens. Mais dans la logique de Wikipédia, il faut le mettre, donc c'est fait. Thanusan R (discuter) 3 février 2020 à 10:10 (CET)[répondre]

Concernant le plan, je pense qu'il faudrait mettre les exemples d'utilisation avant les défis. Je pense qu’un utilisateur sans passif d’informaticien sera plus interessé par ce qu’on peut faire avec un supercalculateur que par les défis que ceux qui les conçoivent doivent affronter

Il est vrai que le chapitre des "exemples" est plus intérésents, cependant, "les défis" est une suite même des chapitres "Écosystème" et "Performance", de plus on parle d'un système qui n'existe pas encore donc pour nous le défi est un chapitre pour important. Thanusan R (discuter) 3 février 2020 à 10:10 (CET)[répondre]

Pour la mise en forme, il me semble qu'un lien vers un autre article Wikipédia ne doit être fait qu’une fois dans tout l’article, à sa première apparition.

Certains lecteurs ne vont pas lire tout l'article en entier, ils peuvent chercher que le paragraphe qui les intéresse donc on a laissé les liens par contre on a supprimé ceux qui se répètent dans le même paragraphe --Boutaïna Laraqi (discuter) 3 février 2020 à 13:03 (CET)[répondre]

De même, les citations d’une même page d’un même article doivent être regroupées grâce à un nom de tag (sans les étoiles):

Pour la première apparition :

 <* ref name=”Messina2017_1”>{*{harvsp|Messina|2017|p=1|id=Messina2017}*}</ref>

Pour les suivantes:

 < *ref name=”Messina2017_1” />
Le changement a été fait sur toutes les références --Boutaïna Laraqi (discuter) 3 février 2020 à 13:03 (CET)[répondre]

Il y a un lien dont l'homonymie n'est pas levé dans la définition : "le nombre de coeurs : Core"

c'est fait Thanusan R (discuter) 3 février 2020 à 10:10 (CET)[répondre]

Au niveau de la traduction, dans la définition je pense que vous devriez reprendre le titre de l'article lié pour la "Dynamique des fluides de calcul" et le transformer en "Mécanique des fluides numériques". De même dans l'exemple d'études complète, je pense ques les nomes d'universités et de département devraient être traduits: "Department of Electrical and Computer Engineering et University of Wisconsin-Madison"

Merci, c'est fait Thanusan R (discuter) 3 février 2020 à 10:11 (CET)[répondre]

Quelques problèmes de formulation et de syntaxe voire de mots manquants, m'ont empêché de comprendre certaines phrases : Dans Ecosytème :

 "Les cœurs du système devraient atteindre 100 millions sur les systèmes Exascale"

=> Phrase peu claire. “Le nombre de coeurs du système devrait atteindre 100 millions sur les systèmes exascale”

Merci, c'est fait Thanusan R (discuter) 3 février 2020 à 10:10 (CET)[répondre]

Dans Multilevel Checkpointing

 "Un système utilisant un schéma de points de contrôle à plusieurs niveaux peut permettre des niveaux de compromis plus rapides (mais capables de récupérer de moins de types de défaillances) des points de contrôle vers la RAM ou vers le disque local d'un nœud et moins fréquents (mais capables de récupérer de plus de types de défaillances) points de contrôle vers le système de fichiers parallèles,"

=> Je n’ai vraiment pas compris cette phrase :x

Merci, c'est aussi notre cas :), ces paragraphes font partie des sections que nous n'avons pas eu le temps de faire la reformulation, je viens de faire la correction. Thanusan R (discuter) 5 février 2020 à 08:43 (CET)[répondre]

Dans Software et middlewares

"Les langues spécifiques au domaine (DSL) (Domain Specific Language) sont des langues"

=> On parle de langages en Informatique, tant pis pour les répétitions

Nous avons fait la reformulation de tout le paragraphe. Thanusan R (discuter) 5 février 2020 à 09:20 (CET)[répondre]

Dans Exemple d’études complètes

 "Mémoires à plusieurs niveaux qui améliorent la bande passante mémoire avec la mémoire 3D intégrée"

=> Je n’ai pas compris cette phrase

Nous avons proposé une nouvelle traduction : "Mémoires multi-niveaux qui améliorent la bande passante en intégrant la mémoire 3D, qui est empilée directement au-dessus des GPU" Thanusan R (discuter) 5 février 2020 à 10:04 (CET)[répondre]

A d'autres moments, vous parlez de choses sans les expliquer et ce sont des notions que je n'ai par conséquent pas compris

Dans Ecosystème :

"Il s'agira de systèmes basés sur une architecture homogène ou hétérogène."

=> Qu’est-ce qu’un système hétérogène ou homogène ?

Dans Performance :

"peuvent nécessiter de meilleures performances informatiques entières,"

=> Qu’est-ce que des performances informatiques entières ?

Merci, nous avons refait tout le paragraphe. Thanusan R (discuter) 5 février 2020 à 10:07 (CET)[répondre]

Dans Parallélisation à très large échelle :

 "Les calculateurs exaflopiques posséderont un million cœurs de calcul"

=> Vous parlez plus haut de 100 millions, quelle info est la bonne ? (et il manque un petit “de” :P)

Très bonne remarque, c'est une erreur de notre part. Nous avons changé la phrase et les auteurs : "Le nombre de coeurs du système devrait atteindre plusieurs millions de cœurs de calcul." Thanusan R (discuter) 5 février 2020 à 10:29 (CET)[répondre]

Dans Exemple d’études complète

 "(par exemple, les GPU de sable CPU)"

=> Qu’est-qu’un GPU de sable CPU ?

Erreur de traduction, c'était juste (par exemple les CPU et GPU) Thanusan R (discuter) 5 février 2020 à 09:57 (CET)[répondre]

Dans Prédiction Météorologique

 "Les prévisions à cinq jours sont aussi précises que les prévisions à quatre jours dix ans avant"

=> Manque d’un repère temporel~

Merci, c'est fait Thanusan R (discuter) 5 février 2020 à 10:33 (CET)[répondre]

EDIT : Au niveau du fond, je trouve que votre article est déjà très complet. La seule chose que j'aimerais, c'est un peu plus d'explications sur ce que sont les architectures homogènes et hétérogènes et si des défis différents s'adressent à ces deux architectures. Dans "A survey of high-performance computing scaling challenges" par Geist et Reed en Août 2015, on trouve ces deux explications et j'avoue que ça a ouvert ma curiosité et que je pense que l'article gagnerait à faire ne serait-ce qu'une petite partie dessus :

"In the nearer term, two diverse architectural designs are emerging in the trans-petascale era. One design is based on systems with heterogeneous nodes. Today, these are typified by nodes combining powerful CPUs with accelerators. Examples of this design are the two largest systems on the TOP500 list. [...] The second system design is based on homogeneous nodes. The basic features of this design are large numbers of smaller nodes, each with a pool of homogeneous cores and a single level of memory. Examples of the second design are the third through fifth systems on the TOP500 list"
"In the heterogeneous node case, the split programming model is particularly pernicious. One programming model is needed for the multicore CPU (e.g., data parallel MPI) and another for the accelerator (e.g., OpenCL). Design choices such as how and where to run different parts of the application have dramatic effects on its performance and also resilience and energy consumption. [...] In the homogeneous node case, the key challenge is the amount of parallelism required to utilize the large number of nodes, along with the challenges of data movement minimization, resilience and energy efficiency. Scalability can be limited by the problem size, the algorithms used and by the speed that data can be shared across nodes. Reducing communication among nodes has the dual benefit of reducing energy consumption and also improving resilience by reducing the propagation of errors."
Très bonne remarque et source, j'ai ajouté un paragraphe sur ce sujet dans l'écosystème. Il faudrait le développé un peu plus, mais je n'ai pas le temps... Thanusan R (discuter) 8 février 2020 à 00:06 (CET)[répondre]

Sinon le reste est très bien ! Encore bravo à vous ! Samson V— Le message qui précède, non signé, a été déposé par NeroKyusi (discuter), le 24 janvier 2020 à 13:27‎

Un grand merci pour ce début de relecture.
Nous avons tout juste eu le temps de finir la rédaction de l'article donc nous n'avons pas pu faire nous-mêmes une 1ère relecture. Je pense que ça se voit bien. N'hésitent pas à nous remonter toutes vos remarques.
Nous allons prendre en compte en grande partie tes remarques, il nous reste encore des points à revoir, je vais faire un retour dès que possible sur les éléments que nous avons décidé de ne pas prendre en compte.
--Thanusan R (discuter) 29 janvier 2020 à 17:29 (CET)[répondre]

Relecture[modifier le code]

Bonjour et bravo pour l'écriture de cette article, qui m'a permis d'apprendre énormément de chose sur un sujet que je ne connaissait pas du tout.

Concernant la relecture, je rejoint les points que mon collègue a déjà énoncé et je vais en énoncer d'autres.

L'aide à la Wikification préconise dans la mise en forme du texte d'utiliser l'italique pour les mots en langue étrangère https://fr.wikipedia.org/wiki/Aide:Wikification#Mise_en_forme_de_l%27introduction_et_du_texte
Les termes en anglais pourraient être mis en italique dans la page.

C'est fait :) --Boutaïna Laraqi (discuter) 3 février 2020 à 14:07 (CET)[répondre]

Dans "Fiabilité et Résistance", je trouve la mise en page du dernier paragraphe, sur Checkpointing and Restarting etc..., pas très claire, j'aurais plutôt vu une liste a puce, avec directement des phrases et la citation en fin de chaque phrase plutôt qu'à la fin du paragraphe, comme par exemple :

  - La technique de résilience la plus couramment utilisée par les HPC est Checkpointing and Restarting. La mise en œuvre la plus générale de la technique de point de contrôle fonctionne en arrêtant l'exécution du système à intervalles réguliers pour enregistrer l'état de toutes les applications en cours d'exécution sur un périphérique de stockage permanent, généralement un système de fichiers parallèle39 ;
Les 4 points ont été rédigés autrement, pour le format on préfère le garder comme tel que mettre des puces :) --Boutaïna Laraqi (discuter) 3 février 2020 à 18:49 (CET)[répondre]

Dans ce même paragraphe, les pages de la référence ne sont pas bonnes, se sont les pages 333-334 et non pas la page 332, pour la ref 39 de ces 4 derniers points.

pages modifiées --Boutaïna Laraqi (discuter) 3 février 2020 à 14:24 (CET)[répondre]

Dans "Software et Middleware", à la première ligne, le "tout" me semble inutile :

  tous les 500 superordinateurs les plus rapides au monde exécutent des systèmes d'exploitation basés sur Linux.
Effectivement, je l'ai retiré --Boutaïna Laraqi (discuter) 3 février 2020 à 19:04 (CET)[répondre]

Vous dites aussi que ces machines exaflopique auront 1 panne par heure alors que plus haut dans Fiabilité et Résistance, vous parlez de plusieurs pannes par heure, quelle info est bonne? Et du coup vous pourrez mettre les mêmes ref pour ces deux passages.

l'info correcte est plusieurs pannes par heure, c'est modifié dans la rubrique softwares et middlewares. Pour les références, les deux disent la même chose et viennent du même auteur.

Dans "Consommation énergétique", vous avez écrit PUE1 au lieu de PUE comme indiqué dans le formule. Plus bas, vous avez écrit "les machines pétéflopiques" au lieu de "les machines pétaflopique".

c'est modifié --Boutaïna Laraqi (discuter) 3 février 2020 à 19:04 (CET)[répondre]

Dans "Internationale", je pense qu'il serait mieux, soit de laisser les acronymes en anglais, soit de les traduire complétement, par exemple :

   National Nuclear Administration de la sécurité (NNSA)
c'est fait --Boutaïna Laraqi (discuter) 3 février 2020 à 19:04 (CET)[répondre]

Dans "Exemples d'utilisations", je pense qu'il serait judicieux de trouver plus de source plutôt que de traduire un seul article et de le mettre tel quel dans votre page wikipedia, pour quasiment chaque exemple.

je pense tu t'es trompé de rubrique car pour les exemples d'utilisations on a mis des références différentes pour chaque exemple --Boutaïna Laraqi (discuter) 3 février 2020 à 19:14 (CET)[répondre]

Pour le reste, je n'ai rien à redire, en espérant que mes remarques vous aiderons ! Encore bravo !

Merciiiii pour tes remarques très pertinentes :D --Boutaïna Laraqi (discuter) 3 février 2020 à 19:14 (CET)[répondre]

1.421 exaflops[modifier le code]

premier exaflopique au Japon. Michelet-密是力 (discuter) 26 juin 2020 à 06:49 (CEST)[répondre]

maintenant que le premier superordinateur exaflopique existe[modifier le code]

sans doute pourrait-on tirer quelque chose de ce texte :

"The 59th edition of the TOP500 revealed the Frontier system to be the first true exascale machine with an HPL score of 1.102 Exaflop/s. The No. 1 spot is now held by the Frontier system at Oak Ridge National Laboratory (ORNL) in the US. Based on the latest HPE Cray EX235a architecture and equipped with AMD EPYC 64C 2GHz processors, the system has 8,730,112 total cores, a power efficiency rating of 52.23 gigaflops/watt, and relies on gigabit ethernet for data transfer. However, a recent development to the Frontier system has allowed the machine to surpass the 1 exaflop barrier. With an exact HPL score of 1.102 Exaflop/s, Frontier is not only the most powerful supercomputer to ever exist – it’s also the first true exascale machine. The top position was previously held for two years straight by the Fugaku system at the RIKEN Center for Computational Science (R-CCS) in Kobe, Japan. Sticking with its previous HPL benchmark score of 442 PFlop/s, Fugaku has now dropped to No. 2. Considering the fact that Fugaku’s theoretical peak is above the 1 exaflop barrier, there’s cause to also call this system an exascale machine as well. However, Frontier is the only system able to demonstrate this on the HPL benchmark test." https://www.top500.org/lists/top500/2022/06/ Rozef (discuter) 20 juillet 2022 à 10:55 (CEST)[répondre]