Aller au contenu

Wikipédia:Statut des serveurs

Une page de Wikipédia, l'encyclopédie libre.

Wikipédia et les autres projets de Wikimedia fonctionnent à l'aide de plusieurs baies de serveurs. Ces serveurs sont principalement voués à faire fonctionner le logiciel MediaWiki.

Cette page n'est pas à jour, veuillez consulter meta:Wikimedia servers pour avoir des informations à jour.

Une architecture en 3 couches

[modifier le code]
Diagramme des trois couches

Le système actuellement utilisé fonctionne en 3 couches :

  • des machines munies de caches Squid attendent des demandes de pages, images, etc. des clients (navigateurs Web) ; ils gardent en mémoire les pages les plus récemment accédées qui n'ont pas été modifiées, et les renvoient aux clients qui les demandent, sinon ils passent la requête à la couche suivante ;
  • des machines munies de serveurs Apache préparent les pages à la demande, en fonction des données présentes dans la base de données ;
  • une base de données maître et des bases de données esclaves stockent les données.
  • (en) Le rôle des serveurs

Efficacité des serveurs 'caches'

[modifier le code]

Les caches Squid sont beaucoup plus efficaces pour les utilisateurs anonymes que pour les utilisateurs nommés (car les pages sont préparées différemment pour chaque utilisateur nommé, alors que c'est la même page qui ressert pour tous les utilisateurs anonymes).

Limitations de localisation

[modifier le code]

Pour des raisons techniques, les serveurs Apache doivent être sur le même site que la base de données. Sauf achat massif de matériel, il n'est pas possible de mettre un autre groupe base de données + Apache ailleurs qu'en Floride (cela pourrait poser par ailleurs des problèmes légaux si ce groupe était installé dans un pays dont les lois protègent moins la liberté d'expression que les États-Unis d'Amérique).

Pour un fonctionnement optimum, la charge des serveurs Apache est répartie selon l'état de fonctionnement et de charge de chacun. Ce point a été la source d'un grand nombre de soucis qui semblent réglés depuis l'installation de nouveaux serveurs.

Les serveurs

[modifier le code]

Les projets Wikimedia sont extrêmement fréquentés, ce qui oblige à recourir à de nombreux serveurs qui fonctionnent tous sous le système d'exploitation Linux.

Les serveurs installés près de Paris.
Nos serveurs sont les trois du milieu.
(De bas en haut : ennael, chloe, bleuenn.)

  • Actuellement la plupart des serveurs sont hébergés au data center 'Power Medium' en Floride, qui offre les racks et la moitié de la bande passante. Depuis le début du projet et jusqu'en septembre 2004, Bomis.com a payé pour toute la bande passante de ces serveurs.
  • Depuis juin 2005, m:Kennisnet fournit l'hébergement et la bande passante de plusieurs serveurs installés à Amsterdam.
  • 23 serveurs et la bande passante associée sont fournis par Yahoo! et installés en Corée du Sud.
  • 3 serveurs Squid étaient à Aubervilliers, près de Paris au centre de connectivité informatique. Jexiste a offert gracieusement les emplacements de baies et Lost Oasis la bande passante.
  • D'autres serveurs, dont ceux de Sun Microsystems, servent de support pour divers outils écrits par les utilisateurs.

Nommage des serveurs

[modifier le code]

Les noms des serveurs sont ceux d'encyclopédistes historiques renommés. Les machines hébergées par Kennisnet et Yahoo! sont nommées selon des espèces de plantes. Plus récemment, l'arrivée importante de serveurs a obligé à les nommer de façon numérique.

Les serveurs Apache acceptent les requêtes des utilisateurs, récupèrent les données de la base si nécessaire, et formatent les réponses aux utilisateurs, grâce au programme MediaWiki en PHP avec APC. Ils partagent leur répertoire de travail par NFS pour que l'upload soit synchrone.

Les serveurs Squid maintiennent un grand cache de pages, ainsi les requêtes communes et répétées n'arrivent pas jusqu'aux serveurs Apache ou à la base de données. Ils servent la plupart des pages demandées par les utilisateurs anonymes (non loggués). Ils ont actuellement un hit-rate de 75%, quadruplant la capacité des serveurs Apache derrière eux. C'est particulièrement remarquable quand une grande quantité de trafic arrive directement sur une page particulière via un lien sur un autre site, l'efficacité du cache pour cette page est alors environ de 100%. Ils font aussi le load balancing pour les serveurs Apache. Round-robin DNS répartit la charge sur les Squids.

Statistiques

[modifier le code]

Les pages de statistiques et surveillance sont en anglais, car destinées en priorité aux développeurs et administrateurs. Toutes les heures et dates sont en temps UTC (« heure de Greenwich »).

La performance de Squid est mesurée. Voici le nombre de requêtes par seconde pour tous les serveurs (en vert) et les hits cache (en bleu) : ~midom/squidmatrix

Statuts des serveurs

[modifier le code]

Un outil basé sur Ganglia permet de suivre des statistiques détaillées sur les serveurs : « Ganglia Grid Report »(Archive.orgWikiwixArchive.isGoogleQue faire ?).

Sur IRC, un canal de discussion est dédié à l'aspect technique de Wikipédia : #wikimedia-tech

Voir aussi

[modifier le code]

Sur les autres projets Wikimedia :