Les Verts

Un article de Wikipédia, l'encyclopédie libre.

Le terme Les Verts peut avoir différentes significations :

Politique[modifier | modifier le code]

Les Verts (terme apparu en 1980) peut désigner un parti politique (ou les membres de ce parti politique) écologiste, présent dans plusieurs pays :

Football[modifier | modifier le code]

L'expression Les Verts désigne :

Autres[modifier | modifier le code]