Grammaire non contextuelle

Un article de Wikipédia, l'encyclopédie libre.
(Redirigé depuis Grammaire algébrique)
Aller à : navigation, rechercher

En linguistique et en informatique théorique, une grammaire algébrique, ou grammaire non contextuelle, aussi appelée grammaire hors-contexte ou grammaire « context-free » est une grammaire formelle dans laquelle chaque règle de production est de la forme

est un symbole non terminal et est une chaîne composée de terminaux et/ou de non-terminaux. Le terme « non contextuel » provient du fait qu'un non terminal peut être remplacé par , sans tenir compte du contexte où il apparaît. Un langage formel est non contextuel (ou hors contexte, ou encore algébrique) s'il existe une grammaire non contextuelle qui l'engendre.

Les grammaires algébriques sont suffisamment puissantes pour décrire la partie principale de la syntaxe de la plupart des langages de programmation, avec au besoin quelques extensions. La forme de Backus-Naur est la notation la plus communément utilisée pour décrire une grammaire non contextuelle décrivant un langage de programmation. Dans la hiérarchie de Chomsky ces grammaires sont de type 2.

Si on trouve plusieurs termes pour nommer une grammaire algébrique, c'est que le terme anglais « context-free » est malcommode à traduire. Tous les termes donnés plus haut sont employés et équivalents.

Définitions formelles[modifier | modifier le code]

Une grammaire algébrique est composée

  • d'un alphabet fini de symboles non terminaux ou variables
  • d'un alphabet fini , disjoint de , de symboles terminaux ou lettres terminales
  • d'un élément de appelé l'axiome
  • d'un ensemble fini de règles de dérivations ou productions.

Une règle est en général écrite sous la forme . La variable et le mot sont appelés respectivement le membre gauche et le membre droit de la règle. On étend cette notation et on écrit lorsque résulte de par le remplacement, dans , d'un membre gauche de règle (qui est donc une variable) par son membre droit, donc s'il existe des mots et une règle telle que et . On note la fermeture réflexive et transitive de cette relation. Lorsque , on dit que dérive en .

Le langage engendré par la grammaire , noté , est l'ensemble des mots terminaux (ne contenant plus de variables) qui dérivent de l'axiome , soit

Exemples[modifier | modifier le code]

Exemple 1[modifier | modifier le code]

Considérons la grammaire algébrique suivante :

dénote le mot vide. Cette grammaire engendre le langage qui n'est pas un langage rationnel.

On peut aussi utiliser une barre verticale pour regrouper les règles avec le même symbole non terminal comme membre gauche et écrire la grammaire sous la forme condensée suivante :

.

Exemple 2[modifier | modifier le code]

Voici une grammaire algébrique qui engendre les expressions arithmétiques en trois variables , et , correctement parenthésées :

Cette grammaire engendre par exemple .

Exemple 3[modifier | modifier le code]

La grammaire suivante engendre le langage composé des mots en et en , et dont le nombre de est différent du nombre de  :

produit les mots ayant le même nombre de et de , produit les mots avec plus de que de , et produit les mots ayant moins de que de .

Exemple 4[modifier | modifier le code]

Les langages de Dyck ou les langages des mots bien parenthésés sont des langages algébriques.

Un autre exemple[modifier | modifier le code]

Les grammaires non contextuelles ne sont pas limitées aux langages formels en mathématiques. Elles sont également utilisées en linguistique, même si les grammaires contextuelles sont souvent mieux adaptées. Un exemple étonnant est fourni par le travail du linguiste indien Pānini, actif au IVe siècle av. J.-C.. Il a décrit la grammaire du sanskrit dans un système hautement formalisé, avec près de 4000 règles. Ces règles sont présentées dans une notation proche de la forme de Backus-Naur[1].

Dérivations et arbres de dérivation[modifier | modifier le code]

Il existe deux manières de décrire comment un mot a été engendré à partir d'une grammaire donnée, la première consiste à lister la suite des applications des règles, la deuxième synthétise cette liste en un arbre, appelé arbre de dérivation.

La première méthode liste la suite des mots (en commençant par le symbole de départ, l'axiome, et en finissant par le mot recherché). Les mots intermédiaires, contenant des variables, sont parfois appelés proto-phrases (sentential forms en anglais) ou mot du langage étendu. En plus de ces mots, on liste les règles appliquées pour passer d'un mot au suivant. Si de plus on utilise la stratégie consistant à « toujours remplacer le non-terminal le plus à gauche », alors il suffit en fait de donner la liste des règles appliquées. La dérivation obtenue s'appelle une dérivation gauche du mot. Par exemple, pour la grammaire suivante :

la chaîne «  » admet donc plusieurs dérivations. La dérivation représentée par la liste [ (1), (1), (2), (3), (2) ] est obtenue de la manière suivante :

((1) appliquée à S)
((1) appliquée au deuxième S)
((2) appliquée au deuxième S)
((3) appliquée au premier S)
((2) appliquée à S)

dans cette dérivation, les caractères non terminaux sont remplacés sans ordre spécifique.

Pour obtenir une dérivation gauche, on remplace toujours le non-terminal le plus à gauche. La dérivation gauche de la chaîne «  » est donc obtenu de cette façon :

((1) appliquée à S)
((3) appliquée au premier S)
((1) appliquée à S)
((2) appliquée au premier S)
((2) appliquée à S)

ce qui donne la liste [ (1), (3), (1), (2), (2) ].

De manière analogue, une dérivation droite est la liste des règles employées lorsque l'on remplace systématiquement le non-terminal le plus à droite en premier. Dans l'exemple précédent, une dérivation droite est [ (1), (2), (1), (2), (3)], obtenue de cette façon:

((1) appliquée à S)
((2) appliquée au dernier S)
((1) appliquée à S)
((2) appliquée au dernier S)
((3) appliquée au premier S)

La distinction entre dérivation gauche et dérivation droite est importante en pratique car elle permet dans la plupart des analyseurs syntaxiques de tenir compte des priorités des opérations. Les analyseurs LL produisent des dérivations gauches, et les analyseurs LR des dérivations droite (en fait des réductions, c'est-à-dire déterminent d'abord la dernière règle appliquée).

Une dérivation impose de plus une structure hiérarchique de la chaîne dérivée.

{ { { 1 }S + { a }S }S + { a }S }S

où { ... }S indique une sous-chaîne reconnue comme appartenant à S. Cette hiérarchie peut aussi être vue comme un arbre :

           S 
          /|\
         / | \
        /  |  \
       S   +   S
       |      /|\
       |     / | \
       1    S  +  S
            |     |
            a     a 

Cet arbre est appelé arbre de dérivation, arbre d'analyse ou arbre de syntaxe concrète (en opposition à l'arbre syntaxique abstrait) de la chaîne. La dérivation gauche présentée plus haut et la dérivation droite définissent le même arbre de dérivation. Ceci est normal car les deux dérivations sont deux parcours en profondeur de l'arbre de dérivation, le premier obtenu en choisissant le nœud le plus à gauche, le deuxième en choisissant le nœud le plus à droite. Il y a bijection entre les dérivations gauches et les dérivations droites.

Une grammaire est ambiguë lorsqu'au moins un mot engendré par la grammaire possède au moins deux arbres de dérivation distincts, sinon, c'est une grammaire inambiguë ou non ambiguë. Un langage est inambigu ou non ambigu s'il possède une grammaire inambiguë. Il est appelé inhéremment ambigu si toutes les grammaires qui l'engendrent sont ambiguës.

Un exemple de langage inhéremment ambigu est le langage:

Dans toutes les grammaires, les mots ont deux dérivations distinctes. La preuve se fait au moyen du lemme d'Ogden.

Dans l'analyse syntaxique de mots engendrés par une grammaire ambiguë, il faut faire usage de techniques d'analyse non déterministe et/ou de techniques adaptées (backtracking, règles de désambiguïsation,...)

Formes normales[modifier | modifier le code]

Un langage algébrique peut être engendré par des grammaires algébriques de formes variées. Deux grammaires sont dites équivalentes lorsqu'elles engendrent le même langage.

Grammaire réduite et propre[modifier | modifier le code]

  • Une grammaire réduite est une grammaire où toute variable est utile, c'est-à-dire figure dans au moins une dérivation d'un mot du langage. On peut toujours réduire une grammaire, c'est-à-dire supprimer, de manière effective, les variables inutiles.
  • Une grammaire est propre lorsqu'aucun membre droit de règle n'est égal au mot vide ou à une variable. On peut rendre une grammaire propre, à condition que le langage engendré ne contienne pas le mot vide, ou alors autoriser la seule -règle , où est l'axiome, avec la condition supplémentaire que ne figure dans aucun membre droit de règle.

Forme normale de Chomsky[modifier | modifier le code]

Article détaillé : Forme normale de Chomsky.

Une grammaire est en forme normale de Chomsky si toutes ses règles sont de l'une des formes

  • ,

sont des variables, et est une lettre. Si le langage engendré contient le mot vide, on ajoute la règle

  • ,

est l’axiome.

Toute grammaire peut être mise en forme normale de Chomsky. Cette forme normale sert par exemple dans la définition d'un algorithme d'analyse syntaxique, l'algorithme CYK, qui décide, en temps polynomial, si un mot est dans le langage engendré par cette grammaire.

Forme normale de Greibach[modifier | modifier le code]

Une grammaire est en forme normale de Greibach si les membres droits de toutes ses règles commencent par une lettres, et ne sont suivies éventuellement que par des variables, formellement


sont des variables et sont des lettres. Par exemple, la grammaire

qui engendre le langage de Lukasiewicz est en forme normale de Greibach. La forme quadratique de Greibach impose de plus qu'il y ait au plus deux variables dans chaque membre droit de règle (ce qui est le cas ici). Toute grammaire peut être mise sous forme quadratique de Greibach, au mot vide près.

Forme normale bilatère de Greibach[modifier | modifier le code]

La forme normale de Greibach bilatère est une forme bilatère de la forme normale de Greibach: les membres droits des règles sont soit des lettres terminales, soit commencent et finissent par des lettres terminales et ne contiennent au plus deux variables. Toutes les règles sont de la forme


sont des variables et sont des lettres. Toute grammaire peut être mise sous forme normale bilatère, et on peut même la supposer sous forme quadratique, c'est-à-dire que dans ces règles[2].

Grammaires étendues[modifier | modifier le code]

On rencontre, surtout dans les applications, une forme de grammaires étendues: les membres droits des règles peuvent être des expressions rationnelles. Il en est ainsi dans la forme normale de Backus étendue. Plus précisément, notons l'ensemble des membres droits de règles dont le membre gauche est .

  • Dans la définition usuelle des grammaires algébriques, les ensembles sont finis pour toute variable .
  • Dans les grammaires étendues, les ensembles sont des langages rationnels qui sont donnés par des expressions régulières.
  • Dans une généralisation de ces grammaires, les ensembles sont eux-mêmes des langages algébriques.

On peut montrer que les deux extensions des grammaires engendrent toujours des langages algébriques.

Analyse syntaxique[modifier | modifier le code]

Les grammaires algébriques sont suffisamment simples pour permettre la création d'analyseurs syntaxiques efficaces (contrairement aux grammaires contextuelles) en temps polynomial en la taille de la grammaire et la longueur du mot à analyser. Un tel analyseur a pour tâche de déterminer, pour un mot donné, si et comment il peut être engendré à partir de la grammaire. L'algorithme CYK et l'analyseur d'Earley sont des exemples de tels algorithmes. Les analyseurs LR et les analyseurs LL opèrent en temps linéaire en la longueur du mot à analyser, et sont employés dans la pratique. En revanche, ils ne permettent d'analyser que des familles plus restrictives de grammaires algébriques.

Notes[modifier | modifier le code]

  1. Language in India.
  2. Ce résultat est assez peu connu. Il a été prouvé par G. Hotz. Une preuve est donnée dans : Joost Engelfriet, « An elementary proof of double Greibach normal form », Information Processing Letters, vol. 44, no 2,‎ , p. 291–293. Une preuve et un exemple détaillé sont aussi donnés dans Autebert, Berstel Boasson (1997).

Bibliographie[modifier | modifier le code]

Par sa nature fondamentale, de nombreux ouvrages d'informatique théorique contiennent au moins une section sur les grammairnes algébriques. Plusieurs livres ont également été traduits en français.

Ouvrages en français
  • Alfred Aho, Monica Lam, Ravi Sethi et Jeffrey Ullman, Compilateurs : principes, techniques et outils : Avec plus de 200 exercices, Pearson, , 2e éd., 928 p. (ISBN 9782744070372 et 2744070378)
  • Pierre Wolper, Introduction à la calculabilité, Dunod, , 3e éd. (ISBN 2-10-049981-5).
  • Jean-Michel Autebert, Langages algébriques, Masson, (ISBN 978-2-225-81087-9)
  • Jean-Michel Autebert et Luc Boasson, Transductions rationnelles : Application aux Langages Algébriques, Masson, (ISBN 978-2-225-81504-1)
  • Olivier Carton, Langages formels, calculabilité et complexité, [détail de l’édition] (lire en ligne)
  • Jean-Michel Autebert, Jean Berstel et Luc Boasson, « Context-free languages and pushdown automata », dans G. Rozenberg, A. Salomaa (éditeurs), Handbook of Formal Languages, vol. 1 : Word, Language, Grammar, Springer Verlag, (ISBN 978-3540604204), p. 111-174
Ouvrage en allemand
  • (de) Katrin Erk et Lutz Priese, Theoretische Informatik : eine umfassende Einführung, Berlin, Springer, (ISBN 9783540763192, OCLC 244015158).
Ouvrages en anglais
  • (en) Seymour Ginsburg, The Mathematical Theory of Context Free Languages, McGraw-Hill, , ix+ 232 p. — Le premier livre sur les langages algébriques.
  • (en) Alfred V. Aho et Jeffrey D. Ullman, The theory of parsing, translation, and compiling, vol. 1 : Parsing, Englewood Cliffs, NJ, Prentice-Hall, , xii+543 p. (ISBN 0-13-914556-7)
  • (en) Alfred V. Aho et Jeffrey D. Ullman, The theory of parsing, translation, and compiling, vol. 2 : Compiling, Englewood Cliffs, NJ, Prentice-Hall, , xii+460 p. (ISBN 0-13-914564-8)
  • (en) Michael A. Harrison, Introduction to Formal Language Theory, Reading, Mass., Addison-Wesley, (ISBN 0201029553, OCLC 266962302).
  • (en) John E. Hopcroft, Rajeev Motwani et Jeffrey D. Ullman, Introduction to Automata Theory, Languages, and Computation, Addison Wesley, , 521 p. (ISBN 9780201441246 et 0201441241).
  • (en) Peter Linz, An Introduction to Formal Languages and Automata, Jones & Bartlett Learning, , 410 p. (ISBN 9780763714222 et 0763714224).
Cours

Voir aussi[modifier | modifier le code]