Algorithme de Cocke-Younger-Kasami

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

En informatique théorique et en théorie des langages, l'algorithme de Cocke-Younger-Kasami (CYK) est un algorithme d'analyse syntaxique pour les grammaires non contextuelles. Il permet de déterminer si un mot est engendré par une grammaire, et si oui, d'en donner un arbre syntaxique. L'algorithme est nommé d'après les trois personnes qui l'ont trouvé indépendamment, J. Cocke, dont l'article n'a jamais été publié[1], D. H. Younger[2] et T. Kasami qui a publié un rapport interne aux US-AirForce[3].

L'algorithme opère par analyse ascendante et emploie la programmation dynamique. L'algorithme suppose que la grammaire est en forme normale de Chomsky. Cette restriction n'est pas gênante dans la mesure où toute grammaire non contextuelle admet une grammaire en forme normale de Chomsky équivalente[4]. Le temps de calcul de cet algorithme est en O(|m|^3 \cdot |G|), où |m| est la longueur du mot m à analyser et |G| est la taille de la grammaire.

Principe[modifier | modifier le code]

Sans perte de généralité, on suppose que la grammaire G n'engendre pas le mot vide \epsilon. Ainsi, on peut supposer que la grammaire G est forme normale de Chomsky et qu'elle ne contient pas de règles de la forme N \rightarrow \epsilon (on parle de grammaire propre, voir grammaire non contextuelle).

Soit m un mot non vide à analyser. L'algorithme emploie la programmation dynamique. Les sous-problèmes sont les suivants :  P[i, j] est l'ensemble des non-terminaux qui engendrent le mot  m[i..j] pour tout  i, j tels que 1 \leq i \leq j \leq |m||m| est la longueur du mot m.

Principe de l'algorithme CYK : cas de base et cas récursif

On peut calculer les ensembles P[i, j] par récurrence sur |j-i|.

  • Cas de base :  P[i, i] est l'ensemble des non-terminaux  N tel que  N \rightarrow m[i] est une règle de la grammaire.
  • Cas récursif : Si   i < j,  P[i, j] est l'ensemble des non-terminaux  N tels qu'il existe une règle  N \rightarrow BC B et  C sont des non-terminaux et un entier  k \in \{i, \dots, j-1\} tels que  B est dans   P[i, k] et  C est dans P[k+1, j] .

La figure à droite montre le cas de base et le cas récursif.

On en déduit un algorithme de programmation dynamique qui calcule tous les ensembles P[i, j] . Le mot m est engendré par la grammaire si et seulement si S est dans P[1, |m|] S est l'axiome de la grammaire et |m| est la longueur du mot m .


Exemple[modifier | modifier le code]

Considérons la grammaire suivante en forme normale de Chomsky :

\begin{array}{lcl}
\mathit{S} &\to& \mathit{GN} \; \mathit{GV}\\
\mathit{GV} &\to& \mathit{GV} \; \mathit{C}\\
\mathit{GV} &\to& \mathit{V} \; \mathit{GN}\\
\mathit{GV} &\to& \textit{mange}\\
\mathit{C} &\to& \mathit{P} \; \mathit{GN}\\
\mathit{GN} &\to& \mathit{Det} \; \mathit{N}\\
\mathit{GN} &\to& \textit{elle}\\
\mathit{V} &\to& \textit{mange}\\
\mathit{P} &\to& \textit{avec}\\
\mathit{N} &\to& \textit{poisson}\\
\mathit{N} &\to& \textit{fourchette}\\
\mathit{Det} &\to& \textit{du} \\
\mathit{Det} &\to& \textit{une}
\end{array}

où l'ensemble des non-terminaux est \{S, GV, C, GN, V, P, N, Det\} et l'ensemble des terminaux (lettres) est \{elle, poisson, fourchette, mange, du, une\}. Ici, "elle" s'appelle une lettre (bien que c'est un mot) et une phrase comme "elle mange du poisson avec une fourchette" s'appelle un mot.

Maintenant, analysons le mot m qui est la phrase "elle mange du poisson avec une fourchette" avec l'algorithme CYK. Dans la table suivante, on indique les valeurs de P[i, j]  :

P[1, 7] = {S}
P[1, 6] = ø P[2, 7] = {GV}
P[1, 5] = ø P[2, 6] = ø P[3, 7] = ø
P[1, 4] = S P[2, 5] = ø P[3, 6] = ø P[4, 7] = ø
P[1, 3] = ø P[2, 4] = {GV} P[3, 5] = ø P[4, 6] = ø P[5, 7] = {PP}
P[1, 2] = {S} P[2, 3] = ø P[3, 4] = {GN} P[4, 5] = ø P[5, 6] = ø P[6, 7] = {GN}
P[1, 1] = {GN} P[2, 2] = {V, GV} P[3, 3] = {Det} P[4, 4] = {N} P[5, 5] = {P} P[6, 6] = {Det} P[7, 7] = {N}
elle mange du poisson avec une fourchette

Le mot elle mange du poisson avec une fourchette est reconnue car l'axiome S est dans P[1, 7] .

Pseudo-code[modifier | modifier le code]

Voici un pseudo-code inspiré de l'analyse de la section précédente :

Pour i = 1 à |m|
     P[i, i]  := ensemble des non-terminaux  N tel que  N \rightarrow m[i] est une règle de la grammaire
Pour d = 1 à |m|-1
    Pour i = 1 à |m|-d
         j := i+d
          P[i, j]  := ensemble des non-terminaux  N tels qu'il existe une règle  N \rightarrow BC et un entier  k \in \{i, \dots, j-1\} tels que
                                 B est dans P[i, k] et C est dans P[k+1, j]

Retourne oui si S  est dans P[1, |m|]  ; non sinon.

On peut donner un pseudo-code qui montre la complexité cubique en |m|  :

Pour i = 1 à |m|
     P[i, i]  := ensemble des non-terminaux  N tel que  N \rightarrow m[i] est une règle de la grammaire
Pour d = 1 à |m|-1
    Pour i = 1 à |m|-d
         j := i+d
          P[i, j]  := ensemble vide
         Pour tout k = i à j-1
                  Pour tout  B est dans   P[i, k] et  C est dans P[k+1, j] 
                            Pour tout non-terminal  N tel que  N \rightarrow BC est une règle
                                  Ajouter  N à P[i, j]
Retourne oui si S  est dans P[1, |m|]  ; non sinon.

Discussions[modifier | modifier le code]

Grammaires pondérées[modifier | modifier le code]

Si la grammaire est pondérée, l'algorithme de CYK permet de générer l'arbre le plus lourd qui engendre la phrase[5],[6].

Intérêt de la mise en forme normale de Chomsky[modifier | modifier le code]

La restriction qui consiste à avoir une grammaire en forme normale de Chomsky est essentiellement esthétique et Lange et Leiß [7] discutent une variante de l'algorithme CYK avec des restrictions plus faibles.

Lien avec la multiplication de matrices[modifier | modifier le code]

L'algorithme CYK est en \Theta(|m|^3 \cdot |G|), où |m| est la longueur du mot à analyser et |G| est la taille de la grammaire en forme normale de Chomsky. Valiant[8] donne une extension de l'algorithme CYK en O(|m|^{2.81} \cdot |G|) en adaptant l'algorithme de Strassen sur les matrices.

En utilisant l'algorithme de Coppersmith-Winograd[9] pour multiplier les matrices, on atteint une complexité asymptotique de O(|m|^{2.38} \cdot |G|) . Mais la constante cachée dans la notation grand O fait que l'algorithme n'a pas d'intérêt en pratique[10]. La dépendance sur un algorithme efficace pour multiplier des matrices ne peut pas être évitée dans le sens suivant : Lee[11] a montré que l'on peut construire un algorithme pour multiplier des matrices 0-1 de taille (n \times n) en temps O(n^{3 - \varepsilon/3}) à partir d'un analyseur pour des grammaires algébriques en O(|m|^{3-\varepsilon} \cdot |G|) .

Démonstrations[modifier | modifier le code]

Notes et références[modifier | modifier le code]

  1. D'apres Hopcroft, Motwani et Ullman, le travail de J. Cocke, bien qu’il ait circulé de façon privée, n’a jamais été publié.
  2. D. H. Younger, « Recognition and parsing of context-free languanges in time n3 », Information and Control, vol. 10, no 2,‎ , p. 189-208.
  3. T. Kasami, « An efficient recognition and syntax-analysis algorithm for context-free languages », Science Report AFCRL-65-758, Bedford, Mass., Air Force Cambridge Research Laboratory,‎ .
  4. (en) Sipser, Michael, Introduction to the Theory of Computation (1st ed.),‎ (ISBN 0-534-94728-X)
  5. Víctor M. Jiménez et Andrés Marzal, « Computation of the N Best Parse Trees for Weighted and Stochastic Context-Free Grammars », Advances in Pattern Recognition, Springer Science + Business Media,‎ , p. 183-192 (ISBN 978-3-540-67946-2, ISSN 0302-9743, DOI 10.1007/3-540-44522-6_19, lire en ligne).
  6. Xian Chen, « Weighted-CYK-Probabilistic-Context-Free-Grammar », sur GitHub,‎ .
  7. Lange, Martin; Leiß, Hans (2009). "To CNF or not to CNF? An Efficient Yet Presentable Version of the CYK Algorithm". Informatica Didactica 8.
  8. « General context-free recognition in less than cubic time », sur www.sciencedirect.com (DOI 10.1016/S0022-0000(75)80046-8, consulté le 29 décembre 2015)
  9. Don Coppersmith and Shmuel Winograd. Matrix multiplication via arithmetic progressions. Proceedings of the Nineteenth Annual ACM Symposium on Theory of Computing, pages 1–6, 1987.
  10. (en) Donald Knuth, The Art of Computer Programming Volume 2: Seminumerical Algorithms (3rd ed.). Addison-Wesley Professional. p. 501. (ISBN 0-201-89684-2)
  11. Lillian Lee, « Fast Context-free Grammar Parsing Requires Fast Boolean Matrix Multiplication », J. ACM, vol. 49,‎ , p. 1–15 (ISSN 0004-5411, DOI 10.1145/505241.505242, lire en ligne)

Bibliographie[modifier | modifier le code]

L'algorithme est exposé dans les ouvrages théoriques sur les langages formels.

  • Alfred Aho, Monica Lam, Ravi Sethi et Jeffrey Ullman, Compilateurs : principes, techniques et outils : Avec plus de 200 exercices, Pearson,‎ , 2e éd., 928 p. (ISBN 9782744070372 et 2744070378) — Exercice 4.4.9 du Dragon book.
  • (de) Katrin Erk et Lutz Priese, Theoretische Informatik : eine umfassende Einführung, Berlin, Springer,‎ (ISBN 9783540763192, OCLC 244015158) — 6.8.1 Das Wortproblem, p. 154-159.
  • (en) Michael A. Harrison, Introduction to Formal Language Theory, Reading, Mass. [u.a.], Addison-Wesley,‎ (ISBN 0201029553, OCLC 266962302) — Section 12.4 The Cocke-Kasami-Younger Algorithm, p. 430-442.
  • (en) John E. Hopcroft, Rajeev Motwani et Jeffrey D. Ullman, Introduction to Automata Theory, Languages, and Computation, Addison Wesley,‎ , 521 p. (ISBN 9780201441246 et 0201441241) — Section 7.4.4 Testing Membership in a CFL, p. 298-304.
  • (en) Peter Linz, An Introduction to Formal Languages and Automata, Jones & Bartlett Learning,‎ , 410 p. (ISBN 9780763714222 et 0763714224) — Section 6.3 A Membership Algorithm for Context Free Grammars, p. 172-174.
  • (en) Jeffrey Shallit, A Second Course in Formal Languages and Automata Theory, Cambridge University Press,‎ , 240 p. (ISBN 9780521865722 et 0521865727) — Section 5.1 Recognition and parsing in general grammars p.  141-144

Voir aussi[modifier | modifier le code]