Chomsky Noam. Trois modèles de description du langage. In Langages, 3e année, n°9, 1968. pp....

27
Noam Chomsky Trois modèles de description du langage In: Langages, 3e année, n°9, 1968. pp. 51-76. Citer ce document / Cite this document : Chomsky Noam. Trois modèles de description du langage. In: Langages, 3e année, n°9, 1968. pp. 51-76. doi : 10.3406/lgge.1968.2361 http://www.persee.fr/web/revues/home/prescript/article/lgge_0458-726X_1968_num_3_9_2361

Transcript of Chomsky Noam. Trois modèles de description du langage. In Langages, 3e année, n°9, 1968. pp....

Noam Chomsky

Trois modèles de description du langageIn: Langages, 3e année, n°9, 1968. pp. 51-76.

Citer ce document / Cite this document :

Chomsky Noam. Trois modèles de description du langage. In: Langages, 3e année, n°9, 1968. pp. 51-76.

doi : 10.3406/lgge.1968.2361

http://www.persee.fr/web/revues/home/prescript/article/lgge_0458-726X_1968_num_3_9_2361

NOAM CHOMSKY

TROIS MODÈLES DE DESCRIPTION DU LANGAGE •

Résumé.

Nous étudierons plusieurs conceptions de structure linguistique, afin de déterminer si elles peuvent mener à des grammaires simples et « révélatrices » qui engendrerons les phrases de l'anglais et celles-ci seulement. Nous constaterons qu'il n'est pas possible d'utiliser comme grammaire de l'anglais une chaîne de Markov à nombre fini d'états qui produit des symboles à chaque transition d'état à état. De plus, la sous- classe de ces processus, qui produit des approximations d'ordre n de l'anglais ne serre pas non plus, quand л croit, la production d'une grammaire anglaise. Nous formaliserons la notion de « structure de constituants » (en anglais : phrase structure) et nous montrerons que cela nous fournit une méthode de description des langues, qui est essentiellement plus puissante, tout en restant représentable par un type de processus fini plutôt élémentaire. Cependant elle n'est applicable qu'à un petit sous-ensemble de phrases simples. Nous étudierons les propriétés formelles d'un ensemble de transformations qui appliquent des phrases munies de leur structure de constituants, sur de nouvelles phrases munies d'une structure de constituants dérivée, nous montrerons ainsi que les grammaires transformationnelles sont encore des processus de type élémentaire, que la grammaire de l'anglais est matériellement simplifiée si la description par structure de constituants est limitée à un noyau de phrases simples, à partir desquelles toutes les autres sont construites par des transformations, et que cette image de la structure linguistique

*Ce travail a été financé en partie par l'armée de terre (Signal Corps), l'armée de l'air (Office of Scientific Research, Air Research and Development Command), la marine (Office of Naval Research) et en partie par un don de l'Eastman Kodak Company.

Cet article a été publié dans IRE Transactions on Information Theory., 1956, II — 2, pp. 113-124; nous avons pu le traduire grâce à l'autorisation de П.Е.Е.Е.; il a été reproduit dans Readings in Mathematical Psychology, vol. II, R.D. Luce, R.R. Bush, E. Galanter Eds, Wiley, New York, 1965.

52

donne une certaine compréhension de l'utilisation et de l'interprétation du langage.

1. Introduction.

Il y a deux problèmes au centre de l'étude descriptive du langage. La préoccupation fondamentale du linguiste est de découvrir des grammaires simples et « révélatrices » pour les langues naturelles. En même temps, par l'étude des propriétés de telles grammaires, et la clarification des concepts de base qui leur sont sous-jacents, il espère aboutir à une théorie générale des structures linguistiques. Nous examinerons certains caractères de ces deux démarches.

La grammaire d'une langue peut être considérée comme une théorie de la structure de cette langue. Toute théorie scientifique est fondée sur un certain ensemble fini d'observations. En établissant des lois générales basées sur des concepts hypothétiques, une théorie tente de rendre compte de ces observations, de montrer comment elles sont liées entre elles, et de prédire un nombre indéfini de nouveaux phénomènes. Une théorie mathématique a la propriété supplémentaire de faire provenir rigoureusement les prédictions, du corps de la théorie. De la même manière, une grammaire est basée sur un nombre fini de phrases observées (le corpus du linguiste) et elle « projette » cet ensemble sur un nombre infini de phrases grammaticales, au moyen de « lois » générales (les règles de grammaire) données en termes de concepts hypothétiques tels que les phonèmes particuliers, les mots, les syntagmes, etc., de la langue analysée. Une grammaire correctement formulée devrait déterminer de manière non ambiguë, l'ensemble des phrases grammaticales.

Une théorie linguistique générale peut être considérée comme une métathéorie dont l'objet est le problème du choix d'une telle grammaire pour chaque langue particulière, sur la base d'un corpus fini. En particulier, elle devra considérer et essayer d'expliquer les relations entre l'ensemble des phrases grammaticales et l'ensemble des phrases observées. En d'autres termes, une théorie linguistique tente d'expliquer la faculté d'un sujet parlant d'émettre et d'interpréter des phrases nouvelles, et de rejeter d'autres nouvelles séquences comme non grammaticales sur la base d'une expérience linguistique limitée.

Supposons que pour de nombreuses langues il existe certains exemples clairs de phrases grammaticales et certains exemples clairs de séquences non grammaticales, par exemple (1) et (2) respectivement, pour l'anglais.

(1) John ate a sandwich. (Jean a mangé un sandwich).

(2) Sandwich a ate John. (Sandwich un a mangé Jean).

53

Dans ce cas, nous pouvons vérifier la théorie linguistique proposée, en observant pour chaque langue si oui ou non la grammaire construite selon la théorie rend compte des exemples clairs. Par exemple si un volumineux corpus se trouve ne pas contenir (1) et (2), nous nous demanderons si la grammaire qui a été déterminée par rapport à ce corpus, projette le corpus de manière à ce qu'il contienne (1) et à ce qu'il exclue (2). Même si de tels exemples clairs ne constituent que des vérifications faibles de la seule adéquation d'une grammaire à une langue donnée, ils constituent des vérifications très fortes pour toute théorie linguistique générale et pour l'ensemble des grammaires auquel celle-ci conduit, étant donné que nous insistons pour que dans chaque langue les exemples clairs soient convenablement traités, de manière fixe et prédéterminée. Nous pouvons nous orienter vers la construction d'une caractérisation opérationnelle de la notion de « phrase grammaticale » qui nous fournira les exemples clairs que nécessite les travaux linguistiques significatifs. Observons, par exemple, que (1) sera lu avec l'intonation normale d'une séquence du corpus, tandis que (2) sera lu avec une intonation de fin de syntagme sur chaque mot, comme pour toute séquence de mots n'ayant rien à voir les uns avec les autres. D'autres critères distinctifs du même type peuvent être donnés.

Avant de pouvoir espérer rendre compte de manière satisfaisante de la relation générale entre phrases observées et phrases grammaticales, il nous faut apprendre beaucoup plus de choses sur les propriétés formelles de chacun de ces ensembles. Cet article traite des propriétés formelles de l'ensemble des phrases grammaticales. Nous nous limitons à l'anglais et nous supposons la connaissance intuitive des phrases de l'anglais et des non-phrases. Nous demandons alors quelle sorte de théorie linguistique est nécessaire à la construction d'une grammaire de l'anglais qui décrirait l'ensemble des phrases de l'anglais de manière intéressante et satisfaisante.

La première étape de l'analyse linguistique d'une langue consiste à donner un mode de représentation de ses phrases qui soit fini. Nous supposerons que cette étape a été franchie, et nous ne nous occuperons que de langues données en transcription phonémique ou alphabétique. Ainsi, par langage nous entendrons un ensemble de phrases (fini ou infini), chacune de longueur finie et toutes construites sur un alphabet de symboles fini. Si A est un alphabet, nous dirons que tout ce qui est obtenu par concaténation de symboles de A est une séquence sur A. Par grammaire du langage L nous entendrons un mécanisme quelconque qui produit toutes les séquences qui sont des phrases de L et seulement celles-ci.

Quelque soit la manière ultime dont nous construirons une théorie linguistique nous exigerons à coup sûr que toute grammaire d'un langage soit finie. Il s'ensuit que seul, un ensemble dénombrable de grammaires est disponible pour toute théorie linguistique, donc qu'une infinité

54

non dénombrable de langages ne sont pas, dans notre sens, descriptibles en terme du concept de structure linguistique donnée par une théorie quelconque. Ainsi, étant donnée une théorie de la structure linguistique, il est tout à fait normal de poser la question suivante : (3) Existe-t-il des langues intéressantes qui sont en dehors du domaine de description du type proposé?

En particulier, nous nous demanderons si l'anglais est une telle langue. Si c'est le cas, alors le concept de structure linguistique qui est proposé doit être considéré comme inadéquat. Si la réponse à (3) est négative, nous pouvons alors poser des questions telles que : (4) Pouvons-nous construire des grammaires raisonnablement simples pour toutes les langues intéressantes? (5) Existe-t-il des grammaires « révélatrices », dans le sens que les structures syntaxiques qu'elles produisent, peuvent se rattacher aux structures sémantiques, et permettent une compréhension de l'utilisation et de l'interprétation du langage, etc.?

Nous examinerons d'abord divers concepts de structure linguistique en termes de la possibilité et de la complexité de la description (questions (3) et (4)). Ensuite (§ 6), nous considérerons brièvement les mêmes théories en termes de (5), et nous verrons que nous aboutissons de manière indépendante aux mêmes conclusions quant aux pertinences linguistiques relatives.

2. Processus de Markov à nombre fini d'états.

2.1. Les grammaires les plus élémentaires qui, au moyen d'un appareillage fini, engendrent un nombre infini de phrases, sont celles qui sont basées sur une notion familière de langage; ces grammaires sont considérées comme des types particulièrement simples de source d'information : processus de Markov à nombre d'états fini 4 De manière plus précise, nous définirons une grammaire à états finis G comme un système à nombre fini d'états : So,. . ., Sq, un ensemble A — \aijk | О < i,j < q; 1 < к < Nij, pour tout i, j | de symboles de transition, et un ensemble С = \(Sit Sf)\ groupant certaines paires d'états de G qui seront dits connectés. Quand le système passe de l'état Si à l'état Sj, il produit un symbole atjk г A. Supposons que

(") £<xi» • • • » S am

soit une séquence d'états de G avec <x.x = <xm = 0, a f Ф 0 pour 1 < i < m, et

1. Cf. [7]. Les grammaires à états finis peuvent être représentées graphiquement par des diagrammes d'états, comme dans [7], pp. 15 s. (N. d. T. : nous abrégerons grammaires à nombre fini d'états en grammaire à états finis.)

55

pour chaque i <m. Quand le système passe de l'état Sa. à l'état SXi+v il produit le symbole :

(7)

pour un к < N a.a. .Si nous utilisons l'arche ~ pour noter la concaténation 2, nous pouvons dire que la séquence (6) engendre toutes les phrases :

a ai<x2fci ~ a ct2cc3k2 ~ ... ^ a a

pour tous les kt qui conviennent (k < N a .a . j). Le langage Lc qui contient toutes ces phrases et seulement celles-ci, est appelé le langage engendré par G.

Ainsi, pour produire une phrase de LG, nous prenons le système dans l'état initial So, et nous nous déplaçons le long d'une séquence d'états connectés, en terminant de nouveau en So, et, à chaque transition d'un état au suivant, nous produisons un des symboles de A. Nous dirons qu'un langage L est un langage à états finis, si L est l'ensemble des phrases engendrées par une grammaire à états finis G quelconque.

2.2. Supposons que l'ensemble A des symboles de transition soit l'ensemble des phonèmes de l'anglais. Nous pouvons essayer de construire une grammaire à états finis G qui engendrera toutes les séquences de phonèmes anglais qui sont des phrases de l'anglais, et seulement ces séquences. Il est tout à fait évident que le travail de construction d'une grammaire à états finis pour l'anglais sera grandement simplifié, si nous prenons comme ensemble A l'ensemble des morphèmes 3 ou des mots de l'anglais, et si nous construisons une grammaire G qui engendrera exactement les séquences grammaticales sur ces unités. Nous pouvons ensuite compléter la grammaire en donnant un ensemble fini de règles qui fourniront la transcription phonémique de chaque mot ou morphème dans le contexte où il apparaît. Nous verrons rapidement le statut de telles règles en 4 . 1 et 5 . 3.

Avant de nous préoccuper directement du problème de la construction d'une grammaire à états finis pour les séquences anglaises de mots ou de morphèmes, nous étudierons les limites absolues de l'ensemble des langages à états finis. Supposons que A soit l'alphabet d'un langage L, que a-i, . .., an soient les symboles de cet alphabet, et que :

(9) S = адад, . . . Xmtt^b^b^ . . . bmym

soit une phrase de L. Nous dirons que S possède une m-dépendance par rapport à L, si et seulement s'il existe une permutation unique oc de

2. Voir [6], Appendice 2, pour une axiomatisation des algèbres de concaténation. L'arche sera supprimée, quand cela n'entraînera pas d'ambiguïté.

3. Par « morphèmes » nous entendons les plus petits éléments à fonction grammaticale de la langue, par exemple « boy » (garçon), « run » (cours), « ing » (ant) dans « running » (courant), « s » dans « books » (livres), etc.

56

(1, . . ., m) qui remplit la condition * : il existe clf . . ., c^e A tels que pour chaque sous-séquence (iv . . . , ip) de (1, . . . , m), St n'est pas une phrase de L, et S2 est une phrase de L, où : (10) Sx est formé par substitution de c(/- à a/;- dans S pour tout j > p; S2 est formé par substitution de cm+0C(fj) à ba^ dans S^ pour tout j >/>. Ainsi le remplacement de af par c,- dans 5 impose, pour que la phrase soit bien formée, un remplacement correspondant de ôa(,-) par cm + a(ř) (cette notion pourrait être généralisée de manière évidente).

Il est donc clair que si S présente une /n-dépendance par rapport à L, alors il faut que la grammaire à états finis qui engendre le langage L comporte au moins 2m états. Il est donc clair que : (11) Si L est un langage à états finis, il existe un m tel qu'aucune phrase de L ne présente de л-dépendance, pour n > m, par rapport à L.

En utilisant cette remarque, nous pouvons immédiatement construire de nombreux langages qui ne sont pas à états finis et qui présentent un intérêt pour l'étude des langues naturelles. Par exemple, parmi les langages Llt L2, L3 de (12), dont on peut montrer qu'ils ne sont pas à états finis, L2 et L3 contiennent des phrases à /n-dépendances pour m arbitraire, avec : <x(i) —m — i + 1 dans le cas de L2 et a(i) = i dans le cas de L3. (12) (i) Lj contient ab, aabb, aaabbb, . . ., et plus généralement, toutes

les phrases qui se composent de n occurrences de a suivies de n occurrences de b, et uniquement celles-ci;

(ii) L2 contient aa, bb, abba, baab, aabbaa, . . . , et plus généralement toutes les phrases « image-miroir » qui se composent d'une séquence X suivie de cette séquence X retournée, et uniquement celles-ci;

(iii) L3 contient aa, bb, abab, baba, aabaab, . . ., et plus généralement toutes les phrases se composant d'une séquence X suivie de la même séquence X, et uniquement celles-ci.

2.3. Si nous nous tournons vers l'anglais, nous découvrons qu'il existe des ensembles infinis de phrases qui présentent des dépendances sur plus d'un nombre fini de termes. Par exemple, soient Sv S2, ... des phrases déclaratives, alors les phrases suivantes appartiennent toutes à l'anglais : (13) (i) If Slt then S2 (Si Sv alors S2).

(ii) Either 53, or 54 (Ou bien S3, ou bien 54). (iii) The man who said that 55, is arriving today.

(L'homme qui a dit que 55 arrive aujourd'hui). Ces phrases présentent des dépendances de part et d'autre de « if » — « then » (si — alors), « either » — « or » (ou bien — ou), « man » — « is » (homme — arrive). Mais nous pouvons prendre pour Sv Sz, S5 qui apparaissent entre les mots interdépendants, les phrases (13 i), (13 ii) ou

4. Un défaut d'une première définition de cette notion m'avait été signalé par E. Assmuss.

57

(13 iii) elles-mêmes. En construisant des phrases de cette manière, nous aboutissons à une partie de l'anglais qui possède exactement les propriétés d'image-miroir du langage L2 de (12). Par conséquent, l'anglais ne remplit pas la condition (11). L'anglais n'est pas un langage à états finis, et nous sommes obligés de rejeter la théorie du langage que nous discutons comme ne répondant pas à la condition (3).

Nous pourrions éviter cette conséquence par la décision arbitraire qui consiste à dire qu'il existe une limite supérieure finie à la longueur des phrases de l'anglais. Cependant cette décision serait tout à fait inutile. La raison en est qu'il existe des processus de formation de phrases dont ce modèle élémentaire de langue est incapable de rendre compte. Si l'on ne place pas de limite finie sur ces processus, nous pouvons démontrer que ce modèle est littéralement inapplicable. Si les processus sont limités, alors la construction d'une grammaire à états finis n'est pas littéralement impossible (puisqu'une liste est une grammaire à états finis, triviale), mais cette grammaire sera si complexe qu'elle ne sera pratiquement pas utilisable ou intéressante. Nous étudierons ci-dessous un modèle de grammaire qui peut rendre compte des langages en image-miroir. La puissance supplémentaire d'un tel modèle dans le cas infini est indiquée par le fait qu'il est beaucoup plus utile et révélateur quand une limite finie y est imposée. En général, l'hypothèse que les langues sont infinies est faite dans le but de simplifier les descriptions 5. Si une grammaire ne possède aucune étape recursive (boucles fermées, dans le modèle discuté ci-dessus), elle sera beaucoup trop complexe; elle se trouvera être, en fait, à peine plus intéressante qu'une liste de séquences de classes de morphèmes, dans le cas des langues naturelles. Si elle possède des mécanismes récursifs, elle produira une infinité de phrases.

2.4. Bien que nous ayons vu qu'aucun processus de Markov qui produit des phrases de gauche à droite ne peut servir de grammaire à l'anglais, nous pouvons étudier des possibilités de construction de suites de tels mécanismes qui, d'une manière non triviale, s'approcheraient de plus en plus de la production d'une grammaire satisfaisante de l'anglais. Supposons par exemple, que nous construisions, pour n fixé, une grammaire à états finis de la manière suivante : un état de la grammaire est associé à chaque séquence de mots anglais dont la longueur est n, et la probabilité pour que le mot X soit produit quand le système est dans l'état S;, étant donnée. La production d'une telle grammaire est habituellement appelée une approximation d'ordre n + 1 de l'anglais. Il est clair que lorsque л croît, la sortie de telles grammaires ressemble de plus en plus à de l'anglais, puisque les séquences de plus en plus longues ont une forte probabilité d'être directement prises dans l'échantillon de l'anglais

5. Remarquons qu'une grammaire doit refléter et expliquer la faculté du locuteur de comprendre et d'émettre des phrases nouvelles qui peuvent être bien plus longues que celles qu'il a entendues auparavant.

58

à partir duquel les probabilités ont été déterminées. Ce fait a parfois suggéré qu'il était possible de construire une théorie linguistique sur un tel modèle.

Quelque soit l'intérêt d'une approximation statistique dans ce sens, il est clair qu'elle ne peut pas donner d'indications sur les problèmes de grammaire. Il n'existe aucune relation générale entre la fréquence d'une séquence (ou de ses éléments composants) et sa grammaticalité. Nous pouvons voir ceci de manière tout à fait claire en considérant des séquences telles que (14) colorless green ideas sleep furiously.

(de vertes idées incolores dorment furieusement). qui est une phrase grammaticale, bien qu'il soit raisonnable de supposer qu'aucun couple de ses mots ne soit jamais apparu auparavant. Remarquons qu'un sujet parlant anglais pourra lire (14) avec une intonation normale, tandis qu'il lira la séquence (15) tout aussi inhabituelle : (15) furiously sleep ideas green colorless

(furieusement dorment vertes incolores des idées). avec une intonation de fin de syntagme sur chacun des mots, comme dans le cas de toute séquence non grammaticale. Ainsi (14) est différent de (15) comme (1) l'est de (2); le test opérationnel de grammaticalité que nous avons proposé, confirme le sentiment intuitif qui nous dit que (14) est une phrase grammaticale mais que (15) n'en est pas une. Nous pouvons poser le problème de la grammaire, en partie comme celui de l'explication et de la reconstruction de la faculté d'un locuteur de l'anglais de reconnaître les phrases (1), (14), etc., comme grammaticales, tout en rejetant (2), (15), etc. Mais aucun modèle d'approximation ne peut distinguer (14) de (15) (ni un nombre indéfini de paires semblables). Quand n croît, une approximation d'ordre n de l'anglais, exclura (comme de plus en plus improbable) un nombre toujours croissant de phrases grammaticales, tandis qu'elle contiendra de très grandes quantités de séquences complètement agrammaticales 6. Nous sommes ainsi obligés de conclure qu'apparemment, il n'existe pas, dans cette direction, d'approche significative aux problèmes de grammaire.

Remarquons que bien que pour tout n, un processus d'approximation d'ordre л peut être représenté par un processus de Markov à états finis, l'inverse n'est pas vrai. Considérons par exemple le processus à trois états, où (So, SO, (Slf Sj), (Sv So), (So, S2), (Sa, S2), (S2, S?) sont les états connectés, et où a, b, a, c, b, с sont les symboles de transition respectifs. Le processus peut être représenté par le diagramme d'état suivant :

6. Ainsi on peut toujours trouver des séquences de n + 1 mots dont les л premiers, et les л derniers mots peuvent apparaître, mais pas dans la même phrase (par exemple, on peut remplacer « is » (arrive) par « are » (arrivent) dans (13 iii), et choisir S, avec une longueur quelconque convenable).

59

ocoo

Le processus peut produire les phrases aa, aba, abba, abbba, . . ., ce, ebe, cbbe, abbbe, . . . mais pas cbbe, cbba, etc. Le langage engendré possède des phrases à dépendances sur une longueur finie quelconque. Au § 2.4 nous avons soutenu qu'il n'y avait pas de relation signi

ficative entre l'ordre d'approximation et la grammaticalité. Si nous ordonnons les séquences de longueur donnée en terme d'ordre d'approximation de l'anglais, nous constatons que des séquences grammaticales ou non apparaissent tout au long de la liste, de haut en bas. Donc la notion d'ordre d'approximation statistique semble ne rien avoir à faire la grammaire. Au § 2.3, nous avons remarqué qu'une classe de processus bien plus étendue, la classe de tous les processus de Markov à états finis qui produisent des symboles de transition, n'inclut pas de grammaire de l'anglais. C'est-à-dire que si nous construisons une grammaire à états finis qui ne produit que des phrases de l'anglais, nous saurons qu'elle ne pourra pas produire un nombre infini de telles phrases; en particulier, elle sera incapable de produire un nombre infini de phrases vraies, de phrases fausses, de questions raisonnables qui pourraient être posées intelligemment, et bien d'autres encore. Ci-dessous, nous étudierons une classe de processus bien plus étendue, qui pourrait nous fournir une grammaire de l'anglais.

3. Structure de constituants 7.

3.1. Habituellement, les descriptions syntaxiques sont données en terme de ce qui est appelé « analyse en constituants immédiats ». Dans les descriptions de cette sorte les mots d'une phrase sont groupés en syn- tagmes, ceux-ci sont groupés en syntagmes plus petits, et ainsi de suite, jusqu'à ce que les constituants ultimes (en général les morphèmes 3) soient atteints. Ces syntagmes sont classés en syntagmes nominaux (SN), syntagmes verbaux (SV), et ainsi de suite. Ainsi la phrase (17) peut être analysée par le diagramme qui l'accompagne.

7. N. d. T. Nous traduisons « phrase structure » par structure de constituants, < phrase structure grammar » par grammaire de constituants que nous abrégeons en C-grammaire dans certains cas.

60

(17) the man (V homme)

SN

took (a pris)

Verbe

the book (le livre)

SN

SV

Phrase

II est évident que des descriptions de phrases en de tels termes permettent des simplifications considérables par rapport au modèle « mot-par-mot », puisque la composition d'une classe complexe d'expressions telles que SN est donnée une fois pour toutes, et que cette classe peut être réutilisée comme un élément de construction à diverses étapes de la formation des phrases. Nous examinerons maintenant quelle est la forme de grammaire qui correspond à ce concept de structure linguistique.

3.2. Une grammaire de constituants est définie par un vocabulaire (alphabet) fini Vp, un ensemble fini S de séquences initiales sur Vp, et un ensemble fini F de règles de la forme : X ->- Y, où X et Y sont des séquences sur Vp. Chacune de ces règles s'interprète comme une instruction : réécrire X en Y. Pour des raisons qui apparaîtront directement, nous demanderons que dans chacune de ces [S, F] -grammaires

(18) S: S* F:X1 Y1

v v y ■**-m ~*" л m

Yf soit formé à partir de Xř, par le remplacement d'un symbole unique de Xf, par une certaine séquence. Ni le symbole remplacé, ni le symbole remplaçant ne peuvent être l'élément neutre.

Étant donnée la [S, F] -grammaire (18), nous dirons que : (19) (i) : une séquence (3 provient d'une séquence a, si a = ZXtW et

P = ZYtW pour un certain i < m8;

8. Z ou W peuvent être l'élément neutre U dans ce cas. Remarquons que puisque nous avons contraint (18) de manière à empêcher U de figurer avec un sens dans, ou bien le membre droit, ou bien le membre gauche des règles de F, et puisque nous deman-

61

(ii) : une dérivation de la séquence St est une suite D = (Slt . . ., St) de séquences, avec S^eS et pour chaque i < /, Si+1 provient de St;

(iii) : une séquence S est derivable de (18), s'il existe une dérivation de S en termes de (18);

(iv) : une dérivation de St est terminée, si aucune séquence ne peut provenir de St;

(v) : une séquence St est une séquence terminale, si elle est la dernière ligne d'une dérivation terminée.

Une dérivation est donc analogue à une démonstration, S est considéré comme le système des axiomes et F comme les règles d'infé- rences. Nous dirons que L est un langage derivable, si L est l'ensemble des séquences qui sont dérivables d'une [S, F] -grammaire quelconque, et nous dirons que L est un langage terminal s'il est l'ensemble des séquences terminales d'un système [2, F] quelconque.

Dans tous les cas intéressants, il y aura un vocabulaire terminal Vt (VtcVp) qui caractérisera exactement les séquences terminales, dans le sens que toute séquence terminale est une séquence sur Vt et aucun symbole de Vt ne peut être réécrit par les règles de F. Dans ce cas, nous pouvons considérer les séquences terminales comme constituant le langage à analyser (avec Vt pour vocabulaire), et les dérivations de ces séquences comme fournissant leur structure de constituants.

3.3. Le fragment de grammaire de l'anglais qui suit est un exemple simple d'un système de la forme (18) :

(20) S : #- Phrase- # F -.Phrase -> SN-SV

SN-+ Verbe- SN SN -> the- man, the- book

Verbe -> took

Parmi les dérivations de (20) nous trouvons en particulier :

(21) Dx: #

#- the- man- Verbe- SN- # #~the~man~ Verbe- the- book- # #- the- man- took- the- book- #

D2: #-Phrase-# #-SN-SV-# #-the-man-SV-#

dons que seul, un symbole du membre gauche puisse être remplacé dans chaque règle, il s'ensuit que Y» doit être au moins aussi long que Xi. Nous avons ainsi une procédure simple de décision pour la dérivabilité et la terminaison dans le sens de (19 iii).

62

#- the- man- Verbe~SN~ # #- the- man- took- SN~ # #- the- man- took- the- book- #

II est évident que ces dérivations sont équivalentes; elles ne diffèrent que par l'ordre dans lequel les règles ont été appliquées. Nous pouvons représenter cette équivalence graphiquement en construisant des diagrammes qui correspondent de manière immédiate, aux dérivations. Les dérivations D1 et D2 se réduisent toutes deux au diagramme.

(22)

the man

took the book

Le diagramme (22) donne la structure de constituants de la phrase terminale « the man took the book » de la même manière que (17). Plus généralement, étant données une dérivation D et une séquence S, nous dirons qu'une sous-séquence s de S est un X, si, dans le diagramme correspondant à D, s est découpée par un nœud unique, et si ce nœud est étiqueté X. Ainsi, étant données Dx et D2 qui correspondent à (22), nous dirons que the- man est un SN, took- the- book est un SV, the- book est un SN, the- man- took- the- book est une Phrase. Cependant la séquence man- took n'est pas un constituant de cette séquence, puisqu'elle n'est pas découpable par un nœud quelconque.

Lorsque nous essayons de construire la [2, F] -grammaire de l'anglais la plus simple, nous découvrons que parfois, des dérivations non équivalentes sont attribuées automatiquement à certaines phrases. En plus de (20), la grammaire de l'anglais devra certainement contenir des règles telles que

(23) Verbe -> are- flying Verbe -> are SN -> they SN -> planes SN ->• flying- planes

ceci afin de décrire des phrases telles que « they — are flying — a plane » (SN — Verbe — SN), « (flying) planes — are — noisy » (SN — Verbe —

63

Adjectif), et ainsi de suite. Mais cet ensemble de règles fournit deux dérivations non équivalentes pour la phrase « they are flying planes », qu'on peut représenter par les diagrammes :

(24) ^Phrase* # > Phrase

they

are flying planes are flying planes

Cette phrase possède donc deux structures de constituants; elle peut être analysée en « they — are — flying planes » et « they — are flying — planes ». En fait, cette phrase est précisément ambiguë de cette manière; nous pouvons l'interpréter comme « ce sont des avions qui volent », ou comme « ils pilotent des avions ». Quand la grammaire la plus simple fournira automatiquement pour une même phrase, des dérivations non équivalentes, nous dirons que nous avons un cas d'homonymie de construction, et nous pouvons proposer cette propriété formelle comme explication de l'ambiguïté de sens que présente la phrase en question. Au § 1 nous avons demandé que les grammaires nous éclairent sur l'utilisation et l'interprétation du langage (cf. (5)). Une des manières de vérifier la valeur d'une grammaire consiste à déterminer si oui ou non les cas d'homonymie de construction sont véritablement des cas d'ambiguïté de sens, comme pour (24). Nous retournerons à cet important problème au § 6.

Dans (20) — (24) l'élément # indiquait une limite de phrase (puis de mot). Cet élément peut être considéré comme appartenant au vocabulaire terminal Vt que nous avons discuté dans le paragraphe final de 3.2.

3.4. Ces fractions de la grammaire de l'anglais ont été beaucoup trop simplifiées dans différentes voies. Par exemple, chaque règle de (20) à (23) ne présentait qu'un seul symbole au membre gauche, pourtant, au §3.2, nous n'avions pas contraint les règles des [S , F] -grammaires de cette manière. Une règle de la forme :

(25) ZXW^ZYW

indique que X ne peut être réécrit Y que dans le contexte Z — W. On peut aisément montrer que la grammaire sera considérablement simplifiée,

64

si nous autorisons de telles règles. Au § 3.2 nous avons demandé que dans une règle telle que (25), X soit limité à un symbole unique. Ceci garantit, à partir d'une dérivation quelconque, la construction d'un diagramme de structure de constituants. La grammaire peut encore être grandement simplifiée, si nous imposons un ordre aux règles et si nous exigeons qu'elles soient appliquées en séquence (en recommençant à appliquer la première règle quand la dernière l'a été), et si nous distinguons les règles obligatoires, qui doivent être appliquées à leur tour dans la séquence, des règles facultatives, qui peuvent être appliquées ou non. Ces révisions ne modifient pas la puissance génératrice de la grammaire, mais elles introduisent des simplifications considérables.

Il semble raisonnable d'exiger la garantie que la grammaire engendrera effectivement un grand nombre de phrases en un temps limité; de manière plus précise, il devrait être impossible d'appliquer la séquence des règles, à vide (sans rien engendrer de nouveau), à moins que la dernière ligne de la dérivation en construction soit une séquence terminale. Nous pouvons remplir cette condition en imposant certaines contraintes sur l'apparition des règles obligatoires dans la séquence des règles. Nous définirons une grammaire propre comme un système [S, Q], où S est un ensemble de séquences initiales et Q une séquence de règles Xi~> Yf comme celles de (18), avec la condition supplémentaire que pour tout i il doit y avoir unj au moins tel que Xf = Xj et X;-> Yy est une règle obligatoire. Ainsi, chaque membre gauche des règles de (18) doit apparaître dans au moins une règle obligatoire. Ceci est la condition simple la plus faible, qui garantisse qu'une dérivation non terminée puisse avancer d'un pas au moins à chaque passage dans la séquence des règles. Elle fait que si Xf peut être réécrit en Y^ , . . ., Yfft, alors au moins une de ces réécritures doit avoir lieu. Les grammaires propres sont néanmoins essentiellement différentes des [S, F] -grammaires. Soit D(G) l'ensemble des dérivations que l'on peut produire au moyen d'une grammaire de constituants G, propre ou non. Soient DF = \D(G) \ G est une [S, F] -grammaire,1, et Dq = \D(G) | G est une grammaire propre J. Alors :

(26) DF et Dq ne sont pas comparables : DF çt Dq et Dq x£ Df. Il existe des systèmes de constituants qui peuvent être décrits par des [S, F] -grammaires mais pas par des grammaires propres, d'autres peuvent être décrits par des grammaires propres mais pas par des [S, F] -grammaires.

3 . 5. Nous avons défini trois types de langages : les langages à états finis (§ 2.1), les langages dérivables et les langages terminaux (§ 3.2). Ils présentent les relations suivantes : (27) (i) tout langage à états finis est un langage terminal, l'inverse

n'étant pas vrai; (ii) tout langage derivable est un langage terminal, l'inverse n'étant

pas vrai;

65

(iii) il existe des langages qui sont dérivables mais qui ne sont pas à états finis, l'existence de langages à états finis non dérivables est un problème non résolu 9.

Supposons que L~q soit un langage à états finis, dont la grammaire G est à états finis, comme au § 2. 1. Nous construisons une [S, F] -grammaire de la manière suivante : S = \SO\; F contient une règle de la forme (28 i) pour tout i, j, к tel que (Sif Sj) eC,j Ф О et к < Ni} ; F contient une règle de la forme (28 ii) pour tout i, к tel que (Sif So) s С et к < Ni0.

(28) (i) Si^dijkSj (ii) Si -> aiok.

Il est clair que le langage terminal de cette [2, F] -grammaire est exactement LG, ce qui établit la première partie de (27 i).

Au § 2.2, nous avons constaté que Lv L2 et L3 de (12) n'étaient pas des langages à états finis. Lx et L2 sont néanmoins des langages terminaux. Pour Lv par exemple, nous avons la [S, F] -grammaire :

Z->aZb ce qui établit (27 i).

Supposons que L4 soit un langage derivable dont le vocabulaire est Vp = \alt ..., anj. Supposons que nous ajoutions à la grammaire de L4 un ensemble fini de règles ař-> 6f, où les bt sont tous distincts et ne sont pas dans Vp. Cette nouvelle grammaire donne un langage terminal qui n'est autre que L4, à un changement de notation près. Donc, tout langage derivable est également terminal.

Un exemple de langage terminal non derivable est donné par L- constitué des séquences

(30) ab, cabd, ccabdd, cccabddd, . . .

Un langage derivable infini doit contenir un ensemble infini de séquences qui peuvent être rangées selon une suite Sv S2, ... telle que pour une règle X ->- У, Si provienne de S^ par application de cette règle, pour tout i > 1. Dans cette règle Y doit être formé à partir de X par le remplacement d'un seul symbole de X par une séquence (cf. (18)). Ceci n'est évidemment pas possible dans le cas de L5. Cependant, ce langage est le langage terminal donné par la grammaire suivante :

S:Z F :Z->a~b

9. E. Shamir m'a fait remarquer que mon exemple original n'était pas correct, d'autres difficultés ont été signalées par F. Staal. L'ensemble (aabb)» constitue un exemple du type recherché (comme Га remarqué G. Gaifman) si on se limite à des règles de réécriture de type non contextuel (« context-free »).

66

Le langage Ьг de (12) est un langage derivable qui n'est pas à états finis, la séquence initiale est ab et la règle : ab -> aabb.

La conséquence majeure du théorème (27) est que la description en termes de structures de constituants est essentiellement plus puissante (et pas seulement plus simple) que la description en termes de grammaires à états finis qui produisent les phrases de gauche à droite. Au §2.3 nous avons vu que l'anglais est tout à fait en dehors des limites de ces grammaires, pour la raison que cette langue présente la propriété image- miroir de L2 de (12). Cependant, nous venons de voir que Llf comme L2, sont des langages terminaux. Donc les considérations, qui nous ont conduit à rejeter le modèle à états finis, ne nous conduisent pas de la même manière, à rejeter le modèle plus puissant des structures de constituants.

Remarquons que ce dernier est plus abstrait que le modèle à états finis, en ce sens que des symboles qui entrent dans la description du langage ne font pas partie du vocabulaire de ce langage. Dans les termes du § 3.2, Vt est proprement inclus dans Vp. Ainsi dans le cas de (29), nous décrivons Lx au moyen d'un élément Z qui n'est pas dans Lx; dans le cas de (20)-(24), nous introduisons dans la description de la structure de l'anglais, des symboles tels que Phrase, SN, SV, et ainsi de suite, qui ne sont pas des mots de l'anglais.

3.6. Il n'est pas difficile de construire des langages qui sont en dehors du domaine de description des [S, F] -grammaires. En fait, il est évident que le langage L3 de (12 iii) n'est pas un langage terminal 10. Je ne sais pas si l'anglais est véritablement un langage terminal, ou s'il existe des langues naturelles qui sont littéralement en dehors des limites de description des grammaires de constituants. Je ne vois donc pas de manière de rejeter cette théorie des structures linguistiques sur la base de la considération (3). Cependant, quand nous passerons à la question de la complexité des descriptions (cf. (4)), nous verrons qu'il y a d'abondantes raisons de conclure que cette théorie des structures linguistiques est fondamentalement inutilisable. Nous étudierons maintenant quelques- uns des problèmes qui se posent quand on essaye d'étendre (20) à une grammaire anglaise à large couverture.

4. Les défauts des grammaires de constituants.

4.1. En (20), nous n'avons considéré qu'une manière de développer l'élément Verbe : « took ». Mais même lorsque la racine du verbe est donnée, il existe un grand nombre d'autres formes qui peuvent apparaître dans le contexte « the man — — the book », par exemple « takes », « has taken », « has been taking », « is taking », « has been taken », « will be taking », etc. Une description directe de cet ensemble d'éléments

10. Ceci n'est pas vrai si la grammaire contient des règles qui réécrivent un symbole dans un contexte non vide. (Cf. Chomsky, On certain formal properties of grammars, Inform & Control, 2, 1952, pp. 137-167.)

0) (И) (iii) (iv) (v)

Verbe V

Auxiliaire M С

67

serait assez complexe, étant données leurs fortes interdépendances (on a par exemple « has taken » mais pas « has taking » « is being taken » mais pas « is being taking », etc.). En fait, nous pouvons donner une analyse très simple de Verbe comme séquence d'éléments indépendants, mais uniquement en choisissant pour éléments certaines séquences discontinues. Par exemple, dans le syntagme « has been taking », nous pouvons isoler les éléments discontinus « has ... en », « be ... ing » et « take », et nous pouvons alors dire que ces éléments se combinent librement. Si nous poursuivons systématiquement cette approche, nous pouvons remplacer la dernière ligne de (20) par :

(32) (i) Verbe -> Auxiliaire* V take, eat, . . . C(M) (have~en) (beting) (be- en) will, can, shall, may, must passé, présent.

Les notations de (32 iii) doivent être interprétées comme suit : quand nous développons Auxiliaire dans une dérivation nous devons prendre l'élément non parenthèse C, et nous pouvons prendre un nombre quelconque (y compris zéro) d'éléments parenthèses, dans leur ordre. Ainsi, pour poursuivre la dérivation Dx de (21) à partir de la cinquième ligne, nous pouvons opérer comme suit :

(33) #- the- man- Verbe* the- book- # [de Dx dans (21)]

#- the- man- A uxili aire* Verbe* the- book- # [(32 i)]

#* the- man- A uxiliaire* take- the- book- # [(32 ii)]

#- the- man- C* have- en- be- ing- take- the- book- # [(32 iii), en prenant les éléments С, have- en, be- ing]

#- the- man- passé* have- en- be- ing- take- the- book- # [(32 v)].

Supposons que nous définissions la classe Af comme contenant les affixes « en » « ing » et les C, et la classe v comme comprenant tous les V, les M, « have » et « be ». Nous pouvons alors convertir la dernière ligne de (33) en une séquence de morphèmes correctement ordonnée, par la règle suivante :

(34) Af*v-+v*Af '#.

Par application de cette règle à chacune des séquences Af* v de la dernière ligne de (33), nous dérivons

(35) #- the- man- have- passé* #* be- en- #* take- ing- #- the- book- #.

68

Au premier paragraphe de 2 . 2 nous avons mentionné qu'une grammaire devait contenir un ensemble de règles (appelées règles morpho- phonémiques) qui convertissent les séquences de morphèmes en séquences de phonèmes. Dans la morphophonémique de l'anglais, nous aurons des règles comme les suivantes (nous utiliserons une orthographe conventionnelle plutôt que phonémique) :

(36) ha ve~ passé -> had be~ en -> been

take- ing -> taking will~ passé -> would can~ passé -> could M~ present -> M

walk~ passé -+ walked take~ passé -> took etc.

En appliquant les règles morphophonémiques à (35) nous dérivons la phrase :

(37) the man had been taking the book.

De la même manière, avec une exception importante qui sera discutée ci-dessous (et plusieurs mineures, que nous négligerons ici), les règles (32), (34) donneront toutes les autres formes du verbe dans les phrases déclaratives, et seulement ces formes.

Cette analyse très simple, dépasse les limites des [2, F] -grammaires pour plusieurs raisons. La règle (34), quoique très simple, ne peut pas se trouver dans une [S, F] -grammaire, où il n'y a pas de place pour les éléments discontinus. De plus, afin d'appliquer la règle (34) à la dernière ligne de (33), nous devons savoir que « take » est un V, donc un v. En d'autres termes, pour appliquer la règle, il est nécessaire d'aller plus loin que le seul examen de la séquence à laquelle la règle doit s'appliquer; il est nécessaire de connaître une partie de la structure de constituants de la séquence, ou, de manière équivalente, d'examiner aussi certaines des lignes précédentes de sa dérivation. Comme (34) demande la connaissance de « l'histoire de la dérivation » de la séquence, cette règle viole la propriété élémentaire markovienne des [S, F] -grammaires.

4.2 Le fait que cette simple analyse du syntagme verbal comme séquence d'unités choisies indépendamment dépasse le cadre des [S, F] -grammaires, suggère que de telles grammaires sont trop limitées pour pouvoir donner une image vraie de la structure linguistique. La suite de l'étude du syntagme verbal donne des raisons supplémentaires en faveur de cette conclusion. Il existe une importante limite à l'indépendance des éléments introduits en (32). Si nous choisissons un verbe intransitif (par exemple « corne », « occur », etc.) comme V dans (32), nous ne pouvons pas prendre be~en comme auxiliaire. Nous n'avons pas de phrases comme

69

« John has been come », « John is occurred », etc. De plus, l'élément be~en ne peut pas être choisi indépendamment du contexte du syntagme Verbe. Si nous avons l'élément Verbe dans le contexte « the man — the food », nous sommes obligés de ne pas prendre be~ en quand nous appliquons (32), bien que nous soyons libres de choisir tout autre élément de (32). Nous pouvons ainsi avoir « the man is eating the food », « the man would have been eating the food », etc., mais pas « the man is eaten the food », « the man would have been eaten the food », etc. Par ailleurs, si le contexte de Verbe est, par exemple, « the food — by the man », nous sommes obligés de choisir be~ en. Nous pouvons avoir « the food is eaten by the man » mais pas « the food is eating by the man », etc. En bref, nous découvrons que l'élément be~en entre dans un réseau détaillé de restrictions qui le distingue de tous les autres éléments introduits pour l'analyse de Verbe dans (32). Ce comportement unique et complexe de be~en suggère qu'il serait souhaitable de l'exclure de (32) et d'introduire le passif dans la grammaire par une autre méthode.

Il y a en fait une méthode très simple pour incorporer les phrases avec be^en (les passifs) dans la grammaire. Remarquons qu'à toute phrase active telle que « the man ate the food », il correspond une phrase passive « the food was eaten by the man », et inversement. Supposons que nous retirions l'élément be~en de (32 iii), et que nous ajoutions à la grammaire la règle suivante :

(38) Si S est une phrase de la forme SNt — Auxiliaire — V — SN2, alors la séquence correspondante de la forme : SN2 — Auxiliaire — be~en — V — by- SNj, est aussi une phrase.

Par exemple, si « the man — passé — eat — the food » (SiV^ — Auxiliaire — У — SN2) est une phrase, alors « the food — passé be en — eat — by the man » (SN2 — Auxiliaire be^enr- V — by SNJ est également une phrase. Les règles (34) et (36) convertiraient la première en « the man ate the food », et la seconde en « the food was eaten by the man ».

Les avantages de cette analyse sont indéniables. Comme l'élément be~en a été retiré de (32), il n'est plus nécessaire d'ajouter à (32) l'ensemble complexe des restrictions discutées plus haut. Le fait que be~ en ne peut apparaître qu'avec des verbes transitifs, qu'il est exclu du contexte « the man — the food », et qu'il est nécessaire dans le contexte « the food — by the man », est maintenant, pour chaque cas, une conséquence automatique de l'analyse que nous venons de donner.

Cependant, une règle de la forme (38) est bien au-delà des limites des grammaires de constituants. Comme (34), elle réarrange les éléments de la séquence à laquelle elle s'applique, et elle nécessite une quantité considérable d'informations sur la structure de constituants de cette séquence. Quand on poursuit l'étude détaillée de la syntaxe de l'anglais, on trouve bien d'autres cas où la grammaire peut être simplifiée, si le [S, F] - système est complémenté par des règles de la même forme générale que (38).

70

Appelons de telles règles des transformations grammaticales. Comme troisième modèle de description des structures linguistiques, nous considérerons maintenant rapidement, les propriétés formelles des grammaires transformationnelles qui peuvent être adjointes à une [£, F] -grammaire de constituants u.

5. Grammaires transformationnelles.

5.1. Toute transformation grammaticale T sera essentiellement une règle qui convertit une phrase avec une structure de constituants donnée, en une nouvelle phrase qui possédera une structure de constituants dérivée. La transformée et sa structure dérivée doivent être liées de manière fixe et constante à la structure de la séquence transformée, pour tout T. Nous pouvons caractériser T, en donnant, en termes de structures, le domaine des séquences auquel T s'applique et les modifications effectuées sur les séquences.

Dans la discussion qui suit, nous supposerons que nous avons une [E, F] -grammaire de vocabulaire Vp, et de vocabulaire terminal Vť С Vp, comme en 3 . 2.

En 3.3 nous avons montré qu'une [S, F] -grammaire permet la dérivation de séquences terminales et nous avons remarqué qu'en général, une séquence terminale donnée possède plusieurs dérivations équivalentes. Nous avons dit que deux dérivations étaient équivalentes quand elles se réduisaient à un même diagramme de la forme (22), etc. 12. Supposons que Dv . . . , Dn constituent un ensemble maximal de dérivations équivalentes d'une séquence terminale S. Nous définirons alors Y indicateur syn- tagmatique (en anglais « phrase marker ») de S comme l'ensemble des séquences qui apparaissent dans les dérivations Dx, . . . , Dn. Une séquence aura plus d'un indicateur syntagmatique si et seulement si elle possède des dérivations non équivalentes (cf. (24)).

Supposons que К soit un indicateur syntagmatique de S, nous dirons que

(39) (S, K) est analysable en (Xlf . . . , Xn) si et seulement s'il existe des séquences sv . . . , sn telles que

(i) S = s1... sn; (ii) pour tout i < л, К contient la séquence sx . . . si_1 Xf si+1

... sn.

(40) Dans ce cas, st est un Xt dans S par rapport à К 13.

11. Voir [1], [3], pour une étude détaillée d'une algèbre des transformations destinée aux descriptions linguistiques, et pour des définitions relatives aux grammaires transformationnelles. Pour d'autres applications de ce type de description à des matériaux linguistiques, voir [1], [2] et d'un point de vue quelque peu différent [4].

12. Il ne serait pas difficile de donner une définition rigoureuse de la relation d'équivalence en question, mais ce serait long et pénible.

13. La notion « est un » devrait en fait être rendue relative à une occurrence donnée de Si dans S. Nous pouvons définir une occurrence de s» dans S comme une paire

71

La relation définie en (40) est une généralisation de la relation « est un » définie en 3.3; st est un Xf au sens de (40) si et seulement si st est une sous-séquence de S découpée par une suite de nœuds du diagramme de la forme (27), etc., et Xf est la séquence formée à partir de la suite des étiquettes de ces nœuds.

La notion d'analysabilité définie ci-dessus nous permet de définir de manière précise le domaine d'application de toute transformation. Nous associons à chaque transformation une classe des limitations si et seulement s'il existe r, m tels que R soit l'ensemble des séquences :

x\ xi Xm vm i » • • • > -л.г

où X\ est une séquence sur le vocabulaire V , pour tout i, j. Nous dirons alors qu'une séquence S d'indicateur syntagmatique К appartient au domaine de la transformation T si la classe des limitations R associée à T, contient une suite (X{, . . . , X£) en laquelle (S, K) est analysable. Ainsi le domaine d'une transformation est un ensemble de paires ordonnées (S, K) où S est une séquence et К un indicateur syntagmatique de S. Une transformation peut être applicable à S doté d'un indicateur syntagmatique mais peut-être pas au même S doté d'un second indicateur, cas d'une séquence S dont la structure de constituants est ambiguë.

En particulier la transformation passive décrite en (38) est associée à la classe des limitations Rp qui contient la suite :

(42) Rp = \ (SN, Auxiliaire, V, SN)\. Cette transformation peut donc être appliquée à toute séquence analysable en SN suivi d'un Auxiliaire suivi d'un V suivi d'un SN. Par exemple elle peut s'appliquer à la séquence (43) analysée en sous-séquence si, . . ., s4 selon les tirets :

(43) the man — passé — eat — the food.

5.2. De cette manière, nous pouvons décrire en termes structuraux l'ensemble des séquences (dotées d'indicateurs syntagmatiques) auquel chaque transformation s'applique. Nous devons maintenant spécifier les modifications structurales apportées par une transformation à toute séquence de son domaine. Une transformation élémentaire К est définie par la propriété suivante :

(44) Pour toute paire d'entiers n, r(n < r), il existe une suite unique d'entiers (a0, av . . . , ak) et une suite unique de séquences sur Vp (Zlf . . ., Zk+1) telle que

(i) a0 = 0; к > 0; 1 < a,- < r pour 1 < j < k; Yo = U u (ii) pour tout Yv . . . , Yr :

ordonnée (st-, X), où X est une sous-séquence initiale de S, et si une sous-séquence finale de X. Cf. [5], p. 297.

14. Où U est l'élément neutre.

72

t(Yv . . ., Yn; Yn, . . ., Yr) = Y aoZ-^ ayZ^Y аг . . • Ya](Zk+v

Ainsi i peut erre interprété comme convertissant l'occurrence de Yn dans le contexte

Y1 . . . Yn — ! Уп +1 ... Yr

en une certaine séquence Ya0Zx • • • Ya^Zu +1 unique, la suite des termes ( Yj, . . . , Yr) qui subdivisent Yx . . . Yr étant donnée. / change la séquence Yj — ... — Yr en une nouvelle séquence Wx — ... — Wr liée de manière fixe à Yt — ... — Yr. De manière plus précise, nous associerons à t la transformation dérivée t* : (46) /* est la transformation dérivée de / si et seulement si pour tout

t*(Yv '■ • •? Yr) = Wl... Wr avec Wn = *(Yl5 . . .,

Yn; Yn, . . . , Yr) pour tout л < л

Nous associons à chaque transformation T une transformation élémentaire. Par exemple à la transformation passive (38) nous associerons la transformation élémentaire tp définie comme suit :

(47) tp(Yi; Yv .... Y4) = Y4 řp(ylf Y2; Y2, Y3, Y4) = Y^be-en *p\Y\t Y2, Y3; Y3, Y4) = Y3 tp(Yv ..., Y4; YJ =bjrY1 tp(Ylt . . ., Yn; Yn, . . ., Yr) = Yn pour tout n ^ г ф 4.

La transformation dérivée t*p a donc l'effet suivant

(48) (i) ip*(Y!, . . ., Y4) = Y4 - Y2-be-en - Y3 — by- Yx (ii) /p* (the~man, passé, eat, the^food = the^food — passée be^ en

— eat — by~the~man.

Les règles (34), (36) changent le membre droit de (48 ii) en «the food was eaten by the man », de la même manière qu'elles changent (43) en la phrase active correspondante « the man ate the food ».

La paire (Rp, tp) donnée par (42), (47) caractérise entièrement la transformation passive telle qu'elle est décrite en (38). Rp nous dit quelles sont les séquences auxquelles cette transformation s'applique (les indicateurs syntagmatiques de ces séquences étant donnés), et comment ces séquences sont subdivisées pour que la transformation s'applique; tp nous dit quels sont les modifications structurales à apporter à la séquence subdivisée.

Une transformation grammaticale est entièrement spécifiée par une classe des limitations R et une transformation élémentaire /, qui sont toutes deux caractérisables de manière finie, comme dans le cas du passif. Il est aisé de définir rigoureusement cette spécification, dans la voie tracée ci-dessus. Pour compléter la présentation des grammaires trans- formationnelles, il est nécessaire de montrer comment une transformation

73

attribue automatiquement un indicateur syntagmatique dérivé à toute transformée, et de généraliser à des transformations d'ensembles de séquences. (Ces points, ainsi que d'autres qui y sont apparentés, sont traités dans [1], [3].) Une transformation modifiera donc une séquence S d'indicateur syntagmatique К (ou un ensemble de telles paires) en une séquence S' d'indicateur dérivé K'.

5.3. Ces considérations nous mènent à considérer les grammaires comme présentant une structure triple. Nous avons, correspondant à l'analyse en constituants, une suite de règles de la forme X -> Y (20), (23), (32). Nous avons encore une suite de règles de transformations telles que (34) et (38). Enfin nous avons une suite de règles morphophonémiques telles que (36) qui, elles aussi, ont la forme X -> Y. Pour engendrer une phrase au moyen d'une telle grammaire, nous construirons une dérivation généralisée qui commencera par une séquence initiale de la grammaire de constituants : #~ Phrase^ #, comme dans (20). Nous appliquons alors les règles de la grammaire de constituants, ce qui produit une séquence terminale. Nous appliquons ensuite certaines transformations, ce qui fournit une séquence de morphèmes correctement ordonnée, peut-être très différente de la séquence terminale dont on est parti. L'application des règles morphophonémiques convertit celle-ci en une séquence de phonèmes. Il est possible que nous ayons à appliquer plusieurs fois des règles de la grammaire de constituants, nous appliquerions ensuite une transformation généralisée à l'ensemble obtenu des séquences terminales.

En 3.4 nous avons remarqué qu'il était avantageux d'ordonner les règles de la grammaire de constituants selon une suite, et de distinguer les règles obligatoires des facultatives. Il en est de même pour le composant transformationnel de la grammaire. Au § 4 nous avons discuté de la transformation (34) qui convertit une séquence affixe-verbe en une séquence verbe-affixe, et de la transformation passive (38). Remarquons que (34) doit être appliquée dans toute dérivation généralisée, ou bien le résultat ne sera pas une phrase grammaticale. Ainsi la règle (34) est une transformation obligatoire. Cependant la transformation passive peut être appliquée ou non, dans les deux cas nous obtenons une phrase. Le passif est donc une transformation facultative. Cette distinction entre les transformations obligatoires et facultatives nous conduit à distinguer entre deux classes de phrases du langage. Nous avons d'un côté un noyau de phrases de base qui s'obtiennent à partir des séquences terminales de la grammaire de constituants par application des seules transformations obligatoires. Nous avons ensuite un ensemble de phrases dérivées qui sont engendrées par application des transformations facultatives aux séquences sous-jacentes aux phrases noyaux. Quand nous effectuons une étude détaillée de la structure de l'anglais, nous constatons que la grammaire peut être considérablement simplifiée si nous limitons le noyau à un très petit ensemble de phrases simples, actives, déclaratives (probablement un ensemble fini) telles que « the man ate the food », etc. Nous dérivons alors

74

les questions, les passifs, les phrases avec conjonction, les phrases à syn- tagmes nominaux complexes (par exemple « proving that theorem was difficult » où « proving that theorem » est un SN 15, etc., par des transformations. Comme le résultat d'une transformation est une phrase dotée d'une structure de constituants dérivée, les transformations peuvent être composées entre elles, et nous pouvons former des questions à partir de passifs (par exemple « was the food eaten by the man »), etc. Les phrases véritables du monde réel ne sont habituellement pas des phrases noyaux mais des transformations plutôt compliquées de celles-ci. Nous constatons cependant, que les transformations laissent en gros le sens invariant, de telle sorte que nous pouvons considérer les phrases noyaux sous-jacentes à une phrase donnée comme étant, en un certain sens, des « unités de contenu » élémentaires, en termes desquelles les transformées réelles sont « interprétées ». Nous discutons rapidement ce problème au § 6, et plus en détails dans [1], [2].

6. Le pouvoir d'explication des théories linguistiques.

A ce point, nous n'avons étudié l'intérêt relatif de certaines théories des structures linguistiques qu'en termes de critères essentiellement formels tels que la simplicité. Au § 1 nous avons suggéré qu'il existait d'autres considérations significatives sur la valeur des théories. Nous pouvons nous demander (cf. (5)) si la structure syntaxique révélée par ces théories fournit des éclaircissements sur l'utilisation et la compréhension du langage. Nous pouvons tout juste aborder ce problème ici, mais même cette courte discussion suggérera que ce critère fournit encore le même ordre des valeurs relatives, pour les trois modèles que nous avons examinés.

Si la grammaire d'une langue doit éclaircir la manière dont le langage est interprété, il est nécessaire, en particulier, que la grammaire attribue plusieurs analyses à une phrase, si cette phrase est ambiguë (interprétée de plusieurs manières). En d'autres termes, si une certaine phrase S est ambiguë, nous pouvons vérifier la valeur d'une théorie linguistique donnée en demandant bi oui ou non la grammaire la plus simple que l'on puisse construire en terme de cette théorie pour la langue en question, fournit automatiquement plusieurs manières différentes d'engendrer la phrase S. Il est instructif de comparer les processus de Markov, les grammaires de constituants et les modèles transformationnels à la lumière de ce test.

Au § 3.3 nous avons fait remarquer que la [£, F] -grammaire de l'anglais la plus simple attribuait des dérivations non-équivalentes à la phrase « they are flying planes » qui, en fait, est ambiguë. Cependant, ce

15. Remarquons que cette phrase exige l'application d'une transformation généralisée à un couple de séquences dotées de leur indicateur syntagmatique. Nous avons ainsi une transformation qui convertit Sif Sx de la forme SN — S Vu it — S V2 respectivement en la séquence : ing^ S Vx — S Va. Elle convertit S, = « they — prove the theorem », St = « it — was difficult » en « ing prove that theorem — was difficult », qui par (34) devient « proving that theorem was difficult ». Voir [1], [3] pour des détails.

75

raisonnement ne semble pas pouvoir se transposer au cas des grammaires à états finis. Il n'existe pas de motivation évidente pour attribuer à cette phrase ambiguë deux chemins différents dans une grammaire à états finis quelconque qui pourrait être proposée pour une portion de l'anglais. De tels exemples d'homonymie de construction (il y en a bien d'autres) forment une preuve indépendante en faveur de la supériorité du modèle des constituants par rapport aux grammaires à états finis.

Une étude plus poussée de l'anglais fait apparaître des exemples qui ne s'expUquent pas facilement en termes de constituants. Considérons la phrase

(49) the shooting of the hunters (le tir des chasseurs).

Nous pouvons interpréter ce syntagme avec « hunters » (chasseurs) comme sujet, à la manière de (50), ou comme objet, à la manière de (51).

(50) the growling of lions (le grondement des lions)

(51) the raising of flowers (la culture des fleurs).

Les syntagmes (50) et (51) ne sont pas ambigus de cette manière. Cependant en termes de constituants, chacun de ces syntagmes est représenté par : the — V~ing — oî~SN.

Une analyse détaillée de l'anglais montre que nous pouvons simplifier la grammaire si nous ôtons les syntagmes (49) — (51) du noyau, et si nous les réintroduisons par une transformation Tt qui change en (50) les séquences sous-jacentes à des phrases telles que « lions growl » (les lions grondent), etc., et par une transformation T2 qui change en (51), les séquences sous-jacentes à des phrases telles que « they raise flowers » (ils cultivent les fleurs). Tx et T2 seront voisines des transformations de nomi- nalisation décrites dans la note 14, si elles sont correctement construites. Mais « hunters shoot » (des chasseurs tirent) et « they shoot the hunters » (ils tirent les chasseurs) sont toutes deux des phrases noyaux; l'application de Tx à la séquence sous-jacente à la première, de T2 à la séquence sous- jacente à la seconde fournit le résultat (49). (49) a donc deux origines transformationnelles distinctes. Ceci est un cas d'homonymie de construction au niveau transformationnel. L'ambiguïté de la relation grammaticale de (49) est une conséquence du fait que la relation de « shoot » (tirer) à « hunters » (chasseurs) n'est pas la même dans les deux phrases noyaux sous-jacentes. Nous n'avons pas cette ambiguïté dans le cas de (50), (51), puisque ni « they growl lions » ni « flowers raise » ne sont des phrases noyaux grammaticales.

Il existe beaucoup d'autres exemples du même type général (voir [1], [2]), à mes yeux ils fournissent une preuve très convaincante, non seulement de la valeur supérieure de la conception transformationnelle de la structure linguistique, mais également du point de vue exprimé en 5.4 : l'analyse transformationnelle nous permet de réduire en partie le problème

76

de l'explication de la copréhension d'une phrase, à celui de l'explication de la compréhension d'une phrase noyau — ou, plus précisément, des séquences terminales, engendrées par les règles de constituants et qui sont sous-jacentes à la phrase en question.

En résumé, notre description d'une langue comporte un petit noyau (peut-être fini) de phrases de base dotées d'un indicateur syntagmatique au sens du § 3, ainsi qu'un ensemble de transformations qui peuvent être appliquées à des séquences sous-jacentes à des phrases noyaux ou à des transformées, pour produire des phrases nouvelles et plus compliquées, à partir de composants élémentaires. Nous avons observé des faits qui permettent de penser que cette approche pourrait nous mettre en mesure de réduire l'immense complexité des langues naturelles à des proportions raisonnables, et que de plus, cette approche pourrait illuminer considérablement le problème de l'utilisation réelle et de la compréhension du langage.

[1] N. Chomsky. The logical structure of linguistic theory (ronéotypé), 1955. [2] N. Chomsky. Syntactic structures. S-Gravenhage, Netherlands, Mouton

& Co., 1957. [3] N. Chomsky. Transformational analysis. Thèse de doctorat non publiée.

Université de Pennsylvanie, Juin 1955. [4] Z. S. Harris. Discourse analysis. Language, 28, 1, 1952. [5] W. V. Quine. Mathematical logic, Cambridge, Harvard University

Press, 1951. [6] P. Rosenbloom. Elements of mathematical logic. New York, Dover,.

1950. [7] C. E. Shannon and W. Weaver. The mathematical theory of communic

ation. Urbana, University of Illinois Press, 1949.