Hel PDF
Hel PDF
Hel PDF
(1) It is assumed that there is a correct generative grammar which determines the structural
characteristic of any string, including those that deviate from well-formedness in various
respects, and that the problem of the linguist is to discover this grammar and to discover the
linguistic theory that determines possible grammars and incorporates universals of language.
(Chomsky, 1975 : 44)
Durant la même période, et parfois dans les mêmes institutions, se développent un ensemble de
recherches, que nous regroupons sous l’étiquette informatique, consacrées à la modélisation des
activités de programmation d'un ordinateur. Ces recherches incluent la théorie de la compilation, les
langages de programmation, l'intelligence artificielle et le traitement automatique des langues (TAL).
Chacune à sa manière croise le chemin de la linguistique, que ce soit au travers des notions de
langage (et des usages du langage), de compétence qui est mis au fondement du programme
cognitiviste, ou moins spécifiquement de connaissance. Les langages de programmation doivent être
décrits syntaxiquement, interprétés et traduits en langage machine. L'intelligence artificielle se
présente comme la modélisation de toute forme de connaissance ; si la grammaire est une forme de
connaissance, la grammaire est du ressort de l'intelligence artificielle. Le TAL (dont le statut est
ambigu, entre théorie de la performance et applications industrielles) est directement confronté aux
aspects systématiques des langues naturelles.
La linguistique et l'informatique sont des disciplines « en contact » comme on dit que deux
langues sont en contact : ignorance réciproque, rivalité plus ou moins belliqueuse, emprunt et
collaboration. Dans cet article, nous ne construirons qu'un seul fil de l'histoire de ce contact : celui
qui va de l'émergence d'un sous-programme consacré aux grammaires formelles à l'émergence d'une
redéfinition du programme génératif initial, les grammaires de constructions. Notre entreprise n'est
pas une entreprise d'historiens (ou de sociologues) des sciences ; elle s'apparente davantage à une
tentative d'histoire rationnelle (Lakatos, 1984) : nous reconstruisons dans l'épaisseur des faits
1
La linguistique au contact de l’informatique
institutionnels et intellectuels les évolutions d'un programme de recherche qui aboutissent à un point
de vue bien particulier sur la grammaire des langues qui nous intéresse, car nous en sommes partie
prenante. C'est dire que notre point de vue est « engagé », partiel et très nettement délimité. En
particulier, nous laisserons de côté les avatars des grammaires transformationnelles (proposés dans
les modèles Théorie standard, Principes et paramètres, Gouvernement et liage, Programme
minimaliste) car ils ne nous semblent pas contribuer de façon décisive à l'avancement du projet défini
par Chomsky que nous rappelons en (1). Ce choix présuppose que l’on peut distinguer dans les
théories linguistiques les propositions et les argumentations qui relèvent de la description des
langues et celles qui relèvent du choix et de la confection des grammaires.
Pour la clarté, nous reconstruisons trois moments. Le premier est un moment fondateur pour la
linguistique et l'informatique : la définition d'une nouvelle discipline, appelée par Chomsky
linguistique algébrique, consacrée à l'étude des grammaires formelles. De façon paradoxale, les
premiers résultats de cette discipline, la hiérarchie des grammaires, sont à l'origine de
développements considérables en informatique, aussi bien en théorie de la compilation que dans la
définition d'algorithmes d'analyse qui peuvent être investis dans le TAL, alors qu'ils sont cantonnés
par Chomsky à servir de base à la réfutation des formes non transformationnelles de grammaire. Le
second est un moment de réforme, où Gazdar joue un rôle déterminant : le programme génératif se
scinde en deux. Le rejet des grammaires transformationnelles par les linguistes tenants de la forme
syntagmatique des grammaires et les informaticiens tenants de la déclarativité se présente comme un
retour au programme initial, et en particulier comme l'affirmation de la pertinence de l'approche
formelle de la grammaire des langues naturelles. Le troisième moment est contemporain ; on pourrait
filer la métaphore historique et parler de moment baroque (alors que le programme minimaliste
apparaît comme une entreprise de contre-réforme dans ses tenants sinon dans ses aboutissants
formels). L'analyse des langues inclut de nouvelles dimensions à la suite du développement
d'approches formalisées en sémantique et en pragmatique. On demande aux grammaires d'intégrer ce
qui relève du signifiant, du signifié et de l'usage des expressions linguistiques. C'est ce que recouvre
la notion générale de construction. Cela est rendu possible par le développement en informatique de
systèmes de représentation des connaissances complexes et multidimensionnels. HPSG (Pollard et
Sag) apparaît comme le catalyseur contemporain de cette nouvelle approche de la grammaire, où
l'entreprise de description des langues prend le pas sur la modélisation de la faculté de langage.
1.1 Le contexte
Chomsky décrit longuement le contexte d'émergence du programme génératif dans l'introduction
qu'il rédige en 1973 pour la publication en 1975 de The logical structure of linguistic theory (LSLT
dorénavant) qui date de 1955 ; le passage (2) résume l'essentiel de cette description :
(2) Interdisciplinary approaches to language, communication, and human behavior were much in
vogue -- thus it was hardly surprising that a student in Cambridge in the early 1950s should
have come to think of linguistics as, in effect, a branch of cognitive psychology concerned with
the language faculty and its exercise. Roman Jakobson's work was well known and influential.
Oxford ordinary language analysis and Wittgenstein's later work were attracting great interest.
[...]. Mathematical logic, in particular recursive function theory and metamathematics, were
becoming more generally accessible, and developments in these areas seemed to provide tools
for a more precise study of natural language as well. All of this I personally found most
stimulating.
At the same time electronic computers were begining to make their impact. The mathematical
theory of communication, cybernetics, sound spectography, psychophysics, and experimental
psychology were in a period of rapid development and much exuberance. Their contribution
2
Marcel Cori et Jean-Marie Marandin
lent an aura of science and mathematics to the study of language and aroused much
enthousiasm [...]. A technology of machine translation, automatic abstracting, and information
retrieval was put forward as a practical prospect. It was widely believed that B.F. Skinner's
William James lectures of 1947 offered an account of some of the most complex products of
human intelligence in terms of the science of behavior [...]. My personal reaction to this
particular complex of beliefs, interests, and expectations was almost wholly negative. The
behaviorist framework seemed to me a dead end, if not an intellectual scandal. The models of
language that were being discussed and investigated had little plausibility [..] and I had no
personal interest in the experimental studies and technological advances. The latter seemed to
me in some respect harmful in their impact [...]. As for machine translation and related
entreprises, they seemed to me pointless as probably quite hopeless.
(Chomsky, 1975 : 39)
Cette présentation est autant une reconstruction imaginaire qu'une description factuelle du
contexte d'émergence du programme génératif. Néanmoins, elle restitue correctement le socle
épistémologique de la notion clef pour le programme génératif et pour les rapports entre linguistique
et informatique, la notion de grammaire. Et cela passe par une claire distinction entre d'un côté les
mathématiques (« function theory and metamathematics ») et de l'autre l'informatique que Chomsky
amalgame à l'ennemi qu'il donne au programme naissant : le behaviourisme. L'idée de grammaire
prend forme dans le sillage des mathématiques symboliques et non dans les programmes ou les
théories (même mathématisées) de la science de l'information naissante. En effet, pour définir ce
qu’il entend par une grammaire, Chomsky se réfère à la notion de système constructionnel
(constructional system), qui est ainsi au cœur du nouveau programme de recherche. La forme
organisatrice d'une grammaire générative n'est pas le répertoire comme c'est le cas pour les
grammaires traditionnelles2, mais la forme logique d'une théorie.
2 Répertoire des expressions attestées, curieuses, grammaticales ou correctes selon les grammaires.
3 Chomsky cite plusieurs fois SA dans l'introduction de LSLT ainsi que dans la première note de Syntactic Structures.
C'est un indice faible étant donné le fait que le régime de citation et de non-citation chez Chomsky (et plus
généralement dans le groupe qu'il contrôle) obéit plus à une logique institutionnelle qu'à la reconnaissance de dettes
intellectuelles. La référence à « la structure logique de la théorie » est un indice bien plus significatif d'une filiation
avec SA.
4 « The consideration relevant in choosing elements for a system is thus not primacy in the cognitive process but
serviceability as a basis for an economical, perspicuous and integrated system » (Goodman, 1972 : 10).
3
La linguistique au contact de l’informatique
façonné les travaux de Bloomfield et Harris et auquel Chomsky a été exposé dans ses années de
formation. La rupture ne porte pas sur le contenu des analyses (qui est repris dans le programme
génératif naissant), mais sur l'épistémologie qu'entraîne l'idée de concevoir une grammaire comme un
système constructionnel dédié à la reconstruction logique du savoir sur le langage5. On peut
brièvement énumérer les points de rupture en les rapportant aux caractères d'un SC tel que les définit
Goodman : (a) le choix des éléments primitifs de la grammaire n'est pas réductible à la construction
de procédures de découverte des éléments d'une langue (l'analyse distributionnelle) ; (b) une langue
(un fragment de langue) peut donner lieu à plusieurs grammaires adéquates et (c) un critère de choix
entre plusieurs grammaires est leur caractère « révélateur » : telle grammaire fait apparaître ou met
en valeur des aspects insoupçonnés de l'objet alors que telle autre les laisse dans l'ombre de la
description. On sait que (c) a toujours été le talon d'Achille du programme génératif, et en particulier
des différentes versions que Chomsky va lui donner. C'est aussi sur ce point que Chomsky suit et se
sépare de la notion de SC.
5 Sur la continuité de contenu entre le programme génératif et le structuralisme, voir par exemple (Encrevé, 1997).
Sur la stratégie socio-institutionnelle de rupture menée par Chomsky et son groupe, voir (Murray, 1993).
6 L'analyse du passif comme une relation entre deux phrases sera rapidement abandonnée (entre autres Bresnan,
1982, chap. 1 : The Passive in Lexical Theory).
7 Goodman commettra plusieurs articles particulièrement ironiques critiquant cette hypothèse. « I am not denying that
the case of "eager" and "easy" may have important features not shared by the case of 'rat' and 'cat'. I am asking for the
grounds for the inference from such features, or from other pecularities of words, to innate ideas » (1972 [The
emperor's new ideas] : 77).
8 Plus précisément, à la capacité d’une grammaire à fonder « des modèles psychologiquement réalistes de
l'acquisition, de la compréhension et de la production du langage » (Bresnan et Kaplan, 1982 : xviii).
4
Marcel Cori et Jean-Marie Marandin
9 Le terme de description structurale apparaît dans Carnap (Der Aufbau [..], section 12) : Strukturbeschreibung.
Chomsky donne (Post, 1944) comme le prototype de l'idée de théorie générative (voir par exemple Chomsky, 1966 :
83).
10 Chomsky et Miller (1958), Chomsky (1959), Chomsky (1963), Chomsky et Schützenberger (1963).
11 A tout mot obtenu par dérivation dans une grammaire, hormis pour les grammaires de type 0, et pour les
grammaires qui admettent des règles où un symbole peut être réécrit par le mot vide, on associe un arbre : l’arbre de
dérivation. Cet arbre est le vecteur de la description structurale de l'énoncé.
5
La linguistique au contact de l’informatique
Le second a été rassemblé par (Pullum et Gazdar, 1981). Il est composé d'une liste assez
hétéroclite de tours particuliers :
(4) a) l'analyse des comparatives en anglais : *that one is wider than this one is wide,
b) l'analyse de l'expression en langue naturelle des décimales du nombre π,
c) l'analyse de respectively (respectivement) : John, Mary, David, … are a widower, a widow,
a widower, … respectively,
d) la structure emboîtée du GV en hollandais : NP1 NP2 … NPn V1 V2 … Vn,
e) l'incorporation en mohawk.
6
Marcel Cori et Jean-Marie Marandin
construits propres (tout particulièrement, les notions de transformation, de catégorie vide, etc.) hors
discussion. L'entreprise de recherche formelle portant sur le système adéquat pour une grammaire va
se poursuivre sans Chomsky, et même le plus souvent contre Chomsky.
16 Ainsi, Aho et Ullman reconnaissent la dette de l'informatique envers la linguistique : “ The original source for the
notion of context-free grammars is Chomsky [1956] and Chomsky [1959]. These grammars were advanced as a way
of defining natural languages rather than computer languages ” (1977 : 104).
17 Les auteurs des outils formels et/ou informatiques pour le TAL qui suivront, comme DCG ou FUG, devront se
positionner par rapport aux ATN.
18 De la même manière que les langages de programmation affectent des valeurs aux cases de la mémoire des
ordinateurs.
7
La linguistique au contact de l’informatique
même manière que les sous-programmes calculent un résultat, communiqué au programme qui les
appelle). Le résultat final correspond à l’analyse de la phrase lue ; il se présente sous la forme d'un
arbre hétérogène. Ce que nous illustrons sous (5)19 :
(5)
type SN temps SV
Le long succès que les ATN connaîtront dans le domaine du TAL fera oublier leur origine
transformationnelle. Ils serviront dans des cadres divers et variés. Un ATN, en effet, est un outil non
contraint, qui a la puissance d’une machine de Turing. Il permet d’associer à un énoncé n’importe
quel type de structure, ce qui est très pratique dans une perspective d'application industrielle où il
s’agit d’obtenir un output à partir d’un énoncé : traduction, interrogation en langue naturelle, etc.
Les ATN seront la cible de deux critiques qui conduiront à leur abandon. La première porte sur
leur capacité à soutenir des modélisations de la compétence ou de la performance. Ils ne peuvent
servir à modéliser une grammaire si on admet qu'une grammaire est un modèle de la connaissance
qu'un locuteur a de sa langue et que cette connaissance peut être mise en application indifféremment
dans des procédures de reconnaissance ou de production d'énoncés. Mais, ils ne peuvent pas non
plus servir à modéliser les procédures de reconnaissance caractéristiques de la performance si on
admet que la grammaire est une ressource neutre et extérieure à la procédure elle-même : en effet,
les connaissances grammaticales sont mêlées aux opérations constitutives de la reconnaissance20. Ce
défaut (radical) est lié à leur nature procédurale, qui est la cible d'une deuxième critique interne au
TAL. Le développement des systèmes experts a montré l’intérêt pratique et théorique de distinguer
la base de connaissances du moteur d'inférences, et plus généralement les connaissances des
procédures. Cela devient un critère de bonne formation des systèmes informatiques : un système est
jugé d'autant meilleur que la partie procédurale est plus générale et indépendante de connaissances
particulières.
Néanmoins, les ATN enrichissent le répertoire des outils descriptifs maniés par les grammaires :
l'affectation de valeurs à des registres préfigure les couples attribut/valeur qui formeront les
19 Le processus d’analyse à l’aide d’un ATN est qualifié par Woods de « reconnaissance transformationnelle ». Cela
signifie que le résultat de l'analyse correspond à la structure profonde de la phrase analysée. L'idée selon laquelle
plusieurs structures de surface peuvent partager une même structure profonde apparaît comme le contenu essentiel
retenu par les ATN des grammaires transformationnelles.
20 Ce qui fonde cette critique va rester constant dans le programme génératif. On en retrouve les grandes lignes dans
l'introduction à HPSG : « grammars that are to fit into realistic models of processing should be completely order-
independent. [...] The differences between, say, comprehension and production should be explained by a theory that
posits different kinds of processing regimes based on a single linguistic description -- a process-neutral grammar of
the language that is consulted by the various processors that function in linguistic activity » (Pollard et Sag, 1994 :
12).
8
Marcel Cori et Jean-Marie Marandin
spécifications de traits. Et les arbres hétérogènes (cf. (5) ci-dessus) préfigurent les formalisations à
venir de la grammaire où cohabitent des informations qui ne se limitent pas à la seule structure
syntaxique (cf. (13) ci-dessous).
2.1 Le contexte
Le second moment que nous distinguons est marqué par l'enrichissement des grammaires
syntagmatiques visant à accroître leur expressivité, la conception du langage de programmation
Prolog et une grande inventivité dans la conception de nouvelles formes de grammaire, tant du côté
des linguistes (LFG, TAG, GPSG,...) que du côté des informaticiens engagés dans le TAL (DCG,
PATR II, FUG,..).
Le développement de l'expressivité des PSG est entrepris très tôt en réponse à l'argumentation
de Chomsky en faveur de la forme transformationnelle (Yngve, 1960 et Harman, 1963) ; Harman
démontre avec force que Chomsky récuse une version particulière des grammaires syntagmatiques
(des grammaires où seule est introduite l'appartenance catégorielle sous la forme de catégorie
monadique étiquetant les nœuds), et non les grammaires syntagmatiques en général. Mais, c'est le
groupe mené par Gazdar qui transforme l'essai avec GPSG (Generalized Phrase Structure
Grammar, Gazdar (1982), Gazdar, Klein, Pullum et Sag (1985)). Bresnan donne à l'argument de
plausibilité psychologique ses lettres de noblesse avec LFG (Lexical-Functional Grammar)21. Il est
repris par Gazdar qui, pour le développer, fait appel aux résultats acquis dans la théorie de la
compilation et dans le TAL22. Les algorithmes d'analyse qu'autorisent les grammaires CF constituent
des modèles de compréhension beaucoup plus plausibles que ceux qu'autorisent les grammaires
transformationnelles23 :
(6) The sentences of a natural language can be parsed. We do it all the time. Furthermore, we do
it very fast [..]. But for « transformational grammars, it is not known that processing time can
be any less than a doubly exponential function of sentence length » (Peters 1979).
Transformational grammars thus fail to provide even the beginnings of an explanation for one
of the most important and most neglected facts about natural languages: parsing is easy and
quick. Sentences of a context-free language are provably parsable in a time which is, at worst,
proportional to less than the cube of the sentence length.
(Gazdar, 1982 : 133)
21 Le rôle de LFG est essentiel à plusieurs titres. Bresnan et le groupe qu'elle dirige montrent la pertinence d'analyses
lexicalisées de nombre de phénomènes traités auparavant en termes transformationnels. Kaplan joue le rôle de passeur
de solutions élaborées dans le cadre des ATN vers la linguistique (voir Kaplan, 1995).
22 « Compiler design for CFL's is a fairly well explored problem (see Aho and Ullman 1972, 1973), but designing
compilers for non-CFL's can be grossly more difficult. Nor is this a concern that can be relagated to the field of
computer programming; for those who take seriously the thesis of Fodor (1975), language acquisition for a human
learner is nothing more or less than the construction of a program to compile the naturel language into the human
machine code (or whatever intermediate code is used for thinking) » (Pullum et Gazdar, 1982 : 139).
23 Milner (1981) a raison de souligner que l'hypothèse cognitive n'a pas fourni de critère permettant de choisir entre
deux analyses possibles d'un même ensemble de faits linguistiques, mais on voit ici qu'elle joue un rôle moteur pour
choisir entre deux formes de grammaires.
24 « The term "grammar" is understood here in a narrow sense, as pure theory of form, thus incorporating syntax and
phonology » (Chomsky, 1975 : 6). Rappelons que la notion de forme logique (FL) est définie dans une grammaire
transformationnelle comme le niveau syntaxique susceptible d'être interprété sémantiquement : la FL ne sort pas d'une
9
La linguistique au contact de l’informatique
(7) The greater clarity and modularity of DCGs is a vital aid in the actual development of systems
of the size and complexity necessary for real natural language analysis. Because the DCG
consists of small independent rules with a declarative reading, it is much easier to extend the
system with new linguistic constructions, or to modify the kind of structures which are built.
(Pereira et Warren, 1980 : 270)
Les DCG sont historiquement indissociables du langage de programmation Prolog, qui lui-même
naît de l'objectif d'effectuer l'analyse syntaxique des langues naturelles et d'une traduction des
grammaires CF dans le calcul des prédicats du premier ordre. De la même manière que la définition
des grammaires coïncide avec la vogue du langage Algol, que les ATN sont plongés dans LISP, les
formalismes déclaratifs accompagnent le succès de Prolog. Ce remarquable parallélisme entre
formalismes grammaticaux et langages de programmation se confirmera dans le troisième moment
où l'on voit les langages orientés objets accompagner les grammaires de construction.
La tentative de Shieber (1986) marque un tournant dans l'histoire du contact entre linguistique
et informatique : il s'agit ni plus ni moins que de dégager les traits formels communs aux différents
modèles grammaticaux non transformationnels et aux formalismes déclaratifs. C'est ce corps
commun que Shieber dénomme (en se conformant à la grammaire de la dénomination des systèmes
grammaticaux, cf. grammaire transformationnelle ) grammaire basée sur l'unification ou, de façon
abrégée, grammaire d'unification. Si linguistique et informatique (plus particulièrement TAL) sont
des programmes distincts menés par des objectifs indépendants (ce que reconnaît Shieber dès
l'abord), il n'en reste pas moins que se dessine une convergence qui constitue un des traits du
troisième moment que nous distinguerons dans l'histoire du contact entre linguistique et
informatique.
10
Marcel Cori et Jean-Marie Marandin
(8) The obvious thing to do if natural languages were ever shown not to be CFL's in the general
case would be to start exploring minimal enhancements of expressive power to determine
exactly what natural languages call for in this regard and how it could be effectively but
parsimoniously provided in a way that closely modelled human linguistic capacities.
(Pullum et Gazdar, 1981 : 171 ; nous soulignons).
Nous décrivons brièvement dans ce qui suit certains des outils formels qui ont permis
d'augmenter le pouvoir expressif des PSG.
entirely unknown: we are ignorant, for example, as to whether ungrammaticality with respect to such grammars is
decidable, i.e. given an arbitrary string on the terminal vocabulary, no way is known of proving that that string is not
generated by the grammar. In this situation, claims by grammarians to the effect that such and such a string of words
cannot be generated by their grammar merely reflect their intuitions about the apparatus they are using » (Gazdar,
1982 : 131).
28 A bien des égards, l'innovation consiste à généraliser l'emploi des symboles complexes comme étiquettes de tous les
nœuds de l'arbre syntagmatiques et non de les cantonner aux nœuds pré-terminaux comme dans la composante
syntagmatique des grammaires transformationnelles proposées dans Aspects (Chomsky, 1965). « Harman (1963)
deserves the credit for first seing the potential of PSGs incorporating complex symbols » (Gazdar, 1982 : 134).
29 D’où le nom de format DI/PL.
11
La linguistique au contact de l’informatique
Par ailleurs, GPSG introduit des outils supplémentaires, en particulier les principes30. Trois
principes rendent compte de l'essentiel des phénomènes liés à la structuration syntaxique des langues
naturelles : la Convention des traits de tête rend compte de l'endocentricité des syntagmes (le
syntagme partage les valeurs de certains traits, définis une fois pour toutes, avec sa tête), le Principe
du contrôle et de l’accord traite de façon unifiée des phénomènes d'accord et le principe des traits de
pied permet le traitement des dépendances à distance, ce qui préserve le résultat essentiel acquis
dans le cadre des grammaires transformationnelles, le traitement local de la dépendance. Les deux
derniers principes requièrent une généralisation du formalisme des traits, puisque la valeur d'un trait
peut être une catégorie.
GPSG initie un déplacement, que va systématiser HPSG : on passe d'une approche où la
dérivation est le vecteur des généralisations linguistiques à un système où sont déclarés des principes
de bonne formation des différentes entités permettant d'analyser les énoncés31. C'est en ce sens que
la recherche dont GPSG est le vecteur converge avec les recherches menées dans le TAL et la
représentation des connaissances : la théorie syntaxique se donne explicitement dans une forme
grammaticale que l'on peut qualifier de déclarative.
GPSG ne clôt pas le problème posé par les structures qui ont été identifiées comme les
falsificateurs possibles des grammaires syntagmatiques CF. La discordance entre ordre et
constituance est portée au rang de principe structural dans le format de la grammaire en distinguant
règle d'ordre et règle de dominance. La constituance non bornée est traitée par l'introduction d'un
type particulier de règles, qui fait usage de l’étoile de Kleene32 : A → B C*. Cette notation signifie
en fait que l’on a un nombre infini de règles : A → B, A → B C, A → B C C, … Il en résulte que
l'usage de l'étoile de Kleene dans les parties droites des règles (de même que l’introduction des
métarègles) représente plus qu'un « minimal enhancement » des PSG : elles rompent avec une
caractéristique essentielle des PSG, la génération de langages infinis par des grammaires finies. Cette
rupture n’est pas indispensable, comme le montreront entre autres les grammaires d’arbres
polychromes (cf. ci-dessous). Les constituants discontinus ne trouvent pas de solution naturelle dans
le cadre de GPSG, malgré les tentatives entre autres de Pullum (1982) et Ojeda (1987).
30 A côté des restrictions de cooccurrence de traits, des spécifications de traits par défaut et des métarègles.
31 C'est ce que Milner appelle « lois à l'indicatif ». « Cet indicatif ne saurait être confondu avec le constat de ce qui est
observable dans la réalité matérielle : la démarcation dans la langue ne répond pas toujours à la réalité des formes
proférées. [...] il n'y a pas de règles du langage, mais des lois et des propriétés » (1989 : 253).
32 C'est par exemple le cas dans les règles de la coordination.
12
Marcel Cori et Jean-Marie Marandin
Kleene33 et obtenir les effets d'intrication caractéristiques des tours incidents34. Il est intéressant de
noter que les GAP, comme les grammaires DI/PL mais d'une manière différente, ne présupposent
pas que les relations d'ordre entre constituants soient réductibles aux relations d'appartenance
syntagmatique.
De fait, on touche là à un problème fondamental de la théorie syntaxique puisqu'il met en jeu la
notion même de syntagme telle qu'elle a été façonnée dans l'analyse en constituants immédiats,
conservée par le programme génératif et portée au rang de principe organisateur a priori dans les
différents modèles transformationnels. La notion de syntagme comme un mixte indissociable de
relations de dépendance (par exemple, entre une tête et les constituants qu'elle sous-catégorise),
relation d'adjacence sur la chaîne et un domaine d'opacité perd de son évidence. Dès lors qu'on
éclate ces différentes facettes du syntagme, le cadre formel fourni par les grammaires syntagmatiques
se défait. Et c'est bien ce que l'on observe, par exemple, dans la théorie syntaxique sous-jacente à
HPSG : la notion de syntagme est dissoute dans celle de signe, les problèmes d'ordre sont disjoints
de ceux qui relèvent de la mise en relation entre une tête et ses dépendants et les relations
syntagmatiques (par exemple la relation de c-commande) voient leur portée explicative très
fortement relativisée.
Il est donc remarquable, mais non surprenant, que la mise en cause de la notion fondamentale
sur laquelle reposent les grammaires syntagmatiques provienne des grammaires qui en ont exploré le
plus sérieusement les implications formelles et empiriques.
33 Constituants coordonnés, mais aussi constituants adjoints : cf. le ski dans les Alpes à trois mille mètres en été.
34 Par exemple : Pierre, dit-il, est venu hier (Cori et Marandin, 1995). L'intérêt formel est également que l'on n'a pas
à concevoir des structures discontinues pour traiter des constituants incidents.
35 Shieber gomme cette différence, comme il gomme les différences qui existent entre les grammaires syntagmatiques
enrichies et les formalismes déclaratifs. Il y a une part de politique scientifique dans cette entreprise. Pour la
compréhension des enjeux actuels, il est préférable de marquer ces différences. Par exemple, l’unité de base d’une
grammaire est une règle pour GPSG, DCG et PATR, alors que c’est une structure de traits pour FUG ; la forme de la
représentation d’une phrase est un arbre pour GPSG, alors que c’est une structure de traits pour DCG, PATR et FUG.
Par exemple encore, l’unification joue un rôle marginal dans GPSG, alors qu’elle joue un rôle central dans DCG,
PATR et FUG.
36 Prolog a servi à d'autres applications, essentiellement liées à l'intelligence artificielle, mais aussi aux bases de
données.
13
La linguistique au contact de l’informatique
les ATN, tout en étant déclaratif37. Ils ajoutent donc des traits aux règles, ce qui permet de véhiculer
des valeurs, comme cela s’effectue dans les ATN à l’aide des registres. Ces valeurs sont soit des
valeurs atomiques, soit des termes Prolog qui correspondent à des structures arborescentes, dont
certaines feuilles peuvent être étiquetées par des variables. Elles peuvent conditionner l'application
des règles, et elles donnent la description des expressions (syntagmes ou phrases).
Les démonstrations, en Prolog, s'effectuent selon le mécanisme de l'unification : afin de
démontrer un but (par exemple qu'une suite de mots constitue une phrase), on cherche à l'unifier
avec un fait (ici une information lexicale) ou avec le conséquent d'une implication (ici la partie
gauche d'une règle). C’est de là que viendra la notion de grammaire d’unification, bien que le terme
ne soit pas encore forgé.
14
Marcel Cori et Jean-Marie Marandin
résulte l’impossibilité de représenter simplement les structures par des graphes et la nécessité
d’étendre l’opération d’unification, ce qui donne lieu à des tentatives formelles variées (Kasper et
Rounds, 1986, entre autres).
L'importance historique de FUG ne tient nullement à ses options en théorie linguistique (le
fonctionnalisme), de même que les ATN ont eu une importance qui va bien au-delà de leur
inspiration transformationnelle. Ce qui compte, c'est que les structures de traits sont mises à
contribution pour décrire les différentes dimensions des expressions langagières et que ce sont les
mêmes outils formels qui sont utilisés quelle que soit la dimension.
De ce point de vue, il est clair que le formalisme adopté doit être le plus puissant possible. Les
formalismes que l'on a proposés pour représenter toute espèce de connaissance humaine ont cette
puissance maximale. Les critères de choix du formalisme se trouvent donc profondément modifiés.
En particulier, le critère qui veut que le formalisme doit être restreint par les propriétés formelles de
l’objet à représenter est remplacé dans une grammaire multidimensionnelle par un critère qui a un
effet opposé : un formalisme sera d’autant meilleur qu’il est moins contraint et donc plus à même de
permettre la modélisation de dimensions formellement hétérogènes.
3.1. Le contexte
L'épistémologie des systèmes constructionnels est fondamentalement une logique de la
découverte : la formalisation a d'abord pour fonction de clarifier et de mettre au jour l'insu des
savoirs descriptifs. Chomsky l'énonce clairement au seuil du programme génératif ; Pollard et Sag
(1994) le reprennent en introduction à l'exposé de l'état standard de HPSG (Head-driven Phrase
Structure Grammar) :
(9) Precisely constructed models for linguistic structure can play an important role, both negative
and positive, in the process of discovery itself. By pushing a precise but inadequate
formulation to an unacceptable conclusion, we can often expose the exact source of this
inadequacy and, consequently, gain a deeper understanding of the linguistic data. More
positively, a formalized theory may automatically provide solutions for many problems other
than those for which it was explicitly designed. Obscure and intuition-bound notions can
neither lead to absurd conclusions nor provide new and correct ones, and hence they fail to be
usefull in two important respects. I think that some of those linguists who have questioned the
value of precise and technical development of linguistic theory have failed to recognize the
productive potential in the method of rigorously stating a proposed theory and applying it
strictly to linguistic material with no attempt to avoid unacceptable conclusions by ad hoc
adjustments or loose formulation.
(Chomsky, 1957 : 5), cité par (Pollard et Sag, 1994 : 7-8)
Ce credo épistémologique a montré toute son efficacité dans les approches de « la forme » des
langues (morphosyntaxe et phonologie) ; on doit porter au crédit du programme que Chomsky a
lancé et animé une avancée empirique considérable. De plus, il a eu un impact décisif en dehors du
champ arpenté par les grammairiens. Le credo chomskyen a été repris dans d'autres « façons de
prendre le langage » (pour reprendre une expression de Goodman) : la sémantique formelle, les
théories du discours, la pragmatique, l'usage situé du discours (ethnométhodologie par exemple), la
cognition située (théorie et sémantique des situations, par exemple), etc. Les années quatre-vingt
voient émerger des analyses qui se trouvent au confluent de ces différentes disciplines. L'analyse des
questions par Ginzburg (1995) est à ce titre exemplaire : elle intégre des résultats et des notions tirés
de la syntaxe formelle, de la sémantique formelle mais aussi de l'analyse de conversation et de la
théorie des situations. Et c'est cette intégration qui constitue un défi posé aussi bien à la théorie de la
15
La linguistique au contact de l’informatique
grammaire qu'aux dispositifs de traitement du langage. C'est ce que reconnaît Kay, le concepteur de
FUG :
(10) In practice I take it that the factors that govern the production of a sentence typically come
from a great variety of different sources, logical, textual, interpersonal and so forth. In general,
each of these, taken by itself, underdetermines what comes out. When they jointly
overdetermine it, there must be priorities enabling a choice to be made among the demands of
the different sources. When they jointly underdetermine the outcome, the theory must provide
defaults and unmarked cases. The point is that we must be prepared to take seriously the claim
that language in general, and individual utterances in particular, fill many different functions
and that these all affect the theory, even at the syntactic level.
(Kay, 1985 : 252)
La notion de grammaire est bouleversée : ses formes possibles et son rapport à la manière de
prendre le langage (la compétence). Le programme génératif héritait d'une ontologie
unidimensionnelle construite dans le mouvement structuraliste (morphème, constituant, phrase) ; les
grammaires que nous avons considérées jusqu'ici en reconstruisent l'ordre sous la notion de syntaxe.
Le programme génératif des années quatre-vingt dix hérite d'objets multidimensionnels où chaque
dimension apparaît irréductible aux autres. On passe d'objets à deux facettes (les propriétés
combinatoires et la constituance phonologique) à des objets à plusieurs facettes : les facettes
formelles, mais aussi les propriétés combinatoires sémantiques, la valeur pragmatique et la charge
discursive. Cette multidimensionnalité des objets linguistiques a reçu le nom de construction39 et les
systèmes en charge de les décrire celui de grammaire de construction :
(11) Constructions may specify, not only syntactic, but also lexical, semantic, and pragmatic
information; lexical items, being mentionable in syntactic constructions, may be viewed, in
many case at least, as constructions themselves; and constructions may be idiomatic in the
sense that a large construction may specify a semantics (and/or pragmatics) that is distinct
from what might be calculated from the associated semantics of the set of smaller
constructions that could be used to build the same morphosyntactic object.
(Fillmore et al., 1988 : 501)
Si on définit une grammaire comme l'intégration de ces dimensions hétérogènes, la tâche des
constructeurs de système est d'articuler ces dimensions. De ce point de vue, les recherches
(pratiques et formelles) menées dans le domaine de la représentation des connaissances en
intelligence artificielle constituent un répertoire de notions et d'outils précieux. C'est ainsi qu'il faut
lire les remerciements de Pollard et Sag (cf. (12) ci-dessous) ; on les comparera à la citation de
Chomsky que nous avons placée aux débuts de notre histoire (cf. (2) ci-dessus) : la distinction entre
mathématiques et informatique n'y est plus de mise lorsqu'il s'agit de concevoir « the internal
architecture of the system that the linguistic types form »:
(12) We want to emphasize the extent to which HPSG is intellectually indebted to a wide range of
recent research traditions in syntax (principally nonderivational approaches ...), semantics
(especially situation semantics) and computer science (data theory, knowledge representation,
unification-based formalisms).
(Pollard et Sag, 1994 : 1)
39 Comme toujours le langage nous joue son tour favori de l'homonymie : cette notion de construction, qui a son
histoire dans les approches traditionnelles de la grammaire, est complètement distincte du processus de construction
en jeu dans les systèmes constructionnels.
16
Marcel Cori et Jean-Marie Marandin
3.3. HPSG
HPSG illustre le type de grammaire multidimensionnelle que permettent les structures de traits
typées. Elle se présente comme une hiérarchie de signes : « the linguistic types par excellence, the
40 Les langages orientés objet et, à un niveau plus formel, les types abstraits de données, ont également tiré leur
inspiration des frames et des réseaux sémantiques et sont largement fondés sur l’héritage des propriétés.
17
La linguistique au contact de l’informatique
expressions -- or signs (in roughly the Saussurean sense) -- include not only sentences, but also
words and subsentential phrases, even multisentence discourses. And a sign is taken to consist not
only of a phonetic form, but of other attributes or features as well. That is, we conceive of signs as
structured complexes of phonological, syntactic, semantic, and phrase-structural information »
(ibid. : 15). Ce système est à la fois caractérisé par l'hétérogénéité des facettes constitutives des
objets manipulés et l'uniformité de la modélisation de ces informations. Nous illustrons ce point avec
la représentation (13). C’est une représentation partielle, à contenu purement illustratif, qui est un
fragment de la grammaire de l’anglais et l’analyse d’une classe de phrases41:
(13)
DTRS
PHON John likes
INDEX s
MODE prop
HEAD-DTR
PHON John
SUBJ-DTR MODE ref
DTRS INDEX i
PHON likes
HEAD-DTR MODE prop
INDEX s
L'hétérogénéité est captée par la classification dans des dimensions distinctes. L'uniformité de la
modélisation se manifeste de deux façons. (a) Le modèle de toute unité est construit sur le même
patron quelle que soit sa taille : un mot (c'est-à-dire une unité du lexique) est représenté de la même
manière qu'un syntagme ou qu'une phrase, voire un discours. Dans (13), le mot John présente les
mêmes traits que le GN John ; le GN John présente les mêmes traits que la phrase tête et la phrase
enchâssante42. (b) Les propriétés de ces entités, quelle que soit leur nature, sont exprimées dans le
même format : attribut/valeur. La métaphore de la carte développée par Goodman pour caractériser
les systèmes constructionnels résume bien cette tension entre hétérogénéité des informations et
homogénéité de la modélisation : « the function of a construction system is not to recreate
41 L’attribut PHON (phonologie) a pour valeur la réalisation phonologique du signe ; l’attribut MODE (modalité) un
type de force illocutoire ; l’attribut INDEX un marqueur de référence (au sens de la DRT). L’attribut DTRS
(daughters) a pour valeur la liste des constituants. Dans (13), la structure comprend un constituant détaché (FILLER-
DTR) et la tête (HEAD-DTR) qui correspond à une phrase.
42 « HPSG is "fractal" (structurally uniform as the parts get smaller). Every sign down to the word level (not just the
root clause) has features corresponding (inter alia) to phonetic, syntactic, and semantic aspects of linguistic
structures » (Pollard, 2000, Lectures on the foundations of HPSG, np.).
18
Marcel Cori et Jean-Marie Marandin
experience but rather to map it. [..] A map is schematic, selective, conventional, condensed and
uniform » (Goodman, 1972 :15)43.
4. Conclusion
Le fragment d'histoire que nous avons reconstruit montre clairement l'importance déterminante
des recherches en informatique pour le développement de la linguistique entendue comme entreprise
de confection de grammaires qui puissent à la fois intégrer la caractérisation de détail des
expressions des langues naturelles, la spécification des universaux formels du langage naturel et le
lien aux modélisations possibles de la performance. Les concepteurs de grammaires ont emprunté
des notions, des concepts ou des arguments à la théorie de la compilation, aux langages de
programmation, à la modélisation des hypothèses du programme cognitiviste et aux dispositifs
pratiques de traitement d'information en langue naturelle. Les emprunts ont servi aussi bien à
motiver le rejet de certaines formes de grammaires qu'à l'invention de nouvelles formes. D'un côté,
Chomsky se sert des premiers résultats de la linguistique algébrique pour rejeter les grammaires
syntagmatiques ; les tenants des grammaires syntagmatiques s'appuient sur les résultats de
l'informatique pour rejeter la forme transformationnelle. D'un autre, on voit les solutions élaborées
dans les ATN, en programmation logique et dans les systèmes de représentations de connaissances
être reprises et métamorphosées pour donner lieu à de nouveaux formalismes, dont la caractéristique
commune est la déclarativité, et qui évoluent vers une plus grande multidimensionnalité. Les
grammaires transformationnelles et les grammaires syntagmatiques soutenaient une même vision du
langage dans laquelle l'ordre syntaxique, conçu comme un ordre syntagmatique, est le squelette sur
lequel s'ancrent les dimensions non formelles du langage. Les grammaires multidimensionnelles sont
le laboratoire où s'élabore une autre vision du langage et de son rapport aux langues.
Références
Aho A.V. et Ullman J.D, 1977, Principles of Compiler design, Reading, Massachusetts : Addison Wesley.
Bach E., 1976, An extension of classical transformational grammar. Problems in linguistic metatheory,
Proceedings of the 1976 Conference at Michigan State University : 183-224.
Bobrow D.G. et Winograd T., 1977, An Overview of KRL, A Knowledge Representation Language,
Cognitive Science 1 : 3-46.
Brachman R. J. et Schmolze J. G., 1985, An Overview of the KL-ONE Knowledge Representation System,
Cognitive Science 9 : 171-216.
Bresnan J., 1982, The Passive in Lexical Theory, [Bresnan J. ed.] The mental representations of
grammatical relations, Cambridge : MIT Press.
Bresnan J. et Kaplan R., 1982, Introduction : Grammars as mental representations of language, [Bresnan J.
ed.] The mental representations of grammatical relations, Cambridge : MIT Press.
Carpenter B., 1992, The Logic of Typed Feature Structures, Cambridge University Press.
Chomsky N., 1956, Three Models for the Description of Language, I.R.E. Transactions on Information
Theory 2 : 3, 113-124.
Chomsky N., 1957, [trad. fr. le Seuil, 1969], Syntactic structures, La Haye : Mouton.
Chomsky N., 1959, On certain formal properties of grammars, Information and Control 2 : 2, 137-167.
Chomsky N., 1963, Formal Properties of Grammars, [D. Luce, E. Bush, E. Galanter, eds] Handbook of
Mathematical Psychology, John Wiley et Sons.
Chomsky N., 1965, Aspects of the Theory of Syntax, Cambridge : MIT Press.
Chomsky N., 1966 [trad. fr.], La notion de "règle de grammaire", Langages 4 : 81-104.
43 Goodman ajoute « The map not only summarizes, classifies and systematizes, it often discloses facts we could
hardly learn immediately from our explorations », ce qui correspond au credo épistémologique rappelé en (9) ci-
dessus.
19
La linguistique au contact de l’informatique
Chomsky N., 1975, Introduction 1973, The logical structure of linguistic theory, Chicago : The University of
Chicago Press.
Chomsky N. et Miller G.A., 1958, Finite State Languages, Information and Control, 1, 91-112.
Chomsky N. et Schutzenberger M.P., 1963, The algebraic theory of context-free languages, [Braffort et
Hirschberg, eds] Computer programming and formal systems, Studies in logic series, Amsterdam :
North-Holland, 119-161.
Colmerauer A., Kanoui H., Roussel P. et Pasero R., 1973, Un Système de Communication Homme-Machine
en Français, Groupe de Recherche en Intelligence Artificielle, Université d’Aix-Marseille.
Cori M. et Marandin J.-M., 1993, Grammaires d'arbres polychromes, TAL vol. 34, n° 1 : 101-132.
Cori M. et Marandin J.-M., 1995, Trees and the Representation of Disjunct Constituents, [G.V. Morrill et
R.T. Oehrle, eds] ESSLLI Conference on Formal Grammar, Barcelone : 61-74.
Earley J., 1970, An Efficient Context-Free Parsing Algorithm, Communications of the Association for
Computing Machinery 13 : 2, 94-102.
Encrevé P., 1997, L'ancien et le nouveau: quelques remarques sur la phonologie et son histoire, Langages
n°125 : 100-123.
Fahlman S.E., 1979, NETL A system for representing and using real-world knowledge, Cambridge : MIT
Press.
Fillmore C., Kay P., O'Connor C., 1988, Regularity and idiomaticity in grammatical constructions : the case
of let alone, Language 64 : 501-538.
Fodor J., 1975, The language of thought, New York : Thomas Crowell.
Gazdar G., 1982, Phrase structure grammar, [Jacobson P. et Pullum G., eds] The Nature of Syntactic
Representation, 131-186, Dordrecht : D. Reidel Publishing Company.
Gazdar G., Klein E., Pullum G. et Sag I., 1985, Generalized Phrase Structure Grammar, Oxford : Basil
Blackwell.
Ginzburg J., 1995, The semantics of interrogatives, [S. Lappin, ed.] Handbook of contemporary semantic
theory, Oxford : Basil Blackwell.
Goodman N., 1951, The structure of appearance, Dordrecht : D. Reidel Publishing Co.
Goodman N., 1972, Problems and projects, Indianapolis : Bobbs-Merrill.
Harman G.H., 1963, Generative Grammars without Transformation Rules: A Defense of Phrase Structure.
Language 39, 597-616.
Hays D.G., 1962, Automatic language-data processing, [H. Borko, ed.] Computer Applications in the
Behavorial Sciences, Englewood Cliffs, New Jersey : Prentice Hall, 394-421.
Joshi A.K., 1985, Tree adjoining grammars : How much context-sensitivity is required to provide reasonable
structural descriptions, [D.R. Dowty, L. Karttunen, A.M. Zwicky, eds] Natural language parsing,
Cambridge University Press, 206-250.
Kaplan R.M., 1995, The formal architecture of LFG, [Dalrymple et al, eds] Formal issues in LFG, Stanford :
CSLI.
Kasper R. et Rounds W., 1986, A logical semantics for feature structures, Proceedings of the 24th Annual
Conference of the Association for Computational Linguistics, New York : 235-242.
Kay M., 1985, Parsing in functional unification grammar, [D.R. Dowty, L. Karttunen et A.M. Zwicky eds.]
Natural language parsing, Cambridge University Press : 251-278.
Kuno S. et Oettinger A.G., 1962, Multiple-path Syntactic Analyzer, Information Processing VII, 1,
Amsterdam : North-Holland, 306-311.
Lakatos I., 1984 [trad. fr.], Preuves et réfutations, Paris : Hermann.
Manaster-Ramer A. et Kac B., 1990, The Concept of Phrase Structure, Linguistics and Philosophy, 13, 325-
362.
Milner J.-C, 1981, Linguistique, biologie, psychologie, Ordres et raisons de langue, Paris : Le Seuil.
Milner J.-C., 1989, Introduction à une science du langage, Paris : Le Seuil.
Minsky M., 1975, A framework for representing knowledge, [P. Winston, ed] The Psychology of Computer
Vision, New York : McGraw-Hill, 211-277.
Murray S., 1993, Theory groups and the study of language in North America. A social history,
Amsterdam/Philadelphie : John Benjamins Company.
Ojeda A., 1987, Discontinuity, Multidominance, and Unbounded Dependency in Generalized Phrase Structure
Grammar : some preliminaries, [Huck G. et Ojeda A., eds] Discontinuous Constituency, New-York :
Academic Press, 257-282.
20
Marcel Cori et Jean-Marie Marandin
Pereira F et Warren D, 1980, Definite Clause Grammars for Language Analysis - A Survey of the Formalism
and a Comparison with Augmented Transition Networks, Artificial Intelligence, 13 (3) : 231-278.
Peters S., 1979, How semantics keeps syntax psychologically computable, Paper presented to the Cognitive
Studies Seminar, University of Sussex.
Pollard C. et Sag I. A. , 1994, Head-Driven Phrase Structure Grammar, Chicago : University of Chicago
Press.
Post E., 1944, Recursively enumerable sets of positive integers and their decision problems, Bulletin of the
American Mathematical Society 50 : 284-316.
Pullum G.K., 1982, Free word order and phrase structure rules, [Pustejowsky J. et Sells P. eds] Proceedings
of the twelfth Annual Meeting of the North Eastern Linguistic Society, 209-220.
Pullum G.K. et Gazdar G., 1981, Natural languages and context-free languages, [Savitch W. et al., eds] The
formal complexity of natural language, Dordrecht : D. Reidel Publishing Company.
Quillian M.R., 1968, Semantic memory, [M. Minsky, ed.] Semantic Information Processing, Cambridge :
MIT Press, 216-270.
Shieber S., 1986, An introduction to unification-based approaches to grammar, Stanford : CSLI.
Woods W.A. , 1970, Transition Network Grammars for Natural Language Analysis, Communications of the
ACM, 13 : 10, 591-606.
Yngve V., 1960, A model and an Hypothesis For Language Structure. Proceedings of the American
Philosophical Society, 104, 444-466.
Younger D.H., 1967, Recognition and Parsing of Context-Free Languages in Time n3. Information and
Control, 10, 180-208.
21
La linguistique au contact de l’informatique
Résumé :
Les auteurs proposent un essai d'histoire rationnelle d'un aspect du programme génératif dans sa
relation à l’informatique, celui qui va de la définition de la notion de grammaire par Chomsky, et en
particulier de la caractérisation mathématique des grammaires possibles (la linguistique algébrique),
à la conception de grammaires multidimensionnelles qui trouvent dans les systèmes de représentation
des connaissances leur fondation formelle. Les auteurs distinguent trois moments : (a) l'émergence
du programme génératif et de la notion de grammaire générative ; (b) le mouvement de réforme qui
se cristallise dans le refus de la forme transformationnelle de la grammaire et qui voit l’invention de
nombreux nouveaux formalismes qui auront tous la caractéristique d’être déclaratifs ; (c) le
développement des grammaires multidimensionnelles qui sont chargées d'intégrer les analyses des
dimensions formelles (syntaxe et phonologie) et non formelles (sémantique, pragmatique) des
langues.
22