id
stringlengths
18
23
title
stringlengths
13
211
abstract
stringlengths
93
2.68k
keyphrases
sequence
prmu
sequence
translation
sequence
taln-2008-long-007
Quelles combinaisons de scores et de critères numériques pour un système de Questions/Réponses ?
Dans cet article, nous présentons une discussion sur la combinaison de différents scores et critères numériques pour la sélection finale d’une réponse dans la partie en charge des questions factuelles du système de Questions/Réponses développé au LIA. Ces scores et critères numériques sont dérivés de ceux obtenus en sortie de deux composants cruciaux pour notre système : celui de sélection des passages susceptibles de contenir une réponse et celui d’extraction et de sélection d’une réponse. Ils sont étudiés au regard de leur expressivité. Des comparaisons sont faites avec des approches de sélection de passages mettant en oeuvre des scores conventionnels en recherche d’information. Parallèlement, l’influence de la taille des contextes (en nombre de phrases) est évaluée. Cela permet de mettre en évidence que le choix de passages constitués de trois phrases autour d’une réponse candidate, avec une sélection des réponses basée sur une combinaison entre un score de passage de type Lucene ou Cosine et d’un score de compacité apparaît comme un compromis intéressant.
[ "combinaison de scores", "Système de Questions/Réponses", "compacité", "densité" ]
[ "P", "P", "P", "U" ]
[ "", "This article discusses combinations of scores for selecting the best answer in a factual question answering system. Two major components of our QA system: (i) relevant passage selection, and (ii) answer extraction, produce a variety of scores. Here we study the expressivity of these scores, comparing our passage density score (i) to more conventional ranking techniques in information retrieval. In addition, we study varying the length (in number of sentences) of context retained in the relevant passages. We find that a three sentences window, and a mixing of Lucene or Cosine ranking with our compactness score (ii) provides the best results.", "Question Answering, compactness, density, combination of scores" ]
taln-2008-long-008
Contrôle rhétorique de la génération des connecteurs concessifs en dialogue homme-machine
Les connecteurs discursifs ont on rôle important dans l’interprétation des discours (dialogiques ou pas), donc lorsqu’il s’agit de produire des énoncés, le choix des mots qui relient les énoncés (par exemple, en dialogue oral) s’avère essentiel pour assurer la compréhension des visées illocutoires des locuteurs. En linguistique computationnelle, le problème a été abordé surtout au niveau de l’interprétation des discours monologiques, tandis que pour le dialogue, les recherches se sont limitées en général à établir une correspondance quasiment biunivoque entre relations rhétoriques et connecteurs. Dans ce papier nous proposons un mécanisme pour guider la génération des connecteurs concessifs en dialogue, à la fois du point de vue discursif et sémantique ; chaque connecteur considéré sera contraint par un ensemble de conditions qui prennent en compte la cohérence du discours et la pertinence sémantique de chaque mot concerné. Les contraintes discursives, exprimées dans un formalisme dérivé de la SDRT (« Segmented Discourse Representation Theory ») seront plongées dans des contraintes sémantiques sur les connecteurs, proposées par l’école genevoise (Moeschler), pour enfin évaluer la cohérence du discours résultant de l’emploi de ces connecteurs.
[ "connecteurs concessifs", "Dialogue homme-machine", "sémantique", "cohérence discursive", "pragmatique" ]
[ "P", "P", "P", "R", "U" ]
[ "", "Cue words play an important part in discourse interpretation (whether dialogues are concerned or not), hence when utterances have to be produced, the choice of the words that connect these utterances (for example, in spoken dialogue) is essential for ensuring the comprehension of the illocutionary goals of the speakers. In computational linguistics, the issue has been mitigated particularly in the context of monologue discourse interpretation, whereas for dialogues, research is usually limited to establishing an almost one-to-one mapping between rhetorical relations and cue words. In this paper we propose a mechanism for guiding concessive connectors in dialogue, at the same time from a discourse and from a semantic point of view; each considered connector will be constrained via a set of conditions that take into account discourse coherence and the semantic relevance of each word concerned. Discourse constraints, expressed in a formalism derived from SDRT (“Segmented Discourse Representation Theory”) will be mapped to semantic constraints on the connectors ; these semantic constraints are proposed by the Geneve linguistics school (Moeschler). Finally, the coherence of the discourse resulted from the use of these connectors will be assessed.", "Human-computer dialogue, discourse coherence, concessive connectors, semantics, pragmatics" ]
taln-2008-long-009
Modélisation du principe d’ancrage pour la robustesse des systèmes de dialogue homme-machine finalisés
Cet article présente une modélisation du principe d’ancrage (grounding) pour la robustesse des systèmes de dialogue finalisés. Ce principe, décrit dans (Clark & Schaefer, 1989), suggère que les participants à un dialogue fournissent des preuves de compréhension afin d’atteindre la compréhension mutuelle. Nous explicitons une définition computationnelle du principe d’ancrage fondée sur des jugements de compréhension qui, contrairement à d’autres modèles, conserve une motivation pour l’expression de la compréhension. Nous déroulons enfin le processus d’ancrage sur un exemple tiré de l’implémentation du modèle.
[ "ancrage", "robustesse", "dialogue homme-machine", "compréhension mutuelle" ]
[ "P", "P", "P", "P" ]
[ "", "This paper presents a grounding model for robustness in dialogue systems. The grounding process (Clark & Schaefer, 1989) suggests that dialogue participants provide evidence of understanding in order to reach mutual understanding. We propose here a computational definition of the grounding criterion based on understanding judgments that keeps a motivation for providing evidence of understanding, as opposed to some existing models. Eventually, we detail the grounding process on a dialogue generated by the actual implementation.", "human-machine dialogue, robustness, grounding, mutual understanding" ]
taln-2008-long-010
Enertex : un système basé sur l’énergie textuelle
Dans cet article, nous présentons des applications du système Enertex au Traitement Automatique de la Langue Naturelle. Enertex est basé sur l’énergie textuelle, une approche par réseaux de neurones inspirée de la physique statistique des systèmes magnétiques. Nous avons appliqué cette approche aux problèmes du résumé automatique multi-documents et de la détection de frontières thématiques. Les résultats, en trois langues : anglais, espagnol et français, sont très encourageants.
[ "Énergie textuelle", "Réseaux de neurones", "Résumé automatique", "Frontières thématiques", "Modèle de Hopfield" ]
[ "P", "P", "P", "P", "M" ]
[ "", "In this paper we present Enertex applications to study fundamental problems in Natural Language Processing. Enertex is based on textual energy, a neural networks approach, inspired by statistical physics of magnetic systems.We obtained good results on the application of this method to automatic multi-document summarization and thematic border detection in three languages : English, Spanish and French.", "Textual Energy, Neural Networks, Hopfield Model, Automatic Summarization, Thematic Boundaries" ]
taln-2008-long-011
Intégration d’une étape de pré-filtrage et d’une fonction multiobjectif en vue d’améliorer le système ExtraNews de résumé de documents multiples
Dans cet article, nous présentons les améliorations que nous avons apportées au système ExtraNews de résumé automatique de documents multiples. Ce système se base sur l’utilisation d’un algorithme génétique qui permet de combiner les phrases des documents sources pour former les extraits, qui seront croisés et mutés pour générer de nouveaux extraits. La multiplicité des critères de sélection d’extraits nous a inspiré une première amélioration qui consiste à utiliser une technique d’optimisation multi-objectif en vue d’évaluer ces extraits. La deuxième amélioration consiste à intégrer une étape de pré-filtrage de phrases qui a pour objectif la réduction du nombre des phrases des textes sources en entrée. Une évaluation des améliorations apportées à notre système est réalisée sur les corpus de DUC’04 et DUC’07.
[ "Résumé automatique", "algorithme génétique", "optimisation multi-objectif", "pré-filtrage de phrases" ]
[ "P", "P", "P", "P" ]
[ "", "In this paper, we present the improvements that we brought to the ExtraNews system dedicated for automatic summarisation of multiple documents. This system is based on the use of a genetic algorithm that combines sentences of the source documents to form the extracts. These extracts are crossed and transferred to generate new ones. The multiplicity of the extract selection criteria inspired us the first improvement that consists in the use of a multi-objectif optimization technique to evaluate these extracts. The second improvement consists of the integration of a sentence pre-filtering step which is based on the notion of dominance between sentences. Our objective is to reduce the sentence number of the source texts. An evaluation of the proposed improvements to our system is realized on DUC' 04 and DUC' 07 corpus.", "Automatic summarization, sentences pre-filtering, multi-objective optimization, genetic algorithm" ]
taln-2008-long-012
Recherche locale pour la traduction statistique à base de segments
Dans cette étude, nous nous intéressons à des algorithmes de recherche locale pour la traduction statistique à base de segments (phrase-based machine translation). Les algorithmes que nous étudions s’appuient sur une formulation complète d’un état dans l’espace de recherche contrairement aux décodeurs couramment utilisés qui explorent l’espace des préfixes des traductions possibles. Nous montrons que la recherche locale seule, permet de produire des traductions proches en qualité de celles fournies par les décodeurs usuels, en un temps nettement inférieur et à un coût mémoire constant. Nous montrons également sur plusieurs directions de traduction qu’elle permet d’améliorer de manière significative les traductions produites par le système à l’état de l’art Pharaoh (Koehn, 2004).
[ "recherche locale", "Traduction statistique", "post-traitement" ]
[ "P", "P", "U" ]
[ "", "Most phrase-based statistical machine translation decoders rely on a dynamicprogramming technique for maximizing a combination of models, including one or several language models and translation tables. One implication of this choice is the design of a scoring function that can be computed incrementally on partial translations, a restriction a search engine using a complete-state formulation does not have. In this paper, we present experiments we conducted with a simple, yet effective greedy search engine.We report significant improvements in translation quality over a state-of-the-art beam-search decoder, for some configurations.", "Statistical Machine Translation, local search, post-processing" ]
taln-2008-long-013
Transcrire les SMS comme on reconnaît la parole
Cet article présente une architecture inspirée des systèmes de reconnaissance vocale pour effectuer une normalisation orthographique de messages en « langage SMS ». Nous décrivons notre système de base, ainsi que diverses évolutions de ce système, qui permettent d’améliorer sensiblement la qualité des normalisations produites.
[ "SMS", "décodage phonétique", "modèles de langage", "transducteurs finis" ]
[ "P", "U", "M", "U" ]
[ "", "This paper presents a system aiming at normalizing the orthography of SMS messages, using techniques that are commonly used in automatic speech recognition devices. We describe a baseline system and various evolutions, which are shown to improve significantly the quality of the output normalizations.", "SMS, phonetic decoding, language models, finite-state transducers" ]
taln-2008-long-014
Convertir des grammaires d’arbres adjoints à composantes multiples avec tuples d’arbres (TT-MCTAG) en grammaires à concaténation d’intervalles (RCG)
Cet article étudie la relation entre les grammaires d’arbres adjoints à composantes multiples avec tuples d’arbres (TT-MCTAG), un formalisme utilisé en linguistique informatique, et les grammaires à concaténation d’intervalles (RCG). Les RCGs sont connues pour décrire exactement la classe PTIME, il a en outre été démontré que les RCGs « simples » sont même équivalentes aux systèmes de réécriture hors-contextes linéaires (LCFRS), en d’autres termes, elles sont légèrement sensibles au contexte. TT-MCTAG a été proposé pour modéliser les langages à ordre des mots libre. En général ces langages sont NP-complets. Dans cet article, nous définissons une contrainte additionnelle sur les dérivations autorisées par le formalisme TT-MCTAG. Nous montrons ensuite comment cette forme restreinte de TT-MCTAG peut être convertie en une RCG simple équivalente. Le résultat est intéressant pour des raisons théoriques (puisqu’il montre que la forme restreinte de TT-MCTAG est légèrement sensible au contexte), mais également pour des raisons pratiques (la transformation proposée ici a été utilisée pour implanter un analyseur pour TT-MCTAG).
[ "grammaires à concaténation d’intervalles", "Grammaires d’arbres adjoints à composantesmultiples", "légère sensibilité au contexte" ]
[ "P", "M", "M" ]
[ "", "This paper investigates the relation between TT-MCTAG, a formalism used in computational linguistics, and RCG. RCGs are known to describe exactly the class PTIME ; « simple » RCG even have been shown to be equivalent to linear context-free rewriting systems, i.e., to be mildly context-sensitive. TT-MCTAG has been proposed to model free word order languages. In general, it is NP-complete. In this paper, we will put an additional limitation on the derivations licensed in TT-MCTAG. We show that TT-MCTAG with this additional limitation can be transformed into equivalent simple RCGs. This result is interesting for theoretical reasons (since it shows that TT-MCTAG in this limited form is mildly context-sensitive) and also for practical reasons (the proposed transformation has been used for implementing a parser for TT-MCTAG).", "Multicomponent Tree Adjoining Grammars, Range Concatenation Grammars, mild context-sensitivity" ]
taln-2008-long-015
Factorisation des contraintes syntaxiques dans un analyseur de dépendance
Cet article décrit un analyseur syntaxique pour grammaires de dépendance lexicalisées. Le formalisme syntaxique se caractérise par une factorisation des contraintes syntaxiques qui se manifeste dans la séparation entre dépendance et ordre linéaire, la spécification fonctionnelle (plutôt que syntagmatique) des dépendants, la distinction entre dépendants valenciels (la sous-catégorisation) et non valenciels (les circonstants) et la saturation progressive des arbres. Ceci résulte en une formulation concise de la grammaire à un niveau très abstrait et l’élimination de la reduplication redondante des informations due aux réalisations alternatives des dépendants ou à leur ordre. Les arbres élémentaires (obtenus à partir des formes dans l’entrée) et dérivés sont combinés entre eux par adjonction d’un arbre dépendant saturé à un arbre régissant, moyennant l’unification des noeuds et des relations. La dérivation est réalisée grâce à un analyseur chart bi-directionnel.
[ "dépendance", "Analyseur syntaxique" ]
[ "P", "P" ]
[ "", "We describe a parser for lexicalized dependency grammar. The formalism is characterized by a factorization of the syntactic constraints, based on the separation between dependency and word order, the functional (rather than phrasal) specification of dependents, the distinction between valency and non valency dependents, and the incremental saturation of the trees. These features enable a concise formulation of the grammar at a very abstract level and eliminate syntactic information redundancy due to alternative forms of dependents and word order. Each word form produces one or more elementary dependency trees. Trees, both elementary and derived, are combined by adjoining a saturated dependent to a governing tree, after unification of shared nodes and relations. This is achieved using a bi-directional chart parser.", "Syntactic parser, dependency" ]
taln-2008-long-016
Grammaires factorisées pour des dialectes apparentés
Pour la formalisation du lexique et de la grammaire de dialectes étroitement apparentés, il peut se révéler utile de factoriser une partie du travail de modélisation. Les soussystèmes linguistiques isomorphes dans les différents dialectes peuvent alors faire l’objet d’une description commune, les différences étant spécifiées par ailleurs. Cette démarche aboutit à un modèle de grammaire à couches : le noyau est commun à la famille de dialectes, et une couche superficielle détermine les caractéristiques de chacun. Nous appliquons ce procédé à la famille des langues créoles à base lexicale française de l’aire américano-caraïbe.
[ "grammaire", "modélisation", "TAG", "variation dialectale" ]
[ "P", "P", "U", "U" ]
[ "", "The task of writing formal lexicons and grammars for closely related dialects can benefit from factoring part of the modelling. Isomorphic linguistic subsystems from the different dialectsmay have a common description, while the differences are specified aside. This process leads to a layered grammar model: a kernel common to the whole family of dialects, and a superficial skin specifying the particular properties of each one of them. We apply this principle to the family of French-lexifier creole languages of the American-Caribbean area.", "TAG, grammar, modelling, dialectal variation" ]
taln-2008-long-017
Expériences d’analyse syntaxique statistique du français
Nous montrons qu’il est possible d’obtenir une analyse syntaxique statistique satisfaisante pour le français sur du corpus journalistique, à partir des données issues du French Treebank du laboratoire LLF, à l’aide d’un algorithme d’analyse non lexicalisé.
[ "Analyseur syntaxique statistique", "Analyse syntaxique non lexicalisée", "Analyse du français" ]
[ "M", "R", "R" ]
[ "", "We show that we can acquire satisfactory parsing results for French from data induced from the French Treebank using an unlexicalised parsing algorithm.", "Statistical parser, Unlexicalised parsing, French parsing" ]
taln-2008-long-018
Construction d’un wordnet libre du français à partir de ressources multilingues
Cet article décrit la construction d’un Wordnet Libre du Français (WOLF) à partir du Princeton WordNet et de diverses ressources multilingues. Les lexèmes polysémiques ont été traités au moyen d’une approche reposant sur l’alignement en mots d’un corpus parallèle en cinq langues. Le lexique multilingue extrait a été désambiguïsé sémantiquement à l’aide des wordnets des langues concernées. Par ailleurs, une approche bilingue a été suffisante pour construire de nouvelles entrées à partir des lexèmes monosémiques. Nous avons pour cela extrait des lexiques bilingues à partir deWikipédia et de thésaurus. Le wordnet obtenu a été évalué par rapport au wordnet français issu du projet EuroWordNet. Les résultats sont encourageants, et des applications sont d’ores et déjà envisagées.
[ "Wordnet", "corpus alignés", "Wikipédia", "sémantique lexicale" ]
[ "P", "R", "U", "M" ]
[ "", "This paper describes the construction of a freely-available wordnet for French (WOLF) based on Princeton WordNet by using various multilingual resources. Polysemous words were dealt with an approach in which a parallel corpus for five languages was wordaligned and the extracted multilingual lexicon was disambiguated with the existing wordnets for these languages. On the other hand, a bilingual approach sufficed to acquire equivalents for monosemous words. Bilingual lexicons were extracted from Wikipedia and thesauri. The merged wordnet was evaluated against the French WordNet. The results are promising, and applications are already intended.", "Wordnet, aligned corpora, Wikipedia, lexical semantics" ]
taln-2008-long-019
Détermination des sens d’usage dans un réseau lexical construit à l’aide d’un jeu en ligne
Les informations lexicales, indispensables pour les tâches réalisées en TALN, sont difficiles à collecter. En effet, effectuée manuellement, cette tâche nécessite la compétence d’experts et la durée nécessaire peut être prohibitive, alors que réalisée automatiquement, les résultats peuvent être biaisés par les corpus de textes retenus. L’approche présentée ici consiste à faire participer un grand nombre de personnes à un projet contributif en leur proposant une application ludique accessible sur le web. A partir d’une base de termes préexistante, ce sont ainsi les joueurs qui vont construire le réseau lexical, en fournissant des associations qui ne sont validées que si elles sont proposées par au moins une paire d’utilisateurs. De plus, ces relations typées sont pondérées en fonction du nombre de paires d’utilisateurs qui les ont proposées. Enfin, nous abordons la question de la détermination des différents sens d’usage d’un terme, en analysant les relations entre ce terme et ses voisins immédiats dans le réseau lexical, avant de présenter brièvement la réalisation et les premiers résultats obtenus.
[ "réseau lexical", "jeu en ligne", "sens d’usage d’un terme", "Traitement Automatique du Langage Naturel", "relations typées pondérées" ]
[ "P", "P", "P", "M", "R" ]
[ "", "Lexical information is indispensable for the tasks realized in NLP, but collecting lexical information is a difficult work. Indeed, when done manually, it requires the competence of experts and the duration can be prohibitive. When done automatically, the results can be biased by the corpus of texts. The approach we present here consists in having people take part in a collective project by offering them a playful application accessible on the web. From an already existing base of terms, the players themselves thus build the lexical network, by supplying associations which are validated only if they are suggested by a pair of users. Furthermore, these typed relations are weighted according to the number of pairs of users who provide them. Finally, we approach the question of the word usage determination for a term, by searching relations between this term and its neighbours in the network, before briefly presenting the realization and the first obtained results.", "Natural Language Processing, lexical network, typed and weighted relations, word usage, webbased game" ]
taln-2008-long-020
Modélisation normalisée LMF des dictionnaires électroniques éditoriaux de l’arabe
Le présent papier s’intéresse à l’élaboration des dictionnaires électroniques arabes à usage éditorial. Il propose un modèle unifié et normalisé de ces dictionnaires en se référant à la future norme LMF (Lexical Markup Framework) ISO 24613. Ce modèle permet de construire des dictionnaires extensibles, sur lesquels on peut réaliser, grâce à une structuration fine et standard, des fonctions de consultation génériques adaptées aux besoins des utilisateurs. La mise en oeuvre du modèle proposé est testée sur des dictionnaires existants de la langue arabe en utilisant, pour la consultation, le système ADIQTO (Arabic DIctionary Query TOols) que nous avons développé pour l’interrogation générique des dictionnaires normalisés de l’arabe.
[ "LMF", "Dictionnaire électronique Arabe", "usage éditorial", "interrogation générique", "modèle normalisé" ]
[ "P", "P", "P", "P", "R" ]
[ "", "This paper is interested in the development of the Arabic electronic dictionaries of human use. It proposes a unified and standardized model for these dictionaries according to the future standard LMF (Lexical Markup Framework) ISO 24613. Thanks to its subtle and standardized structure, this model allows the development of extendable dictionaries on which generic interrogation functions adapted to the user’s needs can be implemented. This model has already been carried out on some existing Arabic dictionaries using the ADIQTQ (Arabic DIctionary Query Tool) system, which we developed for the generic interrogation of standardized dictionaries of Arabic.", "Arabic electronic dictionary, human use, standardized model, LMF, generic interrogation" ]
taln-2008-long-021
La polysémie régulière dans WordNet
Cette étude propose une analyse et une modélisation des relations de polysémie dans le lexique électronique anglais WordNet. Elle exploite pour cela la hiérarchie des concepts (représentés par des synsets), et la définition associée à chacun de ces concepts. Le résultat est constitué d'un ensemble de règles qui nous ont permis d'identifier d’une façon largement automatisée, avec une précision voisine de 91%, plus de 2100 paires de synsets liés par une relation de polysémie régulière. Notre méthode permet aussi une désambiguïsation lexicale partielle des mots de la définition associée à ces synsets.
[ "polysémie régulière", "WordNet", "désambiguïsation lexicale", "métaphore", "métonymie" ]
[ "P", "P", "P", "U", "U" ]
[ "", "This paper presents an analysis and modeling of polysemy in the WordNet English lexical database. It exploits the concepts hierarchy (constituted by synsets), and the gloss defining each of these concepts. The result consists of rules set which enabled us to identify in a largely automated way, with a precision close to 91%, more than 2100 synsets pairs, connected by a regular polysemy relation. Our method also allows a partial word sense disambiguation of the definition associated with these synsets.", "regular polysemy, metaphor, metonymy, WordNet, word sense disambiguation" ]
taln-2008-long-022
Une alternative aux modèles de traduction statistique d’IBM: Les triggers inter-langues
Dans cet article, nous présentons une nouvelle approche pour la traduction automatique fondée sur les triggers inter-langues. Dans un premier temps, nous expliquons le concept de triggers inter-langues ainsi que la façon dont ils sont déterminés. Nous présentons ensuite les différentes expérimentations qui ont été menées à partir de ces triggers afin de les intégrer au mieux dans un processus complet de traduction automatique. Pour cela, nous construisons à partir des triggers inter-langues des tables de traduction suivant différentes méthodes. Nous comparons par la suite notre système de traduction fondé sur les triggers interlangues à un système état de l’art reposant sur le modèle 3 d’IBM (Brown & al., 1993). Les tests menés ont montré que les traductions automatiques générées par notre système améliorent le score BLEU (Papineni & al., 2001) de 2, 4% comparé à celles produites par le système état de l’art.
[ "Triggers Inter-Langues", "Traduction Automatique Statistique", "Information Mutuelle", "Corpus parallèle", "Décodage" ]
[ "P", "R", "U", "U", "U" ]
[ "", "In this paper, we present an original approach for machine translation based on inter-lingual triggers. First, we describe the idea of inter-lingual triggers and how to determine them. Then, we present the way to make good use of them in order to integrate them in an entire translation process. We used inter-lingual triggers to estimate different translation tables. Then we compared our translation system based on triggers to a state-of-the-art system based on IBM model 3 (Brown & al., 1993). The experiments showed that automatic translations generated by our system outperform model 3 of IBM by 2.4% in terms of BLEU (Papineni & al., 2001).", "StatisticalMachine Translation, Inter-Lingual Triggers,Mutual Information, Parallel corpus, Decoding process" ]
taln-2008-long-023
Génération de reformulations locales par pivot pour l’aide à la révision
Cet article présente une approche pour obtenir des paraphrases pour de courts segments de texte qui peuvent aider un rédacteur à reformuler localement des textes. La ressource principale utilisée est une table d’alignements bilingues de segments d’un système de traduction automatique statistique. Un segment marqué par le rédacteur est tout d’abord traduit dans une langue pivot avant d’être traduit à nouveau dans la langue d’origine, ce qui est permis par la nature même de la ressource bilingue utilisée sans avoir recours à un processus de traduction complet. Le cadre proposé permet l’intégration et la combinaison de différents modèles d’estimation de la qualité des paraphrases. Des modèles linguistiques tentant de prendre en compte des caractéristiques des paraphrases de courts segments de textes sont proposés, et une évaluation est décrite et ses résultats analysés. Les domaines d’application possibles incluent, outre l’aide à la reformulation, le résumé et la réécriture des textes pour répondre à des conventions ou à des préférences stylistiques. L’approche est critiquée et des perspectives d’amélioration sont proposées.
[ "Paraphrase", "Traduction Automatique Statistique basée sur les segments", "Aide à la rédaction" ]
[ "P", "M", "M" ]
[ "", "In this article, we present a method to obtain paraphrases for short text spans that can be useful to help a writer in reformulating text. The main resource used is a bilingual phrase table containing aligned phrases, a common resource in statistical machine translation. The writer can mark a segment for paraphrasing, and this segment is first translated into a pivot language before being back-translated into the original language, which is possible without performing a full translation of the input. Our proposed framework allows integrating and combining various models for estimating paraphrase quality. We propose linguistic models which permits to conduct empirical experiments about the characteristics of paraphrases for short text spans. Application domains include, in addition to paraphrasing aids, summarization and rephrasing of text for conforming to conventional or stylistic guidelines. We finally discuss the limitations of our work and describe possible ways of improvement.", "Paraphrasing, Phrase-Based Statistical Machine Translation (PBSMT), Authoring aids" ]
taln-2008-long-024
Les architectures linguistiques et computationnelles en traduction automatique sont indépendantes
Contrairement à une idée répandue, les architectures linguistiques et computationnelles des systèmes de traduction automatique sont indépendantes. Les premières concernent le choix des représentations intermédiaires, les secondes le type d'algorithme, de programmation et de ressources utilisés. Il est ainsi possible d'utiliser des méthodes de calcul « expertes » ou « empiriques » pour construire diverses phases ou modules de systèmes d'architectures linguistiques variées. Nous terminons en donnant quelques éléments pour le choix de ces architectures en fonction des situations traductionnelles et des ressources disponibles, en termes de dictionnaires, de corpus, et de compétences humaines.
[ "architecture linguistique", "Traduction Automatique", "TA", "TAO", "architecture computationnelle", "TA experte", "TA par règles", "TA empirique", "TA statistique", "TA par l'exemple" ]
[ "P", "P", "U", "U", "R", "M", "U", "M", "U", "U" ]
[ "", "Contrary to a wide-spread idea, the linguistic and computational architectures of MT systems are independent. The former concern the choice of the intermediate representations, the latter the type of algorithm, programming, and resources used. It is thus possible to use \"expert\" or \"empirical\" computational methods to build various phases or modules of systems having various linguistic architectures. We finish by giving some elements for choosing these architectures depending on the translational situations and the available resources, in terms of dictionaries, corpora, and human competences.", "Machine Translation, MT, linguistic architecture, computational architecture, expert MT, rule-based MT, empirical MT, statistical MT, example-based MT" ]
taln-2008-long-025
Vérification sémantique pour l’annotation d’entités nommées
Dans cet article, nous proposons une méthode visant à corriger et à associer dynamiquement de nouveaux types sémantiques dans le cadre de systèmes de détection automatique d’entités nommées (EN). Après la détection des entités nommées et aussi de manière plus générale des noms propres dans les textes, une vérification de compatibilité de types sémantiques est effectuée non seulement pour confirmer ou corriger les résultats obtenus par le système de détection d’EN, mais aussi pour associer de nouveaux types non couverts par le système de détection d’EN. Cette vérification est effectuée en utilisant l’information syntaxique associée aux EN par un système d’analyse syntaxique robuste et en confrontant ces résultats avec la ressource sémantique WordNet. Les résultats du système de détection d’EN sont alors considérablement enrichis, ainsi que les étiquettes sémantiques associées aux EN, ce qui est particulièrement utile pour l’adaptation de systèmes de détection d’EN à de nouveaux domaines.
[ "Entités nommées", "Types sémantiques", "Analyse syntaxique robuste" ]
[ "P", "P", "P" ]
[ "", "In this paper we propose a new method that enables to correct and to associate new semantic types in the context of Named Entity (NE) Recognition Systems. After named entities (and more generally proper nouns) have been detected in texts, a semantic compatibility checking is performed. This checking can not only confirm or correct previous results of the NER system but also associate new NE types that have not been previously foreseen. This checking is performed using information associated to the NE by a robust syntactic analyzer and confronting this information to WordNet. After this checking is performed, final results of the NER system are better and new NE semantic tags are created. This second point is particularly useful when adapting existing NER systems to new domains.", "Named Entities, Robust Parsing, Semantic Types" ]
taln-2008-long-026
Exploitation de treillis de Galois en désambiguïsation non supervisée d’entités nommées
Nous présentons une méthode non supervisée de désambiguïsation d’entités nommées, basée sur l’exploitation des treillis de Galois. Nous réalisons une analyse de concepts formels à partir de relations entre des entités nommées et leurs contextes syntaxiques extraits d’un corpus d’apprentissage. Le treillis de Galois résultant fournit des concepts qui sont utilisés comme des étiquettes pour annoter les entités nommées et leurs contextes dans un corpus de test. Une évaluation en cascade montre qu’un système d’apprentissage supervisé améliore la classification des entités nommées lorsqu’il s’appuie sur l’annotation réalisée par notre système de désambiguïsation non supervisée.
[ "treillis de Galois", "Désambiguïsation non supervisée", "entités nommées" ]
[ "P", "P", "P" ]
[ "", "We present an unsupervised method for named entities disambiguation, based on concept lattice mining.We perform a formal concept analysis from relations between named entities and their syntactic contexts observed in a training corpora. The resulting lattice produces concepts which are considered as labels for named entities and context annotation. Our approach is validated through a cascade evaluation which shows that supervised named entity classification is improved by using the annotation produced by our unsupervised disambiguation system.", "Unsupervised word sense disambiguation, concept lattice, named entities" ]
taln-2008-long-027
Résolution de Métonymie des Entités Nommées : proposition d’une méthode hybride
Dans cet article, nous décrivons la méthode que nous avons développée pour la résolution de métonymie des entités nommées dans le cadre de la compétition SemEval 2007. Afin de résoudre les métonymies sur les noms de lieux et noms d’organisation, tel que requis pour cette tâche, nous avons mis au point un système hybride basé sur l’utilisation d’un analyseur syntaxique robuste combiné avec une méthode d’analyse distributionnelle. Nous décrivons cette méthode ainsi que les résultats obtenus par le système dans le cadre de la compétition SemEval 2007.
[ "métonymie", "Entités Nommées", "méthode hybride", "analyse syntaxique robuste", "approche distributionnelle" ]
[ "P", "P", "P", "R", "M" ]
[ "", "In this paper, we describe the method we develop in order to solve Named entity metonymy in the framework of the SemEval 2007 competition. In order to perform Named Entity metonymy resolution on location names and company names, as required for this task, we developed a hybrid system based on the use of a robust parser that extracts deep syntactic relations combined with a non supervised distributional approach, also relying on the relations extracted by the parser.We describe this methodology as well as the results obtained at SemEval 2007.", "Named Entities, metonymy, hybrid method, robust parsing, distributional approach" ]
taln-2008-long-028
Etude de la corrélation entre morphosyntaxe et sémantique dans une perspective d’étiquetage automatique de textes médicaux arabes
Cet article se propose d’étudier les relations sémantiques reliant base et expansion au sein des termes médicaux arabes de type « N+N », particulièrement ceux dont la base est un déverbal. En étudiant les relations sémantiques établies par une base déverbale, ce travail tente d’attirer l’attention sur l’interpénétration du sémantique et du morphosyntaxique ; il montre que, dans une large mesure, la structure morphosyntaxique de la base détermine l’éventail des possibilités relationnelles. La découverte de régularités dans le comportement de la base déverbale permet de prédire le type de relations que peut établir cette base avec son expansion pavant ainsi la voie à un traitement automatique et un travail d’étiquetage sémantique des textes médicaux arabes.
[ "morphosyntaxe", "sémantique", "étiquetage automatique", "terminologie médicale arabe" ]
[ "P", "P", "P", "M" ]
[ "", "This paper examines the semantic relations existing in Arabic medical texts between the head and its extension in a two-noun compound, particularly when the head is a deverbal noun or a nominalization. By studying semantic relations encoded by nominalizations, this research work aims at underlining the correlation between morphosyntax and semantics notably the influence of the head noun structure on the set of semantic relations that can be established. The discovery of regularities in the functioning of the head noun allows thus to predict the type of relation that will be encoded. Such data are a pre-requisite for natural language processing and automatic part-to-speech tagging of medical Arabic texts.", "Part-of-speech tagging, Arabic medical terminology, morphosyntax, semantics" ]
taln-2008-long-029
Influence de la qualité de l’étiquetage sur le chunking : une corrélation dépendant de la taille des chunks
Nous montrons dans cet article qu’il existe une corrélation étroite existant entre la qualité de l’étiquetage morpho-syntaxique et les performances des chunkers. Cette corrélation devient linéaire lorsque la taille des chunks est limitée. Nous appuyons notre démonstration sur la base d’une expérimentation conduite suite à la campagne d’évaluation Passage 2007 (de la Clergerie et al., 2008). Nous analysons pour cela les comportements de deux analyseurs ayant participé à cette campagne. L’interprétation des résultats montre que la tâche de chunking, lorsqu’elle vise des chunks courts, peut être assimilée à une tâche de “super-étiquetage”.
[ "chunker", "Analyse syntaxique", "étiquetage morphosyntaxique", "analyseur stochastique", "analyseur symbolique superficiel" ]
[ "P", "U", "M", "M", "M" ]
[ "", "We show in this paper that a strong correlation exists between the performance of chunk parsers and the quality of the tagging task in input. This dependency becomes linear when the size of the chunks is small. Our demonstration is based on an experiment conducted at the end of the Passage 2007 shared task evaluation initiative (de la Clergerie et al., 2008). The performance of two parsers which took part in this evaluation has been investigated. The results indicate that the chunking task, for sufficiently short chunks, is similar to a super-tagging task.", "Parsing, tagging, stochastic parser, symbolic shallow parser, chunker" ]
taln-2008-long-030
Apprentissage artificiel de règles d’indexation pour MEDLINE
L’indexation est une composante importante de tout système de recherche d’information. Dans MEDLINE, la base documentaire de référence pour la littérature du domaine biomédical, le contenu des articles référencés est indexé à l’aide de descripteurs issus du thésaurus MeSH. Avec l’augmentation constante de publications à indexer pour maintenir la base à jour, le besoin d’outils automatiques se fait pressant pour les indexeurs. Dans cet article, nous décrivons l’utilisation et l’adaptation de la Programmation Logique Inductive (PLI) pour découvrir des règles d’indexation permettant de générer automatiquement des recommandations d’indexation pour MEDLINE. Les résultats obtenus par cette approche originale sont très satisfaisants comparés à ceux obtenus à l’aide de règles manuelles lorsque celles-ci existent. Ainsi, les jeux de règles obtenus par PLI devraient être prochainement intégrés au système produisant les recommandations d’indexation automatique pour MEDLINE.
[ "Apprentissage Artificiel", "Programmation Logique Inductive", "Analyse et Indexation/méthodes", "Medical Subject Headings" ]
[ "P", "P", "M", "U" ]
[ "", "Indexing is a crucial step in any information retrieval system. In MEDLINE, a widely used database of the biomedical literature, the indexing process involves the selection of Medical Subject Headings in order to describe the subject matter of articles. The need for automatic tools to assist human indexers in this task is growing with the increasing amount of publications to be referenced in MEDLINE. In this paper, we describe the use and the customization of Inductive Logic Programming (ILP) to infer indexing rules that may be used to produce automatic indexing recommendations for MEDLINE indexers. Our results show that this original ILP-based approach overperforms manual rules when they exist. We expect the sets of ILP rules obtained in this experiment to be integrated in the system producing automatic indexing recommendations for MEDLINE.", "Abstracting and Indexing/methods, Medical Subject Headings, Machine Learning, Inductive Logic Programming" ]
taln-2008-court-001
Y a-t-il une véritable équivalence entre les propositions syntaxiques du français et du japonais ?
La présente contribution part de nos constats réalisés à partir des résultats d’évaluation de notre système d’alignement des propositions de textes français-japonais. La présence importante de structures fondamentalement difficiles à aligner et les résultats peu satisfaisants de différentes méthodes de mise en correspondance des mots nous ont finalement amenés à remettre en cause l’existence même d’équivalence au niveau des propositions syntaxiques entre le français et le japonais. Afin de compenser les défauts que nous avons découverts, nous proposons des opérations permettant de restaurer l’équivalence des propositions alignées et d’améliorer la qualité des corpus alignés.
[ "proposition syntaxique", "Alignement", "études contrastives français-japonais", "similarité lexicale" ]
[ "P", "P", "M", "U" ]
[ "", "This paper is based on our observations obtained from the results of our French-Japanese clause alignment system. Structures fundamentally difficult to align were so numerous and results obtained by various word-matching methods were so unsatisfactory that we questioned the existence of equivalence at the syntactic clause level between French and Japanese. In order to compensate the defect that we discovered, we propose some operations to restore aligned clause equivalence to improve the quality of aligned corpora.", "Alignment, syntactic clause, French-Japanese contrastive study, lexical similarty" ]
taln-2008-court-002
Calculs d’unification sur les arbres de dérivation TAG
Nous définissons un formalisme, les grammaires rationnelles d’arbres avec traits, et une traduction des grammaires d’arbres adjoints avec traits vers ce nouveau formalisme. Cette traduction préserve les structures de dérivation de la grammaire d’origine en tenant compte de l’unification de traits. La construction peut être appliquée aux réalisateurs de surface qui se fondent sur les arbres de dérivation.
[ "Unification", "arbre de dérivation", "grammaire rationnelle d’arbres", "grammaire d’arbres adjoints" ]
[ "P", "P", "P", "P" ]
[ "", "The derivation trees of a tree adjoining grammar provide a first insight into the sentence semantics, and are thus prime targets for generation systems. We define a formalism, feature based regular tree grammars, and a translation from feature based tree adjoining grammars into this new formalism. The translation preserves the derivation structures of the original grammar, and accounts for feature unification.", "Unification, tree adjoining grammar, derivation tree, regular tree grammar" ]
taln-2008-court-003
Comparaison de méthodes lexicales et syntaxico-sémantiques dans la segmentation thématique de texte non supervisée
Cet article présente une méthode basée sur des calculs de distance et une analyse sémantique et syntaxique pour la segmentation thématique de texte. Pour évaluer cette méthode nous la comparons à un un algorithme lexical très connu : c99. Nous testons les deux méthodes sur un corpus de discours politique français et comparons les résultats. Les deux conclusions qui ressortent de notre expérience sont que les approches sont complémentaires et que les protocoles d’évaluation actuels sont inadaptés.
[ "segmentation thématique", "Méthodes d’évaluation", "segmentation de texte" ]
[ "P", "R", "R" ]
[ "", "This paper present a semantic and syntactic distance based method in topic text segmentation and compare it to a very well known text segmentation algorithm : c99. To do so we ran the two algorithms on a corpus of twenty two French political discourses and compared their results. Our two conclusions are that the two approaches are complementary and that evaluation methods in this domain should be revised.", "Evaluation methods, text segmentation, topic segmentation" ]
taln-2008-court-004
Un modèle de langage pour le DHM : la Grammaire Sémantique Réversible
Cet article propose un modèle de langage dédié au dialogue homme-machine, ainsi que des algorithmes d’analyse et de génération. L’originalité de notre approche est de faire reposer l’analyse et la génération sur les mêmes connaissances, essentiellement sémantiques. Celles-ci sont structurées sous la forme d’une bibliothèque de concepts, et de formes d’usage associées aux concepts. Les algorithmes, quant à eux, sont fondés sur un double principe de correspondance entre des offres et des attentes, et d’un calcul heuristique de score.
[ "Grammaire Sémantique", "Dialogue", "Analyse", "Génération", "Réversibilité" ]
[ "P", "P", "P", "P", "U" ]
[ "", "In this paper we present a language model for man-machine dialogue, as well as algorithms for analysis and text generation. The originality of our approach is to base analysis and generation on the same knowledge. These one is structured like a library of concepts and syntactic patterns. The algorithms are based on a principle of correspondence between offers and expectations, and calculation of a heuristic scoring.", "Semantic Grammar, Reversibility, Analysis, Generation, Dialogue" ]
taln-2008-court-005
Discourse Representation Theory et graphes sémantiques : formalisation sémantique en contexte industriel
Ces travaux présentent une extension des représentations formelles pour la sémantique, de l’outil de traitement automatique des langues de Orange Labs1. Nous abordons ici uniquement des questions relatives à la construction des représentations sémantiques, dans le cadre de l’analyse linguistique. Afin d’obtenir des représentations plus fines de la structure argumentale des énoncés, nous incluons des concepts issus de la DRT dans le système de représentation basé sur les graphes sémantiques afin de rendre compte de la notion de portée.
[ "DRT", "Modèle sémantique", "analyse syntaxique en dépendance" ]
[ "P", "M", "M" ]
[ "", "This works present an extension of the formal representation of semantic for the natural language processing tool developped at Orange Labs. We cover here only issues relating to build the semantic representations, based on linguistic parsing. To obtain more detailed representations of the argumental structure statements, we include insights from the DRT in the system of representation based on the semantic graphs to give an account of scope.", "Semantic modelling, parsing, DRT" ]
taln-2008-court-006
Sylva : plate-forme de validation multi-niveaux de lexiques
La production de lexiques est une activité indispensable mais complexe, qui nécessite, quelle que soit la méthode de création utilisée (acquisition automatique ou manuelle), une validation humaine. Nous proposons dans ce but une plate-forme Web librement disponible, appelée Sylva (Systematic lexicon validator). Cette plate-forme a pour caractéristiques principales de permettre une validation multi-niveaux (par des validateurs, puis un expert) et une traçabilité de la ressource. La tâche de l’expert(e) linguiste en est allégée puisqu’il ne lui reste à considérer que les données sur lesquelles il n’y a pas d’accord inter-validateurs.
[ "plate-forme de validation", "Lexiques", "cadres de sous-catégorisation" ]
[ "P", "P", "M" ]
[ "", "Lexicon production is essential but complex and all creation methods (automatic acquisition or manual creation) require human validation. For this purpose, we propose a freely available Web-based framework, named Sylva (Systematic lexicon validator). The main point of our framework is that it handles multi-level validations and keeps track of the resource’s history. The expert linguist task is made easier : (s)he has only to consider data on which validators disagree.", "Lexicons, validation framework, subcategorization frames" ]
taln-2008-court-007
E-Gen : Profilage automatique de candidatures
La croissance exponentielle de l’Internet a permis le développement de sites d’offres d’emploi en ligne. Le système E-Gen (Traitement automatique d’offres d’emploi) a pour but de permettre l’analyse et la catégorisation d’offres d’emploi ainsi qu’une analyse et classification des réponses des candidats (Lettre de motivation et CV). Nous présentons les travaux réalisés afin de résoudre la seconde partie : on utilise une représentation vectorielle de texte pour effectuer une classification des pièces jointes contenus dans le mail à l’aide de SVM. Par la suite, une évaluation de la candidature est effectuée à l’aide de différents classifieurs (SVM et n-grammes de mots).
[ "Offres d’emploi", "Classification de textes", "Modèle probabiliste", "Ressources humaines" ]
[ "P", "R", "U", "U" ]
[ "", "The exponential growth of the Internet has allowed the development of a market of on-line job search sites. This paper presents the E-Gen system (Automatic Job Offer Processing system for Human Resources). E-Gen will perform two complex tasks : an analysis and categorisation of job postings, which are unstructured text documents, an analysis and a relevance ranking of the candidate answers (cover letter and curriculum vitae). Here we present the work related to the second task : we use vectorial representation before generating a classification with SVM to determine the type of the attachment. In the next step, we try to classify the candidate answers with different classifiers (SVM and ngrams of words).", "Text Classification, Probabilistic Model, Human Ressources, Job Offer" ]
taln-2008-court-008
Typage, produit cartésien et unités d’analyse pour les modèles à états finis
Dans cet article, nous présentons un nouveau langage permettant d’écrire des relations rationnelles compilées en automates finis. Les deux caractéristiques innovantes de ce langage sont de pourvoir décrire des relations à plusieurs niveaux, pas nécessairement deux et d’utiliser diverses unités d’analyse pour exprimer les liens entre niveaux. Cela permet d’aligner de façon fine des représentations multiples.
[ "Machine finie à états", "morphologie à deux niveau" ]
[ "M", "M" ]
[ "", "In this paper, we present a new language to write rational relations compiled into finite state automata. There are two main novelties in the language. Firstly, the descriptions may have more than two levels. Secondly, various units may be used to express the relationships between the levels. Using these features, it is possible to align finely multiple representations.", "Finite-state machine, two-level morphology" ]
taln-2008-court-009
Vers l’évaluation de systèmes de dialogue homme-machine : de l’oral au multimodal
L’évaluation pour le dialogue homme-machine ne se caractérise pas par l’efficacité, l’objectivité et le consensus que l’on observe dans d’autres domaines du traitement automatique des langues. Les systèmes de dialogue oraux et multimodaux restent cantonnés à des domaines applicatifs restreints, ce qui rend difficiles les évaluations comparatives ou normées. De plus, les avancées technologiques constantes rendent vite obsolètes les paradigmes d’évaluation et ont pour conséquence une multiplication de ceux-ci. Des solutions restent ainsi à trouver pour améliorer les méthodes existantes et permettre des diagnostics plus automatisés des systèmes. Cet article se veut un ensemble de réflexions autour de l’évaluation de la multimodalité dans les systèmes à forte composante linguistique. Des extensions des paradigmes existants sont proposées, en particulier DQR/DCR, sachant que certains sont mieux adaptés que d’autres au dialogue multimodal. Des conclusions et perspectives sont tirées sur l’avenir de l’évaluation pour le dialogue homme-machine.
[ "multimodalité", "paradigme d’évaluation", "diagnostic", "Dialogue finalisé", "évaluation pour le dialogue hommemachine", "test utilisateur", "paraphrase multimodale" ]
[ "P", "P", "P", "M", "M", "U", "M" ]
[ "", "Evaluating human-machine dialogue systems is not so efficient, objective, and consensual than evaluating other natural language processing systems. Oral and multimodal dialogue systems are still working within reduced applicative domains. Comparative and normative evaluations are then difficult. Moreover, the continuous technological progress makes obsolete and numerous the evaluating paradigms. Some solutions are still to be identified to improve existing methods and to allow a more automatic diagnosis of systems. The aim of this paper is to provide a set of remarks dealing with the evaluation of multimodal spoken language dialogue systems. Some extensions of existing paradigms are presented, in particular DQR/DCR, considering that some paradigms fit better multimodal issues than others. Some conclusions and perspectives are then drawn on the future of the evaluation of human-machine dialogue systems.", "Task-driven dialogue, multimodality, evaluating human-machine dialogue, evaluation paradigm, user test, diagnosis" ]
taln-2008-court-010
POLYMOTS : une base de données de constructions dérivationnelles en français à partir de radicaux phonologiques
Cet article présente POLYMOTS, une base de données lexicale contenant huit mille mots communs en français. L’originalité de l’approche proposée tient à l'analyse des mots. En effet, à la différence d’autres bases lexicales représentant la morphologie dérivationnelle des mots à partir d’affixes, ici l’idée a été d’isoler un radical commun à un ensemble de mots d’une même famille. Nous avons donc analysé les formes des mots et, par comparaison phonologique (forme phonique comparable) et morphologique (continuité de sens), nous avons regroupé les mots par familles, selon le type de radical phonologique. L’article présente les fonctionnalités de la base et inclut une discussion sur les applications et les perspectives d’une telle ressource.
[ "morphologie dérivationnelle", "ressource lexicale", "traitement automatique des familles de mots" ]
[ "P", "R", "M" ]
[ "", "In this paper we present POLYMOTS, a lexical database containing eight thousand common nouns in French. Whereas most of the existing lexicons for derivational morphology take affixes as starting point for producing paradigms of words, we defend here the idea that it is possible to isolate a morpho-phonological stem and produce a paradigm of words belonging to the same family. This point leads us to describe three types of stems according to their phonological and morphological form. The article presents the different features of such a lexical database and discusses the applications and future work using and enriching this resource.", "lexical resource, derivational morphology, word families processing" ]
taln-2008-court-011
Mesure de l’alternance entre préfixes pour la génération en traduction automatique
La génération de néologismes construits pose des problèmes dans un système de traduction automatique, notamment au moment de la sélection du préfixe dans les formations préfixées, quand certains préfixes paraissent pouvoir alterner. Nous proposons une étude « extensive », qui vise à rechercher dans de larges ressources textuelles (l’Internet) des formes préfixées générées automatiquement, dans le but d’individualiser les paramètres qui favorisent l’un des préfixes ou qui, au contraire, permettent cette alternance. La volatilité de cette ressource textuelle nécessite certaines précautions dans la méthodologie de décompte des données extraites.
[ "génération", "traduction automatique", "néologisme", "morphologie", "études empiriques" ]
[ "P", "P", "P", "U", "M" ]
[ "", "Generating constructed neologisms in a machine translation system is confronted to the issue of selecting the right affixes, especially when some affixes can be used alternately. We propose here an “extensive” study that looks into large textual data collections (web) for prefixed forms that have been automatically generated, in order to find out parameters that allow the use of both prefixes or, on the contrary, that prevent one or the other prefixation. The volatility of web resources requires methodological precautions, especially in data counting.", "morphology, machine translation, generation, neologism, empirical studies" ]
taln-2008-court-012
Cascades de transducteurs pour le chunking de la parole conversationnelle : l’utilisation de la plateforme CasSys dans le projet EPAC
Cet article présente l’utilisation de la plate-forme CasSys pour la segmentation de la parole conversationnelle (chunking) à l’aide de cascades de transducteurs Unitex. Le système que nous présentons est utilisé dans le cadre du projet ANR EPAC. Ce projet a pour objectif l’indexation et l’annotation automatique de grands flux de parole issus d’émissions télévisées ou radiophoniques. Cet article présente tout d’abord l’adaptation à ce type de données d’un système antérieur de chunking (Romus) qui avait été développé pour le dialogue oral homme-machine. Il décrit ensuite les principaux problèmes qui se posent à l’analyse : traitement des disfluences de l’oral spontané, mais également gestion des erreurs dues aux étapes antérieures de reconnaissance de la parole et d’étiquetage morphosyntaxique.
[ "transducteurs", "parole conversationnelle", "segmentation", "Unitex", "Traitement Automatique du Langage Parlé (TALP)", "chunks" ]
[ "P", "P", "P", "P", "M", "U" ]
[ "", "This paper describes the use of the CasSys platform in order to achieve the chunking of conversational speech transcripts by means of cascades of Unitex transducers. Our system is involved in the EPAC project of the French National Agency of Research (ANR). The aim of this project is to develop robust methods for the annotation of audio/multimedia document collections which contains conversational speech sequences such as TV or radio programs. At first, this paper presents the adaptation of a former chunking system (Romus) which was developed in the restricted framework of dedicated spoken manmachine dialogue. Then, it describes the problems that are arising due to 1) spontaneous speech disfluencies and 2) errors for the previous stages of processing (automatic speech recognition and POS tagging).", "Spoken Language Processing, chunking, conversational speech, transducers, Unitex" ]
taln-2008-court-013
Regroupement automatique de documents en classes événementielles
Cet article porte sur le regroupement automatique de documents sur une base événementielle. Après avoir précisé la notion d’événement, nous nous intéressons à la représentation des documents d’un corpus de dépêches, puis à une approche d’apprentissage pour réaliser les regroupements de manière non supervisée fondée sur k-means. Enfin, nous évaluons le système de regroupement de documents sur un corpus de taille réduite et nous discutons de l’évaluation quantitative de ce type de tâche.
[ "Regroupement de documents", "Suivi d’événement" ]
[ "P", "M" ]
[ "", "This paper analyses the problem of automatic document clustering based on events. We first specify the notion of event. Then, we detail the document modelling method and the learning approach for document clustering based on k-means. We finally evaluate our document clustering system on a small corpus and discuss the quantitative evaluation for this kind of task.", "Document clustering, Event tracking" ]
taln-2008-court-015
Repérage de citations, classification des styles de discours rapporté et identification des constituants citationnels en écrits journalistiques
Dans le contexte de la recherche de plagiat, le repérage de citations et de ses constituants est primordial puisqu’il peut amener à évaluer le caractère licite ou illicite d’une reprise (source citée ou non). Nous proposons ici une comparaison de méthodes automatiques pour le repérage de ces informations et rapportons une évaluation quantitative de celles-ci. Un corpus d’écrits journalistiques français a été manuellement annoté pour nous servir de base d’apprentissage et de test.
[ "classification des styles de discours rapporté", "écrits journalistiques", "détection de citations", "identification du locuteur", "techniques par apprentissage et base de règles" ]
[ "P", "P", "M", "M", "M" ]
[ "", "In the application context of reported content, that includes plagiarism and impact of textual information searched, citations finding and its fundamentals is essential as it may help estimating legal value of a citation (with or without specifying original source). We propose here a comparison between automatic methods for finding up those elements and we quantitatively evaluate them. A French journalistic corpus has been manually annotated to be used as learning base and for testing.", "detection of citations, reported speech style classification, source identification, machine learning and rules-based techniques, news corpus" ]
taln-2008-court-016
Vers l’identification et le traitement des actes de dialogue composites
Il peut être difficile d’attribuer une seule valeur illocutoire à un énoncé dans un dialogue. En premier lieu, un énoncé peut comporter plusieurs segments de discours ayant chacun leur valeur illocutoire spécifique. De plus, un seul segment peut s’analyser en tant qu’acte de langage composite, regroupant par exemple la formulation d’une question et l’émission simultanée d’une information. Enfin, la structure du dialogue en termes d’échanges et de séquences peut être déterminante dans l’identification de l’acte, et peut également apporter une valeur illocutoire supplémentaire, comme celle de clore la séquence en cours. Dans le but de déterminer la réaction face à un tel acte de dialogue composite, nous présentons une approche théorique pour l’analyse des actes de dialogue en fonction du contexte de tâche et des connaissances des interlocuteurs. Nous illustrons sur un exemple nos choix de segmentation et d’identification des actes composites, et nous présentons les grandes lignes d’une stratégie pour déterminer la réaction qui semble être la plus pertinente.
[ "structure du dialogue", "Actes de langage complexes", "terrain commun" ]
[ "P", "M", "U" ]
[ "", "Attributing one illocutionary value to a utterance in a dialogue can be difficult. First, a utterance can include several discourse segments, each one with a specific illocutionary value. Moreover, one discourse segment can be linked to a complex speech act that groups for instance a question together with the assertion of new information. Finally, the dialogue structure with the various exchanges and sequences can be decisive when identifying the dialogue act, and can also bring an additional illocutionary value, for instance the one consisting of closing the current sequence. With the aim to determine how to react to such a composite dialogue act, we present a theoretical approach to dialogue act analysis considering the task context and the dialogue participants’ knowledge. We illustrate our choices in terms of segmentation and identification of composite acts, and we present the main features of a strategy for determining the most relevant reaction.", "Complex speech acts, dialogue structure, common ground" ]
taln-2008-court-017
Représentation évènementielle des déplacements dans des dépêches épidémiologiques
La représentation évènementielle des déplacements de personnes dans des dépêches épidémiologiques est d’une grande importance pour une compréhension détaillée du sens de ces dépêches. La dissémination des composants d’une telle représentation dans les dépêches rend difficile l’accès à leurs contenus. Ce papier décrit un système d’extraction d’information utilisant des cascades de transducteurs à nombre d’états fini qui ont permis la réalisation de trois tâches : la reconnaissance des entités nommées, l’annotation et la représentation des composants ainsi que la représentation des structures évènementielles. Nous avons obtenu une moyenne de rappel de 80, 93% pour la reconnaissance des entités nommées et de 97, 88% pour la représentation des composants. Ensuite, nous avons effectué un travail de normalisation de cette représentation par la résolution de certaines anaphores pronominales. Nous avons obtenu une valeur moyenne de précision de 81, 72% pour cette résolution.
[ "représentation évènementielle", "extraction d’information", "Sous-langage", "structure prédicative", "structure predicate-arguments" ]
[ "P", "P", "U", "M", "M" ]
[ "", "The representation of motion events is important for an automatic comprehension of disease outbreak reports. The dispersion of components in this type of reports makes it difficult to have such a representation. This paper describes an automatic extraction of event structures representation of these texts.We built an information extraction system by using cascaded finite state transducers which allowed the realization of three tasks : the named entity recognition, the component annotation and representation and the event structure representation. We obtained a recall of 80, 93% for the named entity recognition task and a recall of 97, 88% for argument representation task. Thereafter, we worked in anaphoric pronouns resolution where we obtained a precision of 81.83%.", "Sublanguage, event structure representation, information extraction, predicative structure, predicate-arguments structure" ]
taln-2008-court-018
Traduction multilingue : le projet MulTra
L’augmentation rapide des échanges et des communications pluriculturels, en particulier sur internet, intensifie les besoins d’outils multilingues y compris de traduction. Cet article décrit un projet en cours au LATL pour le développement d’un système de traduction multilingue basé sur un modèle linguistique abstrait et largement générique, ainsi que sur un modèle logiciel basé sur la notion d’objet. Les langues envisagées dans la première phase de ce projet sont l’allemand, le français, l’italien, l’espagnol et l’anglais.
[ "Traduction automatique multilingue", "approche par objets", "génération de lexiques bilingues" ]
[ "M", "M", "M" ]
[ "", "The increase of cross-cultural communication triggered notably by the Internet intensifies the needs for multilingual linguistic tools, in particular translation systems for several languages. The LATL has developed an efficient multilingual parsing technology based on an abstract and generic linguistic model and on object-oriented software design. The proposed project intends to apply a similar approach to the problem of multilingual translation (German, French, Italian and English).", "Multilingual machine translation, object design, bilingual dictionary derivation" ]
taln-2008-court-019
Appariement d’entités nommées coréférentes : combinaisons de mesures de similarité par apprentissage supervisé
L’appariement d’entités nommées consiste à regrouper les différentes formes sous lesquelles apparaît une entité. Pour cela, des mesures de similarité textuelle sont généralement utilisées. Nous proposons de combiner plusieurs mesures afin d’améliorer les performances de la tâche d’appariement. À l’aide d’expériences menées sur deux corpus, nous montrons la pertinence de l’apprentissage supervisé dans ce but, particulièrement avec l’algorithme C4.5.
[ "Appariement", "Entités nommées", "Apprentissage supervisé", "Mesures de similarité textuelle" ]
[ "P", "P", "P", "P" ]
[ "", "Matching named entities consists in grouping the different forms under which an entity may occur. Textual similarity measures are the usual tools for this task. We propose to combine several measures in order to improve the performance. We show the relevance of supervised learning in this objective through experiences with two corpora, especially in the case of the C4.5 algorithm.", "Named entities,Matching, Textual similaritymeasures, Supervised learning" ]
taln-2008-court-020
Un sens logique pour les graphes sémantiques
Nous discutons du sens des graphes sémantiques, notamment de ceux utilisés en Théorie Sens-Texte. Nous leur donnons un sens précis, éventuellement sous-spécifié, grâce à une traduction simple vers une formule de Minimal Recursion Semantics qui couvre les cas de prédications multiples sur plusieurs entités, de prédication d’ordre supérieur et de modalités.
[ "logique", "Graphe sémantique", "quantification", "Théorie Sens-Texte (TST)" ]
[ "P", "P", "U", "M" ]
[ "", "We discuss the meaning of semantic graphs, in particular of those used in Meaning-Text Theory. We provide a precise, possibly underspecified, meaning to such graphs through a simple translation into a Minimal Recursion Semantics formula. This translation covers cases of multiple predications over several entities, higher order predication and modalities.", "Semantic graph, logic, quantification, Meaning-Text Theory (MTT)" ]
taln-2008-court-021
Annotation en Frames Sémantiques du corpus de dialogue MEDIA
Cet article présente un formalisme de représentation des connaissances qui a été utilisé pour fournir des annotations sémantiques de haut niveau pour le corpus de dialogue oral MEDIA. Ces annotations en structures sémantiques, basées sur le paradigme FrameNet, sont obtenues de manière incrémentale et partiellement automatisée. Nous décrivons le processus d’interprétation automatique qui permet d’obtenir des compositions sémantiques et de générer des hypothèses de frames par inférence. Le corpus MEDIA est un corpus de dialogues en langue française dont les tours de parole de l’utilisateur ont été manuellement transcrits et annotés (niveaux mots et constituants sémantiques de base). Le processus proposé utilise ces niveaux pour produire une annotation de haut niveau en frames sémantiques. La base de connaissances développée (définitions des frames et règles de composition) est présentée, ainsi que les résultats de l’annotation automatique.
[ "frames sémantiques", "annotation sémantique", "compréhension automatique de la parole", "système de dialogue oral", "décodage conceptuel", "inférence sémantique" ]
[ "P", "P", "M", "M", "U", "R" ]
[ "", "This paper introduces a knowledge representation formalism, used for incremental and partially automated annotation of the French MEDIA dialogue corpus in terms of semantic structures. We describe an automatic interpretation process for composing semantic structures from basic semantic constituents using patterns involving constituents and words. The process has procedures for obtaining semantic compositions and generating frame hypotheses by inference. This process is applied to MEDIA, a dialogue corpus manually annotated at the word and semantic constituent levels, and thus produces a higher level semantic frame annotation. The Knowledge Source defined and the results obtained on the automatically-derived annotation are reported.", "spoken language understanding, spoken dialogue system, semantic structures, semantic frames, conceptual decoding, semantic annotation, semantic inference" ]
taln-2008-court-022
Dissymétrie entre l'indexation des documents et le traitement des requêtes pour la recherche d’information en langue arabe
Les moteurs de recherches sur le web produisent des résultats comparables et assez satisfaisants pour la recherche de documents écrits en caractères latins. Cependant, ils présentent de sérieuses lacunes dès que l'ont s'intéresse à des langues peu dotées ou des langues sémitiques comme l'arabe. Dans cet article nous présentons une étude analytique et qualitative de la recherche d’information en langue arabe en mettant l'accent sur l'insuffisance des outils de recherche actuels, souvent mal adaptés aux spécificités de la langue arabe. Pour argumenter notre analyse, nous présentons des résultats issus d’observations et de tests autour de certains phénomènes linguistiques de l’arabe écrit. Pour la validation des ces observations, nous avons testé essentiellement le moteur de recherche Google.
[ "indexation", "recherche d’information", "langue arabe", "Google", "lemmatisation" ]
[ "P", "P", "P", "P", "U" ]
[ "", "Web search engines provide quite good results for Latin characters-based languages. However, they still show many weaknesses when searching in other languages such as Arabic. This paper discusses a qualitative analysis of information retrieval in Arabic language, highlighting some of the numerous limitations of available search engines, mainly when they are not properly adapted to the Arabic language specificities. To argue our analysis, we present some results based on quite sufficient observations and tests on various Arabic linguistic phenomena. To validate these observations, we essentially have tested the Google search engine.", "information retrieval, Arabic, indexation, lemmatization, Google" ]
taln-2006-invite-001
Les nouveaux outils de correction linguistique de Microsoft
De nouveaux outils de correction linguistique sont disponibles pour le français depuis quelques mois. Mis à la disposition des utilisateurs de Microsoft Office 2003, un nouveau correcteur orthographique et un nouveau correcteur grammatical permettent d’améliorer le processus de rédaction de documents. En partant d’évaluations externes effectuées récemment, nous présentons les diverses facettes de ces améliorations et de ces outils, en abordant la question de l’évaluation des outils de correction linguistique (qu’évaluer ? quels critères appliquer ? pourquoi développer une nouvelle version ?). La réforme de l’orthographe, la féminisation des noms de métier, l’évolution de la langue figurent parmi les thèmes abordés dans cet article.
[ "outils de correction linguistique", "Microsoft", "français", "correcteur orthographique", "correcteur grammatical", "réforme de l’orthographe", "féminisation des noms de métier" ]
[ "P", "P", "P", "P", "P", "P", "P" ]
[ "", "New French proofing tools were recently made available to Microsoft Office 2003 users. A new spell-checker and a new grammar checker make it possible to improve the document creation process. Based on recent external evaluations, we present specific aspects of these improved tools and discuss the more fundamental issue of how to evaluate proofing tools (What do we need to evaluate? Which criteria should be applied? Why develop a new version?). Current language changes including the spelling reform, and such innovations as feminine job titles are among the themes we discuss in this paper.", "spell-checker, grammar checker, French, proofing tools, Microsoft, spelling reform, feminine job titles" ]
taln-2006-long-002
Traitement de la polysémie lexicale dans un but de traduction
La désambiguïsation lexicale a une place centrale dans les applications de Traitement Automatique des Langues relatives à la traduction. Le travail présenté ici fait partie d’une étude sur les recouvrements et les divergences entre les espaces sémantiques occupés par des unités polysémiques de deux langues. Les correspondances entre ces unités sont rarement biunivoques et l’étude de ces correspondances aide à tirer des conclusions sur les possibilités et les limites d’utilisation d’une autre langue pour la désambiguïsation des unités d’une langue source. Le but de ce travail est l’établissement de correspondances d’une granularité optimale entre les unités de deux langues entretenant des relations de traduction. Ces correspondances seraient utilisables pour la prédiction des équivalents de traduction les plus adéquats de nouvelles occurrences des éléments polysémiques.
[ "polysémie", "cooccurrences", "correspondances de traduction", "prédiction de traduction" ]
[ "P", "U", "R", "R" ]
[ "", "Word Sense Disambiguation has a central role in NLP applications relevant to translation. The work presented in this article is a part of a study on the overlaps and divergences between the semantic spaces occupied by the polysemous items of two languages. Correspondences between these items are rarely biunivocal and their study provides insights into the possibilities and limits of using a second language for the disambiguation of polysemous items of a source language. The aim of this work is to establish correspondences of optimal granularity between the items of two languages in translation. Such correspondences could be used for the prediction of the most adequate translation equivalents for new occurrences of the polysemous source language items.", "polysemy, cooccurrences, translation correspondences, translation prediction" ]
taln-2006-long-003
Un analyseur morphologique multi-niveaux utilisant la jointure
Dans cet article nous présentons un analyseur morphologique pour le verbe akkadien. Cette langue est de la famille des langues sémitiques. Les flexions du verbe font intervenir des changements internes à la racine. L’analyseur présenté ici illustre l’utilisation d’un formalisme multi-niveaux et d’opérateurs relationnels puissants, notamment la jointure. La multiplicité de niveaux intermédiaires entre les formes profondes et de surface, ainsi que les opérateurs de compositions permettent de diviser la description en contraintes relativement simples qui sont ensuite rassemblées pour s’exercer soit simultanément, soit en cascade, soit encore d’une façon mixte, c’est-à-dire simultanément pour certains des niveaux et en cascade pour d’autres. Ce mécanisme nous permet de décrire la vocalisation du radical comme un processus d’insertions successives de voyelles. Cela présente l’intérêt d’être plus simple que l’utilisation d’un schéma vocalique figé soumis à interdigitation. De plus, cela semble expliquer de façon plus économique les formes des verbes faibles.
[ "analyseur morphologique", "morphologie à deux niveaux" ]
[ "P", "M" ]
[ "", "In this paper, we present a morphological analyzer for the Akkadian verb. This language belongs to the semitic family. Verb inflection involves modifications within the root. The analyzer is an example of the use of a multilevel formalism having powerful relational operators, notably the join. The morphology is described using relatively simple constraints which are composed together in three possible ways : they apply simultaneously or sequentially, or even in a mixed way, where the constraints apply simultaneously on some levels and sequentially on others. This mechanism is used to describe the vocalization of verbal roots as successive vowels insertions. This process is simpler than the use of fixed vocalic patterns which implies interdigitation. Moreover, it conveniently explains the forms of weak verbs.", "morphological analyzer, two-level morphology" ]
taln-2006-long-004
Analyse quantitative et statistique de la sémantique dans un corpus technique
Cet article présente la méthodologie et les résultats d’une analyse sémantique quantitative d’environ 5000 spécificités dans le domaine technique des machines-outils pour l’usinage des métaux. Les spécificités seront identifiées avec la méthode des mots-clés (KeyWords Method). Ensuite, elles seront soumises à une analyse sémantique quantitative, à partir du recouvrement des cooccurrences des cooccurrences, permettant de déterminer le degré de monosémie des spécificités. Finalement, les données quantitatives de spécificité et de monosémie feront l’objet d’analyses de régression. Nous avançons l’hypothèse que les mots (les plus) spécifiques du corpus technique ne sont pas (les plus) monosémiques. Nous présenterons ici les résultats statistiques, ainsi qu’une interprétation linguistique. Le but de cette étude est donc de vérifier si et dans quelle mesure les spécificités du corpus technique sont monosémiques ou polysémiques et quels sont les facteurs déterminants.
[ "sémantique quantitative", "spécificités", "cooccurrences", "analyse de régression", "polysémie", "sémantique lexicale" ]
[ "P", "P", "P", "P", "P", "M" ]
[ "", "This article discusses the methodology and results of a quantitative semantic analysis of about 5000 keywords (pivotal terms) in the domain of French machining terminology. The KeyWords Method is used in order to identify the most typical words. Next, a quantitative semantic analysis of the keywords determines their degree of monosemy, which is implemented in terms of degree of overlap between co-occurrents of co-occurrents of keywords. Finally, the quantitative data is submitted to various regression analyses, in order to check the hypothesis that the most typical terms are not always the most monosemous terms. This article presents the statistical results of this semantic analysis and provides linguistic interpretation. Building on corpus data, the investigation attempts to establish in how far keywords are polysemous and which factors are most predictive.", "lexical semantics, quantitative semantics, keywords, polysemy, co-occurrences, regression analysis" ]
taln-2006-long-005
Outilex, plate-forme logicielle de traitement de textes écrits
La plate-forme logicielle Outilex, qui sera mise à la disposition de la recherche, du développement et de l’industrie, comporte des composants logiciels qui effectuent toutes les opérations fondamentales du traitement automatique du texte écrit : traitements sans lexiques, exploitation de lexiques et de grammaires, gestion de ressources linguistiques. Les données manipulées sont structurées dans des formats XML, et également dans d’autres formats plus compacts, soit lisibles soit binaires, lorsque cela est nécessaire ; les convertisseurs de formats nécessaires sont inclus dans la plate-forme ; les formats de grammaires permettent de combiner des méthodes statistiques avec des méthodes fondées sur des ressources linguistiques. Enfin, des lexiques du français et de l’anglais issus du LADL, construits manuellement et d’une couverture substantielle seront distribués avec la plate-forme sous licence LGPL-LR.
[ "ressources linguistiques", "analyse syntaxique", "motifs lexico-syntaxiques", "analyse lexicale", "formats d’échange", "automates finis", "réseaux de transitions récursifs" ]
[ "P", "U", "U", "U", "M", "M", "M" ]
[ "", "The Outilex software platform, soon available to research, development and industry, comprises software components implementing all the fundamental operations of written text processing, including processing without lexicons, exploitation of lexicons and grammars, and language resource management. All data are structured in XML formats, and more compact readable or binary formats, if required. The required format converters are included in the platform ; the grammar formats allow for statistical approaches to be combined with resource-based approaches. Manually constructed lexicons for French and English, originating from the LADL, with substantial coverage, will be distributed with the platform under LGPL-LR license.", "syntactic parsing, lexico-syntactic patterns, lexical analysis, language resources, exchange formats, finite-state automata, recursive transition networks" ]
taln-2006-long-006
Une grammaire multilingue partagée pour la traduction automatique de la parole
Aujourd’hui, l’approche la plus courante en traitement de la parole consiste à combiner un reconnaisseur statistique avec un analyseur robuste. Pour beaucoup d’applications cependant, les reconnaisseurs linguistiques basés sur les grammaires offrent de nombreux avantages. Dans cet article, nous présentons une méthodologie et un ensemble de logiciels libres (appelé Regulus) pour dériver rapidement des reconnaisseurs linguistiquement motivés à partir d’une grammaire générale partagée pour le catalan et le français.
[ "grammaires multilingues", "traduction automatique de la parole", "modélisation du langage", "grammaire d’unification", "reconnaissance linguistique" ]
[ "P", "P", "U", "M", "M" ]
[ "", "Today, the most common architecture for speech understanding consists of a combination of statistical recognition and robust semantic analysis. For many applications, however, grammar-based recognisers can offer significant advantages. In this paper, we present a methodology and an Open Source platform (Regulus), which together permit rapid derivation of linguistically motivated recognisers, in either language, from a bilingual grammar of Catalan and French.", "speech to speech translation, language modelling, unification grammar, grammar-based recognition, multilingual grammars" ]
taln-2006-long-007
Prise en compte des disfluences dans un système d’analyse syntaxique automatique de l’oral
Nous présentons dans cette étude un essai de prise en compte des disfluences dans un système d’analyse linguistique initialement prévu pour l’écrit, en vue de la réalisation d’un prototype de traduction parole-parole. À partir d’une étude approfondie sur corpus, nous montrons comment des modifications du lexique et de la grammaire ont permis de traiter les cas les plus simples (pauses remplies, répétitions de mots isolés, etc.). D’autres cas plus complexes comme répétitions et auto-corrections de syntagmes ont nécessité la mise au point d’un mécanisme de contrôle sémantique permettant de limiter la combinatoire. Cette étude a mis également en évidence la difficulté de traitement de phénomènes tels que les amorces (mots interrompus) et les constructions inachevées, qui pour l’instant restent sans solution satisfaisante.
[ "disfluences", "analyse syntaxique en dépendances", "traitement automatique de l’oral" ]
[ "P", "M", "R" ]
[ "", "In this paper we describe an attempt to take speech disfluencies into account in a linguistic analysis system initially designed for written data. Using a detailed corpus analysis, we show how the lexicon and grammar can be modified to solve the simplest cases (such as filled pauses, single-word repeats, and so forth). More difficult cases such as phrasal repeats and self-repairs required the development of a semantic control mechanism in order to avoid combinatorial explosion. This study also reveals the difficulty of processing word fragments and aborted constructs, which receive no satisfactory solution in the current state of the art.", "disfluencies, parsing, automatic speech processing" ]
taln-2006-long-008
Acquisition de concepts bilingues à partir du Web
Nous montrons une utilisation du Web, corpus multilingue de grande taille, pour effectuer une acquisition supervisée de concepts bilingue français/anglais. Cette acquisition utilise comme point initial un verbe français. Nous apparions ensuite des phrases provenant des deux langues à partir de couples de noms propres possédant la même forme dans les deux langues. Cet appariement automatique mais sommaire ne garantit pas l’alignement des phrases. Nous montrons qu’il nous permet cependant d’extraire des termes français et anglais équivalents dans leur contexte d’utilisation. Ces termes constituent des ressources multilingues particulièrement adaptées au Web, notamment pour les applications question réponse « crosslingue ».
[ "acquisition", "concepts bilingue", "Web", "alignement superficiel" ]
[ "P", "P", "P", "M" ]
[ "", "This article describes a way of using the Web as a huge multilingual corpus to perform supervised acquisition of bilingual French/English concepts. Such acquisition is initialized with a French verb. Sentences expressed in both languages are then matched by using couples of proper nouns which are unchanged in these two languages. Such matching is automatic, highly succinct, but does not prevent sentences from being wrongly aligned. However, we show that it makes it possible to extract French and English terms that are equivalent in their context of use. These terms constitute multilingual resources that are particularly adapted to the Web, especially for cross-lingual question answering.", "acquisition, bilingual concepts, shallow alignment, Web" ]
taln-2006-long-009
Extraction de relations sémantiques entre noms et verbes au-delà des liens morphologiques
Nous étudions les relations de proximité sémantique entre les noms et les verbes à partir de données calculées sur un corpus de 200 millions de mots par un programme d’analyse distributionnelle automatique. Nous exposons les résultats d’une méthode d’extraction de couples Nom/Verbe, qui combine un indice de proximité distributionnelle et un indice de cooccurrence : un couple est extrait si le nom et le verbe apparaissent avec les mêmes arguments sur l’ensemble du corpus, d’une part, et s’ils apparaissent au moins une fois dans un même paragraphe munis du même argument, d’autre part. L’article élabore une typologie des 1441 couples extraits et démontre l’intérêt de prendre en compte les couples non liés morphologiquement, qui constituent 70 % des données.
[ "relations sémantiques", "analyse distributionnelle", "ressources lexicales" ]
[ "P", "P", "U" ]
[ "", "In this paper, we study the semantic relations that hold between nouns and verbs. We benefit from the data provided by Upery, a program that automatically extracts word associations from a 200 million words corpus by means of distributional analysis. We present the results of an experiment in which noun-verb associations are extracted by crossing two criteria : distributional proximity and cooccurrence. The 1441 couples share the same arguments in the corpus and appear at least once with the same argument within the same paragraph. We present a typology of these noun-verb couples, showing the necessity to take into account non-mophologically related couples which amounts to 70 % of the data.", "semantic relations, lexical resources, distributional analysis" ]
taln-2006-long-010
Résumé multidocuments orienté par une requête complexe
Nous présentons un système de synthèse d’information pour la production de résumés multidocuments orientés par une requête complexe. Après une analyse du profil de l’utilisateur exprimé par des questions complexes, nous comparons la similarité entre les documents à résumer avec les questions à deux niveaux : global et détaillé. Cette étude démontre l’importance d’étudier pour une requête la pertinence d’une phrase à l’intérieur de la structure thématique du document. Cette méthodologie a été appliquée lors de notre participation à la campagne d’évaluation DUC 2005 où notre système a été classé parmi les meilleurs.
[ "résumés multidocuments", "synthèse d’information", "évaluation du résumé" ]
[ "P", "P", "R" ]
[ "", "We present an information synthesis system for the production of multidocument summaries tailored by a complex query.We first analyze the user profile expressed by complex questions and we then compare the similarity between the documents and the questions at two levels : global and detailed. This research shows the importance of the study of the relevance of a sentence in the thematic structure of the document. This methodology has been applied for our participation in the DUC 2005 evaluation conference where our system was judged to be among of the best ones.", "information synthesis, multi-document summarization, evaluation of the summary" ]
taln-2006-long-011
Extraction d’information de sous-catégorisation à partir des tables du LADL
Les tables du LADL (Laboratoire d’Automatique Documentaire et Linguistique) contiennent des données électroniques extensives sur les propriétés morphosyntaxiques et syntaxiques des foncteurs syntaxiques du français (verbes, noms, adjectifs). Ces données, dont on sait qu’elles sont nécessaires pour le bon fonctionnement des systèmes de traitement automatique des langues, ne sont cependant que peu utilisées par les systèmes actuels. Dans cet article, nous identifions les raisons de cette lacune et nous proposons une méthode de conversion des tables vers un format mieux approprié au traitement automatique des langues.
[ "sous-catégorisation", "lexique-grammaire", "M. Gross" ]
[ "P", "U", "U" ]
[ "", "Maurice Gross’ grammar lexicon contains rich and exhaustive information about the morphosyntactic and syntactic properties of French syntactic functors (verbs, adjectives, nouns). Yet its use within natural language processing systems is hampered both by its non standard encoding and by a structure that is partly implicit and partly underspecified. In this paper, we present a method for translating this information into a format more amenable for use by NLP systems, we discuss the results obtained so far, we compare our approach with related work and we identify the possible further uses that can be made of the reformatted information.", "Grammar Lexicon, M. Gross, subcategorisation" ]
taln-2006-long-012
Intégration d’une dimension sémantique dans les grammaires d’arbres adjoints
Dans cet article, nous considérons un formalisme linguistique pour lequel l’intégration d’information sémantique dans une grammaire à large couverture n’a pas encore été réalisée à savoir, les grammaires d’arbres adjoints (Tree Adjoining Grammar ou TAG). Nous proposons une méthode permettant cette intégration et décrivons sa mise en oeuvre dans une grammaire noyau pour le français. Nous montrons en particulier que le formalisme de spécification utilisé, XMG, (Duchier et al., 2004) permet une factorisation importante des données sémantiques facilitant ainsi le développement, la maintenance et le déboggage de la grammaire.
[ "grammaire d’arbres adjoints", "calcul sémantique" ]
[ "P", "M" ]
[ "", "In this paper, we consider a linguistic formalism for which the integration of semantic information within a large scale grammar has not yet been realised, namely, Tree Adjoining Grammar (TAG). We propose a method for integrating this information and describe its implementation within a core TAG for French called FRAG. Furthermore, we show that the formalism used to specify the grammar, XMG, (Duchier et al., 2004) allows for a strong factorisation of the semantic data, thus giving better support for the development, maintenance and debugging of the grammar.", "Tree Adjoining Grammar, Semantic Construction" ]
taln-2006-long-013
Questions Booléennes : Oui ou Non, des Questions et des Réponses
Dans cet article, nous présentons une approche afin de traiter les questions booléennes, c’est-à-dire des questions dont la réponse peut être un Oui ou un Non, cela, dans le cadre d’un système de Questions-Réponses. En effet, la campagne Technolangue-EQueR, première campagne francophone de Questions-Réponses (QR) utilisant des questions et un corpus en français, a également été la première campagne QR à introduire une évaluation pour ce type de questions. Nous détaillons, parallèlement à notre approche, des pistes de réflexion sur les aspects sous-jacents à ces questions booléennes, notamment au travers d’une analyse des résultats obtenus par notre système dans un contexte similaire à celui de notre participation à la campagne officielle.
[ "questions booléennes", "système de questions-réponses" ]
[ "P", "P" ]
[ "", "In this paper, we propose a method to answer Yes/No questions from a Questions-Answering System point of view. These questions were called “Boolean question” during the first Technolangue French question answering campaign called EQueR which used a French corpus and questions. It was also the first campaign to introduce an evaluation for this particular kind of question. We discuss some key points related to these Yes/No questions as well as report on our system used in the EQueR evaluation campaign.", "question answering, yes/no questions, boolean question" ]
taln-2006-long-014
Productivité quantitative des suffixations par -ité et -Able dans un corpus journalistique moderne
Dans ce travail, nous étudions en corpus la productivité quantitative des suffixations par -Able et par -ité du français, d’abord indépendamment l’une de l’autre, puis lorsqu’elles s’enchaînent dérivationnellement (la suffixation en -ité s’applique à des bases en -Able dans environ 15 % des cas). Nous estimons la productivité de ces suffixations au moyen de mesures statistiques dont nous suivons l’évolution par rapport à la taille du corpus. Ces deux suffixations sont productives en français moderne : elles forment de nouveaux lexèmes tout au long des corpus étudiés sans qu’on n’observe de saturation, leurs indices de productivité montrent une évolution stable bien qu’étant dépendante des calculs qui leur sont appliqués. On note cependant que, de façon générale, de ces deux suffixations, c’est la suffixation par -ité qui est la plus fréquente en corpus journalistique, sauf précisément quand -ité s’applique à un adjectif en -Able. Étant entendu qu’un adjectif en -Able et le nom en -ité correspondant expriment la même propriété, ce résultat indique que la complexité de la base est un paramètre à prendre en considération dans la formation du lexique possible.
[ "-ité", "-Able", "corpus journalistique", "morphologie", "productivité morphologique quantitative" ]
[ "P", "P", "P", "U", "M" ]
[ "", "In this paper, we study the quantitative productivity of French suffixes -Able and -ité in corpora. We first analyze them independently and then when they belong to the same derivational chain (the suffix -ité chooses bases with -Able in about 15 % of its formations). The productivity of these suffixations is statisticallly estimated in relation to the corpus size. Both these affixes are productive in modern French : they continue to form new lexemes throughout the corpora and are not saturated, their productivity indexes show a stable evolution although this is dependent on applied calculations. Nevertheless, -ité is more frequent in the journalistic corpora except when it is applied to adjectives suffixed with -Able. Knowing that both -Able adjective and its -ité noun convey the same property, this finding indicates that the base complexity has to be taken into account in the formation of possible lexicon.", "morphology, newspaper corpus, -Able, -ité, quantitative morphological productivity" ]
taln-2006-long-015
La coordination considérée comme un entassement paradigmatique : description, représentation et intégration
Nous proposons de traiter la coordination comme un entassement paradigmatique, établissant une relation de parataxe entre ses constituants. Par cette considération et ses implications sur la description et l’analyse, on s’éloigne des assomptions les plus fréquentes en linguistique formelle sur le traitement de la coordination. Nous introduisons une description des caractéristiques syntaxiques de cette proposition, ainsi que sa représentation formelle et son intégration au sein d’une grammaire du français qui a pour objet d’être utilisée en traitement automatique. Cette description strictement syntaxique a vocation à être complétée par des informations provenant d’autres domaines, ce qui nous permet d’illustrer quelques spécificités notables de notre modèle.
[ "coordination", "syntaxe", "développement de grammaire", "grammaires de propriétés (GP)", "grammaires de construction (CxG)" ]
[ "P", "P", "M", "M", "M" ]
[ "", "We propose to treat coordination phenomena as syntagmatic accumulations, establishing a parataxis relation among their constituents. This consideration and its implications on description and analysis represent a departure from orthodox assumptions of formal linguistics about this question. We propose a description of the syntactic characteristics of coordination, then its formal representation and its integration into a grammar for french which is used for natural language processing. This strictly syntactic description is meant to be completed by information coming from other linguistic domains, which allows us to illustrate some notable specificities of our model.", "syntax, coordination, grammar development, property grammars (PG), construction grammars (CxG)" ]
taln-2006-long-016
Systèmes question-réponse et EuroWordNet
Pour améliorer l’efficacité des systèmes de recherche d’informations précises, l’utilisation de connaissances sémantiques est nécessaire. Cependant pour le français, les outils de connaissances sémantiques telles les thesaurus sur domaine ouvert ne sont d’une part pas très nombreux et d’autre part pas suffisamment complets. Dans cet article, nous expliquons premièrement, l’intérêt de l’utilisation de connaissances sémantiques pour un système de question réponse. Puis, nous présentons le thesaurus EuroWordNet, notamment ses limites et les améliorations que nous avons effectuées pour la base française dans un souci de le rendre plus satisfaisant pour notre application par l’ajout de relations inexistantes entre concepts et de définitions par le biais de l’encyclopédieWikipedia (2006).
[ "thesaurus", "système de question-réponse", "similarité" ]
[ "P", "R", "U" ]
[ "", "In order to improve question answering systems, the use of semantic knowledge is essential. However for French, such knowledge is not easily available. Indeed, French thesauruses are scarse and under-developed. In this paper, we firstly explain the reason why semantic knowledge should be used in a question answering system. Then, we present the EuroWordnet thesaurus, focussing on its limitations and the improvements we have made. We add undefined relationships with the help of the English base by using Wikipedia (2006).", "thesaurus, question answering system, similarity" ]
taln-2006-long-017
Reconnaissance automatique de formes dérivées dans les textes grecs
Notre objectif est la reconnaissance automatique de certaines formes dérivées, i.e. des diminutifs et des augmentatifs des noms et des adjectifs simples, ainsi que des comparatifs et des superlatifs des adjectifs simples du grec moderne. Il s’agit de formes qui sont généralement produites par l’adjonction d’un suffixe à la forme standard correspondante. Nous justifions notre choix de les ajouter dans le dictionnaire électronique. Leur traitement a nécessité une nouvelle représentation du dictionnaire qui utilise désormais un système de règles permettant de générer aisément les formes fléchies dérivées, de les étiqueter en tant que telles, et de les mettre en relation avec leur forme de base. Il en résulte une meilleure structuration des ressources lexicales et une production de dictionnaires flexible.
[ "formes dérivées", "dictionnaire électronique", "flexion" ]
[ "P", "P", "U" ]
[ "", "Our study concerns the automatic recognition of certain derived forms, i.e. the diminutives and the augmentatives of simple nouns and adjectives, as well as the comparatives and the superlatives of simple adjectives of Modern Greek. These forms are generally produced by the adjunction of a suffix to the corresponding standard form. We justify our choice to add them to the electronic dictionary of Modern Greek. Their processing implies an evolution of the representation of the dictionary which now uses a system of rules in order to easily generate the derived inflected forms, to label them as such, and to clearly put them in relation to their base form. We achieve better structuring of the lexical resources and flexible modular dictionary production.", "electronic dictionary, inflection, derived forms" ]
taln-2006-long-018
Influence de la situation lors de la résolution des anaphores dans le dialogue
La résolution des anaphores dans les systèmes de dialogue homme-machine s’inspire généralement des modèles et des algorithmes développés pour le texte. Or le dialogue met en jeu une situation, c’est-à-dire un environnement physique immédiat et des événements dont la perception est partagée par les interlocuteurs. Cette situation peut servir d’ancrage à des expressions référentielles dites « anaphores à antécédents non linguistiques ». L’attribution de référents à de telles expressions s’avère difficile pour deux raisons : premièrement les facteurs situationnels sont nombreux et peu explicites ; deuxièmement des ambiguïtés peuvent apparaître entre de possibles antécédents situationnels et de possibles antécédents linguistiques. Nous proposons ici un modèle clarifiant l’intervention des facteurs situationnels et permettant leur prise en compte lors de la compréhension des expressions référentielles potentiellement anaphoriques. En intégrant la notion de saillance valable à la fois pour les aspects situationnels et linguistiques, nous montrons comment utiliser des scores numériques pour gérer les interférences entre hypothèses situationnelles et linguistiques.
[ "anaphore", "saillance", "co-référence", "contexte", "perception visuelle" ]
[ "P", "P", "U", "U", "M" ]
[ "", "Anaphora resolution in human-machine dialogue systems is often based on models and algorithms that were designed for text. But dialogue happens in a situation, i.e., an immediate physical environment and events that are perceived simultaneously by the participants. This situation can be at the origin of referential expressions called “anaphora without linguistic antecedents”. Attributing some referents to such expressions is difficult for two reasons. First, because situational factors are numerous and implicit. Second, because ambiguities can appear between a potential situational antecedent and a potential linguistic antecedent. In this paper we propose a model that clarifies how situational factors work and how they can be taken into account when interpreting anaphoric expressions. By integrating the notion of salience that is common to both situational and linguistic aspects, we show with numeric scores how the interference between the situation and the language can be solved.", "coreference, anaphora, context, visual perception, salience" ]
taln-2006-long-019
De la Chambre des communes à la chambre d’isolement : adaptabilité d’un système de traduction basé sur les segments de phrases
Nous présentons notre participation à la deuxième campagne d’évaluation de CESTA, un projet EVALDA de l’action Technolangue. Le but de cette campagne consistait à tester l’aptitude des systèmes de traduction à s’adapter rapidement à une tâche spécifique. Nous analysons la fragilité d’un système de traduction probabiliste entraîné sur un corpus hors-domaine et dressons la liste des expériences que nous avons réalisées pour adapter notre système au domaine médical.
[ "adaptabilité", "traduction probabiliste", "aspiration de bitextes", "mémoire de traduction" ]
[ "P", "P", "M", "M" ]
[ "", "We present our participation in the second evaluation campaign of CESTA, an EVALDA project within the framework of Technolangue. The goal of this task consisted in testing the adaptability of translation systems.We analyze the inadequacy of a statistical phrase-based system trained on legislative texts to translate medical corpora. We describe the experiments we conducted in order to adapt our engine to the new task.", "statistical translation, adaptation, Web crawling, memory-based translation" ]
taln-2006-long-020
L’extraction des réponses dans un système de question-réponse
Les systèmes de question-réponse sont la plupart du temps composés de trois grands modules : l’analyse de la question, la sélection des documents et l’extraction de la réponse. Dans cet article, nous nous intéressons au troisième module, plus particulièrement dans le cas plus délicat où la réponse attendue n’est pas du type entitée nommée. Nous décrivons comment l’analyseur Cass est employé pour marquer la réponse dans les phrases candidates et nous évaluons les résultats de cette approche. Au préalable, nous décrivons et évaluons le module dédié à l’analyse de la question, car les informations qui en sont issues sont nécessaires à notre étape finale d’extraction.
[ "systèmes de question-réponse" ]
[ "P" ]
[ "", "Question-answering systems are usually composed of three main modules, namely, question analysis, document selection and answer extraction. In this paper, we focus on the third module, more specifically when the expected answer is not a named entity because this kind of answer is more difficult to extract. We describe how the parser Cass is employed to tag the answer in the candidate sentence. Then, we evaluate the results of this approach. Beforehand, we describe and evaluate the question analysis module, as the information it produces is used during our final answer extraction step.", "question answering systems" ]
taln-2006-long-021
Les transducteurs à sorties variables
Dans le traitement automatique du langage naturel, les dictionnaires électroniques associent à chaque mot de l’information. La représentation informatique la plus efficace de ces dictionnaires utilise des machines à nombre fini d’états (automates ou transducteurs). Dans cet article, nous nous inspirons des algorithmes de construction directe d’un automate déterministe minimal pour proposer une nouvelle forme de transducteur. Cette nouvelle forme permet un calcul rapide des sorties associées aux mots, tout en étant plus compacte quant au nombre de transitions et de sorties distinctes, comme le montrent nos expérimentations.
[ "transducteurs", "dictionnaires électroniques", "automates à nombre fini d’états" ]
[ "P", "P", "R" ]
[ "", "In natural language processing, dictionaries usually associate additional information with lexical entries. The most effective representation of dictionaries makes use of finite-state machines – either automata (recognizers) or transducers. In this paper, we draw our inspiration from algorithms to directly build the minimal deterministic automaton and we propose a new form of a transducer. This new form outperforms existing transducers in terms of speed while computing outputs and in terms of size calculated on the basis of the number of transitions and different outputs, as shown in our experiments.", "finite state automata, transducers, electronic dictionaries" ]
taln-2006-long-022
Une expérience de sémantique inférentielle
Nous développons un système qui doit être capable d’effectuer les mêmes inférences que le lecteur humain d’un constat d’accident de la route, et plus particulièrement de déterminer les causes apparentes de l’accident. Nous décrivons les niveaux linguistiques et sémantiques de l’analyse, et les règles d’inférence utilisées par ce système.
[ "sémantique inférentielle", "raisonnement non monotone", "causalité" ]
[ "P", "U", "U" ]
[ "", "We are developing a system that aims to perform the same inferences as a human reader, on car-crash reports. More precisely, we expect it to determine the causes of the accident as they appear from the text. We describe the linguistic and semantic levels of analysis, and the inference rules used by the system.", "inferential semantics, non monotonic reasoning, causation" ]
taln-2006-long-023
Résolution des références aux documents dans un corpus de dialogues humains
Cet article étudie la résolution des références à des entités lorsqu’une représentation informatique de ces entités est disponible. Nous nous intéressons à un corpus de dialogues entre humains, portant sur les grands titres de la presse francophone du jour, et proposons une méthode pour détecter et résoudre les références faites par les locuteurs aux articles des journaux. La détection des expressions nominales qui réfèrent à ces documents est réalisée grâce à une grammaire, alors que le problème de la détection des pronoms qui réfèrent aux documents est abordé par des moyens statistiques. La résolution de ces expressions, à savoir l’attribution des référents, fait quant à elle l’objet d’un algorithme inspiré de la résolution des coréférences. Ces propositions sont évaluées par le biais de mesures quantitatives spécifiques.
[ "résolution des références", "dialogue humain", "évaluation quantitative" ]
[ "P", "P", "R" ]
[ "", "This article studies the resolution of references to entities in cases when a computational representation of the entities is available. Our data is a corpus of human dialogues about the front pages of one or more daily francophone newspapers. The main goal is to propose a method for the detection and resolution of references made by speakers to newspaper articles. A grammar is used to detect the nominal expressions referring to documents, while statistical methods are used to detect the pronouns referring to documents. An algorithm inspired from coreference resolution is used to solve all these expressions, i.e. to find the documents and articles they refer to. Specific quantitative metrics are applied to evaluate these proposals.", "reference resolution, human dialogue, quantitative evaluation" ]
taln-2006-long-024
Mise au jour semi-automatique de nuances sémantiques entre mots de sens proches
L’acquisition automatique sur corpus d’informations lexicales sémantiques donne une place importante à la constitution de classes sémantiques rassemblant des mots de sens proches. Or, l’intérêt pratique de celles-ci reste limité en l’absence d’information sur les distinctions individualisant les sens des mots qu’elles rassemblent. Nous présentons dans cet article un premier système permettant de mettre au jour, de manière semi-automatique et à partir des seules données textuelles rassemblées dans un corpus, des éléments de distinction sémantique fine entre mots appartenant à une même classe, atteignant ainsi un degré de définition du sens encore inédit en acquisition automatique d’informations sémantiques lexicales. La technique mise au point regroupe, en s’appuyant sur l’étude de grands voisinages autour des occurrences des mots comparés, des paires de mots distingués par des nuances similaires. Cette approche présente la faiblesse de ne permettre qu’une représentation implicite des nuances découvertes : les listes de paires de mots rapprochées doivent être interprétées afin de « comprendre » l’élément de distinction commun. En revanche, elle permet une automatisation importante du processus de recherche de nuances, suffisante pour assurer que le travail humain de validation des résultats n’introduise dans ceux-ci de biais interprétatif trop important.
[ "classes sémantiques", "nuances de sens", "acquisition sur corpus" ]
[ "P", "R", "R" ]
[ "", "The corpus-based acquisition of lexical semantic information has given rise to numerous studies on the automatic constitution of semantic classes, clustering words with similar meanings. However, the practical interest of these classes remains limited in the absence of knowledge about the nuances of meaning differentiating the words of a same class. We present a first system to make explicit such semantic nuances, in a semi-automatic way, using data from a text corpus, thus reaching a degree of word meaning definition, to our knowledge, never attained before by automatic means, This technique exploits large contexts around word occurrences to bring together pairs of words characterised by a similar meaning nuance. The limitation of this approach is that it only provides an implicit representation of the discovered distinctions : human interpretation is still required to name them. However, it enables an important level of automation, so that the human validation work can only introduce a limited bias in the results.", "semantic classes, nuances, corpus-based acquisition" ]
taln-2006-long-025
Groupes Nominaux Prédicatifs : utilisation d’une grammaire de liens pour l’extraction d’information
L’identification des structures prédicatives présente un grand intérêt quand on se situe dans une problématique d’extraction d’information. Si une littérature abondante existe à ce sujet, particulièrement dans le domaine de la génomique, la plupart des travaux portent sur les relations autour du verbe. Peu s’intéressent à la relation qui peut unir une nominalisation et ses actants dans un groupe nominal à tête prédicative (GNP). Nous montrons la complexité des différents types de GNP et des relations paraphrastiques qui les unissent avec les formes verbales, afin de donner une vue unifiée des structures prédicatives nomino-verbales. Nous montrons ensuite comment nous avons conçu une grammaire de liens permettant l’identification de chacun des actants dans les GNP. Nous en décrivons la mise en oeuvre avec le Link Parser, pour l’extraction d’information dans des articles scientifiques du domaine de la Biologie.
[ "groupe nominal prédicatif", "extraction d’information", "nominalisation", "marqueurs prépositionnels" ]
[ "P", "P", "P", "U" ]
[ "", "The identification of predicative structures is of great interest in information extraction. Although there is abundant literature on this subject, particularly in the genomic field, the majority relates to the relations around the verb. Few are interested in the relation which can link a nominalization and its actants in a noun phrase with predicative head (NPP). Our work involves firstly showing the complexity of different types of NPPs and the paraphrastic relations which link them with the verbal forms, followed by a unified view of the nomino-verbal predicative structures. We further show how we designed a link grammar allowing the identification of each actant in the NNPs. We describe the implementation with Link Parser for information extraction in scientific articles in the field of Biology.", "nominalization, predicative noun phrase, prepositional markers, information extraction" ]
taln-2006-long-026
Trouver le coupable : Fouille d’erreurs sur des sorties d’analyseurs syntaxiques
Nous présentons une méthode de fouille d’erreurs pour détecter automatiquement des erreurs dans les ressources utilisées par les systèmes d’analyse syntaxique. Nous avons mis en oeuvre cette méthode sur le résultat de l’analyse de plusieurs millions de mots par deux systèmes d’analyse différents qui ont toutefois en commun le lexique syntaxique et la chaîne de traitement pré-syntaxique. Nous avons pu identifier ainsi des inexactitudes et des incomplétudes dans les ressources utilisées. En particulier, la comparaison des résultats obtenus sur les sorties des deux analyseurs sur un même corpus nous a permis d’isoler les problèmes issus des ressources partagées de ceux issus des grammaires.
[ "fouille d’erreurs", "analyse syntaxique" ]
[ "P", "P" ]
[ "", "We introduce an error mining technique for automatically detecting errors in resources used in parsing systems.We applied this technique on parsing results produced on several millions of words by two distinct parsing systems, which share a common syntactic lexicon and pre-parsing processing chain.We were thus able to identify errors and missing elements in the resources. In particular, by comparing both systems’ results, we were able to differentiate between problems stemming from shared resources and those resulting from grammars.", "parsing, error mining" ]
taln-2006-long-027
V1Ω a=able ou Normaliser des lexiques syntaxiques est délectable
Partant des lexiques TAL syntaxiques existants, cet article propose une représentation lexicale unifiée et normalisée, préalable et nécessaire à toute exploitation des lexiques syntaxiques hors de leur propre contexte de conception. Ce travail s’inscrit dans un cadre de modélisation privilégié − le Lexical Markup Framework − qui a été conçu dès le départ comme un modèle lexicographique intégrant les différents niveaux de description. Ce modèle permet d’articuler des descriptions extensionnelles et intensionnelles et fait référence à un jeu de descripteurs normalisés, garantissant la rigueur de la description des faits linguistiques et assurant, à terme, la compatibilité avec des formats de données utilisés pour l’annotation de corpus.
[ "lexique", "syntaxe", "TAL", "lexique-grammaire", "sous-catégorisation", "standardisation" ]
[ "P", "P", "P", "U", "U", "U" ]
[ "", "Based on existing lexical resources for NLP, in particular inflected form and subcategorization lexica, this paper proposes a unified and normalized representation, required for any further use of the data out of their original context. As a starting point for our model, we chose the Lexical Markup Framework, for three reasons. Firstly, it covers various layers of linguistic description including morphology, syntax and semantics. Secondly, it allows for combining extensional (i.e. lists of forms or constructions) and intensional (i.e. reference to paradigms) lexical descriptions. Thirdly, it makes use of externally defined data categories, ensuring linguistic soundness and, ultimately, compatibility with standardized corpus annotation formats.", "lexicon, NLP, syntax, lexicon-grammar, normalization, subcategorization" ]
taln-2006-long-030
Décodage conceptuel et apprentissage automatique : application au corpus de dialogue Homme-Machine MEDIA
Cette étude présente les travaux du LIA effectués sur le corpus de dialogue homme-machine MEDIA et visant à proposer des méthodes d’analyse robuste permettant d’extraire d’un message audio une séquence de concepts élémentaires. Le modèle de décodage conceptuel présenté est basé sur une approche stochastique qui intègre directement le processus de compréhension au processus de Reconnaissance Automatique de la Parole (RAP). Cette approche permet de garder l’espace probabiliste des phrases produit en sortie du module de RAP et de le projeter vers un espace probabiliste de séquences de concepts. Les expériences menées sur le corpus MEDIA montrent que les performances atteintes par notre modèle sont au niveau des meilleurs systèmes ayant participé à l’évaluation sur des transcriptions manuelles de dialogues. En détaillant les performances du système en fonction de la taille du corpus d’apprentissage on peut mesurer le nombre minimal ainsi que le nombre optimal de dialogues nécessaires à l’apprentissage des modèles. Enfin nous montrons comment des connaissances a priori peuvent être intégrées dans nos modèles afin d’augmenter significativement leur couverture en diminuant, à performance égale, l’effort de constitution et d’annotation du corpus d’apprentissage.
[ "dialogue homme-machine", "reconnaissance automatique de la parole", "apprentissage automatique à base de corpus" ]
[ "P", "P", "R" ]
[ "", "Within the framework of the French evaluation program MEDIA on spoken dialogue systems, this paper presents the methods developed at the LIA lab for the robust extraction of basic conceptual constituents or concepts from an audio message. The conceptual decoding model proposed follows a stochastic paradigm and is directly integrated into the Automatic Speech Recognition (ASR) process. This approach allows us to both keep the probabilistic search space on sequences of words produced by the ASR module and project it to a probabilistic search space of sequences of concepts. The experiments carried on on the MEDIA corpus show that the performance reached by our approach is state of the art on manual transcriptions of dialogues. By partitioning the training corpus according to different sizes, one can measure the impact of the training corpus on the decoding performance, therefore estimate both the minimal and optimal number of dialogue examples required. Finally we detail how a priori knowledge can be integrated in our models in order to increase their coverage and therefore lowering, for the same level of performance, the amount of training corpus required.", "spoken dialogue, automatic speech recognition, corpus-based methods" ]
taln-2006-long-031
Vers une prédiction automatique de la difficulté d’une question en langue naturelle
Nous proposons et testons deux méthodes de prédiction de la capacité d’un système à répondre à une question factuelle. Une telle prédiciton permet de déterminer si l’on doit initier un dialogue afin de préciser ou de reformuler la question posée par l’utilisateur. La première approche que nous proposons est une adaptation d’une méthode de prédiction dans le domaine de la recherche documentaire, basée soit sur des machines à vecteurs supports (SVM) soit sur des arbres de décision, avec des critères tels que le contenu des questions ou des documents, et des mesures de cohésion entre les documents ou passages de documents d’où sont extraits les réponses. L’autre approche vise à utiliser le type de réponse attendue pour décider de la capacité du système à répondre. Les deux approches ont été testées sur les données de la campagne Technolangue EQUER des systèmes de questions-réponses en français. L’approche à base de SVM est celle qui obtient les meilleurs résultats. Elle permet de distinguer au mieux les questions faciles, celles auxquelles notre système apporte une bonne réponse, des questions difficiles, celles restées sans réponses ou auxquelles le système a répondu de manière incorrecte. A l’opposé on montre que pour notre système, le type de réponse attendue (personnes, quantités, lieux...) n’est pas un facteur déterminant pour la difficulté d’une question.
[ "SVM", "arbres de décision", "questions-réponses", "prédiction de la difficulté" ]
[ "P", "P", "P", "R" ]
[ "", "This paper presents two methods for automatically predicting the ability for a question answering system to automatically reply to a factoid question. The context of this prediction is the determination of the need to initiate a dialog with the user in order to focus or reformulate the question. The first method is an adaptation of a document retrieval prediction system based on SVM and decision trees. The features involved include question or document text, and cohesion measures between documents or extracts from which the answer is extracted. The second method uses only expected answer type to predict the answer validity. Both methods have been evaluated with data from the participation of our QA engine in the Technolangue EQUER campaign. On the one hand, the SVM based method leads to the best results. It correctly determines which are easy questions, namely, those to which our system gives the right answer, and which are hard questions, those to which our system gives bad or no answer. On the other hand, we show that for our system, the expected answer type (proper nouns, numbers, locations ...) is not a determining factor in defining question hardness.", "question-answering, difficulty prediction, SVM, decision trees" ]
taln-2006-long-032
Variation terminologique et analyse diachronique
Cet article présente un travail destiné à automatiser l’étude de l’évolution terminologique à partir de termes datés extraits de corpus diachroniques de textes scientifiques ou techniques. Les apparitions et disparitions d’attestations de termes au cours du temps constituent la manifestation la plus simple de l’évolution. Mais la prise en compte des formes variantes apporte une information de meilleure qualité sur le suivi des termes. Une distance entre termes complexes permet de rendre opérationnelle l’intégration de la variation terminologique à l’analyse diachronique. Des résultats montrant la prise en compte des variantes sont présentés et commentés à la fin de l’article.
[ "variation terminologique", "évolution terminologique", "corpus diachronique", "distance", "terme complexe" ]
[ "P", "P", "P", "P", "P" ]
[ "", "This paper presents a work about terminological evolution of dated terms, extracted from diachronic corpora of scientific or technical texts. Disappearance and appearances of terms attestations are the most obvious evidence of change. Nonetheless taking into account the variant forms of terms helps describe their historic development. A distance between complex terms allows terminological variation to be integrated into diachronic analysis. Some results and comments are given at the end of the paper.", "terminological evolution, diachronic corpus, complex term, terminological variation, distance" ]
taln-2006-long-033
Éléments pour la génération de classes sémantiques à partir de définitions lexicographiques Pour une approche sémique du sens
Ce papier expose une expérience de classification menée sur un corpus de définitions dictionnairiques. Le cadre général de cette recherche est la constitution d’une ressource lexico-sémantique fondée sur une conception structuraliste du sens (le contenu sémantique d’une unité lexicale est structuré en sèmes ; le sens d’un texte émerge de faisceaux de regroupements sémiques stabilisés). L’objectif de l’expérience rapportée est de découvrir des classes sémantiques à partir de définitions dictionnairiques avec la méthode CAH. Les classes sémantiques regroupent des unités lexicales en fonction de sèmes génériques (i.e. communs à toutes les unités lexicales de la classe) et s’organisent différentiellement en fonction de sèmes spécifiques. À partir d’une sélection d’entrées dictionnairiques partageant le sème générique /arbre/, nous étudions la distribution et l’organisation d’une hypothétique classe sémantique liée au domaine de la sylviculture.
[ "ressources lexico-sémantiques", "CAH", "dictionnaire sémique", "sémantique textuelle", "classification automatique", "Jaccard" ]
[ "P", "P", "R", "M", "M", "U" ]
[ "", "This paper describes an experiment of classification, based on a corpus of dictionary definitions. Underlying this research is the building of a lexico-semantic resource based on a structuralist approach to meaning. The semantic content of a lexical item is made up of semes; the meaning of a text emerges from groupings of stabilised seme sets. The purpose of the experiment is to make up semantic classes (or clusters) with dictionary definitions by using the HCA method. Semantic classes are built from lexical items according to generic semes in that they are shared by all lexical items of the class. They are differentiated according to their specific semes. From a selection of dictionary entries sharing generic seme /arbre/ (“tree”), the distribution and the organisation of an assumed semantic class linked to the domain of Forestry will be studied.", "lexico-semantic resources, seme dictionary, text semantics, clustering, HCA, Jaccard, UPGM" ]
taln-2006-long-034
Analyse par contraintes de l’organisation du discours
Nous abordons ici la question de l’analyse de la structure du discours, du point de vue de sa description formelle et de son traitement automatique. Nous envisageons l’hypothèse selon laquelle une approche par contraintes pourrait permettre la prise en charge de structures discursives variées d’une part, et de différents types d’indices de leur manifestation d’autre part. Le formalisme CDML que nous introduisons vise précisément une telle approche.
[ "approche par contraintes", "analyse du discours", "formalisation du discours" ]
[ "P", "R", "M" ]
[ "", "We focus on the problem of discourse structure analysis from the point of view of its formal description and automatic processing.We intend to test the hypothesis that constraint-based approaches could enable various structures and cues of their presence to be taken into account. The CDML formalism which is here introduced allows such an approach.", "discourse analysis, discourse formalisation, constraint-based approach" ]
taln-2006-poster-001
Étude et analyse de la phrase nominale arabe en HPSG
Dans cet article, nous proposons une démarche d’analyse syntaxique pour les phrases nominales arabes à l’aide du formalisme des grammaires syntagmatiques guidées par les têtes HPSG. Pour ce faire, nous commençons par étudier la typologie de la phrase nominale arabe en précisant ses différentes formes. Puis, nous élaborons une grammaire HPSG traitant ce type de phrase et qui respecte la spécificité de la langue arabe. Ensuite, nous présentons une démarche d’analyse syntaxique se basant sur une approche ascendante et sur le mécanisme d’unification. Enfin, nous donnons une idée sur l’implémentation et l’expérimentation du prototype réalisé.
[ "phrase nominale arabe", "analyse syntaxique", "grammaire HPSG", "schéma adapté" ]
[ "P", "P", "P", "U" ]
[ "", "In this paper, we propose a parsing approach for Arabic nominal sentences using the Head-Driven Phrase Grammar formalism HPSG. To elaborate this approach, we begin by studying the typology of the Arabic nominal sentence specifying its different forms. Then, we elaborate a HPSG grammar for this type of sentence. The elaborated grammar respects the Arabic language specificity. Next, we present a parsing approach based on a bottom-up unification process. Finally, we illustrate the implementation and experimentation of the realised prototype.", "arabic nominal sentence, HPSG grammar, parsing" ]
taln-2006-poster-004
Comment évaluer les algorithmes de segmentation automatique ? Essai de construction d’un matériel de référence.
L’objectif de cette recherche est d’évaluer l’efficacité d’algorithmes lors de l’identification des ruptures thématiques dans des textes. Pour ce faire, 32 articles de journaux ont été segmentés par des groupes de 15 juges. L’analyse de leurs réponses indique que chaque juge, pris individuellement, est peu fiable contrairement à l’indice global de segmentation, qui peut être dérivé des réponses de l’ensemble des juges. Si les deux algorithmes testés sont capables de retrouver le début des articles lorsque ceux-ci sont concaténés, ils échouent dans la détection des changements de thème perçus par la majorité des juges. Il faut toutefois noter que les juges, pris individuellement, sont eux-mêmes inefficaces dans l’identification des changements de thème. Dans la conclusion, nous évaluons différentes explications du faible niveau de performance observé.
[ "évaluation", "segmentation automatique", "accord interjuges" ]
[ "P", "P", "U" ]
[ "", "The objective of this research is to evaluate the efficacy of algorithms in identifying thematic breaks in texts. With this aim, 32 newspaper articles were segmented by groups of 15 judges. The analysis of their answers indicates that each judge, taken individually, is not very reliable, unlike the global index of segmentation derived from all the judges. If two algorithms tested are able to find the beginning of the articles when those are concatenated, they fail in the detection of the changes of topic perceived by the majority of the judges. It should however be noted that the judges, taken individually, are themselves largely ineffective in the identification of the changes of topic. In conclusion, we examine various explanations for the low level of performance observed.", "automatic segmentation, evaluation, interrater agreement" ]
taln-2006-poster-005
Mécanismes de contrôle pour l’analyse en Grammaires de Propriétés
Les méthodes d’analyse syntaxiques hybrides, reposant à la fois sur des techniques statistiques et symboliques, restent peu exploitées. Dans la plupart des cas, les informations statistiques sont intégrées à un squelette contextfree et sont utilisées pour contrôler le choix des règles ou des structures. Nous proposons dans cet article une méthode permettant de calculer un indice de corrélation entre deux objets linguistiques (catégories, propriétés). Nous décrivons une utilisation de cette notion dans le cadre de l’analyse des Grammaires de Propriétés. L’indice de corrélation nous permet dans ce cas de contrôler à la fois la sélection des constituants d’une catégorie, mais également la satisfaction des propriétés qui la décrivent.
[ "Grammaires de Propriétés", "indice de corrélation", "analyseur syntaxique", "modèle des patrons", "technique d’analyse hybride" ]
[ "P", "P", "M", "M", "R" ]
[ "", "Hybrid parsing techniques based both on statistical and symbolic methods remain rare. In general, they integrate statistical information into a context-free skeleton, in order to control the selection of rules and structures. We propose a statistical method which allows the evaluation of a correlation index between two linguistic objects, namely, category, and property. We describe how to integrate this statistical information into the framework of Property Grammars. The correlation index is used for controling both the selection process of category constituents and the evaluation of properties satisfaction.", "parsing, patterns model, correlation index, Property Grammars, hybrid parsing techniques" ]
taln-2006-poster-006
Exploration et utilisation d’informations distantes dans les modèles de langage statistiques
Dans le cadre de la modélisation statistique du langage, nous montrons qu’il est possible d’utiliser un modèle n-grammes avec un historique qui n’est pas nécessairement celui avec lequel il a été appris. Par exemple, un adverbe présent dans l’historique peut ne pas avoir d’importance pour la prédiction, et devrait donc être ignoré en décalant l’historique utilisé pour la prédiction. Notre étude porte sur les modèles n-grammes classiques et les modèles n-grammes distants et est appliquée au cas des bigrammes. Nous présentons quatre cas d’utilisation pour deux modèles bigrammes : distants et non distants. Nous montrons que la combinaison linéaire dépendante de l’historique de ces quatre cas permet d’améliorer de 14 % la perplexité du modèle bigrammes classique. Par ailleurs, nous nous intéressons à quelques cas de combinaison qui permettent de mettre en valeur les historiques pour lesquels les modèles que nous proposons sont performants.
[ "modélisation statistique du langage", "combinaison linéaire", "modèles distants" ]
[ "P", "P", "R" ]
[ "", "In the framework of statistical language modeling, we show that it is possible to use n-gram models with a history different to the one used during training. Our study deals with classical and distant n-gram models and is restricted to bigram models. We present four use cases for two bigram models : distant and non distant. By using the linear combination, we show an improvement of 14 % in terms of perplexity compared to the classic bigram model. Moreover, a study has been performed in order to emphasize the histories for which our models are efficient.", "statistical language modeling, distant models, linear combination" ]
taln-2006-poster-007
Création d’une base terminologique juridique multilingue à l’aide de la plateforme générique Jibiki : le projet LexALP
Cet article présente l’utilisation de « Jibiki » (la plateforme de développement du serveur Web Papillon) dans le cadre du projet LexALP1. Le but de ce projet est d’harmoniser la terminologie des quatre langues (français, allemand, italien et slovène) de la Convention Alpine2 de sorte que les états membres puissent coopérer efficacement. Pour cela, le projet utilise la plateforme Jibiki afin de construire une banque terminologique permettant de comparer la terminologie spécialisée de sept systèmes légaux dans quatre langues, et de l’harmoniser, optimisant ainsi la compréhension entre les états alpins sur des questions environnementales au niveau supranational. Dans cet article, nous présentons comment peut être employée la plateforme générique Jibiki afin de gérer un dictionnaire particulier.
[ "dictionnaire multilingue", "banque terminologique juridique", "édition de terme" ]
[ "R", "R", "M" ]
[ "", "This paper presents the particular use of « Jibiki » (Papillon’s Web server development platform) for the LexALP1 project. LexALP’s goal is to harmonize the terminology of the Alpine Convention’s2 four languages (French, German, Italian and Slovenian) so that member states are able to cooperate effectively. For this, the project uses the Jibiki platform in order to build a term bank used to compare the specialized terminology of seven different national legal systems in four different languages, and to harmonize it, optimizing the understanding between various alpine states in environmental matters at a supranational level. We describe how a generic platform like Jibiki is used to cope with a new kind of dictionary.", "multilingual dictionary, legal term bank, term editing" ]
taln-2006-poster-008
Traitement des incompréhensions et des malentendus en dialogue homme-machine
Traiter les erreurs en dialogue homme-machine est un problème difficile compte-tenu des multiples sources possibles depuis la reconnaissance de la parole jusqu’à la génération en passant par d’autres modules comme l’analyse sémantique, l’interprétation pragmatique ou la gestion du dialogue. Dans cet article, ce problème est envisagé dans le but d’apporter de la généricité et de la robustesse au système ; il est traité au niveau du contrôleur de dialogue. Les différents types d’erreurs sont d’abord identifiés et regroupés en deux catégories qui seules ont un sens vis-à-vis de l’utilisateur : les incompréhensions et les malentendus. Puis, ces deux catégories d’erreur sont traitées de manière spécifique pour que le système puisse générer une réponse convenable et intelligente à l’utilisateur, sans rupture de dialogue. L’expérimentation effectuée en appliquant cette approche au système de dialogue Mélina présente des résultats prometteurs pour traiter les erreurs en dialogue.
[ "incompréhension", "dialogue homme-machine", "malentendu", "acte de dialogue", "but de dialogue", "stratégie de dialogue" ]
[ "P", "P", "U", "M", "R", "M" ]
[ "", "Miscommunication causes inconvenience within a spoken dialogue system. In this paper, we investigate this problem with regard to achieving genericity and robustness within dialogue management. Therefore, different error types occurring in a spoken dialogue system were first identified. Two markers were then proposed to detect and to trigger misunderstanding to the dialogue manager that should then choose an adequate strategy so as to generate an intelligent and suitable answer to the user. Moreover, several issues are investigated in order to process misinterpretations in the dialogue manager. An experiment performed using our approach to the spoken dialogue system Mélina shows promising results in processing miscommunication and proves the value of our approach.", "misunderstanding, misinterpretation, dialogue act, dialogue goal, dialogue strategy, humancomputer dialogue" ]
taln-2006-poster-009
Un modèle pour unifier la gestion de ressources linguistiques en contexte multilingue
Le bon fonctionnement d’Intuition, plate-forme de recherche d’information, repose sur le développement et l’intégration d’un grand nombre de ressources linguistiques. Dans un souci de cohérence et de meilleure gestion, l’unification de ressources contenant des connaissances hétérogènes s’impose. Comme Intuition est disponible dans la plupart des langues européennes, cette unification se heurte au facteur multilingue. Pour surmonter les problèmes causés par les différences structurelles entre les langues, une nouvelle architecture linguistique a été conçue et exprimée en UML. Ce méta-modèle est le point de départ pour la nouvelle base de données qui sera le noyau d’un nouvel environnement de travail centré sur son utilisateur, l’expert linguistique. Cet environnement centralisera la gestion de toutes les ressources linguistiques d’Intuition.
[ "ressources linguistiques", "multilinguisme", "architecture linguistique", "gestion de lexiques", "base de données linguistique" ]
[ "P", "P", "P", "M", "R" ]
[ "", "The proper functioning of Intuition, Sinequa’s platform for information retrieval, depends on the development and integration of a large number of linguistic resources. To improve their coherence and management, these resources which contain very diverse knowledge, need to be unified. As Intuition is available in most European languages, the multilingual factor complicates this unification. To overcome the problems caused by the structural differences among languages, a new linguistic architecture has been designed and modelled using UML. This meta-model is the starting point for a new database that will be the core component of a new workbench, centred on its user, the linguistic expert. This workbench will provide a centralised management of all the linguistic resources within Intuition.", "lexicon management, linguistic database, linguistic resources, multilinguism, linguistic architecture" ]
taln-2006-poster-010
Reconnaissance de la métrique des poèmes arabes par les réseaux de neurones artificiels
Nous avons construit un système capable de reconnaître les modes de composition pour les poèmes arabes, nous décrivons dans cet article les différents modules du système. Le recours à une technique d’apprentissage artificiel pour classer une séquence phonétique de syllabes est justifiable par le fait que nous avons imité le processus d’apprentissage naturel humain suivi par les poètes pendant des siècles. Les réseaux de neurones artificiels de type Perceptron multicouches ont montré un pouvoir très puissant de classification.
[ "poèmes arabes", "réseau de neurones", "syllabes", "classification", "perceptron multi couches", "analyse phonétique" ]
[ "P", "P", "P", "P", "M", "M" ]
[ "", "We have created a new system to recognize the different composition modes of Arab poetry. In this article we describe the different modules of this system. The use of an artificial learning technique for grouping a phonetic sequence of syllables is explained by the fact that we imitate the human process learning.", "artificial neural networks, multi layer perceptron, classification, arabic poetry, syllabes, phonetic analysis" ]
taln-2006-poster-011
Annotation automatique de relations de contrôle dans des spécifications des besoins informatiques
La conception de logiciels est un processus technologique complexe, qui nécessite d’être assisté par des outils de traitement automatique des langues. Cet article présente une méthode pour l’annotation de relations discursives de contrôle dans des textes de spécification de besoins informatiques (SBI). La méthode vise à distinguer les actions contrôlées par le système de celles contrôlées par son environnement, ce qui permet d’établir de façon claire les limites et les responsabilités d’un système informatique. Notre méthode fait appel à la sémantique discursive pour analyser les moyens d’expression du contrôle dans un corpus de SBI industrielles ; l’expression du contrôle est identifiable par la présence, dans un certain contexte, de marqueurs linguistiques exprimés par des règles dites d’Exploration Contextuelle. La dernière partie montre le processus d’annotation automatique de la notion de contrôle par le système EXCOM et termine par la présentation d’un début d’évaluation de cette méthodologie.
[ "annotation automatique", "relations de contrôle", "contrôle", "spécifications des besoins", "sémantique", "extraction d’information" ]
[ "P", "P", "P", "P", "P", "M" ]
[ "", "This paper presents a technique for the automatic extraction of control sentences from software requirements specifications (SRS). Our aim is to annotate action sentences from an SRS document, and to recognize if those actions are machine controlled or user controlled, in order to better understand the limits and responsibilities of a software system and to support the Requirements Engineering process. We present a linguistic analysis of control markers and a technique to automatically annotate control sentences by means of contextual exploration rules. These rules are implemented in the contextual exploration engine Excom and applied to a set of commercial SRS.", "semantic filtering, natural language requirements, requirements engineering, control" ]
taln-2006-poster-012
Vers l’intégration du contexte dans une mémoire de traduction sous-phrastique : détection du domaine de traduction
Nous présentons dans cet article une mémoire de traduction sous-phrastique sensible au domaine de traduction, une première étape vers l’intégration du contexte. Ce système est en mesure de recycler les traductions déjà « vues » par la mémoire, non seulement pour des phrases complètes, mais également pour des sous-séquences contiguës de ces phrases, via un aligneur de mots. Les séquences jugées intéressantes sont proposées au traducteur. Nous expliquons également la création d’un utilisateur artificiel, indispensable pour tester les performances du système en l’absence d’intervention humaine. Nous le testons lors de la traduction d’un ensemble disparate de corpus. Ces performances sont exprimées par un ensemble de métriques que nous définissons. Enfin, nous démontrons que la détection automatique du contexte de traduction peut s’avérer bénéfique et prometteuse pour améliorer le fonctionnement d’une telle mémoire, en agissant comme un filtre sur le matériel cible suggéré.
[ "mémoire de traduction sous-phrastique", "détection du domaine de traduction", "traduction assistée par ordinateur", "récupération sensible au contexte" ]
[ "P", "P", "M", "M" ]
[ "", "In this article, we present a sub-sentential translation memory sensitive to the translation topic, a first step towards a full-fledged context-sensitive memory. This system is able to recycle previous translations indexed into the memory, not only for full sentences, but also for contiguous subsegments of these sentences, through word alignment information. Interesting segments are proposed to the translator. We also describe the creation of an artificial user (a simulator), necessary to test the system performances when no human intervention is possible, as is the case for these experiments. We test it when translating a set of disparate bilingual corpora. These performances are reflected in different metrics which we define. Finally, we show that a first attempt to automatically detect the translation context can be beneficial and promises to improve such a memory, by acting as a filter on the target material proposed to the user.", "computer assisted machine translation, sub-sentential translation memory, context-sensitive retrieval, translation topic detection" ]
taln-2006-poster-013
Analyse et désambiguïsation morphologiques de textes arabes non voyellés
Dans ce papier nous proposons d’abord une méthode d’analyse et de désambiguïsation morphologiques de textes arabes non voyellés permettant de lever l’ambiguïté morphologique due à l’absence des marques de voyelles et aussi à l’irrégularité des formes dérivées de certains mots arabes (e.g. formes irrégulières du pluriel des noms et des adjectifs). Ensuite, nous présentons le système MORPH2, un analyseur morphologique de textes arabes non voyellés basé sur la méthode proposée. Ce système est évalué sur un livre scolaire et des articles de journaux. Les résultats obtenus son et très encourageants. En effet, les mesures de rappel et de précision globales sont respectivement de 69,77 % et 68,51 %.
[ "désambiguïsation morphologique", "analyse morphologique", "TALN arabe" ]
[ "P", "R", "M" ]
[ "", "In this paper we first propose a morphological disambiguation and analysis method of non voweled Arabic texts. This method could handle morphological ambiguities, caused by both the absence of the vowel marks and the irregularity of certain words (e.g. irregularity of the plural form for nouns and adjectives). Then, we present the MORPH2 system, a morphological analyser of non voweled Arabic texts, based on the proposed method. This system is evaluated on a school book and newspaper articles. The obtained results are very encouraging. Indeed, the global measures of recall and precision are 69,77 % and 68,51 % respectively.", "morphological analysis, morphological disambiguation, arabic NLP" ]
taln-2006-poster-014
Génération automatique des représentations ontologiques
Depuis la conception du Web sémantique une tâche importante se pose au niveau de traitement automatique du langage : rendre accessible le contenu existant duWeb dit classique aux traitements et raisonnements ontologiques. Comme la plupart du contenu est composé de textes, on a besoin de générer des représentations ontologiques de ces informations textuelles. Dans notre article nous proposons une méthode afin d’automatiser cette traduction en utilisant des ontologies et une analyse syntaxico-sémantique profonde.
[ "représentations ontologiques", "ontologies", "Web sémantique", "analyse syntaxico-sémantique" ]
[ "P", "P", "P", "P" ]
[ "", "Since the conception of the semantic Web an important challenge faces natural language processing: i.e. making the existing textual contents of the « classic »Web available for ontology based applications, reasoning and finally for the semantic Web. Since the majority of Web sites contain textual information, the creation of ontological representations of these will be useful if not necessary. In our article we propose a method to automate this task by using domain ontologies and a deep syntactic-semantic analysis.", "syntactic and semantic analysis, ontologies, ontological representations, semantic Web" ]
taln-2006-poster-015
Approche évolutive des notions de base pour une représentation thématique des connaissances générales
Dans le domaine du Traitement Automatique du Langage Naturel, pour élaborer un système de représentation thématique des connaissances générales, des méthodes s’appuyant sur des thésaurus sont utilisées depuis une quinzaine d’années. Un thésaurus est constitué d’un ensemble de concepts qui définissent un système générateur d’un espace vectoriel modélisant les connaissances générales. Ces concepts, souvent organisés en une hiérarchie arborescente, constituent un instrument fondamental, mais totalement figé. Même si les notions évoluent (nous pensons par exemple aux domaines techniques), un thésaurus ne peut quant à lui être modifié que lors d’un processus particulièrement lourd, car nécessitant la collaboration d’experts humains. C’est à ce problème que nous nous attaquons ici. Après avoir détaillé les caractéristiques que doit posséder un système générateur de l’espace vectoriel de modélisation des connaissances, nous définissons les « notions de base ». Celles-ci, dont la construction s’appuie initialement sur les concepts d’un thésaurus, constituent un autre système générateur de cet espace vectoriel. Nous abordons la détermination des acceptions exprimant les notions de base, ce qui nous amène naturellement à nous poser la question de leur nombre. Enfin, nous explicitons comment, s’affranchissant des concepts du thésaurus, ces notions de base évoluent par un processus itératif au fur et à mesure de l’analyse de nouveaux textes.
[ "évolutivité", "notions de base", "thésaurus", "vecteurs conceptuels" ]
[ "P", "P", "P", "U" ]
[ "", "In the field of Natural Language Processing, in order to arrive at a thematic representation system of general knowledge, methods leaning on thesaurus have been widely used for about fifteen years. A thesaurus consists of a set of concepts defining a system generating a vector space to model general knowledge. These concepts, often organized as a hierarchy, constitute a fundamental, but fixed tool. When concepts evolve (as in technical fields), a thesaurus can evolve, but only as a result of an arduous process, requiring the collaboration of human experts. After detailing the desired characteristics of knowledge modelling systems, we define the « basic notions ». Their construction is initially based on the concepts of a thesaurus. They constitute another generating system of this vector space. We discuss the establishment of these basic notions, which naturally leads us to the question of their number. Lastly, we clarify how, being freed from the concepts of the thesaurus, the basic notions evolve progressively in an iterative process as new texts are being analysed.", "thesaurus, conceptual vectors, basic notions, evolution" ]
taln-2006-poster-016
Relever des critères pour la distinction automatique entre les documents médicaux scientifiques et vulgarisés en russe et en japonais
Dans cet article, nous cherchons à affiner la notion de comparabilité des corpus. Nous étudions en particulier la distinction entre les documents scientifiques et vulgarisés dans le domaine médical. Nous supposons que cette distinction peut apporter des informations importantes, par exemple en recherche d’information. Nous supposons par là même que les documents, étant le reflet de leur contexte de production, fournissent des critères nécessaires à cette distinction. Nous étudions plusieurs critères linguistiques, typographiques, lexicaux et autres pour la caractérisation des documents médicaux scientifiques et vulgarisés. Les résultats présentés sont acquis sur les données en russe et en japonais. Certains des critères étudiés s’avèrent effectivement pertinents. Nous faisons également quelques réflexions et propositions quant à la distinction des catégories scientifique et vulgarisée et aux questionnements théoriques.
[ "document scientifique", "recherche d’information translangue", "corpus comparables", "typologie de documents", "catégorisation", "document vulgarisé" ]
[ "P", "M", "R", "M", "U", "R" ]
[ "", "In this paper, we aim to ripen the notion of corpora comparability. We study especially the distinction between scientific and popularized documents in the medical domain. We suppose that this distinction can give important informations, for instance in information retrieval. In the same time, we suppose that documents reflect the context of their production and provide features necessary for this distinction. We study and present several features, linguistic, typographic, lexical and other, for the characterization of medical documents as scientific or popularized. The results presented are acquired on data in Russian and Japanese. Some of analyzed features turn out to be relevant.We give then some remarks and suggestions as for the distinction of scientific and popularized documents and their theoretical issues.", "translingual information retrieval, comparable corpora, document typology, categorisation, scientific document, popularized document" ]
taln-2006-poster-017
Graphes paramétrés et outils de lexicalisation
La lexicalisation des grammaires réduit le nombre des erreurs d’analyse syntaxique et améliore les résultats des applications. Cependant, cette modification affecte un système d’analyse syntaxique dans tous ses aspects. Un de nos objectifs de recherche est de mettre au point un modèle réaliste pour la lexicalisation des grammaires. Nous avons réalisé des expériences en ce sens avec une grammaire très simple par son contenu et son formalisme, et un lexique syntaxique très informatif, le lexique-grammaire du français élaboré au LADL. La méthode de lexicalisation est celle des graphes paramétrés. Nos résultats tendent à montrer que la plupart des informations contenues dans le lexique-grammaire peuvent être transférées dans une grammaire et exploitées avec succès dans l’analyse syntaxique de phrases.
[ "lexicalisation", "grammaires", "syntaxe", "réseaux de transitions récursifs" ]
[ "P", "P", "P", "M" ]
[ "", "Shifting to a lexicalized grammar reduces the number of parsing errors and improves application results. However, such an operation affects a syntactic parser in all its aspects. One of our research objectives is to design a realistic model for grammar lexicalization. We carried out experiments for which we used a grammar with very simple content and formalism, and a very informative syntactic lexicon, namely the lexicon-grammar of French elaborated by the LADL. Lexicalization was performed by applying the parameterized-graph approach. Our results suggest that most information in the lexicon-grammar can be transferred into a grammar and exploited successfully for the syntactic parsing of sentences.", "grammar, syntax, lexicalization, recursive transition networks" ]
taln-2006-poster-018
Traitement des clitiques dans un environnement multilingue
Cet article décrit le traitement automatique des pronoms clitiques en espagnol et en grec moderne, deux langues de familles distinctes, dans le cadre de l’analyseur syntaxique FIPS multilingue, développé au Laboratoire d’Analyse et de Technologie de Langage (LATL). Nous abordons la distribution des pronoms clitiques, leurs similarités ainsi que leurs particularités par rapport à leur usage général. Ensuite nous présentons la méthode appliquée pour leur traitement, commune aux deux langues. Nous montrons que l’algorithme proposé peut facilement s’étendre à d’autres langues traitées par Fips qui partagent le phénomène de la cliticisation.
[ "clitiques", "analyseur syntaxique", "traitement multilingue" ]
[ "P", "P", "R" ]
[ "", "In this article we present an algorithm for the computational processing of clitic pronouns in Spanish and Modern Greek by the multilingual syntactic parser Fips that has been developed at the Laboratory For Language Analysis And Technology, LATL. We provide an overview of the distribution of clitic pronouns, their similarities and particular behaviour compared to general use. Then we present a common method of processing clitics for both languages. Finally, we show that the algorithm developed can be easily extended to other languages with clitics, when treated by Fips.", "syntactic parser, clitics, multilingual processing" ]
taln-2006-poster-019
Détection des propositions syntaxiques du français en vue de l’alignement des propositions de textes parallèles français-japonais
Nous présentons dans cet article SIGLé (Système d’Identification de propositions avec Grammaire Légère), un système réalisant la détection des propositions françaises. Ce système détecte les propositions – à partir de phrases en entrée ségmentées et étiquetées en chunk par un analyseur extérieur –, analyse leurs relations et leur attribue une étiquette indiquant leur nature syntaxique. Il est caractérisé d’une part par sa grammaire de type CFG proposant un ensemble d’étiquettes adaptées à notre analyse pour les mots dits en « qu- », et d’autre part par l’utilisation du formalisme DCG et du langage PROLOG.
[ "proposition syntaxique", "CFG", "DCG", "Prolog", "analyse syntaxique partielle", "subordination" ]
[ "P", "P", "P", "P", "M", "U" ]
[ "", "In this paper we present SIGLé (Clauses Identification System with Light Grammar), which is a system recognizing French clauses. Sentences are divided into chunks and tagged by an external analyzer. The system then identifies the clauses, analyzes their relations and assigns them a tag indicating their syntactic nature. The system is characterized by its context-free grammar, proposing a set of tags for the \"qu-\" words adapted to our analysis, and by the use of the DCG formalism and the PROLOG language.", "partial syntactic analysis, syntactic clause, subordination, Prolog, CFG, DCG" ]
taln-2006-poster-021
Extraction de grammaires TAG lexicalisées avec traits à partir d’un corpus arboré pour le coréen
Nous présentons, ici, une implémentation d’un système qui n’extrait pas seulement une grammaire lexicalisée (LTAG), mais aussi une grammaire LTAG avec traits (FB-LTAG) à partir d’un corpus arboré. Nous montrons les expérimentations pratiques où nous extrayons les grammaires TAG à partir du Sejong Treebank pour le coréen. Avant tout, les 57 étiquettes syntaxiques et les analyses morphologiques dans le corpus SJTree nous permettent d’extraire les traits syntaxiques automatiquement. De plus, nous modifions le corpus pour l’extraction d’une grammaire lexicalisée et convertissons les grammaires lexicalisées en schémas d’arbre pour résoudre le problème de la couverture lexicale limitée des grammaires lexicalisées extraites.
[ "corpus arboré", "coréen", "LTAG", "LTAG avec traits", "FB-LTAG", "grammaire d’arbre d’adjoint lexicalisée", "structure des traits", "extraction automatique d’une grammaire" ]
[ "P", "P", "P", "P", "P", "M", "M", "R" ]
[ "", "We present the implementation of a system which extracts not only lexicalized grammars but also feature-based lexicalized grammars from Sejong Treebank for Korean. We report on some practical experiments, in which we extract TAG grammars. Above all, full-scale syntactic tags and well-formed morphological analysis in Sejong Treebank allow us to extract syntactic features. In addition, we modify the Treebank to extract lexicalized grammars and convert them into tree schemata to resolve limited lexical coverage problems related to extracted lexicalized grammars.", "lexicalized tree adjoining grammar, LTAG, feature-based LTAG, feature structure, treebank, automatic grammar extraction, Korean" ]
taln-2006-poster-022
Étude de métaphores conceptuelles à l’aide de vues globales et temporelles sur un corpus
Cet article présente des expériences récentes menées dans le cadre d’un projet de recherche consacré à l’étude de métaphores conceptuelles. Ces expériences consistent à appréhender visuellement la répartition de trois domaines pouvant être à l’origine de métaphores conceptuelles dans un corpus d’articles boursiers. Les trois domaines étudiés sont la météorologie, la guerre et la santé, un grand nombre d’emplois métaphoriques du lexique de ces trois domaines ayant été observés dans le corpus d’étude. Afin de visualiser la répartition de ces domaines en corpus, nous exploitons la plate-forme ProxiDocs dédiée à la cartographie et à la catégorisation de corpus. Les cartes construites à partir du corpus et des domaines d’étude nous ont ainsi permis de localiser certaines métaphores conceptuelles dans des articles et des groupes d’articles du corpus. Des articles contenant des emplois non métaphoriques des domaines étudiés ont également été distingués sur les cartes. Des représentations cartographiques du corpus mettant dynamiquement en évidence l’évolution des trois domaines d’étude au fil du temps nous ont permis d’amorcer une étude sur le lien entre la présence de certaines métaphores conceptuelles et des faits d’actualité.
[ "métaphores conceptuelles", "visualisation de corpus", "linguistique de corpus" ]
[ "P", "R", "M" ]
[ "", "This article presents the results of recent experiments achieved within the framework of a research project dedicated to the study of conceptual metaphors. These experiments comprise in a visual study of the distribution of three source domains of conceptual metaphors in a corpus of stock exchange articles. The three domains studied are meteorology, war and health, a large number of metaphorical uses of the lexicon of these three domains has been noted in the corpus. In order to visualize the distribution of these domains in the corpus, we use the ProxiDocs cartography tool and categorization. Maps of the corpus allow us to locate some conceptual metaphors in articles and sets of articles in the corpus. Articles containing non-metaphorical uses of studied domains are also differentiated on maps. Graphic representations of the corpus showing the temporal evolution of the three domains allow us to study the bond between some conceptual metaphors and the topic.", "conceptual metaphors, corpus visualization, corpus linguistics" ]
taln-2006-poster-023
Système de traduction automatique statistique combinant différentes ressources
Cet article décrit une approche combinant différents modèles statistiques pour la traduction automatique basée sur les segments. Pour ce faire, différentes ressources sont utilisées, dont deux corpus parallèles aux caractéristiques différentes et un dictionnaire de terminologie bilingue et ce, afin d’améliorer la performance quantitative et qualitative du système de traduction. Nous évaluons notre approche sur la paire de langues français-anglais et montrons comment la combinaison des ressources proposées améliore de façon significative les résultats.
[ "corpus parallèle", "dictionnaire de terminologie bilingue", "traduction automatique statistique basée sur les segments" ]
[ "P", "P", "R" ]
[ "", "This paper describes an approach combining different statistical models for phrase-based machine translation. Different knowledge resources are used, such as two parallel corpora with different characteristics and a bilingual dictionary of terminology, in order to improve the qualitative and quantitative performance of the translation system. We evaluate our approach on the French-English language pair and show how combining the proposed resources significantly improves results.", "statistical phrase-based machine translation, parallel corpora, bilingual dictionary of terminology" ]
taln-2006-poster-025
Modélisation et analyse des coordinations elliptiques par l’exploitation dynamique des forêts de dérivation
Nous présentons dans cet article une approche générale pour la modélisation et l’analyse syntaxique des coordinations elliptiques. Nous montrons que les lexèmes élidés peuvent être remplacés, au cours de l’analyse, par des informations qui proviennent de l’autre membre de la coordination, utilisé comme guide au niveau des dérivations. De plus, nous montrons comment cette approche peut être effectivement mise en oeuvre par une légère extension des Grammaires d’Arbres Adjoints Lexicalisées (LTAG) à travers une opération dite de fusion. Nous décrivons les algorithmes de dérivation nécessaires pour l’analyse de constructions coordonnées pouvant comporter un nombre quelconque d’ellipses.
[ "coordination", "forêt de dérivation", "analyse syntaxique", "ellipses", "TAG", "forêt partagée" ]
[ "P", "P", "P", "P", "U", "M" ]
[ "", "In this paper, we introduce a generic approach to elliptic coordination modelization and parsing.We show that the erased lexical items can be replaced during parsing, by information gathered from the other member of the coordination, used as a guide at the derivation level. Moreover, we show how this approach can indeed be implemented as a light extension of the LTAG formalism through a fusion operation.We provide the derivation algorithms required to parse coordination constructions which can have an arbitrary number of elisions.", "parsing, TAG, coordination, ellipsis, shared forest, derivation forest" ]
taln-2006-poster-026
Analyse spectrale des textes : détection automatique des frontières de langue et de discours
Nous proposons un cadre théorique qui permet, à partir de matrices construites sur la base des données statistiques d’un corpus, d’extraire par des procédés mathématiques simples des informations sur les mots du vocabulaire de ce corpus, et sur la syntaxe des langues qui l’ont engendré. À partir des mêmes données initiales, on peut construire une matrice de similarité syntagmatique (probabilités de transition d’un mot à un autre), ou une matrice de similarité paradigmatique (probabilité de partager des contextes identiques). Pour ce qui concerne la première de ces deux possibilités, les résultats obtenus sont interprétés dans le cadre d’une modélisation du processus génératif par chaînes de Markov. Nous montrons que les résultats d’une analyse spectrale de la matrice de transition peuvent être interprétés comme des probabilités d’appartenance de mots à des classes. Cette méthode nous permet d’obtenir une classification continue des mots du vocabulaire dans des sous-systèmes génératifs contribuant à la génération de textes composites. Une application pratique est la segmentation de textes hétérogènes en segments homogènes d’un point de vue linguistique, notamment dans le cas de langues proches par le degré de recouvrement de leurs vocabulaires.
[ "segmentation de textes", "classification spectrale continue", "identification de langue" ]
[ "P", "R", "M" ]
[ "", "We propose a theoretical framework within which information on the vocabulary of a given corpus can be inferred on the basis of statistical information gathered on that corpus. Inferences can be made on the categories of the words in the vocabulary, and on their syntactic properties within particular languages. Based on the same statistical data, it is possible to build matrices of syntagmatic similarity (bigram transition matrices) or paradigmatic similarity (probability for any pair of words to share common contexts). When clustered with respect to their syntagmatic similarity, words tend to group into sublanguage vocabularies, and when clustered with respect to their paradigmatic similarity, into syntactic or semantic classes. Experiments have explored the first of these two possibilities. Their results are interpreted in the frame of a Markov chain modelling of the corpus’ generative processe(s).We show that the results of a spectral analysis of the transition matrix can be interpreted as probability distributions of words within clusters. This method yields a soft clustering of the vocabulary into sublanguages which contribute to the generation of heterogeneous corpora. As an application, we show how multilingual texts can be visually segmented into linguistically homogeneous segments. Our method is specifically useful in the case of related languages which happen to be mixed in corpora.", "soft spectral clustering, text segmentation, language identification" ]
taln-2006-poster-027
Adaptation de modèles de langage à l’utilisateur et au registre de langage : expérimentations dans le domaine de l’aide au handicap
Les modèles markoviens de langage sont très dépendants des données d’entraînement sur lesquels ils sont appris. Cette dépendance, qui rend difficile l’interprétation des performances, a surtout un fort impact sur l’adaptation à chaque utilisateur de ces modèles. Cette question a déjà été largement étudiée par le passé. En nous appuyant sur un domaine d’application spécifique (prédiction de texte pour l’aide à la communication pour personnes handicapées), nous voudrions l’étendre à la problématique de l’influence du registre de langage. En considérant des corpus relevant de cinq genres différents, nous avons étudié la réduction de cette influence par trois modèles adaptatifs différents : (a) un modèle cache classique favorisant les n derniers mots rencontrés, (b) l’intégration au modèle d’un dictionnaire dynamique de l’utilisateur et enfin (c) un modèle de langage interpolé combinant un modèle général et un modèle utilisateur mis à jour dynamiquement au fil des saisies. Cette évaluation porte un système de prédiction de texte basé sur un modèle trigramme.
[ "adaptation", "modèles de langage", "utilisateur", "aide au handicap", "thème" ]
[ "P", "P", "P", "P", "U" ]
[ "", "Statistical language models (LM) are highly dependent on their training resources. This makes it not only difficult to interpret evaluation results, it also has a strong impact on users of a LM-based application. This question has already been studied by others. Focussing on a specific domain (text prediction in a communication aid for handicapped persons) we want to extend it to the influence of the language register. Considering corpora from five different registers, we discuss three methods to adapt a language model to its actual language resource hereby reducing the effect of training dependency: (a) a simple cache model augmenting the probability of the n last inserted words, (b) a dynamic user dictionary, keeping every unseen word and (c) an interpolated LM combining a base model with a currently updated user model. Our evaluation is based on the results obtained from a text prediction system working on a trigram LM.", "language model, dynamic adaptation, user, theme, AAC systems" ]