Tri :
Date
Editeur
Auteur
Titre
|
|
05c - Stratégies de sélection des exemples pour l’apprentissage actif avec des CRF (taln2015)
/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Extraction d’informationStratégies de sélection des exemples pour l’apprentissage actif avec des CRF
Vincent Claveau et Ewa Kijak
Résumé : Beaucoup
de problèmes de TAL sont désormais modélisés comme des tâches
d’apprentissage supervisé. De ce fait, le coût des annotations des
exemples par l’expert représente un problème important. L’apprentissage
actif (active learning) apporte un cadre à ce problème, permettant de
contrôler le coût d’annotation tout en maximisant, on l’espère, la
performance à la tâche visée, mais repose sur le choix difficile des
exemples à soumettre à l’expert.
Dans cet article, nous examinons et proposons des stratégies de
sélection des exemples pour le cas spécifique des CRF, outil largement
utilisé en TAL.
Nous proposons d’une part une méthode simple corrigeant un biais de
certaines méthodes de l’état de l’art. D’autre part, nous détaillons une
méthode originale de sélection s’appuyant sur un critère de respect des
proportion dans les jeux de données manipulés.
Le bien-fondé de ces propositions est vérifié au travers de plusieurs tâches et jeux de données,
incluant reconnaissance d’entités nommées, chunking, phonétisation, désambiguïsation de sens. Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
|
Accéder à la ressource
|
|
05b - Oublier ce qu’on sait, pour mieux apprendre ce qu’on ne sait pas : une étude sur les contraintes de type dans les modèles CRF (taln2015)
/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Extraction d’informationOublier ce qu’on sait, pour mieux apprendre ce qu’on ne sait pas : une étude sur les contraintes de type dans les modèles CRF
Nicolas Pécheux, Alexandre Allauzen, Thomas Lavergne, Guillaume Wisniewski et François Yvon
Résumé : Quand
on dispose de connaissances a priori sur les sorties possibles d’un
problème d’étiquetage,il semble souhaitable d’inclure cette information
lors de l’apprentissage pour simplifier la tâche de modélisation et
accélérer les traitements. Pourtant, même lorsque ces contraintes sont
correctes et utiles au décodage, leur utilisation lors de
l’apprentissage peut dégrader sévèrement les performances. Dans cet
article, nous étudions ce paradoxe et montrons que le manque de
contraste induit par les connaissances entraîne une forme de
sous-apprentissage qu’il est cependant possible de limiter. Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
|
Accéder à la ressource
|
|
05a - Apprentissage par imitation pour l’étiquetage de séquences : vers une formalisation des méthodes d’étiquetage easy-first (taln2015)
/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Extraction d’information
Apprentissage par imitation pour l’étiquetage de séquences : vers une formalisation des méthodes d’étiquetage easy-first
Elena Knyazeva, Guillaume Wisniewski et François Yvon
Résumé : Structured learning techniques, aimed at modeling structured objects such as labeled trees or strings, are computationally expensive. Many attempts have been made to reduce their complexity, either to speed up learning et inference, or to take richer dependencies into account. These attempts typically rely on approximate inference techniques and usually provide very little
theoretical guarantee regarding the optimality of the solutions they find.
In this work we study a new formulation of structured learning where inference is primarily viewed as an incremental process along which a solution is progressively computed. This framework generalizes several structured learning approaches. Building on the connections between this framework and reinforcement learning, we propose a theoretically sound method to learn to perform approximate inference. Experiments on four sequence labeling tasks show that our
approach is very competitive when compared to several strong baselines. Structured learning techniques, aimed at modeling structured objects such as labeled trees or strings, are computationally expensive. Many attempts have been made to reduce their complexity, either to speed up learning and inference, or to take richer dependencies into account. These attempts typically rely on approximate inference techniques and usually provide very little theoretical guarantee regarding the optimality of the solutions they find. Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
|
Accéder à la ressource
|
|
04d - Extraction automatique de paraphrases grand public pour les termes médicaux (taln2015)
/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Syntaxe et paraphraseExtraction automatique de paraphrases grand public pour les termes médicaux
Natalia Grabar et Thierry HamonPrésenté par Isabelle Tellier
Résumé : Nous
sommes tous concernés par notre état de santé et restons sensibles aux
informations de santé disponibles dans la société moderne à travers par
exemple les résultats des recherches scientifiques, les médias sociaux
de santé, les documents cliniques, les émissions de télé et de radio ou
les nouvelles. Cependant, il est commun de rencontrer dans le domaine
médical des termes très spécifiques (eg, blépharospasme, alexitymie,
appendicectomie), qui restent difficiles à comprendre par les non
spécialistes. Nous proposons une méthode automatique qui vise
l’acquisition de paraphrases pour les termes médicaux, qui soient plus
faciles à comprendre que les termes originaux. La méthode est basée sur
l’analyse morphologique des termes, l’analyse syntaxique et la fouille
de textes non spécialisés. L’analyse et l’évaluation des résultats
indiquent que de telles paraphrases peuvent être trouvées dans les
documents non spécialisés et présentent une compréhension plus facile.
En fonction des paramètres de la méthode, la précision varie entre 86 et
55 %. Ce type de ressources est utile pour plusieurs applications de
TAL (eg, recherche d’information grand public, lisibilité et
simplification de textes, systèmes de question-réponses). Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
|
Accéder à la ressource
|
|
04c - Noyaux de réécriture de phrases munis de types lexico-sémantiques (taln2015)
/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Syntaxe et paraphraseNoyaux de réécriture de phrases munis de types lexico-sémantiques
Martin Gleize et Brigitte Grau
Résumé : De
nombreux problèmes en traitement automatique des langues requièrent de
déterminer si deux phrases sont des réécritures l’une de l’autre. Une
solution efficace consiste à apprendre les réécritures en se fondant sur
des méthodes à noyau qui mesurent la similarité entre deux réécritures
de paires de phrases. Toutefois, ces méthodes ne permettent généralement
pas de prendre en compte des variations sémantiques entre mots, qui
permettraient de capturer un plus grand nombre de règles de réécriture.
Dans cet article, nous proposons la définition et l’implémentation d’une
nouvelle classe de fonction noyau, fondée sur la réécriture de phrases
enrichie par un typage pour combler ce manque. Nous l’évaluons sur deux
tâches, la reconnaissance de paraphrases et d’implications textuelles. Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
|
Accéder à la ressource
|
|
04b - Analyse syntaxique de l’ancien français : quelles propriétés de la langue influent le plus sur la qualité de l’apprentissage ? (taln2015)
/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Syntaxe et paraphraseAnalyse syntaxique de l’ancien français : quelles propriétés de la langue influent le plus sur la qualité de l’apprentissage ?
Gaël Guibon, Isabelle Tellier, Sophie Prévost, Matthieu Constant et Kim Gerdes
Résumé : L’article
présente des résultats d’expériences d’apprentissage automatique pour
l’étiquetage morpho-syntaxique et l’analyse syntaxique en dépendance de
l’ancien français. Le corpus arboré SRCMF sert de données de référence.
La nature peu standardisée de la langue qui y est utilisée implique des
données d’entraînement par nature hétérogènes et aussi quantitativement
limitées. Nous explorons donc diverses stratégies, fondées sur
différents critères (variabilité du lexique, forme Vers/Prose des
textes, époque de rédaction), pour constiter des corpus d’entrainement
menant aux meilleurs résultats possibles. Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015, Désambiguïsation
|
Accéder à la ressource
|
|
04a - Grammaires phrastiques et discursives fondées sur TAG : une approche de D-STAG avec les ACG (taln2015)
/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Syntaxe et paraphraseGrammaires phrastiques et discursives fondées sur TAG : une approche de D-STAG avec les ACG
Laurence Danlos, Aleksandre Maskharashvili et Sylvain Pogodalla
Résumé : Nous
présentons une méthode pour articuler grammaire de phrase et grammaire
de discours. Cette méthode permet à la fois l’intégration des deux
grammaires sans recourir à une étape de traitement intermédiaire et de
construire des structures discursives qui ne soient pas des arbres mais
des graphes orientés acycliques (DAG). Notre analyse s’appuie sur une
approche de l’analyse discursive utilisant les Grammaires d’Arbres
Adjoint (TAG), Discourse Synchronous TAG (D-STAG). Nous utilisons pour
ce faire un encodage des TAG dans les Grammaires Catégorielles
Abstraites (ACG). Cela permet d’une part d’utiliser l’ordre supérieur
pour l’interprétation sémantique afin de construire des structures qui
soient des DAG et non des arbres, et d’autre part d’utiliser les
propriétés de composition d’ACG afin d’articuler naturellement grammaire
phrastique et grammaire discursive. Tous les exemples peuvent être
exécutés avec le logiciel approprié. Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
|
Accéder à la ressource
|
|
03c - Désambiguïsation lexicale à base de connaissances par sélection distributionnelle et traits sémantiques (Article RECITAL) (taln2015)
/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Désambiguïsation
Désambiguïsation lexicale à base de connaissances par sélection distributionnelle et traits sémantiques (Article RECITAL)
Mokhtar Boumedyen BillamiRésumé : La désambiguïsation lexicale permet d’améliorer de nombreuses
applications en traitement automatique des langues (TAL) comme la
recherche d’information, l’extraction d’information, la traduction
automatique, ou la simplification lexicale de textes. Schématiquement,
il s’agit de choisir quel est le sens le plus approprié pour chaque mot
d’un texte. Une des approches classiques consiste à estimer la
similarité sémantique qui existe entre les sens de deux mots puis de
l’étendre à l’ensemble des mots du texte. La méthode la plus directe
donne un score de similarité à toutes les paires de sens de mots puis
choisit la chaîne de sens qui retourne le meilleur score (on imagine la
complexité exponentielle liée à cette approche exhaustive). Dans cet
article, nous proposons d’utiliser une méta-heuristique d’optimisation
combinatoire qui consiste à choisir une fenêtre contenant les voisins
les plus proches par sélection distributionnelle autour du mot à
désambiguïser. Le test et l’évaluation de notre méthode portent sur un
corpus écrit en langue française en se servant du réseau sémantique
BabelNet. Le taux d’exactitude obtenu est de 78% sur l’ensemble des noms
et des verbes choisis pour l’évaluation. Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015, Désambiguïsation
|
Accéder à la ressource
|
|
03b - Création rapide et efficace d’un système de désambiguïsation lexicale pour une langue peu dotée (taln2015)
/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Désambiguïsation
Création rapide et efficace d’un système de désambiguïsation lexicale pour une langue peu dotée Mohammad Nasiruddin, Andon Tchechmedjiev, Hervé Blanchon et Didier SchwabRésumé : Cet article présente un modèle génératif pour l’induction non supervisée
d’événements. Les précédentes méthodes de la littérature utilisent
uniquement les têtes des syntagmes pour représenter les entités.
Pourtant, le groupe complet (par exemple, « un homme armé ») apporte une
information plus discriminante (que « homme »). Notre modèle tient
compte de cette information et la représente dans la distribution des
schémas d’événements. Nous montrons que ces relations jouent un rôle
important dans l’estimation des paramètres, et qu’elles conduisent à des
distributions plus cohérentes et plus discriminantes. Les résultats
expérimentaux sur le corpus de MUC-4 confirment ces progrès. Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015, Désambiguïsation
|
Accéder à la ressource
|
|
03a - Désambiguïsation d’entités pour l’induction non supervisée de schémas événementiels (taln2015)
/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Désambiguïsation
Désambiguïsation d’entités pour l’induction non supervisée de schémas événementiels
Kiem-Hieu Nguyen, Xavier Tannier, Olivier Ferret et Romaric BesançonRésumé : Cet article présente un modèle génératif pour l’induction non supervisée
d’événements. Les précédentes méthodes de la littérature utilisent
uniquement les têtes des syntagmes pour représenter les entités.
Pourtant, le groupe complet (par exemple, « un homme armé ») apporte une
information plus discriminante (que « homme »). Notre modèle tient
compte de cette information et la représente dans la distribution des
schémas d’événements. Nous montrons que ces relations jouent un rôle
important dans l’estimation des paramètres, et qu’elles conduisent à des
distributions plus cohérentes et plus discriminantes. Les résultats
expérimentaux sur le corpus de MUC-4 confirment ces progrès. Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015, Désambiguïsation
|
Accéder à la ressource
|
|