Nouveautés
Recherche simple :
Accueil
Documents
Pédagogie
Thèses
Publications Scientifiques
Multi-formats
Pédagogie > Recherche thématique en fr
  • Nouveautés
  • Recherche avancée
  • Recherche thématique UNIT
  • Recherche thématique
  • Recherche par établissements
  • Recherche par auteurs
  • Recherche par mots-clefs
Recherche thématique en passant par le pivot dewey
Recherche en cours
Linguistique
 Modifier la recherche       Nouvelle recherche 
  • 76 ressources ont été trouvées. Voici les résultats 61 à 70
  |< << Page précédente 2 3 4 5 6 7 8 Page suivante >> >| documents par page
Tri :   Date Editeur Auteur Titre

06a - Typologie des langues automatique à partir de treebanks (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Classification et Alignement Typologie des langues automatique à partir de treebanks Philippe Blache, Grégroie de Montcheuil et Stéphane Rauzy Résumé : La typologie des langues consiste à identifier certaines propriétés syntaxiques et de les comparer au travers de plusieurs langues. Nous proposons dans cet article d’extraire automatiquement ces propriétés à partir de treebanks et de les analyser en vue de dresser une typologie. Nous décrivons cette méthode ainsi que les outils développés pour la mettre en œuvre. Nous appliquons la méthode à l’analyse de 10 langues décrites dans le Universal Dependencies Treebank. Nous validons ces résultats en montrant comment une technique de classification permet, sur la base des informations extraites, de reconstituer des familles de langue.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

05d - Identification de facteurs de risque pour des patients diabétiques à partir de comptes-rendus cliniques par des approches hybrides (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Extraction d’informationIdentification de facteurs de risque pour des patients diabétiques à partir de comptes-rendus cliniques par des approches hybrides Cyril Grouin, Véronique Moriceau, Sophie Rosset et Pierre Zweigenbaum Résumé : Dans cet article, nous présentons les méthodes que nous avons développées pour analyser des comptes-rendus hospitaliers rédigés en anglais. L’objectif de cette étude consiste à identifier les facteurs de risque de décès pour des patients diabétiques et à positionner les événements médicaux décrits par rapport à la date de création de chaque document. Notre approche repose sur (i) HeidelTime pour identifier les expressions temporelles, (ii) des CRF complétés par des règles de post-traitement pour identifier les traitements, les maladies et facteurs de risque, et (iii) des règles pour positionner temporellement chaque événement médical. Sur un corpus de 514 documents, nous obtenons une F-mesure globale de 0,8451. Nous observons que l’identification des informations directement mentionnées dans les documents se révèle plus performante que l’inférence d’informations à partir de résultats de laboratoire.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

05c - Stratégies de sélection des exemples pour l’apprentissage actif avec des CRF (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Extraction d’informationStratégies de sélection des exemples pour l’apprentissage actif avec des CRF Vincent Claveau et Ewa Kijak Résumé : Beaucoup de problèmes de TAL sont désormais modélisés comme des tâches d’apprentissage supervisé. De ce fait, le coût des annotations des exemples par l’expert représente un problème important. L’apprentissage actif (active learning) apporte un cadre à ce problème, permettant de contrôler le coût d’annotation tout en maximisant, on l’espère, la performance à la tâche visée, mais repose sur le choix difficile des exemples à soumettre à l’expert. Dans cet article, nous examinons et proposons des stratégies de sélection des exemples pour le cas spécifique des CRF, outil largement utilisé en TAL. Nous proposons d’une part une méthode simple corrigeant un biais de certaines méthodes de l’état de l’art. D’autre part, nous détaillons une méthode originale de sélection s’appuyant sur un critère de respect des proportion dans les jeux de données manipulés. Le bien-fondé de ces propositions est vérifié au travers de plusieurs tâches et jeux de données, incluant reconnaissance d’entités nommées, chunking, phonétisation, désambiguïsation de sens.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

05b - Oublier ce qu’on sait, pour mieux apprendre ce qu’on ne sait pas : une étude sur les contraintes de type dans les modèles CRF (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Extraction d’informationOublier ce qu’on sait, pour mieux apprendre ce qu’on ne sait pas : une étude sur les contraintes de type dans les modèles CRF Nicolas Pécheux, Alexandre Allauzen, Thomas Lavergne, Guillaume Wisniewski et François Yvon Résumé : Quand on dispose de connaissances a priori sur les sorties possibles d’un problème d’étiquetage,il semble souhaitable d’inclure cette information lors de l’apprentissage pour simplifier la tâche de modélisation et accélérer les traitements. Pourtant, même lorsque ces contraintes sont correctes et utiles au décodage, leur utilisation lors de l’apprentissage peut dégrader sévèrement les performances. Dans cet article, nous étudions ce paradoxe et montrons que le manque de contraste induit par les connaissances entraîne une forme de sous-apprentissage qu’il est cependant possible de limiter.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

05a - Apprentissage par imitation pour l’étiquetage de séquences : vers une formalisation des méthodes d’étiquetage easy-first (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Extraction d’information Apprentissage par imitation pour l’étiquetage de séquences : vers une formalisation des méthodes d’étiquetage easy-first Elena Knyazeva, Guillaume Wisniewski et François Yvon Résumé : Structured learning techniques, aimed at modeling structured objects such as labeled trees or strings, are computationally expensive. Many attempts have been made to reduce their complexity, either to speed up learning et inference, or to take richer dependencies into account. These attempts typically rely on approximate inference techniques and usually provide very little theoretical guarantee regarding the optimality of the solutions they find. In this work we study a new formulation of structured learning where inference is primarily viewed as an incremental process along which a solution is progressively computed. This framework generalizes several structured learning approaches. Building on the connections between this framework and reinforcement learning, we propose a theoretically sound method to learn to perform approximate inference. Experiments on four sequence labeling tasks show that our approach is very competitive when compared to several strong baselines. Structured learning techniques, aimed at modeling structured objects such as labeled trees or strings, are computationally expensive. Many attempts have been made to reduce their complexity, either to speed up learning and inference, or to take richer dependencies into account. These attempts typically rely on approximate inference techniques and usually provide very little theoretical guarantee regarding the optimality of the solutions they find.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

04d - Extraction automatique de paraphrases grand public pour les termes médicaux (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Syntaxe et paraphraseExtraction automatique de paraphrases grand public pour les termes médicaux Natalia Grabar et Thierry HamonPrésenté par Isabelle Tellier Résumé : Nous sommes tous concernés par notre état de santé et restons sensibles aux informations de santé disponibles dans la société moderne à travers par exemple les résultats des recherches scientifiques, les médias sociaux de santé, les documents cliniques, les émissions de télé et de radio ou les nouvelles. Cependant, il est commun de rencontrer dans le domaine médical des termes très spécifiques (eg, blépharospasme, alexitymie, appendicectomie), qui restent difficiles à comprendre par les non spécialistes. Nous proposons une méthode automatique qui vise l’acquisition de paraphrases pour les termes médicaux, qui soient plus faciles à comprendre que les termes originaux. La méthode est basée sur l’analyse morphologique des termes, l’analyse syntaxique et la fouille de textes non spécialisés. L’analyse et l’évaluation des résultats indiquent que de telles paraphrases peuvent être trouvées dans les documents non spécialisés et présentent une compréhension plus facile. En fonction des paramètres de la méthode, la précision varie entre 86 et 55 %. Ce type de ressources est utile pour plusieurs applications de TAL (eg, recherche d’information grand public, lisibilité et simplification de textes, systèmes de question-réponses).
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

04c - Noyaux de réécriture de phrases munis de types lexico-sémantiques (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Syntaxe et paraphraseNoyaux de réécriture de phrases munis de types lexico-sémantiques Martin Gleize et Brigitte Grau Résumé : De nombreux problèmes en traitement automatique des langues requièrent de déterminer si deux phrases sont des réécritures l’une de l’autre. Une solution efficace consiste à apprendre les réécritures en se fondant sur des méthodes à noyau qui mesurent la similarité entre deux réécritures de paires de phrases. Toutefois, ces méthodes ne permettent généralement pas de prendre en compte des variations sémantiques entre mots, qui permettraient de capturer un plus grand nombre de règles de réécriture. Dans cet article, nous proposons la définition et l’implémentation d’une nouvelle classe de fonction noyau, fondée sur la réécriture de phrases enrichie par un typage pour combler ce manque. Nous l’évaluons sur deux tâches, la reconnaissance de paraphrases et d’implications textuelles.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

04b - Analyse syntaxique de l’ancien français : quelles propriétés de la langue influent le plus sur la qualité de l’apprentissage ? (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Syntaxe et paraphraseAnalyse syntaxique de l’ancien français : quelles propriétés de la langue influent le plus sur la qualité de l’apprentissage ? Gaël Guibon, Isabelle Tellier, Sophie Prévost, Matthieu Constant et Kim Gerdes Résumé : L’article présente des résultats d’expériences d’apprentissage automatique pour l’étiquetage morpho-syntaxique et l’analyse syntaxique en dépendance de l’ancien français. Le corpus arboré SRCMF sert de données de référence. La nature peu standardisée de la langue qui y est utilisée implique des données d’entraînement par nature hétérogènes et aussi quantitativement limitées. Nous explorons donc diverses stratégies, fondées sur différents critères (variabilité du lexique, forme Vers/Prose des textes, époque de rédaction), pour constiter des corpus d’entrainement menant aux meilleurs résultats possibles.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015, Désambiguïsation
 |  Accéder à la ressource

04a - Grammaires phrastiques et discursives fondées sur TAG : une approche de D-STAG avec les ACG (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Syntaxe et paraphraseGrammaires phrastiques et discursives fondées sur TAG : une approche de D-STAG avec les ACG Laurence Danlos, Aleksandre Maskharashvili et Sylvain Pogodalla Résumé : Nous présentons une méthode pour articuler grammaire de phrase et grammaire de discours. Cette méthode permet à la fois l’intégration des deux grammaires sans recourir à une étape de traitement intermédiaire et de construire des structures discursives qui ne soient pas des arbres mais des graphes orientés acycliques (DAG). Notre analyse s’appuie sur une approche de l’analyse discursive utilisant les Grammaires d’Arbres Adjoint (TAG), Discourse Synchronous TAG (D-STAG). Nous utilisons pour ce faire un encodage des TAG dans les Grammaires Catégorielles Abstraites (ACG). Cela permet d’une part d’utiliser l’ordre supérieur pour l’interprétation sémantique afin de construire des structures qui soient des DAG et non des arbres, et d’autre part d’utiliser les propriétés de composition d’ACG afin d’articuler naturellement grammaire phrastique et grammaire discursive. Tous les exemples peuvent être exécutés avec le logiciel approprié.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

03c - Désambiguïsation lexicale à base de connaissances par sélection distributionnelle et traits sémantiques (Article RECITAL) (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Désambiguïsation Désambiguïsation lexicale à base de connaissances par sélection distributionnelle et traits sémantiques (Article RECITAL) Mokhtar Boumedyen BillamiRésumé : La désambiguïsation lexicale permet d’améliorer de nombreuses applications en traitement automatique des langues (TAL) comme la recherche d’information, l’extraction d’information, la traduction automatique, ou la simplification lexicale de textes. Schématiquement, il s’agit de choisir quel est le sens le plus approprié pour chaque mot d’un texte. Une des approches classiques consiste à estimer la similarité sémantique qui existe entre les sens de deux mots puis de l’étendre à l’ensemble des mots du texte. La méthode la plus directe donne un score de similarité à toutes les paires de sens de mots puis choisit la chaîne de sens qui retourne le meilleur score (on imagine la complexité exponentielle liée à cette approche exhaustive). Dans cet article, nous proposons d’utiliser une méta-heuristique d’optimisation combinatoire qui consiste à choisir une fenêtre contenant les voisins les plus proches par sélection distributionnelle autour du mot à désambiguïser. Le test et l’évaluation de notre méthode portent sur un corpus écrit en langue française en se servant du réseau sémantique BabelNet. Le taux d’exactitude obtenu est de 78% sur l’ensemble des noms et des verbes choisis pour l’évaluation.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015, Désambiguïsation
 |  Accéder à la ressource

rss |< << Page précédente 2 3 4 5 6 7 8 Page suivante >> >| documents par page
© 2006-2010 ORI-OAI