Nouveautés
Recherche simple :
Accueil
Documents
Pédagogie
Thèses
Publications Scientifiques
Multi-formats
Pédagogie > Recherche par mots-clefs en fr
  • Nouveautés
  • Recherche avancée
  • Recherche thématique UNIT
  • Recherche thématique
  • Recherche par établissements
  • Recherche par auteurs
  • Recherche par mots-clefs
Mots-clefs > T > traitement
Niveau supérieur
  • 144 ressources ont été trouvées. Voici les résultats 1 à 10
  |< << Page précédente 1 2 3 4 5 6 Page suivante >> >| documents par page
Tri :   Date Editeur Auteur Titre

01 - Multilinguality at Your Fingertips: BabelNet, Babelfy and Beyond ! (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015 Conférence invitée Multilinguality at Your Fingertips: BabelNet, Babelfy and Beyond! Roberto Navigli Résumé : Multilinguality is a key feature of today’s Web, and it is this feature that we leverage and exploit in our research work at the Sapienza University of Rome’s Linguistic Computing Laboratory, which I am going to overview and showcase in this talk. I will start by presenting BabelNet 3.0, available at http://babelnet.org, a very large multilingual encyclopedic dictionary and semantic network, which covers 271 languages and provides both lexicographic and encyclopedic knowledge for all the open-class parts of speech, thanks to the seamless integration of WordNet, Wikipedia, Wiktionary, OmegaWiki, Wikidata and the Open Multilingual WordNet. Next, I will present Babelfy, available at http://babelfy.org, a unified approach that leverages BabelNet to jointly perform word sense disambiguation and entity linking in arbitrary languages, with performance on both tasks on a par with, or surpassing, those of task-specific state-of-the-art supervised systems. Finally I will describe the Wikipedia Bitaxonomy, available at http://wibitaxonomy.org, a new approach to the construction of a Wikipedia bitaxonomy, that is, the largest and most accurate currently available taxonomy of Wikipedia pages and taxonomy of categories, aligned to each other. I will also give an outline of future work on multilingual resources and processing, including state-of-the-art semantic similarity with sense embeddings.
Mot(s) clés libre(s) : traitement automatique du langage naturel, BabelNet, Babelfy, Bitaxonomy, taln2015
 |  Accéder à la ressource

02a - Utilisation de mesures de confiance pour améliorer le décodage en traduction de parole (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Traduction Utilisation de mesures de confiance pour améliorer le décodage en traduction de parole Laurent Besacier, Benjamin Lecouteux et Luong Ngoc QuangRésumé : Les mesures de confiance au niveau mot (Word Confidence Estimation – WCE) pour la traduction auto- matique (TA) ou pour la reconnaissance automatique de la parole (RAP) attribuent un score de confiance à chaque mot dans une hypothèse de transcription ou de traduction. Dans le passé, l’estimation de ces mesures a le plus souvent été traitée séparément dans des contextes RAP ou TA. Nous proposons ici une estimation conjointe de la confiance associée à un mot dans une hypothèse de traduction automatique de la parole (TAP). Cette estimation fait appel à des paramètres issus aussi bien des systèmes de transcription de la parole (RAP) que des systèmes de traduction automatique (TA). En plus de la construction de ces estimateurs de confiance robustes pour la TAP, nous utilisons les informations de confiance pour re-décoder nos graphes d’hypothèses de traduction. Les expérimentations réalisées montrent que l’utilisation de ces mesures de confiance au cours d’une seconde passe de décodage permettent d’obtenir une amélioration significative des performances de traduction (évaluées avec la métrique BLEU – gains de deux points par rapport à notre système de traduc- tion de parole de référence). Ces expériences sont faites pour une tâche de TAP (français-anglais) pour laquelle un corpus a été spécialement conçu (ce corpus, mis à la disposition de la communauté TALN, est aussi décrit en détail dans l’article).
Mot(s) clés libre(s) : traduction, traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

02b - Multi-alignement vs bi-alignement : à plusieurs, c’est mieux ! (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session TraductionMulti-alignement vs bi-alignement : à plusieurs, c’est mieux ! Olivier KraifRésumé : Dans cet article, nous proposons une méthode originale destinée à effectuer l’alignement d’un corpus multi-parallèle, i.e. comportant plus de deux langues, en prenant en compte toutes les langues simultanément (et non en composant une série de bi-alignements indépendants). Pour ce faire, nous nous appuyons sur les réseaux de correspondances lexicales constitués par les transfuges (chaînes identiques) et cognats (mots apparentés), et nous montrons comment divers tuilages des couples de langues permettent d’exploiter au mieux les ressemblances superficielles liées aux relations génétiques interlinguistiques. Nous évaluons notre méthode par rapport à une méthode de bi-alignement classique, et montrons en quoi le multi-alignement permet d’obtenir des résultats à la fois plus précis et plus robustes.
Mot(s) clés libre(s) : traduction, traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

02c - Apprentissage discriminant des modèles continus de traduction (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session TraductionApprentissage discriminant des modèles continus de traduction Quoc-Khanh Do, Alexandre Allauzen et François YvonRésumé : Alors que les réseaux neuronaux occupent une place de plus en plus importante dans le traitement automatique des langues, les méthodes d’apprentissage actuelles utilisent pour la plupart des critères qui sont décorrélés de l’application. Cet article propose un nouveau cadre d’apprentissage discriminant pour l’estimation des modèles continus de traduction. Ce cadre s’appuie sur la définition d’un critère d’optimisation permettant de prendre en compte d’une part la métrique utilisée pour l’évaluation de la traduction et d’autre part l’intégration de ces modèles au sein des systèmes de traduction automatique. De plus cette méthode d’apprentissage est comparée aux critères existants d’estimation que sont le maximum de vraisemblance et l’estimation contrastive bruitée. Les expériences menées sur la tâches de traduction des séminaires TED Talks de l’anglais vers le français montrent la pertinence d’un cadre discriminant d’apprentissage mais dont les performances sont liées au choix d’une stratégie d’initialisation adéquate. Nous montrons qu’avec une initialisation judicieuse des gains significatifs en terme de scorebleu peuvent être obtenus.
Mot(s) clés libre(s) : traduction, traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

03a - Désambiguïsation d’entités pour l’induction non supervisée de schémas événementiels (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Désambiguïsation Désambiguïsation d’entités pour l’induction non supervisée de schémas événementiels Kiem-Hieu Nguyen, Xavier Tannier, Olivier Ferret et Romaric BesançonRésumé : Cet article présente un modèle génératif pour l’induction non supervisée d’événements. Les précédentes méthodes de la littérature utilisent uniquement les têtes des syntagmes pour représenter les entités. Pourtant, le groupe complet (par exemple, « un homme armé ») apporte une information plus discriminante (que « homme »). Notre modèle tient compte de cette information et la représente dans la distribution des schémas d’événements. Nous montrons que ces relations jouent un rôle important dans l’estimation des paramètres, et qu’elles conduisent à des distributions plus cohérentes et plus discriminantes. Les résultats expérimentaux sur le corpus de MUC-4 confirment ces progrès.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015, Désambiguïsation
 |  Accéder à la ressource

03b - Création rapide et efficace d’un système de désambiguïsation lexicale pour une langue peu dotée (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Désambiguïsation Création rapide et efficace d’un système de désambiguïsation lexicale pour une langue peu dotée Mohammad Nasiruddin, Andon Tchechmedjiev, Hervé Blanchon et Didier SchwabRésumé : Cet article présente un modèle génératif pour l’induction non supervisée d’événements. Les précédentes méthodes de la littérature utilisent uniquement les têtes des syntagmes pour représenter les entités. Pourtant, le groupe complet (par exemple, « un homme armé ») apporte une information plus discriminante (que « homme »). Notre modèle tient compte de cette information et la représente dans la distribution des schémas d’événements. Nous montrons que ces relations jouent un rôle important dans l’estimation des paramètres, et qu’elles conduisent à des distributions plus cohérentes et plus discriminantes. Les résultats expérimentaux sur le corpus de MUC-4 confirment ces progrès.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015, Désambiguïsation
 |  Accéder à la ressource

03c - Désambiguïsation lexicale à base de connaissances par sélection distributionnelle et traits sémantiques (Article RECITAL) (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Désambiguïsation Désambiguïsation lexicale à base de connaissances par sélection distributionnelle et traits sémantiques (Article RECITAL) Mokhtar Boumedyen BillamiRésumé : La désambiguïsation lexicale permet d’améliorer de nombreuses applications en traitement automatique des langues (TAL) comme la recherche d’information, l’extraction d’information, la traduction automatique, ou la simplification lexicale de textes. Schématiquement, il s’agit de choisir quel est le sens le plus approprié pour chaque mot d’un texte. Une des approches classiques consiste à estimer la similarité sémantique qui existe entre les sens de deux mots puis de l’étendre à l’ensemble des mots du texte. La méthode la plus directe donne un score de similarité à toutes les paires de sens de mots puis choisit la chaîne de sens qui retourne le meilleur score (on imagine la complexité exponentielle liée à cette approche exhaustive). Dans cet article, nous proposons d’utiliser une méta-heuristique d’optimisation combinatoire qui consiste à choisir une fenêtre contenant les voisins les plus proches par sélection distributionnelle autour du mot à désambiguïser. Le test et l’évaluation de notre méthode portent sur un corpus écrit en langue française en se servant du réseau sémantique BabelNet. Le taux d’exactitude obtenu est de 78% sur l’ensemble des noms et des verbes choisis pour l’évaluation.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015, Désambiguïsation
 |  Accéder à la ressource

04a - Grammaires phrastiques et discursives fondées sur TAG : une approche de D-STAG avec les ACG (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Syntaxe et paraphraseGrammaires phrastiques et discursives fondées sur TAG : une approche de D-STAG avec les ACG Laurence Danlos, Aleksandre Maskharashvili et Sylvain Pogodalla Résumé : Nous présentons une méthode pour articuler grammaire de phrase et grammaire de discours. Cette méthode permet à la fois l’intégration des deux grammaires sans recourir à une étape de traitement intermédiaire et de construire des structures discursives qui ne soient pas des arbres mais des graphes orientés acycliques (DAG). Notre analyse s’appuie sur une approche de l’analyse discursive utilisant les Grammaires d’Arbres Adjoint (TAG), Discourse Synchronous TAG (D-STAG). Nous utilisons pour ce faire un encodage des TAG dans les Grammaires Catégorielles Abstraites (ACG). Cela permet d’une part d’utiliser l’ordre supérieur pour l’interprétation sémantique afin de construire des structures qui soient des DAG et non des arbres, et d’autre part d’utiliser les propriétés de composition d’ACG afin d’articuler naturellement grammaire phrastique et grammaire discursive. Tous les exemples peuvent être exécutés avec le logiciel approprié.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

04b - Analyse syntaxique de l’ancien français : quelles propriétés de la langue influent le plus sur la qualité de l’apprentissage ? (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Syntaxe et paraphraseAnalyse syntaxique de l’ancien français : quelles propriétés de la langue influent le plus sur la qualité de l’apprentissage ? Gaël Guibon, Isabelle Tellier, Sophie Prévost, Matthieu Constant et Kim Gerdes Résumé : L’article présente des résultats d’expériences d’apprentissage automatique pour l’étiquetage morpho-syntaxique et l’analyse syntaxique en dépendance de l’ancien français. Le corpus arboré SRCMF sert de données de référence. La nature peu standardisée de la langue qui y est utilisée implique des données d’entraînement par nature hétérogènes et aussi quantitativement limitées. Nous explorons donc diverses stratégies, fondées sur différents critères (variabilité du lexique, forme Vers/Prose des textes, époque de rédaction), pour constiter des corpus d’entrainement menant aux meilleurs résultats possibles.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015, Désambiguïsation
 |  Accéder à la ressource

04c - Noyaux de réécriture de phrases munis de types lexico-sémantiques (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Syntaxe et paraphraseNoyaux de réécriture de phrases munis de types lexico-sémantiques Martin Gleize et Brigitte Grau Résumé : De nombreux problèmes en traitement automatique des langues requièrent de déterminer si deux phrases sont des réécritures l’une de l’autre. Une solution efficace consiste à apprendre les réécritures en se fondant sur des méthodes à noyau qui mesurent la similarité entre deux réécritures de paires de phrases. Toutefois, ces méthodes ne permettent généralement pas de prendre en compte des variations sémantiques entre mots, qui permettraient de capturer un plus grand nombre de règles de réécriture. Dans cet article, nous proposons la définition et l’implémentation d’une nouvelle classe de fonction noyau, fondée sur la réécriture de phrases enrichie par un typage pour combler ce manque. Nous l’évaluons sur deux tâches, la reconnaissance de paraphrases et d’implications textuelles.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

rss |< << Page précédente 1 2 3 4 5 6 Page suivante >> >| documents par page
© 2006-2010 ORI-OAI