|
|<
<< Page précédente
10
11
12
13
14
15
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Editeur
Auteur
Titre
|
|
02c - Apprentissage discriminant des modèles continus de traduction (taln2015)
/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session TraductionApprentissage discriminant des modèles continus de traduction
Quoc-Khanh Do, Alexandre Allauzen et François YvonRésumé : Alors que les réseaux neuronaux occupent une place de plus en plus importante dans le traitement automatique des langues, les méthodes d’apprentissage actuelles utilisent pour la plupart des critères qui sont décorrélés de l’application. Cet article propose un nouveau cadre d’apprentissage discriminant pour l’estimation des modèles continus de traduction. Ce cadre s’appuie sur la définition d’un critère d’optimisation permettant de prendre en compte d’une part la
métrique utilisée pour l’évaluation de la traduction et d’autre part l’intégration de ces modèles au sein des systèmes de traduction automatique. De plus cette méthode d’apprentissage est comparée aux critères existants d’estimation que sont le maximum de vraisemblance et l’estimation contrastive bruitée. Les expériences menées sur la tâches de traduction des séminaires TED Talks de l’anglais vers le français montrent la pertinence d’un cadre discriminant d’apprentissage mais dont les performances sont liées au choix d’une stratégie d’initialisation adéquate. Nous montrons qu’avec une initialisation judicieuse des gains significatifs en terme de scorebleu peuvent être obtenus. Mot(s) clés libre(s) : traduction, traitement automatique du langage naturel, taln2015
|
Accéder à la ressource
|
|
02b - Multi-alignement vs bi-alignement : à plusieurs, c’est mieux ! (taln2015)
/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session TraductionMulti-alignement vs bi-alignement : à plusieurs, c’est mieux !
Olivier KraifRésumé : Dans cet article, nous proposons une méthode originale destinée à
effectuer l’alignement d’un corpus multi-parallèle, i.e. comportant plus
de deux langues, en prenant en compte toutes les langues simultanément
(et non en composant une série de bi-alignements indépendants). Pour ce
faire, nous nous appuyons sur les réseaux de correspondances lexicales
constitués par les transfuges (chaînes identiques) et cognats (mots
apparentés), et nous montrons comment divers tuilages des couples de
langues permettent d’exploiter au mieux les ressemblances superficielles
liées aux relations génétiques interlinguistiques. Nous évaluons notre
méthode par rapport à une méthode de bi-alignement classique, et
montrons en quoi le multi-alignement permet d’obtenir des résultats à la
fois plus précis et plus robustes. Mot(s) clés libre(s) : traduction, traitement automatique du langage naturel, taln2015
|
Accéder à la ressource
|
|
02a - Utilisation de mesures de confiance pour améliorer le décodage en traduction de parole (taln2015)
/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Traduction
Utilisation de mesures de confiance pour améliorer le décodage en traduction de parole
Laurent Besacier, Benjamin Lecouteux et Luong Ngoc QuangRésumé : Les mesures de confiance au niveau mot (Word
Confidence Estimation – WCE) pour la traduction auto- matique (TA) ou
pour la reconnaissance automatique de la parole (RAP) attribuent un
score de confiance à chaque mot dans une hypothèse de transcription ou
de traduction. Dans le passé, l’estimation de ces mesures a le plus
souvent été traitée séparément dans des contextes RAP ou TA. Nous
proposons ici une estimation conjointe de la confiance associée à un mot
dans une hypothèse de traduction automatique de la parole (TAP). Cette
estimation fait appel à des paramètres issus aussi bien des systèmes de
transcription de la parole (RAP) que des systèmes de traduction
automatique (TA). En plus de la construction de ces estimateurs de
confiance robustes pour la TAP, nous utilisons les informations de
confiance pour re-décoder nos graphes d’hypothèses de traduction. Les
expérimentations réalisées montrent que l’utilisation de ces mesures de
confiance au cours d’une seconde passe de décodage permettent d’obtenir
une amélioration significative des performances de traduction (évaluées
avec la métrique BLEU – gains de deux points par rapport à notre système
de traduc- tion de parole de référence). Ces expériences sont faites
pour une tâche de TAP (français-anglais) pour laquelle un corpus a été
spécialement conçu (ce corpus, mis à la disposition de la communauté
TALN, est aussi décrit en détail dans l’article). Mot(s) clés libre(s) : traduction, traitement automatique du langage naturel, taln2015
|
Accéder à la ressource
|
|
01 - Multilinguality at Your Fingertips: BabelNet, Babelfy and Beyond ! (taln2015)
/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015
Conférence invitée
Multilinguality at Your Fingertips: BabelNet, Babelfy and Beyond!
Roberto Navigli
Résumé : Multilinguality
is a key feature of today’s Web, and it is this feature that we
leverage and exploit in our research work at the Sapienza University of
Rome’s Linguistic Computing Laboratory, which I am going to overview and
showcase in this talk.
I will start by presenting BabelNet 3.0, available at http://babelnet.org,
a very large multilingual encyclopedic dictionary and semantic network,
which covers 271 languages and provides both lexicographic and
encyclopedic knowledge for all the open-class parts of speech, thanks to
the seamless integration of WordNet, Wikipedia, Wiktionary, OmegaWiki,
Wikidata and the Open Multilingual WordNet.
Next, I will present Babelfy, available at http://babelfy.org,
a unified approach that leverages BabelNet to jointly perform word
sense disambiguation and entity linking in arbitrary languages, with
performance on both tasks on a par with, or surpassing, those of
task-specific state-of-the-art supervised systems.
Finally I will describe the Wikipedia Bitaxonomy, available at http://wibitaxonomy.org,
a new approach to the construction of a Wikipedia bitaxonomy, that is,
the largest and most accurate currently available taxonomy of Wikipedia
pages and taxonomy of categories, aligned to each other. I will also
give an outline of future work on multilingual resources and processing,
including state-of-the-art semantic similarity with sense embeddings. Mot(s) clés libre(s) : traitement automatique du langage naturel, BabelNet, Babelfy, Bitaxonomy, taln2015
|
Accéder à la ressource
|
|
|<
<< Page précédente
10
11
12
13
14
15
Page suivante >>
>|
|
documents par page
|