Nouveautés
Recherche simple :
Accueil
Documents
Pédagogie
Thèses
Publications Scientifiques
Multi-formats
Pédagogie > Recherche par mots-clefs en fr
  • Nouveautés
  • Recherche avancée
  • Recherche thématique UNIT
  • Recherche thématique
  • Recherche par établissements
  • Recherche par auteurs
  • Recherche par mots-clefs
Mots-clefs > A > automatique
Niveau supérieur
  • 49 ressources ont été trouvées. Voici les résultats 21 à 30
  |< << Page précédente 1 2 3 4 5 Page suivante >> >| documents par page
Tri :   Date Editeur Auteur Titre

12 - Prix de Thèse ATALA (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé

Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

11 - Pourquoi construire des ressources terminologiques et pourquoi le faire différemment ? (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Conférence invitée Pourquoi construire des ressources terminologiques et pourquoi le faire différemment ? Marie-Claude L’HommePrésident de session : Pierre Beust Résumé : Dans cette présentation, je défendrai l’idée selon laquelle des ressources terminologiques décrivant les propriétés lexico-sémantiques des termes constituent un complément nécessaire, voire indispensable, à d’autres types de ressources, À partir d’exemples anglais et français empruntés au domaine de l’environnement, je montrerai, d’une part, que les ressources lexicales générales (y compris celles qui ont une large couverture) n’offrent pas un portait complet du sens des termes ou de la structure lexicale observée du point de vue d’un domaine de spécialité. Je montrerai, d’autre part, que les ressources terminologiques (thésaurus, ontologies, banques de terminologie) souvent d’obédience conceptuelle, se concentrent sur le lien entre les termes et les connaissances dénotées par eux et s’attardent peu sur leur fonctionnement linguistique. Je présenterai un type de ressource décrivant les propriétés lexico-sémantiques des termes d’un domaine (structure actantielle, liens lexicaux, annotations contextuelles, etc.) et des éléments méthodologiques présidant à son élaboration.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

10c - Utiliser les interjections pour détecter les émotions (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session PlénièreUtiliser les interjections pour détecter les émotions Amel Fraisse et Patrick Paroubek Résumé : Bien que les interjections soient un phénomène linguistique connu, elles ont été peu étudiées et cela continue d’être le cas pour les travaux sur les microblogs. Des travaux en analyse de sentiments ont montré l’intérêt des émoticônes et récemment des mots-dièses, qui s’avèrent être très utiles pour la classification en polarité. Mais malgré leur statut grammatical et leur richesse sémantique, les interjections sont restées marginalisées par les systèmes d’analyse de sentiments. Nous montrons dans cet article l’apport majeur des interjections pour la détection des émotions. Nous détaillons la production automatique, basée sur les interjections, d’un corpus étiqueté avec les émotions. Nous expliquons ensuite comment nous avons utilisé ce corpus pour en déduire, automatiquement, un lexique affectif pour le français. Ce lexique a été évalué sur une tâche de détection des émotions, qui a montré un gain en mesure F1 allant, selon les émotions, de +0,04 à +0,21.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

10b - …des conférences enfin disons des causeries… Détection automatique de segments en relation de paraphrase dans les reformulations de corpus oraux (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Plénière…des conférences enfin disons des causeries… Détection automatique de segments en relation de paraphrase dans les reformulations de corpus oraux Natalia Grabar et Iris Eshkol Résumé : Notre travail porte sur la détection automatique des segments en relation de reformulation paraphrastique dans les corpus oraux. L’approche proposée est une approche syntagmatique qui tient compte des marqueurs de reformulation paraphrastique et des spécificités de l’oral. Les données de référence sont consensuelles. Une méthode automatique fondée sur l’apprentissage avec les CRF est proposée afin de détecter les segments paraphrasés. Différents descripteurs sont exploités dans une fenêtre de taille variable. Les tests effectués montrent que les segments en relation de paraphrase sont assez difficiles à détecter, surtout avec leurs frontières correctes. Les meilleures moyennes atteignent 0,65 de F-mesure, 0,75 de précision et 0,63 de rappel. Nous avons plusieurs perspectives à ce travail pour améliorer la détection des segments en relation de paraphrase et pour étudier les données d’autres points de vue.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

09c - Déclasser les voisins non sémantiques pour améliorer les thésaurus distributionnels (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session SémantiqueDéclasser les voisins non sémantiques pour améliorer les thésaurus distributionnels Olivier Ferret Résumé : La plupart des méthodes d’amélioration des thésaurus distributionnels se focalisent sur les moyens – représentations ou mesures de similarité – de mieux détecter la similarité sémantique entre les mots. Dans cet article, nous proposons un point de vue inverse : nous cherchons à détecter les voisins sémantiques associés à une entrée les moins susceptibles d’être liés sémantiquement à elle et nous utilisons cette information pour réordonner ces voisins. Pour détecter les faux voisins sémantiques d’une entrée, nous adoptons une approche s’inspirant de la désambiguïsation sémantique en construisant un classifieur permettant de différencier en contexte cette entrée des autres mots. Ce classifieur est ensuite appliqué à un échantillon des occurrences des voisins de l’entrée pour repérer ceux les plus éloignés de l’entrée. Nous évaluons cette méthode pour des thésaurus construits à partir de cooccurrents syntaxiques et nous montrons l’intérêt de la combiner avec les méthodes décrites dans (Ferret, 2013) selon une stratégie de type vote.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

09b - Extraction automatique de relations sémantiques dans les définitions : approche hybride, construction d’un corpus de relations sémantiques pour le français (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session SémantiqueExtraction automatique de relations sémantiques dans les définitions : approche hybride, construction d’un corpus de relations sémantiques pour le français Emmanuel Cartier Résumé : Cet article présente une expérimentation visant à construire une ressource sémantique pour le français contemporain à partir d’un corpus d’environ un million de définitions tirées de deux ressources lexicographiques (Trésor de la Langue Française, Wiktionary) et d’une ressource encyclopédique (Wikipedia). L’objectif est d’extraire automatiquement dans les définitions différentes relations sémantiques : hyperonymie, synonymie, méronymie, autres relations sémantiques. La méthode suivie combine la précision des patrons lexico-syntaxiques et le rappel des méthodes statistiques, ainsi qu’un traitement inédit de canonisation et de décomposition des énoncés. Après avoir présenté les différentes approches et réalisations existantes, nous détaillons l’architecture du système et présentons les résultats : environ 900 000 relations d’hyperonymie et près de 100 000 relations de synonymie, avec un taux de précision supérieur à 90% sur un échantillon aléatoire de 500 relations. Plus de 2 millions de prédications définitoires ont également été extraites.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

08c - Vers un modèle de détection des affects, appréciations et jugements dans le cadre d’interactions humain-agent (Article RECITAL) (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Opinions et sentimentsVers un modèle de détection des affects, appréciations et jugements dans le cadre d’interactions humain-agent (Article RECITAL) Caroline LangletRésumé : Cet article aborde la question de la détection des expressions d’attitude — affect, d’appréciation et de jugement (Martin and White, 2005)– dans le contenu verbal de l’utilisateur au cours d’interactions en face-à-face avec un agent conversationnel animé. Il propose un positionnement en terme de modèles et de méthodes pour le développement d’un système de détection adapté aux buts communicationnels de l’agent et à une parole conversationnelle. Après une description du modèle théorique de référence choisi, l’article propose un modèle d’annotation des attitudes dédié l’exploration de ce phénomène dans un corpus d’interaction humain-agent. Il présente ensuite une première version de notre système. Cette première version se concentre sur la détection des expressions d’attitudes pouvant référer à ce qu’aime ou n’aime pas l’utilisateur. Le système est conçu selon une approche symbolique fondée sur un ensemble de règles sémantiques et de représentations logico-sémantiques des énoncés.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

08b - Une méthodologie de sémantique de corpus appliquée à des tâches de fouille d’opinion et d’analyse des sentiments : étude sur l’impact de marqueurs dialogiques et dialectiques dans l’expression de la subjectivité (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Opinions et sentimentsUne méthodologie de sémantique de corpus appliquée à des tâches de fouille d’opinion et d’analyse des sentiments : étude sur l’impact de marqueurs dialogiques et dialectiques dans l’expression de la subjectivité 9h30-10h00 | Cacher le résumé Résumé : Cet article entend dresser, dans un premier temps, un panorama critique des relations entre TAL et linguistique. Puis, il esquisse une discussion sur l’apport possible d’une sémantique de corpus dans un contexte applicatif en s’appuyant sur plusieurs études en fouille de textes subjectifs (analyse de sentiments et fouille d’opinions). Ces études se démarquent des approches traditionnelles fondées sur la recherche de marqueurs axiologiques explicites par l’utilisation de critères relevant des représentations des acteurs (composante dialogique) et des structures argumentatives et narratives des textes (composante dialectique). Nous souhaitons de cette façon mettre en lumière le bénéfice d’un dialogue méthodologique entre une théorie (la sémantique textuelle), des méthodes de linguistique de corpus orientées vers l’analyse du sens (la textométrie) et les usages actuels du TAL en termes d’algorithmiques (apprentissage automatique) mais aussi de méthodologie d’évaluation des résultats.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

08a - Méthode faiblement supervisée pour l’extraction d’opinion ciblée dans un domaine spécifique (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Opinions et sentimentsMéthode faiblement supervisée pour l’extraction d’opinion ciblée dans un domaine spécifique Romaric Besançon Résumé : La détection d’opinion ciblée a pour but d’attribuer une opinion à une caractéristique particulière d’un produit donné. La plupart des méthodes existantes envisagent pour cela une approche non supervisée. Or, les utilisateurs ont souvent une idée a priori des caractéristiques sur lesquelles ils veulent découvrir l’opinion des gens. Nous proposons dans cet article une méthode pour une extraction d’opinion ciblée, qui exploite cette information minimale sur les caractéristiques d’intérêt. Ce modèle s’appuie sur une segmentation automatique des textes, un enrichissement des données disponibles par similarité sémantique, et une annotation de l’opinion par classification supervisée. Nous montrons l’intérêt de l’approche sur un cas d’étude dans le domaine des jeux vidéos.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

07c - Analyse d’expressions temporelles dans les dossiers électroniques patients (taln2015)

/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Compréhension et paraphraseAnalyse d’expressions temporelles dans les dossiers électroniques patients Mike Donald Tapi Nzali, Aurélie Névéol et Xavier Tannier Résumé : Les références à des phénomènes du monde réel et à leur caractérisation temporelle se retrouvent dans beaucoup de types de discours en langue naturelle. Ainsi, l’analyse temporelle apparaît comme un élément important en traitement automatique de la langue. Cet article présente une analyse de textes en domaine de spécialité du point de vue temporel. En s’appuyant sur un corpus de documents issus de plusieurs dossiers électroniques patient désidentifiés, nous décrivons la construction d’une ressource annotée en expressions temporelles selon la norme TimeML. Par suite, nous utilisons cette ressource pour évaluer plusieurs méthodes d’extraction automatique d’expressions temporelles adaptées au domaine médical. Notre meilleur système statistique offre une performance de 0,91 de F-mesure, surpassant pour l’identification le système état de l’art HeidelTime. La comparaison de notre corpus de travail avec le corpus journalistique FR-Timebank permet également de caractériser les différences d’utilisation des expressions temporelles dans deux domaines de spécialité.
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
 |  Accéder à la ressource

rss |< << Page précédente 1 2 3 4 5 Page suivante >> >| documents par page
© 2006-2010 ORI-OAI