|
|<
<< Page précédente
1
2
3
4
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Editeur
Auteur
Titre
|
|
Peut-on comprendre d’où provient l’efficacité des mathématiques en physique ?
/ 08-06-2015
/ Canal-u.fr
KLEIN Etienne
Voir le résumé
Voir le résumé
L’idée
que les mathématiques sont le langage naturel de la physique est
devenue banale et semble claire.. Elle peut toutefois s’interpréter
d’au moins deux façons, qui ne sont pas du tout équivalentes du
point de vue épistémologique philosophique :
-
soit
ce langage est pensé comme étant celui de la nature même, ce qui
implique que celui qui étudie la nature devra l’assimiler pour la
comprendre ;
-
soit, à l’inverse, ce langage est pensé comme étant le langage
de l’homme, et c’est donc nécessairement dans ce langage-là que
devront être traduits les faits de la nature pour nous devenir
compréhensibles.
Les
progrès récents de la physique aident-ils à départager ces deux
approches ? Mot(s) clés libre(s) : langage naturel, mathématiques, physqiue
|
Accéder à la ressource
|
|
Demain, l’écriture
/ DCAM - Département Conception et Assistance Multimédia - Université Bordeaux Segalen, Service Culturel - Université Victor Segalen Bordeaux 2
/ 07-11-2007
/ Canal-U - OAI Archive
HERRENSCHMIDT Clarisse
Voir le résumé
Voir le résumé
Comment définir l’écriture aujourd’hui ? C’est à cette question que tente de répondre Clarisse Herrenschmidt en apportant des exemples explicites de la transformation majeure de l’écriture et des signes dans les 20 dernières années avec l’émergence des nouvelles technologies et l’usage de plus en plus diffus de l’ordinateur. Cette révolution graphique se traduit par la transformation de l’écriture en information: à un caractère ou une police correspond un nombre traduit par la machine. Contrairement au langage humain, le langage informatique n’est pas ambigu; il est le produit de la logique informatisée et permet par un ensemble écrit de caractères, de mots, de donner des instructions à l’ordinateur. Cette transformation sémiologique en écriture informatique et téléinformatique change notre mode de pensée et nos habitudes de travail. Nous traitons aujourd’hui la langue, les nombres et la monnaie (via la carte bleue) avec le même outil : l’ordinateur. Dès le départ, la machine a été pensé comme un cerveau informatique; l’organe de pensée humain a été externalisé et projeté dans un artéfact qui est une machine à signes. Mais pour Clarisse Herrenschmidt les interrogations sont ailleurs : que vaut la parole humaine ? Les usages de la parole se sont affadis, aplatis, au détriment des variations infinies que propose une langue. Comment allons-nous parler ? toujours de façon plate et dé-symbolisée ou assisterons-nous à un redéploiement des possibilités ?La conférence a été donnée à l'Université Victor Segalen Bordeaux 2 dans le cadre du cycle de conférences "L'invité du Mercredi" / Saison 2007-2008 sur le thème "Demain, Après-demain". Service culturel Université Victor Segalen de Bordeaux 2 / DCAM / Mot(s) clés libre(s) : écriture, interaction homme-ordinateur, langage humain, langage informatique, linguistique, sémiologie, signe, traitement automatique du langage naturel
|
Accéder à la ressource
|
|
Linguistique et informatique : la traduction automatique
/ UTLS - la suite, Mission 2000 en France
/ 16-02-2000
/ Canal-U - OAI Archive
DANLOS Laurence
Voir le résumé
Voir le résumé
Conférence du 16 février 2000 par Laurence Danlos. La linguistique informatique est un domaine scientifique neuf, né du développement conjoint des modèles mathématiques et informatiques (théorie des langages formels) et de la formalisation des descriptions linguistiques. Il a pour objectif le traitement automatique du langage naturel et il se situe au carrefour de la linguistique et de l'intelligence artificielle ou des sciences cognitives dans leurs recherches sur le langage naturel.Les recherches en linguistiques informatiques débouchent sur des applications qui relèvent des Industries de la Langue. L'application la plus connue et la plus ancienne est la Traduction Automatique. Nous exposerons les principales difficultés rencontrées en Traduction Automatique et nous dresserons un bilan sur les systèmes existants et sur les perspectives. Nous présenterons ensuite un panorama des autres applications, en particulier celles issues de l'émergence du Web (La Toile) dans lesquelles les calculs statistiques se combinent avec les calculs linguistiques. Mot(s) clés libre(s) : ambiguité lexicale, intelligence artificielle, langage naturel, lemmatisation, linguistique informatique, modèle mathématique, sciences cognitives, sémantique, traduction assistée par ordinateur, traduction automatique
|
Accéder à la ressource
|
|
IPM 2005 : BIkini (BIomedical Knowledge Network)
/ 01-12-2005
/ Canal-U - OAI Archive
BERTAUD Valérie
Voir le résumé
Voir le résumé
L'objet du projet Biomedical Knowledge Network est de gérer des connaissances biomédicales, en permettant de les recueillir à partir d'expertises, de la littérature ou des guides de bonnes pratiques, de les modéliser de manière unifiée sous forme de réseaux de connaissance, de les représenter sous forme de graphes. Toutes ces connaissances sont indexées en langage naturel et en Mesh semi automatique. Ce système est utile au raisonnement médical, à la mise à jour des connaissances et à la pédagogie.
Origine
IPM 2005. Internet et Pédagogie Médicale. Rennes : décembre 2005
Générique
SCD médecine Nancy Mot(s) clés libre(s) : base de connaissances, Bikini, douleur épaule, expertise, la, langage naturel, questionnaire
|
Accéder à la ressource
|
|
12 - Prix de Thèse ATALA (taln2015)
/ Canal-u.fr
Voir le résumé
Voir le résumé
Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
|
Accéder à la ressource
|
|
11 - Pourquoi construire des ressources terminologiques et pourquoi le faire différemment ? (taln2015)
/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Conférence invitée
Pourquoi construire des ressources terminologiques et pourquoi le faire différemment ?
Marie-Claude L’HommePrésident de session : Pierre Beust
Résumé : Dans
cette présentation, je défendrai l’idée selon laquelle des ressources
terminologiques décrivant les propriétés lexico-sémantiques des termes
constituent un complément nécessaire, voire indispensable, à d’autres
types de ressources, À partir d’exemples anglais et français empruntés
au domaine de l’environnement, je montrerai, d’une part, que les
ressources lexicales générales (y compris celles qui ont une large
couverture) n’offrent pas un portait complet du sens des termes ou de la
structure lexicale observée du point de vue d’un domaine de spécialité.
Je montrerai, d’autre part, que les ressources terminologiques
(thésaurus, ontologies, banques de terminologie) souvent d’obédience
conceptuelle, se concentrent sur le lien entre les termes et les
connaissances dénotées par eux et s’attardent peu sur leur
fonctionnement linguistique. Je présenterai un type de ressource
décrivant les propriétés lexico-sémantiques des termes d’un
domaine (structure actantielle, liens lexicaux, annotations
contextuelles, etc.) et des éléments méthodologiques présidant à son
élaboration. Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
|
Accéder à la ressource
|
|
10c - Utiliser les interjections pour détecter les émotions (taln2015)
/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session PlénièreUtiliser les interjections pour détecter les émotions
Amel Fraisse et Patrick Paroubek
Résumé : Bien
que les interjections soient un phénomène linguistique connu, elles ont
été peu étudiées et cela continue d’être le cas pour les travaux sur
les microblogs. Des travaux en analyse de sentiments ont montré
l’intérêt des émoticônes et récemment des mots-dièses, qui s’avèrent
être très utiles pour la classification en polarité. Mais malgré leur
statut grammatical et leur richesse sémantique, les interjections sont
restées marginalisées par les systèmes d’analyse
de sentiments. Nous montrons dans cet article l’apport majeur des
interjections pour la détection des émotions. Nous détaillons la
production automatique, basée sur les interjections, d’un corpus
étiqueté avec les émotions. Nous expliquons ensuite comment nous avons
utilisé ce corpus pour en déduire, automatiquement, un lexique affectif
pour le français. Ce lexique a été évalué sur une tâche de détection des
émotions, qui a montré un gain en mesure F1 allant, selon les émotions,
de +0,04 à +0,21. Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
|
Accéder à la ressource
|
|
10b - …des conférences enfin disons des causeries… Détection automatique de segments en relation de paraphrase dans les reformulations de corpus oraux (taln2015)
/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session Plénière…des conférences enfin disons des causeries… Détection
automatique de segments en relation de paraphrase dans les
reformulations de corpus oraux
Natalia Grabar et Iris Eshkol
Résumé : Notre
travail porte sur la détection automatique des segments en relation de
reformulation paraphrastique dans les corpus oraux. L’approche proposée
est une approche syntagmatique qui tient compte des marqueurs de
reformulation paraphrastique et des spécificités de l’oral. Les données
de référence sont consensuelles. Une méthode automatique fondée sur
l’apprentissage avec les CRF est proposée afin de détecter les segments
paraphrasés. Différents descripteurs sont exploités dans une fenêtre de
taille variable. Les tests effectués montrent que les segments en
relation de paraphrase sont assez difficiles à détecter, surtout avec
leurs frontières correctes. Les meilleures moyennes atteignent 0,65 de
F-mesure, 0,75 de précision et 0,63 de rappel. Nous avons plusieurs
perspectives à ce travail pour améliorer la détection des segments en
relation de paraphrase et pour étudier les données d’autres points de
vue. Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
|
Accéder à la ressource
|
|
09c - Déclasser les voisins non sémantiques pour améliorer les thésaurus distributionnels (taln2015)
/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session SémantiqueDéclasser les voisins non sémantiques pour améliorer les thésaurus distributionnels
Olivier Ferret
Résumé : La
plupart des méthodes d’amélioration des thésaurus distributionnels se
focalisent sur les moyens – représentations ou mesures de similarité –
de mieux détecter la similarité sémantique entre les mots. Dans cet
article, nous proposons un point de vue inverse : nous cherchons à
détecter les voisins sémantiques associés à une entrée les moins
susceptibles d’être liés sémantiquement à elle et nous utilisons cette
information pour réordonner ces voisins. Pour détecter les faux voisins
sémantiques d’une entrée, nous adoptons une approche s’inspirant de la
désambiguïsation sémantique en construisant un classifieur permettant de
différencier en contexte cette entrée des autres mots. Ce classifieur
est ensuite appliqué à un échantillon des occurrences des voisins de
l’entrée pour repérer ceux les plus éloignés de l’entrée. Nous évaluons
cette méthode pour des thésaurus construits à partir de cooccurrents
syntaxiques et nous montrons l’intérêt de la combiner avec les méthodes
décrites dans (Ferret, 2013) selon une stratégie de type vote. Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
|
Accéder à la ressource
|
|
09b - Extraction automatique de relations sémantiques dans les définitions : approche hybride, construction d’un corpus de relations sémantiques pour le français (taln2015)
/ Canal-u.fr
Voir le résumé
Voir le résumé
Sessions orales TALN 2015 – Mardi 23 juin 2015Session SémantiqueExtraction automatique de relations sémantiques dans les
définitions : approche hybride, construction d’un corpus de relations
sémantiques pour le français
Emmanuel Cartier
Résumé : Cet
article présente une expérimentation visant à construire une ressource
sémantique pour le français contemporain à partir d’un corpus d’environ
un million de définitions tirées de deux ressources lexicographiques
(Trésor de la Langue Française, Wiktionary) et d’une ressource
encyclopédique (Wikipedia). L’objectif est d’extraire automatiquement
dans les définitions différentes relations sémantiques : hyperonymie,
synonymie, méronymie, autres relations sémantiques. La méthode suivie
combine la précision des patrons lexico-syntaxiques et le rappel des
méthodes statistiques, ainsi qu’un traitement inédit de canonisation et
de décomposition des énoncés. Après avoir présenté les différentes
approches et réalisations existantes, nous détaillons l’architecture du
système et présentons les résultats : environ 900 000 relations
d’hyperonymie et près de 100 000 relations de synonymie, avec un taux de
précision supérieur à 90% sur un échantillon aléatoire de 500
relations. Plus de 2 millions de prédications définitoires ont également
été extraites. Mot(s) clés libre(s) : traitement automatique du langage naturel, taln2015
|
Accéder à la ressource
|
|
|<
<< Page précédente
1
2
3
4
Page suivante >>
>|
|
documents par page
|