|
|<
<< Page précédente
1
2
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Editeur
Auteur
Titre
|
|
Université de Franche-Comté
/ 20-12-2010
Dini Oana
Voir le résumé
Voir le résumé
La quantité d informations et de services disponibles sur l Internet est si importante qu il est très difficile de choisir ceux qui répondent bien à nos exigences. Dans cette thèse, l auteure présente un algorithme pour le calcul de la réputation de services en proposant un modèle amélioré du comportement des utilisateurs. Cette technique se révèle bien adaptée pour bâtir des modèles de comportement. De plus elle a travaillé sur les aspects concernant les similarités de services afin d obtenir des réponses appropriées aux demandes des services pour améliorer la qualité de l expérience. Dans ce cadre, un algorithme évaluant la proximité des services a été développé. A partir de cet algorithme, une version adaptative avec des intervalles variables pour les paramètres de services également a été proposée. Ces algorithmes ont été testés et validés sur des classes de services.
|
|
Université de Franche-Comté
/ 24-11-2008
Mesfar Slim
Voir le résumé
Voir le résumé
La langue arabe, bien que très importante par son nombre de locuteurs, elle présente des phénomènes morpho-syntaxiques très particuliers. Cette particularité est liée principalement à sa morphologie flexionnelle et agglutinante, à l’absence des voyelles dans les textes écrits courants, et à la multiplicité de ses formes, et cela induit une forte ambiguïté lexicale et syntaxique. Il s'ensuit des difficultés de traitement automatique qui sont considérables. Le choix d'un environnement linguistique fournissant des outils puissants et la possibilité d'améliorer les performances selon nos besoins spécifiques nous ont conduits à utiliser la plateforme linguistique NooJ. Nous commençons par une étude suivie d’une formalisation à large couverture du vocabulaire de l arabe. Le lexique construit, nommé El-DicAr , permet de rattacher l’ensemble des informations flexionnelles, morphologiques, syntactico-sémantiques à la liste des lemmes. Les routines de flexion et dérivation automatique à partir de cette liste produisent plus de 3 millions de formes fléchies. Nous proposons un nouveau compilateur de machines à états finis en vue de pouvoir stocker la liste générée de façon optimale par le biais d’un algorithme de minimisation séquentielle et d’une routine de compression dynamique des informations stockées. Ce dictionnaire joue le rôle de moteur linguistique pour l’analyseur morpho-syntaxique automatique que nous avons implanté. Cet analyseur inclut un ensemble d’outils: un analyseur morphologique pour le découpage des formes agglutinées en morphèmes à l aide de grammaires morphologiques à large couverture, un nouvel algorithme de parcours des transducteurs à états finis afin de traiter les textes écrits en arabe indépendamment de leurs états de voyellation, un correcteur des erreurs typographiques les plus fréquentes, un outil de reconnaissance des entités nommées fondé sur une combinaison des résultats de l analyse morphologique et de règles décrites dans des grammaires locales présentées sous forme de réseaux augmentés de transitions (ATNs), ainsi qu’un annotateur automatique et des outils pour la recherche linguistique et l’exploration contextuelle. Dans le but de mettre notre travail à la disposition de la communauté scientifique, nous avons développé un service de concordances en ligne NooJ4Web: NooJ pour la Toile permettant de fournir des résultats instantanés à différents types de requêtes et d afficher des rapports statistiques ainsi que les histogrammes correspondants. Les services ci-dessus cités sont offerts afin de recueillir les réactions des divers usagers en vue d une amélioration des performances. Ce système est utilisable aussi bien pour traiter l’arabe, que le français et l’anglais.
|
|
Université de Franche-Comté
/ 16-09-2009
Charr Jean-Claude
Voir le résumé
Voir le résumé
Avec l'émergence de nouvelles architectures distribuées, comme les grappes de calcul distantes et les architectures de calcul volontaire, il apparaît important de définir des algorithmes et des intergiciels bien adaptés à ces architectures. En effet, l'utilisation de ces plate-formes introduit plusieurs nouvelles contraintes par rapport à un contexte de grappes locales homogènes : hétérogénéité des machines, hétérogénéité des réseaux, volatilité des noeuds de calcul, etc. Dans ce contexte, plusieurs travaux montrent que pour les algorithmes itératifs il peut être préférable d'utiliser les algorithmes IACA (Itérations Asynchrones avec Communications Asynchrones) pour lesquels les communications sont recouvertes par du calcul et la perte des messages de données est tolérée. Les travaux présentés dans cette thèse concernent la conception et la mise en oeuvre d'une plate-forme dédiée à l'exécution d'algorithmes IACA sur des architectures distribuées, hétérogènes et volatiles. Cette plate-forme, JACEP2P-V2, est tolérante aux pannes et décentralisée. Elle offre un mécanisme de communications asynchrones et un mécanisme de détection de la convergence globale adapté aux caractéristiques des algorithmes IACA. De plus, nous reportons des expérimentations sur grappes hétérogènes volatiles et distantes afin de tester l'efficacité et la robustesse de notre plate-forme. Les résultats obtenus, avec plus de 1000 coeurs de calculs, sont très encourageants et montrent que JACEP2P-V2 est extensible et performante. Nous terminons ce document par la présentation d'une étude comparative de plusieurs méthodes de résolutions de systèmes non linéaires (comme la multi-décomposition et la relaxation d'ondes) implémentées avec JACEP2P-V2.
|
|
Université de Franche-Comté
/ 05-09-2007
Djemili Tolba Fatiha
Voir le résumé
Voir le résumé
La limitation d'énergie et la mobilité des nœuds dans les réseaux ad hoc constituent un défi majeur pour la communauté scientifique de réseaux et télécommunications. Malgré la mobilisation permanente et les avancées significatives dans ce domaine, force est de constater que ces problèmes demeurent importants. La plupart des solutions élaborées jusqu'à présent reposent sur des techniques de généralisation. En d'autres termes, ces solutions supposent que les nœuds mobiles sont homogènes en terme de capacité de traitement et de réserve d'énergie, alors que la réalité montre le contraire. De ce constat, nous nous sommes intéressés à l'étude des méthodes de conservation d'énergie afin de prolonger la durée de vie du nœud et maintenir une communication sans interruption. Dans ce contexte, nous avons présenté un algorithme de réserve d'énergie qui repose sur une technique d'adaptation du rayon de transmission. Cette technique se révèle mieux adaptée pour intégrer le besoin des nœuds dans la conservation d'énergie. Nous nous sommes également attachés au problème de maintien de la connectivité de communication et de la gestion de la mobilité pour apporter plus de stabilité au réseau et pour favoriser l'acheminement du trafic vers l'utilisateur mobile sans dégrader les performances de routage. Dans ce cadre, un algorithme de clustering dans les réseaux mobiles ad hoc a été développé. L'objectif de cet algorithme consiste à concevoir une approche flexible qui tient compte de la métrique de l'hétérogénéité des nœuds dans l'élection des clusters head. Ces algorithmes sont testés et comparés par rapport à des travaux existants en utilisant le simulateur Network Simulator (NS-2).
|
|
Université de Franche-Comté
/ 08-12-2009
Tissot Régis
Voir le résumé
Voir le résumé
Cette thèse est une contribution à la conception d'une méthode de génération automatique de tests à partir de modèles (ou MBT -Model Based Testing). Le contexte de nos travaux se situe dans la continuité de ceux effectués autour de l'outil BZ- TT (BZ- Testing Tools) qui permet d'engendrer des tests fonctionnels à partir de modèles décrits en langage B. Les critères de sélection de tests implémentés dans l'outil BZ- TT reposent sur la couverture structurelle du modèle du système à valider en prenant en compte les structures de données et de contrôle de celui-ci. Cette approche ne permet pas de générer de tests à partir de propriétés liées au comportement dynamique du système, par exemple en tenant compte de propriétés basées sur des enchaînements d'opérations. Afin de répondre à cette problématique, un certain nombre de travaux proposent des méthodes où l'expertise humaine est exploitée afin de définir des critères de sélection de tests "dynamiques". De tels critères de sélection permettent, à l'ingénieur de définir des stratégies basées sur des propriétés et des aspects du système qu'il souhaite valider. Nos contributions s'inscrivent dans cette voie, tout en visant la complémentarité par rapport à la génération automatique de tests par couverture structurelle du modèle dans un objectif de valorisation des technologies et ressources déployées à cette fin. Notre première contribution est la définition d'un langage de formalisation d'objectifs de tests qui permet d'exprimer des ensembles de scénarios de tests inspirés de propriétés à valider sur le système. Ce langage permet de décrire des schémas de tests à partir d'un formalisme, basé sur celui des expressions régulières, qui permet de décrire des ensembles de scénarios principalement par des enchaînements d'appels d'opération et d'états symboliques. Nous définissons une méthode de génération de tests intégrée à l'outil BZ- TT, afin que celui-ci prenne en compte ce nouveau critère de sélection de tests. Cette méthode permet de réutiliser les technologies d'animation symbolique et de résolution de contraintes de cet outil, ainsi que de conserver les fonctionnalités d'exportation et de concrétisation des tests produits. Dans cette méthode, la seule charge supplémentaire pour l'ingénieur de validation est la définition des schémas de test utilisés comme critère de sélection. Nos dernières contributions, visent à évaluer la complémentarité de notre méthode avec celle de génération automatique de tests par couverture structurelle du modèle. Nous proposons une méthode d'évaluation de la complémentarité entre deux suites de tests. Cette méthode est basée sur le calcul de la couverture d'états et de transitions des suites de tests sur une abstraction du système. Enfin, nous appliquons cette méthode à trois études de cas (deux applications de type carte à puce et un système de gestion de fichiers Posix), et nous montrons la complémentarité qu'elle apporte.
|
|
Université de Franche-Comté
/ 13-12-2010
Guyeux Christophe
Voir le résumé
Voir le résumé
Les itérations chaotiques, un outil issu des mathématiques discrètes, sont pour la première fois étudiées pour obtenir de la divergence et du désordre. Après avoir utilisé les mathématiques discrètes pour en déduire des situations de non convergence, ces itérations sont modélisées sous la forme d un système dynamique et sont étudiées topologiquement dans le cadre de la théorie mathématique du chaos. Nous prouvons que leur adjectif chaotique a été bien choisi : ces itérations sont du chaos aux sens de Devaney, Li-Yorke, l expansivité, l entropie topologique et l exposant de Lyapunov, etc. Ces propriétés ayant été établies pour une topologie autre que la topologie de l ordre, les conséquences de ce choix sont discutées. Nous montrons alors que ces itérations chaotiques peuvent être portées telles quelles sur ordinateur, sans perte de propriétés, et qu il est possible de contourner le problème de la finitude des ordinateurs pour obtenir des programmes aux comportements prouvés chaotiques selon Devaney, etc. Cette manière de faire est respectée pour générer un algorithme de tatouage numérique et une fonction de hachage chaotiques au sens le plus fort qui soit. À chaque fois, l intérêt d être dans le cadre de la théorie mathématique du chaos est justifié, les propriétés à respecter sont choisies suivant les objectifs visés, et l' objet ainsi construit est évalué. Une notion de sécurité pour la stéganographie est introduite, pour combler l absence d outil permettant d estimer la résistance d un schéma de dissimulation d information face à certaines catégories d attaques. Enfin, deux solutions au problème de l agrégation sécurisée des données dans les réseaux de capteurs sans fil sont proposées
|
|
Université de Franche-Comté, UFC, UTBM
/ 04-12-2007
Kanta Abdoul-fatah
Voir le résumé
Voir le résumé
La projection plasma est un procédé dans lequel les propriétés du dépôt sont indirectement couplées aux paramètres opératoires (paramètres de puissance, paramètres d'injection, paramètres cinématiques et paramètres environnementaux). Ce procédé se caractérise par des phénomènes de fluctuations et des dérives paramétriques à différents temps caractéristiques, phénomènes qui ont pour origine l'usure des électrodes et les fluctuations intrinsèques de l'arc électrique. L'objectif de cette thèse est de développer un système expert qui permettre d'ajuster en temps réel les paramètres opératoires du procédé en fonction, dans un premier temps, des valeurs mesurées sur les caractéristiques en vol des particules (température de surface et vitess) pour réaliser le dépôt. Considérant l'amplitude de ces dérives, la stratégie à adopter pour développer ce système expert dépend des corrections à appliquer aux caraxtéristiques en vol des particules. L'intelligence artificielle basée sur lé réseau de neurones et le contrôleur flou s'avèrent être des outils pertinents pour atteindre cet objectif. En effet, la logique floue permet de définir les règles de correction paramétrique et le réseau des neurones permet de prédire les caractéristiques en vol des particules et celles du dépot. Coupler les protocoles neuronaux à la logique floue permet alors de développer un contrôleur indépendant. Ce système offre la possibilité d'ajuster les paramètres opératoires dans le but d'assurer la reproductibilité du procédé et également, d'optimiser les conditions de la réalisation du dépôt en tenant compte des effets de l'usure de l'électrode en particulier.
|
|
Université de Franche-Comté
/ 01-07-2009
Lehsaini Mohamed
Voir le résumé
Voir le résumé
Au cours de ces dernières années, la technologie des réseaux sans fil n'a cessé de croître grâce aux développements technologiques dans divers domaines liés à la micro-électronique et à l'informatique. La mise en réseaux des capteurs sans fil permet d'étendre la couverture de la zone et la diffusion pour couvrir un territoire plus important, obtenir des résultats plus rapidement, plus fiables et permettre la tolérance aux fautes. Au niveau de la diffusion, nous avons proposé un algorithme pour la diffusion dans un environnement réaliste basé sur l'approche MPR (Multi Points Relais) puis un algorithme d'auto-organisation appelé CSOS basé sur le concept de clustering. Ce dernier permet d'organiser les capteurs en 2-clusters homogènes en taille et de confier aux cluster-heads la responsabilité de communiquer et de transmettre les données collectées par les capteurs à la station de base. L'élection des cluster-heads se fait périodiquement selon leur poids qui est fonction de leur capacité à supporter cette tâche. Le poids d'un noeud est calculé grâce aux métriques suivantes: k-densité, énergie restante et mobilité. Nous avons impliqué ces facteurs dans le calcul des poids des capteurs afin de générer des clusters stables. Au niveau de la couverture de zone, nous avons proposé un algorithme pour assurer la couverture totale de la zone d'intérêt à des degrés différents. Ce protocole se base sur le même concept que CSOS mais il implique plus de capteurs actifs pour la couverture de zone. En effet, le nombre de capteurs actifs augmente en fonction du degré de couverture de zone appelé k-couverture ou couverture multiple. Pour tester les performances de nos contributions, nous avons réalisé plusieurs simulations et nous avons comparé 1es résultats obtenus relativement aux résultats d'autres protocoles. Afin de tester notre protocole de couverture de zone nous avons développé une application de surveillance dans un parc d'une maison de retraite pour les personnes dépendantes.
|
|
Université de Franche-Comté, UFC, UTBM
/ 30-11-2007
Devarenne Isabelle
Voir le résumé
Voir le résumé
Toutes les méthodes d'optimisation ont des paramètres internes qui prennent une part prépondérante dans leurs performances. La difficulté pour les utilisateurs est de trouver un bon réglage pour chaque problème. Depuis quelques années une part importante de la recherche en optimisation combinatoire porte sur la conception de méthodes adaptives. L'objectif de cette démarche est de définir les procédés qui tentent d'adapter dynamiquement le paramétrage des méthodes en fonction du problème. Dans ce contexte, cette thèse porte sur les mécanismes de mémoire et d'adaptation dans le but de mettre au point une méthode de Recherche Locale Adapative (RLA) combinant des mécanismes d'extension et de restriction du voisinage. L'extension du voisinage est définie par une procédure de détection de blocage de la recherche en étudiant l'historique des choix effectués par la méthode afin d'intervenir sur son comportement. Le mécanisme de restriction quant à lui est basé sur l'utilisation d'une liste Tabou à paramétrage adaptatif pour gérer l'accès aux variables. La méthode ainsi obtenue a été appliquée à deux problèmes : un problème académique, la k-coloration de graphes, et un problème réel, l'affectation de fréquences en réseaux de radiocommunications. Plusieurs variantes de RLA ont élé développées et comparées à des résultats publics sur les deux problèmes.
|
|
Université de Franche-Comté
/ 25-06-2009
Alustwani Husam
Voir le résumé
Voir le résumé
Deux problématiques principales ont guidé les travaux de cette thèse:
(a) comment supporter efficacement les interactions (navigation) dans les présentations multimédias streamées et
(b) comment améliorer la disponibilité des données dans un système de streaming P2P ? Afin de permettre une navigation rapide au sein d une présentation multimédia, diffusée en continu, nous avons proposé une approche exploitant les informations disponibles sur son contenu (les objets la constituant). Ces informations permettent, entre autres, de préserver la cohérence sémantique de la présentation lors des interactions utilisateurs. Dans un deuxième temps, nous avons étudié les performances de notre approche en proposant une stratégie de pré-chargement, nommé CPS (Content-Based Prefetching Strategy), qui a permis de réduire considérablement les temps de latence des interactions utilisateurs. La disponibilité des données dans les systèmes de streaming P2P diffère fondamentalement de celle observée dans les systèmes PSP classiques, dans le sens où les données consommées sont dépendantes du temps. Ainsi, cette problématique se pose en terme de possibilité au pair destinataire (consommateur) de pouvoir terminer le visionnage du contenu vidéo dans sa totalité i.e., durant toute la durée de la vidéo. Or, les systèmes P2P spontanés sont essentiellement caractérisés par leur volatilité fréquente, ce qui pose le problème de la disponibilité des pairs sources pendant le streaming. Nous avons étudié cette problématique en mettant en oeuvre, dans un premier temps, un mécanisme de cache centralisé permettant de réduire les effets de la volatilité des pairs et en préservant uniquement les suffixes des vidéos en cours d accès. Dans un deuxième temps, nous avons étendu notre approche vers un cache virtuel distribué. Les résultats des simulations ont montré la pertinence des approches proposées. Enfin, nous avons décrit la conception et la mis en œuvre d un prototype qui démontre la faisabilité d un système de streaming P2P spontané.
|
|
|<
<< Page précédente
1
2
Page suivante >>
>|
|
documents par page
|