Tri :
Date
Editeur
Auteur
Titre
|
|
Enigma, ou comment les mathématiciens ont gagné la guerre 1939-45.
(Partie 2)
/ Géraud SÉNIZERGUES
/ Canal-u.fr
Voir le résumé
Voir le résumé
Dans cet exposé, à la fois historique et technique, nous expliquerons
tout d'abord comment les machines à chiffrer Enigma ont pu être
cryptanalysées durant la deuxième guerre mondiale. Nous nous
efforcerons ensuite de dégager les grands principes qui sont à
l'oeuvre aussi bien dans l'analyse des machines à rotors historiques
que dans le chiffrement par blocs moderne. Dans les deux cas il
s'agit de constructions à base de combinaisons (non-commutatives!) de
permutations et il existe un certain nombre de stratégies qui
permettent de déjouer leur apparente complexité. Nous expliquerons le
rôle majeur joué par certaines propriétés et théorèmes clés sur les
permutations, qui concernent, notamment, les involutions, les cycles
courts et les points fixes. Mot(s) clés libre(s) : algèbre, histoire, cryptographie, information
|
Accéder à la ressource
|
|
Résolutions numériques de problèmes, quelques grandes familles d'algorithmes
/ INRIA
/ 09-06-2010
/ Canal-U - OAI Archive
VIEVILLE Thierry
Voir le résumé
Voir le résumé
Dans cet exposé, quelques grands algorithmes d'estimation de paramètres et de génération de trajectoire sont démystifiés. Les principes généraux sont décrits et les points clés de ces méthodes mises en avant. Ils permettent de prendre la mesure des mécanismes qui permettent à un système artificiel d'implémenter des fonctionnalités perceptives observées chez l'animal, comme la perception du mouvement.Présentation donnée en juin 2010 lors des journées de formation à l'informatique organisées par l'INRIA à destination des professeurs de mathématiques d'Ile de France. Mot(s) clés libre(s) : algorithme, catégorisation, équation différentielle, estimation, génération de trajectoires, modèlisation, résolution numérique, système dynamique, traitement de l'information
|
Accéder à la ressource
|
|
L’informatique dans les sciences de la vie
/ INRIA
/ 10-06-2009
/ Canal-U - OAI Archive
RECHENMANN Francois
Voir le résumé
Voir le résumé
Dans cet exposé François Rechenmann propose un rapide survol des méthodes algorithmiques utilisées au niveau de l'analyse du génome. On y découvre que l'informatique est à la fois un outil incontournable, puisque seules des méthodes algorithmiques automatiques issus de travaux sur le traitement automatique de texte peuvent analyser les masses, mais aussi que la modélisation elle-même de ces données biologique est informatique. Cet exposé introduit deux contenus, plus détaillés sur le site d')i(nterstices, relatifs aux régions codantes et à l'alignement de séquences.Cet exposé s'est inscrit dans le cadre d'une formation INRIA proposée en juin 2009 et s'adressait aux professeurs des établissements de l'académie de Versailles proposant l'option Informatique et Objets Numériques à leurs classes de seconde pour l'année scolaire 2009-2010. Mot(s) clés libre(s) : algorithmique, alignement de séquences, analyse statistique, bioinformatique, biologie, dynamique des populations, évolution, génome, phylogénétique, région codante, representation des données, simulation, système dynamique
|
Accéder à la ressource
|
|
Analyser les génomes des océans
/ Inria / Interstices
/ 05-09-2019
/
Peterlongo Pierre
Voir le résumé
Voir le résumé
Grâce aux techniques de séquençage de l’ADN, nous avons aujourd’hui les moyens technologiques de connaitre le génome des organismes vivants, le plancton des océans y compris. Mais est-ce si simple ? Comment extraire de l’information biologique de gigantesques masses de données contenant des fragments des génomes des organismes vivants dans les océans ? Comment développer un outil informatique pertinent mais assez simple et rapide pour venir à bout de plusieurs téraoctets de données brutes ? Faisons le point sur un projet algorithmique qui a vu le jour grâce aux données générées par l’expédition Tara Ocean. Mot(s) clés libre(s) : séquençage ADN, bioinformatique, extraction information, génome, algorithme
|
Accéder à la ressource
|
|
L'expérience dans les sciences, modèles et simulations
/ UTLS - la suite, Mission 2000 en France
/ 15-01-2000
/ Canal-U - OAI Archive
PARROCHIA Daniel
Voir le résumé
Voir le résumé
Après avoir été sous-estimée par Descartes, constructeur d'une science déductive essentiellement théorique, l'expérience, à partir de Newton, a acquis une place prépondérante, sinon autonome, dans les sciences modernes et contemporaines, au point que la vérification expérimentale est devenue un moment essentiel du " rationalisme appliqué ". Dès la seconde moitié du XIXème siècle, cependant, et notamment à partir de Maxwell, la détermination d'objets scientifiques repasse par la construction de modèles théoriques permettant d'aborder des champs nouveaux sur des bases formelles identiques. Aujourd'hui, un pas de plus est franchi puisque la simulation informatique des tests expérimentaux fait perdre son empiricité à l'expérience et tend à la réinstaller au sein du théorique. La question se pose ainsi de savoir si ce nouveau tournant nous ramène à son point de départ et quelles sont les limites de cette réintégration de l'expérience dans la pratique théorique. Mot(s) clés libre(s) : connaissance scientifique, épistémologie, expérience, intelligence artificielle, méthodologie des sciences, modèle, modélisation, philosophie des sciences, réel, simulation
|
Accéder à la ressource
|
|
L'expérience dans les sciences, modèles et simulations
/ UTLS - la suite, Mission 2000 en France
/ 15-01-2000
/ Canal-u.fr
PARROCHIA Daniel
Voir le résumé
Voir le résumé
Après avoir été sous-estimée par Descartes, constructeur d'une science déductive essentiellement théorique, l'expérience, à partir de Newton, a acquis une place prépondérante, sinon autonome, dans les sciences modernes et contemporaines, au point que la vérification expérimentale est devenue un moment essentiel du " rationalisme appliqué ". Dès la seconde moitié du XIXème siècle, cependant, et notamment à partir de Maxwell, la détermination d'objets scientifiques repasse par la construction de modèles théoriques permettant d'aborder des champs nouveaux sur des bases formelles identiques. Aujourd'hui, un pas de plus est franchi puisque la simulation informatique des tests expérimentaux fait perdre son empiricité à l'expérience et tend à la réinstaller au sein du théorique. La question se pose ainsi de savoir si ce nouveau tournant nous ramène à son point de départ et quelles sont les limites de cette réintégration de l'expérience dans la pratique théorique. Mot(s) clés libre(s) : modèle, réel, philosophie des sciences, méthodologie des sciences, expérience, épistémologie, connaissance scientifique, intelligence artificielle, modélisation, simulation
|
Accéder à la ressource
|
|
Le traitement du temps en automatique (cycle de cours et séminaires du collège de France en extérieur)
/ Région PACA, UNS, CNRS - Centre National de la Recherche Scientifique, INRIA (Institut national de recherche en informatique et automatique)
/ 15-01-2014
/ Canal-u.fr
Leblond Juliette
Voir le résumé
Voir le résumé
Ce séminaire est associé au 1er cours à l'extérieur de Gérard Berry pour
le collège de France intitulé "Esterel et SCADE, de la recherche à
l'industrie : la vision labo"
Nous discuterons de différents modèles et traitement de problèmes d'automatique dans lesquels le temps joue un rôle essentiel. Après quelques rappels historiques, nous introduirons les modèles mathématiques classiques des systèmes dynamiques, qui s'expriment par des relations entre le temps continu ou discret, les entrées du système en fonction du temps, ses sorties, et son état interne. Le traitement technique de ces quantités dépend d'hypothèses sur le comportement en espace et en temps du modèle considéré. Les descriptions dites externes relient directement la sortie du système à ses entrées et au temps, tandis que les représentations internes font revenir aussi son état. Comme en physique, ce sont souvent des équations différentielles ordinaires (EDO) ou des équations aux dérivées partielles (EDP), avec éventuellement la présence de retard. Dans le cas linéaire, la description externe est une relation de convolution netre l'netrée et la sortie.
Nous verrons comment ces modèles temporels se prêtent à la formulation de propriétés de causalité, d'invariance dans le temps, de linéarité, de stabilité, de commandabilité, d'observabilité et d'optimalité en insistant sur des exemples linéaires et stationnaires : comment garder son cap en boucle ouverte ou fermée, comment planifier des trajectoires en temps minimal, comment stabiliser des structures fléxibles. Pour faire le lien avec le séminaire suivant , nous reformulerons ces questions en l'absence du temps, caché par diverses transformations temps-fréquence. Mot(s) clés libre(s) : invariance
|
Accéder à la ressource
|
|
Futurs véhicules terrestres : autonomie ou automatisation ?
/ INRIA (Institut national de recherche en informatique et automatique)
/ 03-04-2014
/ Canal-u.fr
LE LANN Gérard
Voir le résumé
Voir le résumé
Quelques problèmes ouverts dans les systèmes cyber-physiques critiques. Mot(s) clés libre(s) : autonomie, véhicule terrestre, automatisation
|
Accéder à la ressource
|
|
La modélisation des molécules de la vie
/ UTLS - la suite
/ 21-06-2006
/ Canal-U - OAI Archive
LAVERY Richard
Voir le résumé
Voir le résumé
Il y a plus de cent ans, les chimistes ont commencé à exploiter des modèles pour visualiser les molécules qu'ils manipulaient dans leurs tubes à essais. Les modèles physiques permettent de mieux comprendre la forme et la flexibilité des molécules, mais ils sont longs à construire, souvent chers, et ils ne donnent qu'une vue très approximative des molécules. De surcroît, ils sont peu adaptés à la représentation des grandes molécules qui caractérisent la vie et qui contiennent des milliers, voire des centaines de milliers, d'atomes. Depuis environ quarante ans, les ordinateurs offrent une alternative aux modèles physiques. Ils permettent de décrire les molécules (et les macromolécules) d'une façon beaucoup plus réaliste en tenant compte de l'ensemble des interactions qui peuvent avoir lieu entre ces espèces. Ils permettent non seulement de visualiser les molécules, mais aussi d'étudier leur dynamique et leurs interactions. La modélisation ne remplace pas l'expérimentation, mais elle aide à analyser des résultats et surtout à formuler de nouvelles hypothèses. J'illustrerai ces développements avec des exemples portant sur les acides nucléiques, et, en particulier, la double hélice d'ADN, sur les protéines et sur les complexes formés entre ces macromolécules. Je montrerai comment on peut approcher les molécules avec l'oeil de l'ingénieur civil, et comment les molécules sondent leurs propres propriétés mécaniques pour se reconnaître. Je parlerai aussi de la modélisation au service des physiciens qui ont appris à manipuler les molécules une à une, ou au service du biologiste "seigneur des anneaux". Je terminerai en parlant de l'avenir de la modélisation: est-ce que nous pouvons commencer déjà à simuler non seulement une ou deux molécules, mais plutôt les systèmes moléculaires organisés qui animent nos cellules ? Mot(s) clés libre(s) : ADN, enzyme, macromolécule biologique, modèle moléculaire, modélisation, protéine, simulation informatique, structure chimique, système vivant
|
Accéder à la ressource
|
|
Comment la vérité et la réalité furent inventées (par Paul JORION)
/ Pascal CECCALDI, Lycée d’Etat Jean Zay - Internat de Paris
/ 24-03-2015
/ Canal-u.fr
JORION Paul
Voir le résumé
Voir le résumé
J’analyserai la naissance des notions de "vérité" et de "réalité (objective)", notions qui nous semblent aller de soi, mais sont en réalité apparues à un moment précis de l'histoire de notre culture occidentale et sont totalement absentes du bagage conceptuel de certaines autres et de la culture chinoise traditionnelle en particulier. Les moments de leur émergence sont datés et relativement récents, mieux, leur apparition a donné lieu à des débats houleux et bien documentés entre partisans et adversaires de thèses antagonistes. La vérité est née dans la Grèce du IVe siècle avant Jésus-Christ, la réalité (objective), au XVIe siècle. L'une découle de l'autre : à partir du moment où s'est imposée l'idée d'une vérité, dire la vérité revenait à décrire la réalité telle qu'elle est.Paul Jorion Mot(s) clés libre(s) : symétrie, sciences, syllogisme, sophisme, pensée primitive, rhétorique, analogie, Aristote, anthropologie, vérité, anti-symétrie
|
Accéder à la ressource
|
|