Tri :
Date
Editeur
Auteur
Titre
|
|
Fonctions symétriques, intégrabilité quantique et géométrie
/ Bruno FARNIER
/ Canal-u.fr
Voir le résumé
Voir le résumé
Colloquium du Laboratoire de Mathématiques d'Orsay (séance du 18 janvier 2016)
Paul Zinn-Justin - Université Pierre et Marie Curie Mot(s) clés libre(s) : géométrie, fonctions symétriques, intégrabilité quantique
|
Accéder à la ressource
|
|
Nano-électronique et informatique
/ UTLS - la suite
/ 20-12-2001
/ Canal-U - OAI Archive
WEISBUCH Claude
Voir le résumé
Voir le résumé
Les révolutions de l' information et des communications sont un des faits marquants du siècle et vont continuer à bouleverser dans ce nouveau siècle tous les domaines de l'activité humaine, y compris nos modes de vie. Ces révolutions sont nées du codage de l'information sous forme de paquets d'électrons (les " grains " d'électricité) ou de photons (les " grains " de lumière) (quelques dizaines de milliers de chaque pour l'élément d'information, le " bit "), et la capacité de manipuler et transmettre ces paquets d'électrons ou de photons de manière de plus en plus efficace et économique. À la base de cette capacité se trouvent les matériaux semi-conducteurs. Rien ne prédisposait ces matériaux à un tel destin : ils ont des propriétés " classiques " médiocres, que ce soit mécaniques, thermiques, optiques ou électriques. C'est justement les propriétés moyennes des semi-conducteurs qui les rendent " commandables " : par exemple, leur comportement électrique a longtemps semblé erratique, car très sensible aux " impuretés ". Cette capacité à changer de conductivité électrique, devenue " contrôlée " par la compréhension physique des phénomènes et l'insertion locale d'impuretés chimiques, permet de commander le passage de courant par des électrodes. On a alors l'effet d'amplification du transistor, à la base de la manipulation électronique de l'information. La sensibilité des semi-conducteurs aux flux lumineux en fait aussi les détecteurs de photons dans les communications optiques, et le phénomène inverse d'émission lumineuse les rend incontournables comme sources de photons pour les télécommunications, et bientôt pour l'éclairage. Les progrès des composants et systèmes sont liés aux deux démarches simultanées d'intégration des éléments actifs sur un même support, la " puce ", et de miniaturisation. Une des immenses surprises a été le caractère " vertueux " de la miniaturisation : plus les composants sont petits, meilleur est leur fonctionnement ! On a pu ainsi gagner en trente-cinq ans simultanément plusieurs facteurs de 100 millions à 1 milliard, en termes de complexité des circuits, réduction de coût (la puce de plusieurs centaines de millions de transistors coûte le même prix qu'un transistor dans les années 60), fiabilité, rendement de fabrication. Le problème des limites physiques est cependant aujourd'hui posé : jusqu'où la miniaturisation peut-elle continuer ? Combien d'atomes faut-il pour faire un transistor qui fonctionne encore ? Y-a t'il d'autres matériaux que les semi-conducteurs qui permettraient d'aller au delà des limites physiques, ou encore d'autres moyens de coder l'information plus efficaces que les électrons ou les photons ? Ce sont les questions que se pose aujourd'hui le physicien, cherchant à mettre en difficulté un domaine d'activité immense qu'il a contribué à créer. En savoir plus : http://pmc.polytechnique.fr/ weisbuch/microelectronique Mot(s) clés libre(s) : codage de l'information, composant électronique, matériaux semi-conducteurs, micro-électronique, miniaturisation, nanotechnologies, physique quantique, stockage de données, technologies de l'information, TIC, transistor
|
Accéder à la ressource
|
|
Comment les révolutions de l'information et des communications ont-elles été possibles ?
/ Mission 2000 en France
/ 12-08-2000
/ Canal-U - OAI Archive
WEISBUCH Claude
Voir le résumé
Voir le résumé
Les révolutions de l'information et des communications vont continuer à bouleverser tous les domaines de l'activité humaine. Ces révolutions sont nées du codage de l'information sous forme de paquets d'électrons ou de photons et de la capacité de manipuler et transmettre ces paquets d'électrons ou de photons de manière de plus en plus efficace et économique. À la base de cette capacité se trouvent les matériaux semi-conducteurs. Rien ne prédisposait ces matériaux à un tel destin : ils ont des propriétés " classiques " médiocres qui les rendent " commandables " : par exemple, leur comportement électrique a longtemps semblé erratique, car très sensible aux " impuretés ". Cette capacité à changer de conductivité électrique, devenue " contrôlée " par la compréhension physique des phénomènes et l'insertion locale d'impuretés chimiques, permet de commander le passage de courant par des électrodes. On a alors l'effet d'amplification du transistor, à la base de la manipulation électronique de l'information. La sensibilité des semi-conducteurs aux flux lumineux en fait aussi les détecteurs de photons dans les communications optiques, et le phénomène inverse d'émission lumineuse les rend incontournables comme sources de photons pour les télécommunications, et bientôt pour l'éclairage. Les progrès des composants et systèmes sont liés aux deux démarches simultanées d'intégration des éléments actifs sur un même support, la " puce ", et de miniaturisation. Une des immenses surprises a été le caractère " vertueux " de la miniaturisation : plus les composants sont petits, meilleur est leur fonctionnement ! On a pu ainsi gagner en trente-cinq ans simultanément plusieurs facteurs de 100 millions à 1 milliard, en termes de complexité des circuits, réduction de coût, fiabilité, rendement de fabrication. Le problème des limites physiques est cependant aujourd'hui posé : jusqu'où la miniaturisation peut-elle continuer ? Combien d'atomes faut-il pour faire un transistor qui fonctionne encore ? Y-a t'il d'autres matériaux que les semi-conducteurs qui permettraient d'aller au delà des limites physiques, ou encore d'autres moyens de coder l'information plus efficaces que les électrons ou les photons ? Ce sont les questions que se pose aujourd'hui le physicien, cherchant à mettre en difficulté un domaine d'activité immense qu'il a contribué à créer. Mot(s) clés libre(s) : circuit intégré, codage de l'information, conductivité électrique, matériau semi-conducteur, microélectronique, miniaturisation, physique quantique des solides, silicium, transistor
|
Accéder à la ressource
|
|
Les neutrinos dans l'Univers
/ UTLS - la suite
/ 24-06-2005
/ Canal-U - OAI Archive
VIGNAUD Daniel
Voir le résumé
Voir le résumé
Notre corps humain contient environ 20 millions de neutrinos issus du big bang, émet quelques milliers de neutrinos liés à sa radioactivité naturelle. Traversé en permanence par 65 milliards de neutrinos par cm2 par seconde venus du Soleil, il a été irradié le 23 février 1987 par quelques milliards de neutrinos émis il y a 150000 ans par l'explosion d'une supernova dans le Grand Nuage de Magellan. Les neutrinos sont également produits dans l'interaction des rayons cosmiques dans l'atmosphère ou dans les noyaux actifs de galaxies
Quelle est donc cette particule présente en abondance dans tout l'Univers où elle joue un rôle-clé ? Inventé par W.Pauli en 1930 pour résoudre le problème du spectre en énergie des électrons dans la désintégration b, le neutrino fut découvert par F.Reines et C.Cowan en 1956, auprès du réacteur nucléaire de Savannah River (Caroline du Sud). Il n'a plus depuis quitté le devant de la scène, que ce soit chez les physiciens des particules, les astrophysiciens ou les cosmologistes. Cette particule élémentaire, sans charge électrique, n'est soumise qu'à l'interaction faible, ce qui lui permet de traverser des quantités de matière importantes sans interagir. En 1938, H.Bethe imaginait que des réactions nucléaires de fusion étaient au coeur de la production d'énergie des étoiles, en premier lieu le Soleil. Dans les années 60, les astrophysiciens se lancent dans la construction de modèles solaires et des expérimentateurs dans la construction de détecteurs pour les piéger. Il a fallu attendre 2002 pour comprendre que le déficit de neutrinos solaires observé (le célèbre "problème des neutrinos solaires") était dû à un phénomène lié à la mécanique quantique, appelé l'oscillation des neutrinos. La mise en évidence de cette oscillation a apporté la preuve décisive que les neutrinos avaient une masse non nulle. Nous ferons le point sur cette particule fascinante après les découvertes récentes. Mot(s) clés libre(s) : astrophysique, Big Bang, cosmologie, fermion, interaction électromagnétique, lepton, mécanique quantique, modèle standard, neutrino, oscillation, particule élémentaire, Pauli, physique des particules, univers
|
Accéder à la ressource
|
|
Du laboratoire alchimique à l'éprouvette virtuelle
/ 18-12-2014
/ Canal-u.fr
TOGNETTI Vincent
Voir le résumé
Voir le résumé
Longtemps confinée à l’observation ou à la spéculation, la chimie s’est radicalement transformée au contact de la physique et de l’informatique. Il est désormais possible d’expliquer et de prédire le déroulement d’une transformation chimique grâce aux techniques de modélisation. Je montrerai comment cette (r)évolution, récompensée par le Prix Nobel de chimie en 2013, joue dorénavant un rôle fondamental dans des domaines aussi variés que la catalyse industrielle ou la biologie thérapeutique. Mot(s) clés libre(s) : chimie, virtuel, éprouvette, moléculaire, physique, alchimique, quantique, mécanique, biologie, modélisation
|
Accéder à la ressource
|
|
Codes correcteurs quantiques
/ INRIA (Institut national de recherche en informatique et automatique)
/ 04-04-2013
/ Canal-u.fr
TILLICH Jean-Pierre
Voir le résumé
Voir le résumé
Un ordinateur quantique tire parti de certains phénomènes quantiques de la matière. Arriver à construire un ordinateur de ce type, de taille même modeste, présente un enjeu certain. En effet, il a été montré qu'une telle machine permet d'effectuer certains calculs difficiles, comme factoriser de grands nombres qui sont hors de portée d'un ordinateur classique. Cela aurait notamment des répercussions importantes en cryptographie : tous les systèmes de chiffrement à clé publique qui sont utilisés actuellement seraient menacés par un tel ordinateur.
De petits calculateurs quantiques ont déjà été construits durant ces quinze dernières années. La difficulté fondamentale pour construire un ordinateur de taille suffisante pour factoriser les nombres entiers utilisés dans les protocoles cryptographiques actuels réside dans le fait que les bits quantiques sont beaucoup plus fragiles que les bits classiques. Ils subissent quelle que soit la technologie mise en oeuvre des phénomènes de décohérence qui altèrent très rapidement leur état. Ce phénomène peut être combattu en utilisant des codes correcteurs quantiques qui parviennent à compenser un tel phénomène. Pour l'instant, les solutions à l'étude reposent essentiellement sur une multitude d'étages constitués par de petits codes correcteurs quantiques.
Le domaine des codes correcteurs classiques a élaboré au fil du temps des solutions beaucoup plus performantes que la concaténation de petits codes, comme les turbo-codes ou les codes LDPC. Obtenir des versions quantiques satisfaisantes de ces familles de codes classiques permettrait d'avoir des familles de codes correcteurs quantiques qui sont à la fois raisonnablement simples à mettre en oeuvre et beaucoup plus performantes que les solutions actuelles. L'exposé fera un survol de cette question et expliquera notamment :
comment ça marche un turbo-code classique,
les problèmes spécifiques que pose la généralisation de ces familles de codes au cadre quantique,
quels sont les progrès récents sur cette question qui permettent d'être optimistes sur le succès d'une telle approche. Mot(s) clés libre(s) : quantique, ordinateur quantique, code correcteur quantique
|
Accéder à la ressource
|
|
L'antimatière existe : je l'ai rencontrée
/ Mission 2000 en France
/ 06-08-2000
/ Canal-U - OAI Archive
THIBAULT Catherine
Voir le résumé
Voir le résumé
L' antimatière reste un mystère pour beaucoup d'entre nous. Elle fascine certains, elle fait éventuellement peur à d'autres. Mais, au fait, qu'est-ce que la matière ? Et qu'est-ce que l'antimatière ? Comment est venue l'idée que l'antimatière pouvait exister, et comment l'a-t-on découverte ? Et maintenant, où et comment la produit-on ? Comment l'observe-t-on ? Quelles sont ses propriétés ? Et notre Univers ? Est-il seulement fait de matière ? Et si oui pourquoi ? Mot(s) clés libre(s) : accélérateur de particules, antimatière, antiproton, collision, mécanique quantique, physique des particules, quark, spin
|
Accéder à la ressource
|
|
Physique et médecine : l'imagerie médicale
/ UTLS - la suite
/ 07-07-2005
/ Canal-U - OAI Archive
SYROTA André
Voir le résumé
Voir le résumé
L'imagerie médicale a sans aucun doute entraîné ces vingt dernières années une transformation radicale dans la façon d'aborder le diagnostic et le suivi thérapeutique. Un diagnostic de localisation d'une lésion cérébrale qui nécessitait un examen clinique long et minutieux par un neurologue expérimenté se fait aujourd'hui avec une précision millimétrique grâce au scanner ou à l'imagerie par résonance magnétique (IRM). Là où le maître entouré de ses élèves démontrait que la lésion ischémique ou tumorale devait siéger au niveau de tel noyau du thalamus (la vérification ayant lieu malheureusement souvent quelques semaines plus tard sur les coupes de cerveau), le neuroradiologue parvient au même résultat en quelques minutes. On pourrait multiplier les exemples ; là où le cardiologue se fiait à son auscultation et à des clichés de thorax, l'échocardiographie montre en temps réel les mouvements des valves cardiaques et la dynamique de la contraction ventriculaire, la scintigraphie myocardique précise la localisation des zones de myocarde ischémique et les anomalies de sa contraction ; demain l'IRM permettra de voir la circulation coronaire et le tissu myocardique et remplacera l'angiographie par voie artérielle. On pourrait encore citer l'échographie en obstétrique, en hépatologie ou en urologie, la scintigraphie dans la détection des lésions de la thyroïde, des métastases osseuses ou de l'embolie pulmonaire. Aujourd'hui la tomographie par émission de positons (TEP) est en train de devenir la méthode incontournable en cancérologie, non pas tant pour le diagnostic du cancer que pour en préciser l'extension, l'existence de métastases, l'évolution sous traitement après chimiothérapie, chirurgie ou radiothérapie ou encore l'apparition de récidives ou de métastases tardives. Au milieu du 19ème siècle, l'inventeur de la médecine expérimentale, Claude Bernard indiquait à Ernest Renan qui l'a relaté, que « l on ne connaîtrait la physiologie que le jour où l'on saura décrire le voyage d'un atome d'azote depuis son entrée dans l'organisme jusqu'à sa sortie». Ce qui était totalement hors de portée du savant de cette époque, connaît en ce début du 21ème siècle une pleine réalisation grâce à une série d'avancées techniques rendues d'abord possibles par la radioactivité et aussi dans une certaine mesure par l'IRM et de toutes façons par la combinaison de plusieurs méthodes lorsqu'on aborde la pathologie. C'est certainement dans la description du voyage fait par le médicament dans le corps que réside aujourd'hui une des avancées les plus intéressantes dans le domaine pharmaceutique. Mais nous verrons aussi que quand nous écoutons, parlons, bougeons, réfléchissons... certaines aires de notre cerveau s'activent. Cette activation électrique et chimique des neurones se traduit par une augmentation du débit sanguin local dans les régions cérébrales concernées par cette activation. La TEP d'abord puis en utilisant les mêmes principes physiologiques, l'IRM aujourd'hui permet de produire des images sensibles au débit sanguin et ce, sans recours à l'injection d'une substance ou molécule particulière. Il ne peut s'agir dans cette conférence de décrire les principes physiques, les indications de toutes ces méthodes et les résultats qu'elles permettent d'obtenir en clinique. Par contre la comparaison de l'origine et de l'évolution de trois de ces méthodes, la radiologie, la médecine nucléaire et l'imagerie par résonance magnétique nucléaire est intéressante. La perspective historique permet en effet de mieux comprendre la genèse, l'évolution et les indications de ces différentes méthodes qui ont toutes leur point de départ dans la physique. Mot(s) clés libre(s) : imagerie cérébrale, imagerie médicale, imagerie par résonance magnétique nucléaire, IRM, physique des particules, physique nucléaire, physique quantique, positon, radioactivité, radiologie, tomographie
|
Accéder à la ressource
|
|
Chaos, imprédictibilité, hasard
/ UTLS - la suite, Mission 2000 en France
/ 05-08-2000
/ Canal-U - OAI Archive
RUELLE David
Voir le résumé
Voir le résumé
Le monde qui nous entoure paraît souvent imprévisible, plein de désordre et de hasard. Une partie de cette complexité du monde est maintenant devenue scientifiquement compréhensible grâce à la théorie du chaos déterministe. Cette théorie analyse quantitativement les limites à la prédictibilité d'une l'évolution temporelle déterministe : une faible incertitude initiale donne lieu dans certains cas à une incertitude croissante dans les prévisions, et cette incertitude devient inacceptable après un temps plus ou moins long. On comprend ainsi comment le hasard s'introduit inévitablement dans notre description du monde. L'exemple des prévisions météorologiques est à cet égard le plus frappant. Nous verrons comment les idées à ce sujet évoluent de Sénèque à Poincaré, puis nous discuterons comment le battement d'ailes du papillon de Lorenz peut affecter la météo, donnant lieu à des ouragans dévastateurs des milliers de kilomètres plus loin. Ainsi, la notion de chaos déterministe contribue non seulement à notre appréciation pratique des incertitudes du monde qui nous entoure, mais encore à la conceptualisation philosophique de ce que nous appelons cause et de ce que nous appelons hasard. Mot(s) clés libre(s) : causalité, effet papillon, équation d’évolution déterministe, hasard, Henri Poincaré, incertitude, mécanique quantique, physique mathématique, système déterministe, théorie du chaos
|
Accéder à la ressource
|
|
Petite introduction visuelle à la cryptographie post-quantique
/ Inria / Interstices
/ 17-12-2020
/
Rossi Mélissa
Voir le résumé
Voir le résumé
Envie de comprendre ce qu'est la cryptographie post-quantique ? Regardez donc la vidéo introductive de Mélissa Rossi dans cet article ! Mot(s) clés libre(s) : cryptographie post-quantique, sécurité algorithmes, réseaux euclidiens, sécurité réseau, optimisation
|
Accéder à la ressource
|
|