Tri :
Date
Editeur
Auteur
Titre
|
|
Nano-électronique et informatique
/ UTLS - la suite
/ 20-12-2001
/ Canal-U - OAI Archive
WEISBUCH Claude
Voir le résumé
Voir le résumé
Les révolutions de l' information et des communications sont un des faits marquants du siècle et vont continuer à bouleverser dans ce nouveau siècle tous les domaines de l'activité humaine, y compris nos modes de vie. Ces révolutions sont nées du codage de l'information sous forme de paquets d'électrons (les " grains " d'électricité) ou de photons (les " grains " de lumière) (quelques dizaines de milliers de chaque pour l'élément d'information, le " bit "), et la capacité de manipuler et transmettre ces paquets d'électrons ou de photons de manière de plus en plus efficace et économique. À la base de cette capacité se trouvent les matériaux semi-conducteurs. Rien ne prédisposait ces matériaux à un tel destin : ils ont des propriétés " classiques " médiocres, que ce soit mécaniques, thermiques, optiques ou électriques. C'est justement les propriétés moyennes des semi-conducteurs qui les rendent " commandables " : par exemple, leur comportement électrique a longtemps semblé erratique, car très sensible aux " impuretés ". Cette capacité à changer de conductivité électrique, devenue " contrôlée " par la compréhension physique des phénomènes et l'insertion locale d'impuretés chimiques, permet de commander le passage de courant par des électrodes. On a alors l'effet d'amplification du transistor, à la base de la manipulation électronique de l'information. La sensibilité des semi-conducteurs aux flux lumineux en fait aussi les détecteurs de photons dans les communications optiques, et le phénomène inverse d'émission lumineuse les rend incontournables comme sources de photons pour les télécommunications, et bientôt pour l'éclairage. Les progrès des composants et systèmes sont liés aux deux démarches simultanées d'intégration des éléments actifs sur un même support, la " puce ", et de miniaturisation. Une des immenses surprises a été le caractère " vertueux " de la miniaturisation : plus les composants sont petits, meilleur est leur fonctionnement ! On a pu ainsi gagner en trente-cinq ans simultanément plusieurs facteurs de 100 millions à 1 milliard, en termes de complexité des circuits, réduction de coût (la puce de plusieurs centaines de millions de transistors coûte le même prix qu'un transistor dans les années 60), fiabilité, rendement de fabrication. Le problème des limites physiques est cependant aujourd'hui posé : jusqu'où la miniaturisation peut-elle continuer ? Combien d'atomes faut-il pour faire un transistor qui fonctionne encore ? Y-a t'il d'autres matériaux que les semi-conducteurs qui permettraient d'aller au delà des limites physiques, ou encore d'autres moyens de coder l'information plus efficaces que les électrons ou les photons ? Ce sont les questions que se pose aujourd'hui le physicien, cherchant à mettre en difficulté un domaine d'activité immense qu'il a contribué à créer. En savoir plus : http://pmc.polytechnique.fr/ weisbuch/microelectronique Mot(s) clés libre(s) : codage de l'information, composant électronique, matériaux semi-conducteurs, micro-électronique, miniaturisation, nanotechnologies, physique quantique, stockage de données, technologies de l'information, TIC, transistor
|
Accéder à la ressource
|
|
Comment les révolutions de l'information et des communications ont-elles été possibles ?
/ Mission 2000 en France
/ 12-08-2000
/ Canal-U - OAI Archive
WEISBUCH Claude
Voir le résumé
Voir le résumé
Les révolutions de l'information et des communications vont continuer à bouleverser tous les domaines de l'activité humaine. Ces révolutions sont nées du codage de l'information sous forme de paquets d'électrons ou de photons et de la capacité de manipuler et transmettre ces paquets d'électrons ou de photons de manière de plus en plus efficace et économique. À la base de cette capacité se trouvent les matériaux semi-conducteurs. Rien ne prédisposait ces matériaux à un tel destin : ils ont des propriétés " classiques " médiocres qui les rendent " commandables " : par exemple, leur comportement électrique a longtemps semblé erratique, car très sensible aux " impuretés ". Cette capacité à changer de conductivité électrique, devenue " contrôlée " par la compréhension physique des phénomènes et l'insertion locale d'impuretés chimiques, permet de commander le passage de courant par des électrodes. On a alors l'effet d'amplification du transistor, à la base de la manipulation électronique de l'information. La sensibilité des semi-conducteurs aux flux lumineux en fait aussi les détecteurs de photons dans les communications optiques, et le phénomène inverse d'émission lumineuse les rend incontournables comme sources de photons pour les télécommunications, et bientôt pour l'éclairage. Les progrès des composants et systèmes sont liés aux deux démarches simultanées d'intégration des éléments actifs sur un même support, la " puce ", et de miniaturisation. Une des immenses surprises a été le caractère " vertueux " de la miniaturisation : plus les composants sont petits, meilleur est leur fonctionnement ! On a pu ainsi gagner en trente-cinq ans simultanément plusieurs facteurs de 100 millions à 1 milliard, en termes de complexité des circuits, réduction de coût, fiabilité, rendement de fabrication. Le problème des limites physiques est cependant aujourd'hui posé : jusqu'où la miniaturisation peut-elle continuer ? Combien d'atomes faut-il pour faire un transistor qui fonctionne encore ? Y-a t'il d'autres matériaux que les semi-conducteurs qui permettraient d'aller au delà des limites physiques, ou encore d'autres moyens de coder l'information plus efficaces que les électrons ou les photons ? Ce sont les questions que se pose aujourd'hui le physicien, cherchant à mettre en difficulté un domaine d'activité immense qu'il a contribué à créer. Mot(s) clés libre(s) : circuit intégré, codage de l'information, conductivité électrique, matériau semi-conducteur, microélectronique, miniaturisation, physique quantique des solides, silicium, transistor
|
Accéder à la ressource
|
|
Physique et médecine : l'imagerie médicale
/ UTLS - la suite
/ 07-07-2005
/ Canal-U - OAI Archive
SYROTA André
Voir le résumé
Voir le résumé
L'imagerie médicale a sans aucun doute entraîné ces vingt dernières années une transformation radicale dans la façon d'aborder le diagnostic et le suivi thérapeutique. Un diagnostic de localisation d'une lésion cérébrale qui nécessitait un examen clinique long et minutieux par un neurologue expérimenté se fait aujourd'hui avec une précision millimétrique grâce au scanner ou à l'imagerie par résonance magnétique (IRM). Là où le maître entouré de ses élèves démontrait que la lésion ischémique ou tumorale devait siéger au niveau de tel noyau du thalamus (la vérification ayant lieu malheureusement souvent quelques semaines plus tard sur les coupes de cerveau), le neuroradiologue parvient au même résultat en quelques minutes. On pourrait multiplier les exemples ; là où le cardiologue se fiait à son auscultation et à des clichés de thorax, l'échocardiographie montre en temps réel les mouvements des valves cardiaques et la dynamique de la contraction ventriculaire, la scintigraphie myocardique précise la localisation des zones de myocarde ischémique et les anomalies de sa contraction ; demain l'IRM permettra de voir la circulation coronaire et le tissu myocardique et remplacera l'angiographie par voie artérielle. On pourrait encore citer l'échographie en obstétrique, en hépatologie ou en urologie, la scintigraphie dans la détection des lésions de la thyroïde, des métastases osseuses ou de l'embolie pulmonaire. Aujourd'hui la tomographie par émission de positons (TEP) est en train de devenir la méthode incontournable en cancérologie, non pas tant pour le diagnostic du cancer que pour en préciser l'extension, l'existence de métastases, l'évolution sous traitement après chimiothérapie, chirurgie ou radiothérapie ou encore l'apparition de récidives ou de métastases tardives. Au milieu du 19ème siècle, l'inventeur de la médecine expérimentale, Claude Bernard indiquait à Ernest Renan qui l'a relaté, que « l on ne connaîtrait la physiologie que le jour où l'on saura décrire le voyage d'un atome d'azote depuis son entrée dans l'organisme jusqu'à sa sortie». Ce qui était totalement hors de portée du savant de cette époque, connaît en ce début du 21ème siècle une pleine réalisation grâce à une série d'avancées techniques rendues d'abord possibles par la radioactivité et aussi dans une certaine mesure par l'IRM et de toutes façons par la combinaison de plusieurs méthodes lorsqu'on aborde la pathologie. C'est certainement dans la description du voyage fait par le médicament dans le corps que réside aujourd'hui une des avancées les plus intéressantes dans le domaine pharmaceutique. Mais nous verrons aussi que quand nous écoutons, parlons, bougeons, réfléchissons... certaines aires de notre cerveau s'activent. Cette activation électrique et chimique des neurones se traduit par une augmentation du débit sanguin local dans les régions cérébrales concernées par cette activation. La TEP d'abord puis en utilisant les mêmes principes physiologiques, l'IRM aujourd'hui permet de produire des images sensibles au débit sanguin et ce, sans recours à l'injection d'une substance ou molécule particulière. Il ne peut s'agir dans cette conférence de décrire les principes physiques, les indications de toutes ces méthodes et les résultats qu'elles permettent d'obtenir en clinique. Par contre la comparaison de l'origine et de l'évolution de trois de ces méthodes, la radiologie, la médecine nucléaire et l'imagerie par résonance magnétique nucléaire est intéressante. La perspective historique permet en effet de mieux comprendre la genèse, l'évolution et les indications de ces différentes méthodes qui ont toutes leur point de départ dans la physique. Mot(s) clés libre(s) : imagerie cérébrale, imagerie médicale, imagerie par résonance magnétique nucléaire, IRM, physique des particules, physique nucléaire, physique quantique, positon, radioactivité, radiologie, tomographie
|
Accéder à la ressource
|
|
Renormalisation, Trees, Forests and All That (Partie 2)
/ Géraud SÉNIZERGUES
/ 07-04-2016
/ Canal-u.fr
RIVASSEAU Vincent
Voir le résumé
Voir le résumé
La théorie quantique des champs se heurte à une difficulté célèbre,
celle des divergences ultraviolettes. La solution à tous ordres de
perturbation n'est pas triviale à cause du problème des divergences
enchevêtrées; elle fait appel a une formule compliquée dite des forêts
de Zimmermann.
Au cours de cette lecon on expliquera cette formule et en quoi pour
démontrer qu'elle résoud le problème, il faut l'organiser, sous une
forme ou une autre, à l'aide d'une analyse multi-échelles menant au
point de vue moderne dit du groupe de renormalisation de Wilson. Mot(s) clés libre(s) : combinatoire, physique quantique, théorie quantique des champs, méthode de renormalisation
|
Accéder à la ressource
|
|
Renormalisation, Trees, Forests and All That (Partie 1)
/ Géraud SÉNIZERGUES
/ 07-04-2016
/ Canal-u.fr
RIVASSEAU Vincent
Voir le résumé
Voir le résumé
La théorie quantique des champs se heurte à une difficulté célèbre,
celle des divergences ultraviolettes. La solution à tous ordres de
perturbation n'est pas triviale à cause du problème des divergences
enchevêtrées; elle fait appel a une formule compliquée dite des forêts
de Zimmermann.
Au cours de cette lecon on expliquera cette formule et en quoi pour
démontrer qu'elle résoud le problème, il faut l'organiser, sous une
forme ou une autre, à l'aide d'une analyse multi-échelles menant au
point de vue moderne dit du groupe de renormalisation de Wilson. Mot(s) clés libre(s) : combinatoire, physique quantique, théorie quantique des champs, méthode de renormalisation
|
Accéder à la ressource
|
|
Renormalisation, Trees, Forests and All That
(Partie 4)
/ Géraud SÉNIZERGUES
/ 07-04-2016
/ Canal-u.fr
RIVASSEAU Vincent
Voir le résumé
Voir le résumé
La théorie quantique des champs se heurte à une difficulté célèbre,
celle des divergences ultraviolettes. La solution à tous ordres de
perturbation n'est pas triviale à cause du problème des divergences
enchevêtrées; elle fait appel a une formule compliquée dite des forêts
de Zimmermann.
Au cours de cette lecon on expliquera cette formule et en quoi pour
démontrer qu'elle résoud le problème, il faut l'organiser, sous une
forme ou une autre, à l'aide d'une analyse multi-échelles menant au
point de vue moderne dit du groupe de renormalisation de Wilson. Mot(s) clés libre(s) : combinatoire, physique quantique, théorie quantique des champs, méthode de renormalisation
|
Accéder à la ressource
|
|
Renormalisation, Trees, Forests and All That
(Partie 3)
/ Géraud SÉNIZERGUES
/ 07-04-2016
/ Canal-u.fr
RIVASSEAU Vincent
Voir le résumé
Voir le résumé
La théorie quantique des champs se heurte à une difficulté célèbre,
celle des divergences ultraviolettes. La solution à tous ordres de
perturbation n'est pas triviale à cause du problème des divergences
enchevêtrées; elle fait appel a une formule compliquée dite des forêts
de Zimmermann.
Au cours de cette lecon on expliquera cette formule et en quoi pour
démontrer qu'elle résoud le problème, il faut l'organiser, sous une
forme ou une autre, à l'aide d'une analyse multi-échelles menant au
point de vue moderne dit du groupe de renormalisation de Wilson. Mot(s) clés libre(s) : combinatoire, physique quantique, théorie quantique des champs, méthode de renormalisation
|
Accéder à la ressource
|
|
Présences quantiques en-dehors du quantique
/ enSavoirs en multimédia, ENS Lyon CultureSciences-Physique, Gabrielle Bonnet
/ 24-10-2003
/ Unisciel
Paul Thierry
Voir le résumé
Voir le résumé
La physique quantique est de plus en plus présente en-dehors même
de la sphère traditionnellement appelée "physique quantique", une video conférence
par Thierry Paul, de l'Ecole Normale Supérieure de Paris Mot(s) clés libre(s) : physique quantique, Thierry Paul
|
Accéder à la ressource
|
|
Les trous noirs et la forme de l'espace
/ UTLS - la suite, Mission 2000 en France
/ 05-07-2000
/ Canal-U - OAI Archive
LUMINET Jean-Pierre
Voir le résumé
Voir le résumé
La théorie de la relativité générale, les modèles de trous noirs et les solutions cosmologiques de type " big-bang " qui en découlent, décrivent des espace-temps courbés par la gravitation, sans toutefois trancher sur certaines questions fondamentales quant à la nature de l'espace. Quelle est sa structure géométrique à grande et à petite échelle ? Est-il continu ou discontinu, fini ou infini, possède-t-il des " trous " ou des " poignées ", contient-il un seul feuillet ou plusieurs, est-il " lisse " ou " chiffonné " ? Des approches récentes et encore spéculatives, comme la gravité quantique, les théories multidimensionnelles et la topologie cosmique, ouvrent des perspectives inédites sur ces questions. Je détaillerai deux aspects particuliers de cette recherche. Le premier sera consacré aux trous noirs. Astres dont l'attraction est si intense que rien ne peut s'en échapper, les trous noirs sont le triomphe ultime de la gravitation sur la matière et sur la lumière. Je décrirai les distorsions spatio-temporelles engendrées par les trous noirs et leurs propriétés exotiques : extraction d'énergie, évaporation quantique, singularités, trous blancs et trous de ver, destin de la matière qui s'y engouffre, sites astronomiques où l'on pense les avoir débusqués. Le second aspect décrira les recherches récentes en topologie cosmique, où l'espace " chiffonné ", fini mais de topologie multiconnexe, donne l'illusion d'un espace déplié plus vaste, peuplé d'un grand nombre de galaxies fantômes. L'univers observable acquiert ainsi la forme d'un " cristal " dont seule une maille correspond à l'espace réel, les autres mailles étant des répliques distordues emplies de sources fantômes. Mot(s) clés libre(s) : astrophysique, cosmologie, courbure, espace, espace courbe, espace riemannien, espace-temps, forme de l'espace, géométrie différentielle, géométrie euclidienne, géométrie multidimensionnelle, gravitation, physique quantique, relativité générale, topologie
|
Accéder à la ressource
|
|
Le big-bang
/ Mission 2000 en France
/ 04-07-2000
/ Canal-U - OAI Archive
LACHIEZE-REY Marc
Voir le résumé
Voir le résumé
Notre cosmologie décrit l'univers (sa structure et son évolution) par les modèles de big-bang, en rupture par rapport aux conceptions des siècles et des millénaires passés, en opposition avec le mythe d'un univers éternellement identique à lui-même. Je montrerai le cheminement des idées et des résultats d'observations qui ont mené notre pensée vers ces modèles. Je détaillerai leurs fondements, principes et théories. Je montrerai comment les résultats actuels des observations, y compris les plus récents, y conduisent irrémédiablement. J'exposerai leurs principales caractéristiques, en soulignant ce qui les distingue des conceptions antérieures. J'indiquerai enfin quelques unes des voies de recherche actuelles à leur sujet. Mot(s) clés libre(s) : astrophysique, Big Bang, cosmologie, espace-temps, expansion de l'univers, fond diffus cosmologique, galaxie, physique quantique, recombinaison, relativité générale, univers
|
Accéder à la ressource
|
|