Tri :
Date
Editeur
Auteur
Titre
|
|
L'extériorisation de la mémoire et ses conséquences
/ Centre d'Enseignement Multimédia Universitaire - Université de Caen Basse-Normandie, Maison de la Recherche en Sciences Humaines - Université de Caen Basse-Normandie
/ Canal-u.fr
Voir le résumé
Voir le résumé
Cette
conférence a été donnée dans le cadre de la première Semaine de la
mémoire, organisée en partenariat avec la fête de la Science, qui s'est
déroulée en Basse−Normandie du 15 au 20 septembre 2014.Bernard STIEGLER est philosophe, directeur de l'Institut
de Recherche et d'Innovation - IRI - au sein du Centre Georges Pompidou et
membre du Conseil scientifique de l'Observatoire B2V des MémoiresRésumé de la communicationCertaines questions font apparaître que les dynamiques des mémoires -
plutôt que de la mémoire, qui n’est pas une simple faculté cérébrale –
sont fondamentalement des questions sociales, économiques et politiques,
et qu’une approche transdisciplinaire tout à fait nouvelle est requise
pour faire face à ce qui se présente à notre époque comme un véritable
défi lancé à l’humanité par l’humanité. Mot(s) clés libre(s) : mémoire, apprentissage, Numérique, Technologie
|
Accéder à la ressource
|
|
FORMATIC - Paris 2011 : Utilisation des NTIC dans la régulation des stages
/ PARIS TECH
/ 08-02-2011
/ Canal-U - OAI Archive
ZERROUK Habiba, BOUSBAA Kader
Voir le résumé
Voir le résumé
FORMATIC - Paris 2011 : Utilisation des NTIC dans la régulation des stages.Intervenant : Habiba ZERROUK (Professeur Enseignement Paramédical EFPM – Alger), Kader BOUSBAA (Professeur Enseignement Paramédical EFPM – Chlef).Résumé : Faisabilité- Mutualisation entre deux écoles pilotes Alger et Chlef ayant la même finalité- Puéricultrices, 3 années de formation- Même situation de mise de stage : théorie//Pratique (stage en maternité 6 semaines, stage de néonatalogie 4 semaines)- Opportunités : étudiantes et formateurs familiarisées avec les NTIC, cyber, formateurs ayant une compétence au dispositif de régulation- Force : motivation, engagement, disponibilité.Conférence enregistrée lors du congrès international FORMATIC PARIS 2011. Atelier TIC et pratiques innovantes au service de la formation des professionnels de la santé. Président de séance Franck BOURDY (Directeur formation Wolters Kluwer, modérateur Jérôme CLEMENT (Président Association FORMATIC Santé)Réalisation, production : Canalu UN/3S, CERIMES.SCD Médecine. Mot(s) clés libre(s) : EFPM, FORMATIC Paris 2011, formation, NTIC, puéricultrice, technologies numériques
|
Accéder à la ressource
|
|
Les risques des nanotechnologies
/ UTLS - la suite, C.E.R.I.M.E.S.
/ 17-10-2006
/ Canal-U - OAI Archive
WEISBUCH Claude, WEILL Claire
Voir le résumé
Voir le résumé
Point de vue pour le débat sur les nanotechnologies de Claude Weisbuch Alors qu'elles étaient associées au départ à des espoirs de percées majeures dans la plupart des secteurs scientifiques, technologiques et économiques, les nanotechnologies deviennent l'objet de critiques radicales, certains en appelant même à un moratoire sur ces recherches. Il convient d'en débattre publiquement, en commençant par rappeler certains faits de base: 1. Le concept de nanotechnologie a pris son essor a cause du programme américain conçu pour redonner un élan aux disciplines physico-chimiques, laissées en plan aux USA par la priorité donnée à la biologie par le parlement américain. 2. Il faut rappeler la différence entre nanosciences et nanotechnologies. La nanoscience vise à l'exploration des phénomènes nouveaux apparaissant aux dimensions nanométriques, les nanotechnologies à leur mise en oeuvre dans des produits, ces phénomènes nouveaux ayant des origines physiques très variées. Une différence majeure apparaît immédiatement: alors qu'en nanoscience l'objet nanométrique est tout a fait digne d'intérêt, pour les applications il faut ramener ces propriétés nouvelles à l'échelle humaine pour l'utilisateur. Par exemple, une molécule unique peut être passionnante et faire l'objet de nombreux travaux de recherche, elle ne sert à rien toute seule. 3. Il n'y a pas de nanotechnologie définie en tant que telle, mais un patchwork de technologies très disparates suivant les domaines, et l'impact de l'échelle du nanomètre peut être très général ou très spécialise. Ayant défini très rapidement les nanotechnologies, on peut alors essayer d'analyser les incertitudes et risques associés aux nanotechnologies. Un premier point: en général, les risques associés aux aspects nouveaux des nanotechnologies sont bien sûr à traiter de la même manière que toute les autres activités scientifiques, technologiques, industrielles (qui ne sont pas en butée par rapport a ce qu'il conviendrait de faire, on peut en convenir !):protection des opérateurs lors de l'élaboration, identification des risques (dangerosité et exposition) des utilisateurs, recyclage des objets en fin de vie. La polémique sur la nanotechnologie/les nanotechnologies vient de ce que les critiques radicaux disent qu'elles ne sont pas de même nature que les autres, et n'exposent pas aux mêmes risques, et que le paragraphe ci-dessus ne s'applique pas: 1. on ne voit pas les objets des nanotechnologies. Dans la plupart des cas, en fait, ces objets ne seront pas accessibles sous leur forme divisée, nanométrique, mais dans un matériau système a l'échelle humaine, bien visible: circuit intégré en nanoelectronique, matériau composite à très haute résistance, matériau pour turbines à haute température, matrice nanométrique pour purification ou dessalement de l'eau, biopuces pour diagnostic médical, ... 2. Les éléments nanométriques vont partout, et donc dans des endroits ou ils sont dangereux, par exemple les organes du corps humain. Ceci n'est vrai lors de l'utilisation que pour les médicaments et les cosmétiques ou l'efficacité nouvelle est apportée par l'utilisation de la matière divisée. En ce qui concerne les médicaments, on est dans une situation ou il faut effectivement étudier ce qui serait des effets secondaires, puisque le médicament irait ailleurs que la ou on souhaite qu'il aille. Ceci est la définition même des effets secondaires des médicaments, et la longue procédure habituelle de validation des médicaments est tout à fait adaptée à prendre en compte la spécificité des nanomédicaments. En ce qui concerne les cosmétiques, les tests habituels sont certainement à faire évoluer, avant la mise sur le marché. Les académies britanniques, poursuivant les travaux de leur remarquable rapport sur les potentiels et risques de nanotechnologies, appelent de leurs voeux une publication transparente des tests effectués par et pour les industriels. C'est certainement une excellente recommandation (on pourrait aussi le réclamer pour d'autres produits....). D'autres possibilités d'exposition à des nanoparticules existent lors de l'élaboration et de la dégradation. Lors de l'élaboration, avant la mise en oeuvre dans des objets macroscopiques, il faut savoir que l'on sait manipuler des substances autrement plus dangereuses dans l'industrie. Le problème sera là de mettre en oeuvre des nouvelles réglementations adaptées tenant compte de la dangerosité et du risque d'exposition, avec aussi des moyens de mesure et de contrôle. Pour ce qui est de la dégradation, on entre ici dans un problème important, urgent, pour tous les secteurs industriels existant. Nous avons de fortes lacunes dans l'analyse du cycle de vie des matériaux. Les critiques radicaux nous affirment que les nanomatériaux ne se dégraderont pas dans l'environnement. Rien ne permet de l'affirmer, ni le contraire d'ailleurs (comme pour beaucoup de produits fabriques de manière massive aujourd'hui). Ce que la nature nous montre, par contre, c'est que la dégradation de nombreux matériaux minéraux ou biologiques n'aboutit pas à des nanostructures se promenant librement. Il y a dans ce domaine de la dégradation des matériaux (nanos ou non) un grand domaine scientifique à maîtriser. 3. Les nanotechnologies permettront d'entrer dans des domaines ou il ne faut pas aller ( la maîtrise du vivant et le rêve/cauchemar de l'immortalité, le contrôle de l'individu par des nanorobots qu'on lui injecte à son insu), ou peuvent permettre in-fine la destruction de la planète par l'émergence d'une intelligence collective de nanoobjets auto reproducteurs qui échapperaient au contrôle de leurs créateurs dans une furie destructrice. On est la en pleine science fiction, avec zéro science et 100% de fiction. Ces phantasmes viennent de non scientifiques (romanciers, princes héritiers, ...) ou de scientifiques non-spécialistes (extrêmement souvent des informaticiens et roboticiens)ne connaissant pas les bases de la biologie, de la neurologie, de la chimie, de la physique, de la théorie de l'information, qui permettent de montrer simplement l'impossibilité de telles réalisations. Les nanotechnologies permettront plus sérieusement d'accéder à des connaissances qui poseront des problèmes accrus en matière de protection des libertés individuelles, en facilitant très largement des techniques aujourd'hui encore limitées: empreintes génétiques des individus, fichage informatique, ... Ces dangers existent déjà aujourd'hui, et il faudra d'une part veiller a la bonne application des protections individuelles prévues, d'autre part à la définition de nouvelles protections lorsque des risques nouveaux apparaîtront (à ce sujet le comite national d'éthique montre que l'on ne peut émettre de recommandations que sur des questions bien identifiées, et pas sur des sujets généraux). Il est certainement utile d'en débattre. Résumé de Claire Weill Le risque de ne pas savoir de quoi on parle Il y a une quinzaine d'années, l'apparition de la microscopie à champ proche a permis de « voir » et manipuler des atomes individuels. Depuis, l'industrie de la microélectronique a poursuivi sa démarche de miniaturisation conduisant à la fabrication de matériaux structurés à des échelles inférieures au millième de millimètre (micron). Ces approches respectivement ascendantes et descendantes pour l'étude de la matière ont légitimement ouvert de nouvelles voies pour la recherche scientifique à l'échelle du nanomètre, le millionième de millimètre. Parallèlement des développements industriels ont mis à profit ces deux approches. Dès lors, plusieurs facteurs concourent à la très grande instabilité des discours sur les « nanotechnologies » et les « nanosciences » aujourd'hui dans les media, voire même des informations dans des publications dans des revues spécialisées, y compris scientifiques : la science dont il s'agit est récente et une grande partie des développements industriels sont encore balbutiants et pour une grande part confidentiels. Du fait des promesses considérables formulées sur les potentialités des nanotechnologies dans les domaines de la santé, de l'énergie, de l'environnement, du traitement de l'information
, des moyens financiers très importants et en forte croissance ont été investis dans la recherche fondamentale et appliquée dans tous les pays industrialisés depuis 2000. Ces promesses sont à la mesure des impasses dans lesquelles se trouvent nos sociétés, dont l'impasse écologique (épuisement des ressources fossiles et ponction excessive des ressources renouvelables, changement climatique
). Ces promesses démesurées se sont nourries d'abus de langages, de glissements sémantiques, d'assertions peu, voire pas du tout étayées. Ainsi, pour les besoins de la cause, des pans entiers de certains champs scientifiques ont été rebaptisés « nanos ». Les sciences physiques, chimiques biologiques et de l'information investissent désormais l'échelle du nanomètre. Ceci ne signifie pas pour autant l'automaticité de synergies entre les développements technologiques issus de leurs applications éventuelles. Or, un tel argument a été largement utilisé, en regroupant les synergies annoncées sous le vocable inapproprié et trompeur de « convergence ». Celui-ci a néanmoins le mérite d'évoquer la notion de projets, ceux des différents lobbies qui ont construit puis promu le développement des nanotechnologies. Notons en outre qu'il est absurde de penser qu'un champ scientifique se définirait par une échelle de taille, or on n'hésite pas à parler de « nanoscience ». Enfin, le nanomètre n'est pas, et de loin, la plus petite échelle de la matière investie historiquement par les scientifiques, qu'il s'agisse des physiciens des particules ou des chimistes moléculaires. Le fantasme de manipuler des atomes tels les éléments d'un lego a été véhiculé par plusieurs ouvrages de science fiction aux Etats-Unis à caractère prophétique, voire apocalyptique (E. Drexler, « Engines of creation », Engins de création, 1986 ; M. Crichton, « Prey », La proie, 2002). Ceux-ci ont donné l'illusion au lecteur qu'il pouvait comprendre, voire palper par la pensée ce qui se jouait à l'échelle atomique. Ce fantasme fait fi toutefois des lois de la physique quantique, qui compliquent considérablement la donne. Il introduit également une confusion entre l'approche scientifique et celle de l'ingénieur. Il apparaît donc urgent de déconstruire un certain nombre de discours et de s'attacher à davantage de rigueur dès lors que l'on évoque la science et les développements technologiques qui se déroulent à l'échelle du nanomètre, et ce dans l'intérêt de tous : politiques, citoyens, scientifiques et industriels. Les risques sanitaires, environnementaux et éthiques des nanomatériaux Les nanomatériaux présentent pour les autorités publiques des difficultés spécifiques. Déjà commercialisés dans des produits, les nano - objets sont susceptibles de diffuser dans l'environnement de multiples manières et sous des formes variées (nanoparticules libérées par exemple lors de l'usure de matériaux renforcés comme les pneus verts) et de pénétrer dans le corps humain par les voies respiratoires ou par la peau (crèmes solaires). Or, les modes de production des nanoparticules en laboratoire tout comme en milieu industriel sont loin d'être stabilisés. En outre, on ne dispose pas aujourd'hui de méthodes satisfaisantes permettant d'avoir accès à leurs caractéristiques structurales, réactives, et par voie de conséquences à leurs propriétés toxicologiques et écotoxicologiques. Par suite, nous sommes encore très loin d'une harmonisation des normes à l'échelle internationale, pourtant nécessaire dans le contexte de la mondialisation du commerce. Le cadre réglementaire européen couvre en théorie les nanoparticules, isolées ou insérées dans des produits, sans toutefois les prendre précisément en compte. En particulier, le règlement sur les substances chimiques en passe d'être adopté en Europe, REACH, pourrait encadrer les risques liés aux nanoparticules en introduisant des critères de dangerosité tels que la forte réactivité potentielle due à leur très grand rapport surface sur volume et la diffusion potentielle dans le corps humain. Cependant, les outils juridiques resteront inefficaces aussi longtemps que des techniques de caractérisation des nanoparticules sur l'ensemble de leur cycle de vie encore une fois, de quoi parle-t-on ? ne seront pas accessibles aux régulateurs. L'étude, et par conséquent l'optimisation ab initio, du cycle de vie de certaines substances chimiques ou nanoparticules se heurte également à des problèmes méthodologiques majeurs. A cet égard, la production et la diffusion non contrôlée de nanoparticules pourrait être source de dommages pour lesquels l'imputation de la responsabilité est difficile, faute de tracabilité possible. Le développement industriel contrôlé et responsable des nanoparticules ne se fera donc pas sans franchir au préalable certaines étapes. Ceci exigera des efforts aussi bien des autorités publiques que des acteurs économiques, en particulier pour assurer l'existence et le maintien de ressources suffisantes en experts toxicologues et écotoxicologues dans leurs sphères respectives. Les questions éthiques associées à certains développements potentiels issus de nanotechnologies sont similaires à celles que posent des technologies existantes - en termes de protection de données privées notamment, mais aussi de brevetabilité du vivant, si l'on considère que les nanotechnologies recouvrent une partie des biotechnologies. Certes, les risques pourront être amplifiés par l'augmentation des capacités de stockage et de traitement de l'information qu'apporte la miniaturisation de la microélectronique, qui est d'ailleurs loin d'approcher l'échelle nanométrique. Cependant, l'arbre cachant souvent la forêt, certains usages de dispositifs non nanométriques mais rebaptisés « nano », comme l'utilisation de puces ADN, pourraient fragiliser les systèmes de santé des pays industrialisés, et accentuer encore s'il en était besoin les inégalités avec les pays en développement. Ainsi, l'exploitation de tests génétiques à fins de thérapies préventives personnalisées pourrait provoquer, si elle s'avérait fondée scientifiquement, l'apparition de traitements extrêmement onéreux inaccessibles au Sud et conduisant au Nord, soit à une augmentation considérable des coûts de santé publique, soit à une médecine à deux vitesses. Les nanotechnologies exemplifient une difficulté majeure pour nos sociétés technologiques : celle des rythmes différents Le développement de technologies conduisant à la mise sur le marché de nouveaux produits et systèmes s'effectue à un rythme si rapide qu'il ne permet pas aux Etats d'encadrer à temps les risques associés, lorsque cela est possible. En outre, les autorités publiques ne peuvent assumer seules la charge de développer les moyens techniques à cet effet. Par ailleurs, le paysage des risques avérés et potentiels qui résultent des activités économiques devient inextricable à un tel point que le gestionnaire de risques, en situation d'arbitrage impossible, se trouve confronté à des dilemmes sans fin. Le niveau d'indécidabilité augmentant, les gouvernements ont de plus en plus recours à des consultations de citoyens, afin d'estimer l'appréhension par la société de risques liés à des technologies émergentes. Ces nouveaux instruments de nos démocraties techniques, aussi intéressants et séduisants soient-ils soulèvent toutefois des questions difficiles. Ils ne pourront en particulier être utiles pour la progression des débats sur les questions aussi larges que disparates regroupées aujourd'hui sous le vocable de nanotechnologies qu'en sériant les problèmes. D'un autre côté, les bénéfices de technologies émergentes conduisant à des innovations radicales ne seront perceptibles bien souvent qu'à moyen ou long terme. Pour ce qui concerne les nanotechnologies, des pistes très intéressantes se dessinent dans le domaine médical, celui des économies d'énergie (lampes basse consommation, piles à combustibles, matériaux plus légers et plus résistants), du traitement des eaux et de la remédiation des sols. Il importe toutefois de garder à l'esprit que leur exploitation ne pourra survenir que dans les prochaines décennies, durant lesquelles les contraintes qu'exerce l'homme sur la planète s'intensifieront. A cet égard, un des risques politiques majeurs associé à l'engouement pour les nanotechnologies serait d'entretenir l'illusion que des solutions purement technologiques pourraient permettre de diminuer ces contraintes de manière significative à un horizon temporel pertinent. Mot(s) clés libre(s) : biopuce, éthique, innovation technologique, miniaturisation, nanomatériaux, nanosciences, nanotechnologies, protection de l'environnement, risque sanitaire, science des matériaux
|
Accéder à la ressource
|
|
Nano-électronique et informatique
/ UTLS - la suite
/ 20-12-2001
/ Canal-U - OAI Archive
WEISBUCH Claude
Voir le résumé
Voir le résumé
Les révolutions de l' information et des communications sont un des faits marquants du siècle et vont continuer à bouleverser dans ce nouveau siècle tous les domaines de l'activité humaine, y compris nos modes de vie. Ces révolutions sont nées du codage de l'information sous forme de paquets d'électrons (les " grains " d'électricité) ou de photons (les " grains " de lumière) (quelques dizaines de milliers de chaque pour l'élément d'information, le " bit "), et la capacité de manipuler et transmettre ces paquets d'électrons ou de photons de manière de plus en plus efficace et économique. À la base de cette capacité se trouvent les matériaux semi-conducteurs. Rien ne prédisposait ces matériaux à un tel destin : ils ont des propriétés " classiques " médiocres, que ce soit mécaniques, thermiques, optiques ou électriques. C'est justement les propriétés moyennes des semi-conducteurs qui les rendent " commandables " : par exemple, leur comportement électrique a longtemps semblé erratique, car très sensible aux " impuretés ". Cette capacité à changer de conductivité électrique, devenue " contrôlée " par la compréhension physique des phénomènes et l'insertion locale d'impuretés chimiques, permet de commander le passage de courant par des électrodes. On a alors l'effet d'amplification du transistor, à la base de la manipulation électronique de l'information. La sensibilité des semi-conducteurs aux flux lumineux en fait aussi les détecteurs de photons dans les communications optiques, et le phénomène inverse d'émission lumineuse les rend incontournables comme sources de photons pour les télécommunications, et bientôt pour l'éclairage. Les progrès des composants et systèmes sont liés aux deux démarches simultanées d'intégration des éléments actifs sur un même support, la " puce ", et de miniaturisation. Une des immenses surprises a été le caractère " vertueux " de la miniaturisation : plus les composants sont petits, meilleur est leur fonctionnement ! On a pu ainsi gagner en trente-cinq ans simultanément plusieurs facteurs de 100 millions à 1 milliard, en termes de complexité des circuits, réduction de coût (la puce de plusieurs centaines de millions de transistors coûte le même prix qu'un transistor dans les années 60), fiabilité, rendement de fabrication. Le problème des limites physiques est cependant aujourd'hui posé : jusqu'où la miniaturisation peut-elle continuer ? Combien d'atomes faut-il pour faire un transistor qui fonctionne encore ? Y-a t'il d'autres matériaux que les semi-conducteurs qui permettraient d'aller au delà des limites physiques, ou encore d'autres moyens de coder l'information plus efficaces que les électrons ou les photons ? Ce sont les questions que se pose aujourd'hui le physicien, cherchant à mettre en difficulté un domaine d'activité immense qu'il a contribué à créer. En savoir plus : http://pmc.polytechnique.fr/ weisbuch/microelectronique Mot(s) clés libre(s) : codage de l'information, composant électronique, matériaux semi-conducteurs, micro-électronique, miniaturisation, nanotechnologies, physique quantique, stockage de données, technologies de l'information, TIC, transistor
|
Accéder à la ressource
|
|
Monique Linard
/ Jean-Pierre Pivin, Ruben Ibanez, Pascal Roche, INRP/TECNE, IUFM Academie de Versailles
/ 01-01-2000
/ Canal-U - OAI Archive
WALLET Jacques, TRAULLET Claude
Voir le résumé
Voir le résumé
Linguiste de formation, Monique Linard, a commencé par enseigner l’anglais dans le Secondaire. Elle est ensuite entrée à l’Université Paris 10 - Nanterre, où elle a poursuivi sa carrière en Sciences de l’Education. Dans les années 70, elle crée une filière d’enseignement et de recherche en pédagogie audiovisuelle. Au début des années 1980, elle s’intéresse aux questions de la connaissance et de l’apprentissage médiatisés par ordinateur. De 1992 à 1995, elle dirige à Lyon-Ecully un laboratoire CNRS de Sciences Humaines et Sociales consacré à divers aspects de la formation et de la communication liés aux TIC. Elle est actuellement Professeur Emérite de l’Université.Extraits vidéos du CD Rom "Une approche multimédia des idées et des personnes". Mot(s) clés libre(s) : nouvelles technologies de l'information et de la communication, TICE
|
Accéder à la ressource
|
|
Entretien avec Max Egly
/ Loïc QUENTIN, Marcel LECAUDEY, Maison des Sciences de l'Homme Paris Nord, CERIMES
/ 27-03-2007
/ Canal-U - OAI Archive
WALLET Jacques, THIBAULT Françoise
Voir le résumé
Voir le résumé
Après des études de philosophie à l’ENS Saint Cloud (1), il intègre le centre audiovisuel et est nommé chargé des études et des recherches (2), (3), (4), (5) puis il intègre la Radio-télévision scolaire où il travaillera en particulier avec Henri Dieuzède. Il accède ensuite à des responsabilités (6), mais n’apprécie pas la charge administrative. Son rôle dans l’expérimentation de tv Niger à partir de 1964 (7), où la télévision scolaire est à l’origine d’un développement original de la scolarisation, l’amènera à participer à de nombreux dispositifs de coopération éducative, comme à Bouaké en Côte d’Ivoire, (8), même si ensuite selon ses termes «l’audiovisuel ne fut plus à la mode » (9).>> à voir aussi:Le Zéro Mot(s) clés libre(s) : audiovisuel, nouvelles technologies de l'information et de la communication, TICE
|
Accéder à la ressource
|
|
Entretien avec Geneviève Jacquinot
/ Marcel LECAUDEY, Loïc QUENTIN, Maison des Sciences de l'Homme Paris Nord, CERIMES
/ 04-10-2006
/ Canal-U - OAI Archive
WALLET Jacques, THIBAULT Françoise
Voir le résumé
Voir le résumé
Après un CAPES de lettres modernes et un diplôme de cinéma, Geneviève Jacquinot opte pour l'audiovisuel lors de missions en Afrique et à la radio-télévision scolaire. Elle enseigne ensuite au collège expérimental de Marly le Roy dès 1966 puis participe à la création de Paris 8 (Vincennes). Elle poursuit alors une carrière universitaire dans cette université (1).A partir de ces diverses expériences et de ses recherches, Geneviève Jacquinot a théorisé dans tous les domaines touchant à l’audiovisuel.Image et pédagogie (2)Les limites des expérimentations avec l’audiovisuel dans un système éducatif (3)Le rapport entre innovation et audiovisuel (4)Le statut de l’audiovisuel dans le contexte universitaire de Paris 8 (5)Après plusieurs expériences internationales (6), elle participe à l’expérimentation de la télévision scolaire en Côte d’Ivoire dont elle analyse les points et les limites durant près de 10 ans (7), puis enseigne à l’université d’Abidjan.De retour à Paris 8, elle participe aux avancées dans le domaine des technologies éducatives (8) et participe à l’élaboration de théories multiréférencées (9). Mot(s) clés libre(s) : audiovisuel, nouvelles technologies de l'information et de la communication, TICE
|
Accéder à la ressource
|
|
Entretien avec Etienne Brunswic
/ Marcel LECAUDEY, Loïc QUENTIN, CERIMES, Maison des Sciences de l'Homme Paris Nord, Université Paris Descartes
/ 04-10-2006
/ Canal-U - OAI Archive
WALLET Jacques, THIBAULT Françoise
Voir le résumé
Voir le résumé
Professeur de lettre en Tunisie puis Stagiaire à l’ENS Saint Cloud, il utilise des méthodes audiovisuelles en français, à partir de 1963, il intègre la Radio-télévision scolaire puis l’IPN (1), où il est chargé, entre autres, des expérimentations des circuits fermés de télévision, comme celui du collège de Marly le Roi. (2) (3). De 1971 à 1988 il travaillera en particulier avec Henri Dieuzède à l’UNESCO qui joue alors un rôle important dans le développement des systèmes éducatifs des pays nouvellement indépendants (4) (5). Son approche va s'élargir, l'usage des technologies n'étant perçu que comme la résultante d'un système plus large (8) où la pédagogie elle même n’est que la résultante de facteurs objectifs (9). Après sa retraite, souvent avec Jean Valérien, il participera comme consultant auprès de divers organismes internationaux à de nombreux projets éducatifs.(10)>> à voir aussi: Formation des enseignants Mot(s) clés libre(s) : nouvelles technologies de l'information et de la communication, TICE
|
Accéder à la ressource
|
|
Entretien avec Max Egly
/ Loïc QUENTIN, Marcel LECAUDEY, Maison des Sciences de l'Homme Paris Nord, CERIMES
/ 27-03-2007
/ Canal-u.fr
WALLET Jacques, THIBAULT Françoise
Voir le résumé
Voir le résumé
Après des études de philosophie à l’ENS Saint Cloud (1), il intègre le centre audiovisuel et est nommé chargé des études et des recherches (2), (3), (4), (5) puis il intègre la Radio-télévision scolaire où il travaillera en particulier avec Henri Dieuzède. Il accède ensuite à des responsabilités (6), mais n’apprécie pas la charge administrative. Son rôle dans l’expérimentation de tv Niger à partir de 1964 (7), où la télévision scolaire est à l’origine d’un développement original de la scolarisation, l’amènera à participer à de nombreux dispositifs de coopération éducative, comme à Bouaké en Côte d’Ivoire, (8), même si ensuite selon ses termes «l’audiovisuel ne fut plus à la mode » (9).>> à voir aussi:Le Zéro Mot(s) clés libre(s) : nouvelles technologies de l'information et de la communication, audiovisuel, TICE
|
Accéder à la ressource
|
|
Entretien avec Jean Valérien
/ Jean-Pierre Pivin, Ruben Ibanez, Pascal Roche, INRP/TECNE, IUFM Academie de Versailles
/ 01-01-1997
/ Canal-U - OAI Archive
WALLET Jacques
Voir le résumé
Voir le résumé
Né en 1931, Jean VALÉRIEN entre en 1953 à l'École Normale Supérieure de Saint-Cloud, agrégé de sciences naturelles en 1957, puis lycée de Meaux, et service militaire au Service Cinématographique des Armées. Il est assistant, puis maître-assistant au Centre audiovisuel de l'E. N. S. de 1960 à 1968. Son objectif est d'intégrer les moyens audiovisuels dans l'enseignement particulièrement dans sa disciplinaire d'origine les sciences naturelles. Il réalise à partir de 1963, 60 films en 16 et 35 mm comme : « le fonctionnement cardiaque », « la structure de la cellule », ou, « du Pelvoux au Viso », puis à partir de 1965, en 8 mm.De 1965 à 1967, il réalise des émissions de télévision scolaire et participe à la réflexion sur les établissements expérimentaux comme l'École Alsacienne et surtout le CES de Marly-le-Roi, aménagé avec un circuit fermé de télévision.En 1968 à 1970, Jean VALÉRIEN est Inspecteur d'Académie à Moulins, soucieux avant la mode, de communiquer, il obtient de la presse locale la publication régulière d'une page sur l'école.De 1969 à 1973, il dirige la Radio Télévision scolaire (RTS, RTS Promotion) à l'Institut Pédagogique National puis à l'Office Français des Techniques Modernes d'Éducation (OFRATEME). La télévision scolaire est alors à son apogée. Durant cette période, la première opération multi-médias (en deux mots à l'époque) est initiée : « la France face à son Avenir »Dans ses fonctions, Jean VALÉRIEN est confronté à des expériences étrangères. Conseil de l'Europe et surtout TV Niger, TV Maroc et TV Côte d'Ivoire avec le complexe audio-visuel de Bouaké.De 1973 à 1980, il quitte le monde de l'École pour celui de la formation des adultes. Il est directeur d'une filiale de la Caisse des Dépôts et Consignations : le Centre d'Études et de Réalisations pour l'Éducation Permanente (CEREP). Il informatise son entreprise.Il rejoint l'administration centrale du ministère de l'Éducation de 1980 à 1983, élaborant des plans audiovisuels et informatiques. Ces réflexions précèdent ce qui deviendra un peu plus tard : le plan Informatique Pour Tous.De 1983 à 1985, chargé de mission auprès du Recteur de l'Académie de Rennes, il impulse des expérimentations de télédistribution et des créations de centre ressource en technologie. De retour à Paris en 1985, il est chargé de mission au Secrétariat d'État à la Communication pour préparer une chaîne éducative de télévision. De 1985 à 1989, Inspecteur de l'Académie de Paris, son secteur de responsabilité englobe l'AIS et les sections internationales.Ayant pris sa retraite, Jean VALÉRIEN est consultant pour le Ministère des Affaires Étrangères, le secrétariat d'État à la Coopération ou pour des organismes internationaux. Il joue un rôle actuellement dans l'appui à la constitution d'associations de parents d'élèves africains, dans l'élaboration de manuels et dans l'utilisation des autoroutes de l'information pour l'enseignement à distance. Mot(s) clés libre(s) : audiovisuel, nouvelles technologies de l'information et de la communication, TICE
|
Accéder à la ressource
|
|