Tri :
Date
Editeur
Auteur
Titre
|
|
Une cire malléable dans la ruche du cerveau
/ Canal-u.fr
Voir le résumé
Voir le résumé
Des enseignants-chercheurs et jeunes chercheurs de l'Université de Strasbourg présentent en 500 secondes leur passion et l'essentiel de leur activité de recherche. Jean-Christophe Cassel Professeur en neurosciences, directeur du Laboratoire de Neurociences Cognitives et Adaptatives - UMR 7364 Domaine de recherche : Neurosciences
Mot(s) clés libre(s) : cerveau, neurosciences
|
Accéder à la ressource
|
|
Réseaux d'automates: trente ans de recherche
/ VSP - Vidéo Sud Production, Région PACA, INRIA, Université de Nice Sophia Antipolis, CNRS - Centre National de la Recherche Scientifique
/ 20-10-2011
/ Canal-U - OAI Archive
GOLES CHACC Eric Antonio
Voir le résumé
Voir le résumé
Ma complicité avec ce sujet date de longtemps, pas tout à fait assez pour dire que j’y étais depuis le début, mais quand même.... Ainsi, je vais vous raconter comment on a obtenu, aux alentours de l'année 1979, les premiers résultats mathématiques sur la dynamique de ce qui s’appelle aujourd'hui les réseaux de neurones artificiels et qui font aujourd’hui partie du cursus classique de toute école d’ingénieurs. Puis, le succès de ces résultats m’a amené, à partir d’une étrange lettre que j’ai reçue au début de vacances à Grenoble, à me passionner pour les fourmis. Je suis quand même arrivé à tirer de certains modèles formels de ces séduisants insectes quelques résultats de complexité .... Et, s’il s'agit des fourmis, pourquoi pas les tas de sable? Beaucoup d’individus interagissant de façon simple, mais, avec des résultats globaux étonnants ? Et voilà que, à partir d'une suggestion que m’a faite le mathématicien L. Lovasz à un congrès à Sao Paulo vers la fin des années 1980 et les conversations que j’ai eues à Santiago et à Paris avec le cher feu Schutz (Marco Schützenberger), je me suis attaqué a ce sujet avec un tel succès que je peux dire sans trop me tromper que c’est moi qui ai inoculé cette maladie ou ce virus à un grand nombre de collègues français. Pour finir, si j’ai le temps, je voudrais vous faire rigoler un peu. Etant donné que je vous ai déjà parlé des fourmis je me permettrai de vous raconter mon histoire personnelle de cigale : je vous dirai pourquoi il y a des espèces qui ne chantent que tout les 17 ans et ... si jamais j’ai encore un petit brin de temps, je vous raconterai également comment des informaticiens et un physicien peuvent interpréter les phénomènes de ségrégation. Toute autre chose que je n’ai pas dite ici pourra être évoquée dans la conférence ou bien elle était inscrite dans la marge de ce cahier. Mot(s) clés libre(s) : colonie de fourmis, mathématiques discrètes, réseau neurones artificiel, réseaux neuronaux
|
Accéder à la ressource
|
|
Réduction de modèles de voies de signalisation intracellulaire
/ INRIA (Institut national de recherche en informatique et automatique)
/ 02-04-2015
/ Canal-u.fr
FERET Jérôme
Voir le résumé
Voir le résumé
Les voies de signalisation intracellulaire sont des
cascades d'interaction entre protéines, qui permettent à la cellule de
recevoir des signaux, de les propager jusqu'à son noyau, puis de les
intégrer, ce qui, in fine, influe sur le comportement global de la
cellule. Les protéines s'associent entre elles sur des sites de
liaisons, puis modifient la structure spatiale de leurs voisines, ce qui
a pour effet de cacher ou de découvrir leurs autres sites de liaisons,
et donc d'empêcher ou de faciliter d'autres interactions. De vastes
bases de données ont été conçues pour répertorier les différentes
interactions connues entre les sites des protéines. Cependant, nous ne
savons toujours pas clairement comment les propriétés physiologiques de
la cellule émergent de ces interactions.
La difficulté principale est la grande combinatoire de ces modèles.
En effet, chaque protéine a beaucoup de sites de liaisons. Ainsi, un
très grand nombre de complexes biomoléculaires différents peut se
former. Pour décrire ces modèles, nous proposons d'utiliser des graphes
pour la représentation des complexes biomoléculaires et des règles de
réécritures pour la spécification des interactions entre les protéines.
En particulier, ces règles sont contextuelles : elles décrivent
non seulement les transformations sur les complexes biomoléculaires,
mais aussi les conditions nécessaires à ces transformations. Ceci offre
une représentation très compacte et pratique d'un modèle. Par ailleurs
ces règles permettent de formaliser le comportement des modèles à
différents niveaux d'abstraction (qualitatifs ou quantitatifs).
Malheureusement, l'écueil de la complexité combinatoire refait surface
lorsque l'on cherche à calculer de manière effective ce comportement.
Nous proposons une méthode pour réduire la taille des
systèmes différentiels qui décrivent le comportement de ces modèles.
Nous utilisons une analyse du flot d'information entre les différents
sites des complexes biomoléculaires. Ainsi, pour chaque site de liaison
d'un complexe biomoléculaire, nous détectons quelles sont les parties de
ce complexe qui peuvent influencer la capacité de lier ou de délier ce
site. Nous en déduisons des paires de sites dont on peut abstraire la
relation entre l'état de liaison, car les ensembles de sites qu'ils
peuvent influencer sont disjoints. Cela nous permet de découper les
espèces biomoléculaires en plus petits morceaux (en séparant de telles
paires de sites). Nous obtenons ainsi un système différentiel portant
sur la concentration de ces morceaux de complexes biomoléculaires, qui
sont beaucoup moins nombreux que les complexes biomoléculaires du
système différentiel du modèle initial, et ce sans jamais avoir
écrit explicitement ce système initial. Pourtant, notre méthode de
réduction est exacte : nous avons la preuve que la solution du système
obtenu, est la projection exacte de la solution du système initial. Mot(s) clés libre(s) : modèle, réduction, signalisation, intracellulaire
|
Accéder à la ressource
|
|
Reconnaissance d’objets, une problématique résolue ? / Has object vision been solved?
/ INRIA (Institut national de recherche en informatique et automatique)
/ 10-07-2015
/ Canal-u.fr
THORPE Simon
Voir le résumé
Voir le résumé
The ability of humans to identify and categorize objects in complex
natural scenes has long been thought to be beyond the capacities of
artificial vision systems. However, recent progress in Deep Learning and
Convolutional Neural Networks has demonstrated that simple feed-forward
processing architectures composed of less than 10 layers of neurons can
achieve human levels of performance in object recognition tasks. It is
interesting to note that such processing architectures have a very
similar structure to the primate visual system. Could it be that we are
close to understanding how our brains recognize stimuli? I will argue
that the main problem with the current state of the art in computer
vision is that the learning procedures used are totally unrealistic.
Essentially, building such a system requires hundreds of millions of
training cycles of supervised learning. By contrast, our own visual
systems can learn new stimuli in a few tens of presentations. I will
suggest that more biologically realistic learning mechanisms based on
spike-based processing and Spike Time Dependent Plasticity (STDP) may be
much closer to the way our own visual systems operate, and allow our
visual systems to learn about objects in the visual world on the basis
of experience. Mot(s) clés libre(s) : neurosciences, information visuelle, extraction valeur des images
|
Accéder à la ressource
|
|
Quand les machines apprennent à l'aide des réseaux de neurones profonds
/ Institut National de Recherche en Informatique et en Automatique / Interstices
/ 21-12-2018
/
Lepetit Vincent, Jongwane Joanna
Voir le résumé
Voir le résumé
Reconnaissance d'images, traduction automatique, voitures autonomes... Nombreux sont les domaines dans lesquels l'apprentissage profond ou deep learning est utilisé. Très en vogue, cette technique de l'intelligence artificielle est au cœur des progrès récents dans cette thématique scientifique. Vincent Lepetit, spécialiste du deep learning, décortique ce sujet complexe dans cet épisode du podcast audio. Mot(s) clés libre(s) : réseaux de neurones artificiels, deep learning, apprentissage automatique, vision par ordinateur
|
Accéder à la ressource
|
|
Optimisation et apprentissage
/ Région PACA, UNS, CNRS - Centre National de la Recherche Scientifique, INRIA (Institut national de recherche en informatique et automatique)
/ 17-04-2014
/ Canal-u.fr
d'Aspremont Alexandre
Voir le résumé
Voir le résumé
L'apprentissage est un domaine émergent à l'interface de l'informatique
et des statistiques, porté par la croissance exponentielle du flot de
données générées par des applications aussi variées que la biologie, le
commerce en ligne, l'imagerie, la vidéo, le traitement du langage, etc.
Ce domaine a la particularité d'offrir à la fois un vaste champs
d'expérimentation pour les mathématiques appliquées modernes, et des
perspectives industrielles dont nous n'avons pour l'instant qu'ébauché
la portée. Cet exposé couvrira quelques exemples importants
d'algorithmes et de résultats statistiques dans cette ligne, en les
illustrant sur un ensemble d'applications récentes et parfois
inattendues. Mot(s) clés libre(s) : mathématiques appliquées, apprentissage automatique
|
Accéder à la ressource
|
|
Number-theoretic methods in quantum computing
/ INRIA (Institut national de recherche en informatique et automatique), CNRS - Centre National de la Recherche Scientifique, UNS, Région PACA
/ 28-04-2016
/ Canal-u.fr
SELINGER Peter
Voir le résumé
Voir le résumé
An important problem in quantum
computing is the so-called approximate synthesis problem: to find a
quantum circuit, preferably as short as possible, that approximates a
given unitary operator up to given epsilon. Moreover, the solution
should be computed by an efficient algorithm. For nearly two decades,
the standard solution to this problem was the Solovay-Kitaev algorithm,
which is based on geometric ideas. This algorithm produces circuits of
size O(log^c(1/epsilon)), where c is approximately 3.97.
It was a long-standing open problem
whether this exponent c could be reduced to 1. In this talk, I will
report on a number-theoretic algorithm that achieves circuit size
O(log(1/epsilon)) in the case of the so-called Clifford+T gate set,
thereby answering the above question positively.
In case the operator to be approximated
is diagonal, the algorithm satisfies an even stronger property: it
computes the optimal solution to the given approximation problem. The
algorithm also generalizes to certain other gate sets arising from
number-theoretic unitary groups. This is joint work with Neil J. Ross. Mot(s) clés libre(s) : Solovay-Kitaev algorithm
|
Accéder à la ressource
|
|
MOOC L'Intelligence Artificielle… avec intelligence !
/ INRIA, UNIT
/ 06-04-2020
/
ALEXANDRE Frédéric, VIEVILLE Thierry, DE QUATREBARBES Sophie
Voir le résumé
Voir le résumé
L’IA vous fait peur ? Vous en entendez parler à toutes les sauces ? Les humains seraient bons pour la casse ? Mais c’est quoi l’intelligence (artificielle) au fait ? Class’Code IAI est un Mooc citoyen accessible à toutes et à tous de 7 à 107 ans pour se questionner, expérimenter et comprendre ce qu’est l’Intelligence Artificielle… avec intelligence !
Ce cours a pour but de : décrypter le discours autour de l'IA pour passer des idées reçues à des questions sur lesquelles s'appuyer pour comprendre, manipuler des programmes d'IA pour se faire une opinion par soi-même, partager une culture minimale sur le sujet, pour se familiariser avec le sujet au-delà des idées reçues, être en mesure de discuter le sujet, ses applications, son cadre avec des interlocuteurs variés pour contribuer à la construction des applications de l’IA Mot(s) clés libre(s) : intelligence artificielle, programmation objetIA, programmation informatique, apprentissage machine, polymorphisme, jeux de données, développement durable
|
Accéder à la ressource
|
|
Linguistique et informatique : la traduction automatique
/ UTLS - la suite, Mission 2000 en France
/ 16-02-2000
/ Canal-U - OAI Archive
DANLOS Laurence
Voir le résumé
Voir le résumé
Conférence du 16 février 2000 par Laurence Danlos. La linguistique informatique est un domaine scientifique neuf, né du développement conjoint des modèles mathématiques et informatiques (théorie des langages formels) et de la formalisation des descriptions linguistiques. Il a pour objectif le traitement automatique du langage naturel et il se situe au carrefour de la linguistique et de l'intelligence artificielle ou des sciences cognitives dans leurs recherches sur le langage naturel.Les recherches en linguistiques informatiques débouchent sur des applications qui relèvent des Industries de la Langue. L'application la plus connue et la plus ancienne est la Traduction Automatique. Nous exposerons les principales difficultés rencontrées en Traduction Automatique et nous dresserons un bilan sur les systèmes existants et sur les perspectives. Nous présenterons ensuite un panorama des autres applications, en particulier celles issues de l'émergence du Web (La Toile) dans lesquelles les calculs statistiques se combinent avec les calculs linguistiques. Mot(s) clés libre(s) : ambiguité lexicale, intelligence artificielle, langage naturel, lemmatisation, linguistique informatique, modèle mathématique, sciences cognitives, sémantique, traduction assistée par ordinateur, traduction automatique
|
Accéder à la ressource
|
|
Les relations difficiles entre l’Intelligence Artificielle et les Neurosciences
/ Inria / Interstices
/ 26-08-2020
/
Alexandre Frédéric
Voir le résumé
Voir le résumé
L’Intelligence Artificielle (IA) s’est construite sur une opposition forte entre connaissances et données. Les neurosciences ont tout d’abord fourni des éléments confortant cette vision avec la description de deux formes de mémoire, traitant respectivement de connaissances et de données. Les neurosciences ont ensuite décrit des interactions fortes entre ces deux formes de mémoire et ont suggéré que ces interactions permettent une cognition plus robuste et plus performante. De son coté, l’IA a pâti des limitations résultant de la dualité stricte entre connaissances et données. Pour autant, les chercheurs en IA restent trop souvent bloqués sur ces conceptions initiales et peinent à intégrer les mécanismes suggérés par les neurosciences. Ils se privent ainsi de pistes d’évolution prometteuses et d’un dialogue fertile avec ce domaine... Mot(s) clés libre(s) : neurosciences, intelligence artificielle, modèle computationnel, mémoire
|
Accéder à la ressource
|
|