|
|<
<< Page précédente
1
Page suivante >>
>|
|
documents par page
|
Tri :
Date
Editeur
Auteur
Titre
|
|
Le système d'exploitation, pièce centrale de la sécurité
/ Inria / Interstices
/ 30-06-2020
/
Bolignano Pauline
Voir le résumé
Voir le résumé
Comment faire en sorte que le partage de ressources matérielles ne permette pas à une application malveillante d’espionner ou d’interférer avec l’exécution d’autres applications ? Mot(s) clés libre(s) : système exploitation, sécurité système, cybersécurité, partage de ressources, processus
|
Accéder à la ressource
|
|
Logic-based static analysis for the verification of programs with dynamically allocated data structures
/ INRIA (Institut national de recherche en informatique et automatique)
/ 03-12-2015
/ Canal-u.fr
DRAGOI Cesara
Voir le résumé
Voir le résumé
Software
development has reached a complexity level that cannot be handled
without the aid of computer assisted methods. It is therefore of the
highest importance to have rigorous methods and automated techniques for
software verification, allowing to ensure a high degree of reliability
and of confidence in their behaviors.
In
this talk, we present logic-based frameworks for automatic verification
of programs manipulating dynamically allocated data-structures. We
focus on static analysis techniques, that generate assertions about the
program’s reachable states using the algorithmic capabilities of the
logic in which the analysis is done. The generated assertions identify
which data structures have been allocated, e.g., stacks, queues, and
properties of their content and size, characterising the multisets of
their elements, or data relations such as order constraints and
structures equality.
Data-structures
are typically implemented in libraries. The verification methodology
consists in using static analysis to generate for each method assertions
describing the relation between its inputs and outputs, and show that
these assertions imply the specification as described in the API’s. Mot(s) clés libre(s) : évaluation sytème informatique
|
Accéder à la ressource
|
|
Les machines d'aujourd'hui et de demain
/ INRIA
/ 09-06-2010
/ Canal-U - OAI Archive
COHEN Albert
Voir le résumé
Voir le résumé
Dans cette vidéo, Albert Cohen montre les liens entre la science informatique et l'architecture des ordinateurs, donc leur conception. Il explique les outils logiciels permettant de profiter des performances des processeurs (du compilateur aux outils liés au système d'exploitation). Sur les processeurs classiques, il suffit de compiler (de traduire en langage machine) le programme pour l'exécuter et lui permettre d'accéder aux ressources de l'ordinateur. Sur les nouveaux processeurs, il y a une vraie rupture et les interactions entre architectures de machines et langages de programmation deviennent de vrais défis scientifiques passionnants. Un exemple est celui des langages de programmation pour le calcul parallèle à haute performance, jusqu'à péta-flopique (10^15 calculs numériques par secondes !).Ce cours a été donné en juin 2010 lors des journées de formation à l'informatique organisées par l'INRIA à destination des professeurs de mathématiques d'Ile de France. Il est composé d'une heure et quart de cours et d'un quart d'heure de questions-réponses sur le cours. Mot(s) clés libre(s) : architecture des ordinateurs, fil d'exécution, Loi de Moore, machine, modèle de von Neumann, programme, système d'exploitation, systeme de calcul, système sur puce, thread
|
Accéder à la ressource
|
|
Quand des erreurs se produisent dans les supercalculateurs
/ Inria / Interstices
/ 10-02-2020
/
Benoit Anne, Jongwane Joanna
Voir le résumé
Voir le résumé
La France vient de se doter du supercalculateur baptisé Jean Zay, l'un des plus puissants d'Europe, offrant des capacités de calculs inimaginables jusqu'à présent pour la recherche française. Mais saviez-vous que des pannes peuvent se produire chaque jour dans ces machines surpuissantes ? Anne Benoit s'intéresse à cette problématique et nous explique les enjeux de ses travaux dans cet épisode du podcast Interstices. Mot(s) clés libre(s) : supercalculateur, calcul haute performance, tolérance aux pannes, modélisation, optimisation, fréquence optimale de sauvegarde
|
Accéder à la ressource
|
|
L'informatique de demain : de Von Neumann aux superprocesseurs
/ Mission 2000 en France
/ 04-09-2000
/ Canal-U - OAI Archive
ANCEAU François
Voir le résumé
Voir le résumé
L'évolution du matériel informatique est certainement le phénomène technique qui a connu la progression la plus importante pendant ce demi-siècle. L'apparition de la microélectronique a permis, sur les trente dernières années, une augmentation de la performance des microprocesseurs par un facteur d'environ 100 000, tandis que le prix des machines informatiques était divisé par plusieurs dizaines. Sous la pression des utilisateurs, la course à la performance semble insatiable. Les concepteurs des nouvelles machines informatiques rivalisent d'ingéniosité pour arriver à exécuter les programmes de plus en plus rapidement. L'organisation interne des processeurs modernes s'apparente à des sortes de "chaînes de montage" dans lesquelles plusieurs instructions sont simultanément en exécution. Ces techniques tiennent souvent de l'acrobatie. En effet, la recherche effrénée de la vitesse de traitement incite, par exemple, à utiliser des résultats intermédiaires avant même qu'ils n'aient été élaborés, en spéculant sur la valeur qu'ils devront avoir. Cette course folle se poursuit sans qu'aucun signe de fléchissement ne se fasse sentir. On constate même actuellement une accélération de sa vitesse d'évolution. Les études prospectives laissent à penser que ce rythme va se poursuivre pendant au moins encore dix ou vingt ans. Mot(s) clés libre(s) : architecture des ordinateurs, histoire de l'informatique, mémoire informatique, microprocesseur, pipe-line, puissance de calcul, transistor
|
Accéder à la ressource
|
|
L'informatique de demain : de Von Neumann aux superprocesseurs
/ Mission 2000 en France
/ 04-09-2000
/ Canal-u.fr
ANCEAU François
Voir le résumé
Voir le résumé
L'évolution du matériel informatique est certainement le phénomène technique qui a connu la progression la plus importante pendant ce demi-siècle. L'apparition de la microélectronique a permis, sur les trente dernières années, une augmentation de la performance des microprocesseurs par un facteur d'environ 100 000, tandis que le prix des machines informatiques était divisé par plusieurs dizaines. Sous la pression des utilisateurs, la course à la performance semble insatiable. Les concepteurs des nouvelles machines informatiques rivalisent d'ingéniosité pour arriver à exécuter les programmes de plus en plus rapidement. L'organisation interne des processeurs modernes s'apparente à des sortes de "chaînes de montage" dans lesquelles plusieurs instructions sont simultanément en exécution. Ces techniques tiennent souvent de l'acrobatie. En effet, la recherche effrénée de la vitesse de traitement incite, par exemple, à utiliser des résultats intermédiaires avant même qu'ils n'aient été élaborés, en spéculant sur la valeur qu'ils devront avoir. Cette course folle se poursuit sans qu'aucun signe de fléchissement ne se fasse sentir. On constate même actuellement une accélération de sa vitesse d'évolution. Les études prospectives laissent à penser que ce rythme va se poursuivre pendant au moins encore dix ou vingt ans. Mot(s) clés libre(s) : transistor, architecture des ordinateurs, histoire de l'informatique, mémoire informatique, microprocesseur, pipe-line, puissance de calcul
|
Accéder à la ressource
|
|
|<
<< Page précédente
1
Page suivante >>
>|
|
documents par page
|
|