Titre : Kickoff meeting of Datamove and Polaris
Type : Séminaire
Intervenants : Arnaud Legrand and Bruno Raffin
Date : 28/01/2016
Heure : 14:00
Lieu : F 107 -Inria
Résumé: Each team will make a short (20
minutes) presentation of one challenge that will occupy us in the
coming years.
Titre : Cache Analysis
Type : Séminaire
Intervenant : Nicolas Gast (Inria, Mescal)
Date : 28/01/2016
Heure : 14:00
Lieu : F 107 -Inria
Résumé: TBA
Titre : Stochastic Stability in Games
Type : Séminaire
Intervenant : Mathias Staudigl (Bielefeld Univ.)
Date : 21/01/2016
Heure : 14:00
Lieu : F 107 -Inria
Résumé: (joint with Bill Sandholm)
Evolutionary dynamics in finite population games are discrete time Markov chains on compact polyhedra. These game dynamics are related to Simulated-Annealing algorithms, well known in stochastic optimization. All these dynamics are characterized by two key parameter: The rate of experimentation of the players, and the number of players in the game. The first parameter plays the same role as the temperature scheme in simulated annealing schemes, whereas the number of players renders the state space a-priori discrete. Usually one is interested in the ergodic properties of the process in the limit as one, or both, parameters approaches its extreme values. In this series of paper we lay the foundations for a more refined analysis of these kind of processes using tools from optimal control and large deviations. In this talk, I review results for these Markov chains, including various sample path large deviations results. Large deviations type of estimates are also used to obtain probabilistic bounds on key statistics of the algorithm. We conclude with open problems in this domain.
Titre : Online Learning with Gaussian Payoffs and Side Observations
Type : Séminaire
Intervenant : Andras Gyorgy (Imperial College)
Date : 14/01/2016
Heure : 14:00
Lieu : F 107 -Inria
Résumé:
We consider a sequential learning problem with Gaussian payoffs and side observations: after selecting an action i, the learner receives information about the payoff of every action j in the form of Gaussian observations whose mean is the same as the mean payoff, but the variance depends on the pair (i,j) (and may be infinite). The setup allows a more refined information transfer from one action to another than previous partial monitoring setups, including the recently introduced graph-structured feedback case. For the first time in the literature, we provide non-asymptotic problem-dependent lower bounds on the regret of any algorithm, which recover existing asymptotic problem-dependent lower bounds and finite-time minimax lower bounds available in the literature. We also provide algorithms that achieve the problem-dependent lower bound (up to some universal constant factor) or the minimax lower bounds (up to logarithmic factors).
Based on joint work with Yifan Wu and Csaba Szepesvari.
Titre : Online Independent Set with Stochastic Adversaries
Type : Séminaire
Intervenant : Martin Hoefer (Max Planck
Institut)
Date : 05/01/2016
Heure : 14:00
Lieu : F 107 -Inria
Résumé: The independent set problem in graphs is a classic and well-studied combinatorial optimization problem with many applications. Recently, generalized variants have become prominent in the study of algorithms for realistic interference models in wireless networks. Perhaps surprisingly, much less is known about the natural online variant of the problem where nodes and edges of the graph arrive sequentially over time. In this talk I highlight some of our recent work for online variants with stochastic adversaries, including O(1)-competitive algorithms for interval and disk graphs. These results can be extended to polylogarithmic guarantees for rectangle graphs and for more general online admission problems in wireless networks.
Titre : Retours de Super-Computing
Type : Séminaire
Intervenant :David Beniamine,
David Gessler, Pierre Neyron, Olivier Richard, Philippe Virouleau
Date : 17/12/2015
Heure : 14:00
Lieu : F 107 -Inria
Résumé: Les participants a Super-Computing
nous présentent les dernieres tendances et les résultats
importants exposés lors de la conférence.
Titre : A Mean-Field Game with Interactions for Epidemic Models.
Type : Séminaire
Intervenant : Josu Doncel (Inria, Mescal)
Date : 10/12/2015
Heure : 14:00
Lieu : F 107 -Inria
Résumé: We present a mean-field game where the objects follow an epidemic behavior. We
consider that the strategy of objects is how to vaccinate, with a cost
associated with vaccination and with each infected object. The strategy of
the individual object does not alter the dynamics of the mass.
The objective of the individual object is to minimise its expected
cost. We model the behavior of the individual object as a continuous
time Markov decision process. We also consider a centralized
problem, where a vaccination policy can be chosen so as to minimise
the total cost in the system. Finally, we build a pricing mechanism by which we
force the equilibrium to coincide with the solution of the centralized problem. According
to our numerical experiments, the vaccination price charged to the
individual objects should be always less than the actual vaccination
price in order to force the individual to maximize social welfare.
Titre : Certified Roundoff Error Bounds Using Semidefinite Programming
Type : Séminaire
Intervenant : Victor Magron (Verimag)
Date : 19/11/2015
Heure : 14:00
Lieu : C 207 -Inria
Résumé: Roundoff errors cannot be avoided when implementing numerical programs with finite precision. The ability to reason about rounding is especially important if one wants to explore a range of potential representations, for instance in the world of FPGAs. This problem becomes challenging when the program does not employ solely linear operations as non-linearities are inherent to many interesting computational problems in real-world applications.
Existing solutions to reasoning are limited in presence of nonlinear correlations between variables, leading to either imprecise bounds or high analysis time. Furthermore, while it is easy to implement a straightforward method such as interval arithmetic, sophisticated techniques are less straightforward to implement in a formal setting. Thus there is a need for methods which output certificates that can be formally validated inside a proof assistant.
We present a framework to provide upper bounds of absolute roundoff errors. This framework is based on optimization techniques employing semidefinite programming and sums of squares certificates, which can be formally checked inside the Coq theorem prover. Our tool covers a wide range of nonlinear programs, including polynomials and transcendental operations as well as conditional statements. We illustrate the efficiency and precision of this tool on non-trivial programs coming from biology, optimization and space control.
This research work has been done in collaboration with Alastair Donaldson and George Constantinides from Imperial College London.
Titre : Voting in Networks
Type : Séminaire
Intervenant : Petra Berenbrink (Simon Fraser Univ.)
Date : 02/11/2015
Heure : 14:00
Lieu : Gd Amphi -Inria
Résumé: In my talk I will consider two different voting-type processes. For
the first process an arbitrary network with n nodes is given. At the
beginning every node has one of k opinions. The process works in
synchronous rounds, in every round every node considers the opinion
of a randomly chosen neighbour and decides to adopt the opinion of
that node or not. The question is how long does it take until all
nodes agree on an opinion.
The second protocol deals with plurality consensus in a complete
network of n nodes, each having one of k opinions. Nodes execute a
(randomized) distributed protocol to gain knowledge about opinions
in their neighborhood, which might cause them to change their
opinion. The goal is to find a protocol that, with high
probability, causes all nodes to adopt the the opinion initially
supported by most of the nodes. A major open question has been
whether there is a protocol for the complete graph that converges in
polylogarithmic time and uses only polylogarithmic memory (per
node). We answer this question affirmative.
Titre : Scheduling for Large Scale Distributed Computing Systems:
Approaches and Performance Evaluation Issues
Type : Soutenance HDR
Intervenant : Arnaud Legrand (CNRS, Mescal)
Date : 02/11/2015
Heure : 10:00
Lieu : Gd Amphi -Inria
Résumé: In a few decades, large scale computing infrastructures have become
a key element for all sciences (physics, biology, medicine,
astronomy, ecology, ...) both to analyze huge amount of data (a.k.a
"big data") or to simulate complex systems ("in silico"
approach). Designing and efficiently exploiting such infrastructures
that constantly follow technology evolution raises optimization,
modeling and performance evaluation issues. In this talk, I will
present the main two aspects of my research and how they have
nurtured each others.
First, I will present how several scheduling problems can be
simplified and efficiently solved through continuous and less
combinatorial techniques by exploiting regularity hypothesis. Such
relaxation allows to more easily account for key aspects of such
systems such as resource heterogeneity and variability, complex
interconnection topology, the need for online and distributed
optimization, or the presence of users with diverse needs and
objectives. These works show how classical scheduling theory,
distributed optimization and game theory concepts can be applied to
a better understanding of such systems.
Then, I will present my involvement in SimGrid, an open source and
community project that allows to design faithful simulations and
performance evaluations of distributed computing systems. My main
contributions concern the development, the validation and the
invalidation of platform models and the optimization of their
implementation in SimGrid. I will conclude by a brief presentation
of the perspectives opened by such work.
Titre : A Reproducible Research Methodology for Designing and Conducting Faithful Simulations of Dynamic Task-based Scientific Applications
Type : Soutenance Thèse
Intervenant : Luka Stanisic (Mescal)
Date : 31/10/2015
Heure : 15:00
Lieu : Gd Amphi -Inria
Résumé: The evolution of High-Performance Computing systems has taken a
sharp turn in the last decade. Due to the enormous energy
consumption of modern platforms, miniaturization and frequency
scaling of processors have reached a limit. The energy constraints
has forced hardware manufacturers to develop alternative computer
architecture solutions in order to manage answering the ever-growing
need of performance imposed by the scientists and the
society. However, efficiently programming such diversity of
platforms and fully exploiting the potentials of the numerous
different resources they offer is extremely challenging. The
previously dominant trend for designing high performance
applications, which was based on large monolithic codes offering
many optimization opportunities, has thus become more and more
difficult to apply since implementing and maintaining such complex
codes is very difficult. Therefore, application developers
increasingly consider modular approaches and dynamic application
executions. A popular approach is to implement the application at a
high level independently of the hardware architecture as Directed
Acyclic Graphs of tasks, each task corresponding to carefully
optimized computation kernels for each architecture. A runtime
system can then be used to dynamically schedule those tasks on the
different computing resources.
Developing such solutions and ensuring their good performance on a
wide range of setups is however very challenging. Due to the high
complexity of the hardware, to the duration variability of the
operations performed on a machine and to the dynamic scheduling of
the tasks, the application executions are non-deterministic and the
performance evaluation of such systems is extremely
difficult. Therefore, there is a definite need for systematic and
reproducible methods for conducting such research as well as
reliable performance evaluation techniques for studying these
complex systems.
In this thesis, we show that it is possible to perform a clean,
coherent, reproducible study, using simulation, of dynamic HPC
applications. We propose a unique workflow based on two well-known
and widely-used tools, Git and Org-mode, for conducting a
reproducible experimental research. This simple workflow allows for
pragmatically addressing issues such as provenance tracking and data
analysis replication. Our contribution to the performance evaluation
of dynamic HPC applications consists in the design and validation of
a coarse-grain hybrid simulation/emulation of StarPU, a dynamic
task-based runtime for hybrid architectures, over SimGrid, a
versatile simulator for distributed systems. We present how this
tool can achieve faithful performance predictions of native
executions on a wide range of heterogeneous machines and for two
different classes of programs, dense and sparse linear algebra
applications, that are a good representative of the real scientific
applications.
Titre : Energy-efficient power allocation problem in dynamic multi-carrier MIMO systems
Type : Séminaire
Intervenant :Veronica Belmega (Inria, Mescal)
Date : 01/10/2015
Heure : 14:00
Lieu : F 107-Inria
Résumé: In this joint work with Panayotis Mertikopoulos, we propose an online power allocation algorithm for optimizing energy efficiency (throughput per unit of transmit power) in multi-user, multi-carrier MIMO systems that evolve dynamically over time (e.g. due to changes in the wireless environment or the users' load). Contrary to the static/ergodic regime, transmitting at a fixed optimal power allocation profile (either static or in the mean) is not realistic, so we draw on exponential learning techniques to design an algorithm that is able to adapt to system changes "on the fly". Specifically, the proposed transmit policy leads to no regret, i.e., it is asymptotically optimal in hindsight, irrespective of the system's evolution over time. Importantly, despite the algorithm's simplicity and distributed nature, users are able to track their individually optimum transmit profiles as they vary with time, even under rapidly changing network conditions.
Titre : Statistical modelling and (spatio-)temporal analysis of RSS news feeds
Type : Séminaire
Intervenant : Angelika Studeny (Inria, Mescal)
Date : 10/07/2015
Heure : 14:00
Lieu : F107-Inria
Résumé: This talk presents on-going work within
the context of the ANR Geomedia. RSS news feeds can be seen as
a representation of the information flow in geopolitical
space. As such they allow us to study media events of global
extent and how they affect international relations. Here I will
show how hidden Markov models (HMM) can be applied in this
context to study the evolution of media events in time. First,
basic HMMs are introduced and we then discuss various
extensions. As a show case, the Ebola epidemic which spread
through West Africa in 2014 is given.
Titre : The Machine
Type : Séminaire
Intervenant : Patrick Demichel (system architect at HP)
Date : 09/07/2015
Heure : 14:00
Lieu : Grand Amphi Inria
Résumé: By 2020, 30 billion connected devices
will generate unprecedented amounts of data. The infrastructure
required to collect, process, store, and analyze this data
requires transformational changes in the foundations of
computing. Bottom line: current systems can’t handle where we
are headed and we need a new solution. HP has that solution in
The Machine. By discarding a computing model that has stood
unchallenged for sixty years, we are poised to leave sixty
years of compromises and inefficiencies behind. We’re pushing
the boundaries of the physics behind IT, using electrons for
computation, photons for communication, and ions for
storage. The Machine will fuse memory and storage, flatten
complex data hierarchies, bring processing closer to the data,
embed security control points throughout the hardware and
software stacks, and enable management and assurance of the
system at scale. The Machine will reinvent the fundamental
architecture of computers to enable a quantum leap in
performance and efficiency, while lowering costs over the long
term and improving security. The industry is at a technology
inflection point that HP is uniquely positioned to take
advantage of going forward. The Machine demonstrates the
innovation agenda that will drive our company, and the world,
forward.
Slides: Slides
Titre :A Reward-Based Incentive Mechanism for Delay Tolerant Networks
Type : Seminaire
Intervenant : Balakrishna Prabhu
Date : 25/06/2015
Heure : 14:00
Lieu : C 208
Résumé :
A central problem in Delay Tolerant Networks (DTNs) is to persuade mobile nodes to participate in relaying messages. Indeed, the delivery of a message incurs a certain number of costs for a relay. We consider a two- hop DTN in which a source node, wanting to get its message across to the destination as fast as possible, promises each relay it meets a reward. This reward is the minimum amount that offsets the expected delivery cost, as estimated by the relay from the information given by the source (number of existing copies of the message, age of these copies). A reward is given only to the relay that is the first one to deliver the message to the destination. We show that under fairly weak assumptions the expected reward the source pays remains the same irrespective of the information it conveys, provided that the type of information does not vary dynamically over time. On the other hand, the source can gain by adapting the information it conveys to a meeting relay. For the particular cases of two relays or exponentially distributed inter-contact times, we give some structural results of the optimal adaptive policy.
Titre : Big Data, Beyond the Data Center
Type : Séminaire
Intervenant : Gilles Fedak
Date : 11/06/2015
Heure : 14:00
Lieu : F107-Inria
Résumé: Increasingly the next scientific discoveries and the next industrial innovative
breakthroughs will depend on the capacity to extract knowledge and sense from
gigantic amount of information. Examples vary from processing data provided by
scientific instruments such as the CERN’s LHC; collecting data from large-scale
sensor networks; grabbing, indexing and nearly instantaneously mining and
searching the Web; building and traversing the billion-edges social network
graphs; anticipating market and customer trends through multiple channels of
information. Collecting information from various sources, recognizing patterns
and distilling insights constitutes what is called the Big Data challenge.
However, As the volume of data grows exponentially, the management of these
data becomes more complex in proportion. A key challenge is to handle the
complexity of data management on Hybrid distributed infrastructures, i.e
assemblage of Cloud, Grid or Desktop Grids. In this talk, I will overview our
works in this research area; starting with BitDew, a middleware for large
scale data management on Clouds and Desktop Grids. Then I will present our
approach to enable MapReduce on Hybrid infrastructures. Finnally, I will
present our latest results around Active Data, a programming model for
managing data life cycle on heterogeneous systems and infrastructures.
Titre : Agrégation spatiotemporelle pour la visualisation de traces d'exécution.
Type : Soutenance de thèse
Intervenant : Damien Dosimont
Date : 10/06/2015
Heure : 9:30
Lieu : Grand Amphi, Inria
Résumé: Les techniques de visualisation de traces sont fréquemment employées par les développeurs pour comprendre, déboguer, et optimiser leurs applications.
La plupart des outils d'analyse font appel à des représentations spatiotemporelles, qui impliquent un axe du temps et une représentation des ressources, et lient la dynamique de l'application avec sa structure ou sa topologie.
Toutefois, ces dernières ne répondent pas au problème de passage à l'échelle de manière satisfaisante. Face à un volume de trace de l'ordre du Gigaoctet et une quantité d'évènements supérieure au million, elles s'avèrent incapables de représenter une vue d'ensemble de la trace, à cause des limitations imposées par la taille de l'écran, des performances nécessaires pour une bonne interaction, mais aussi des limites cognitives et perceptives de l'analyste qui ne peut pas faire face à une représentation trop complexe. Cette vue d'ensemble est nécessaire puisqu'elle constitue un point d'entrée à l'analyse; elle constitue la première étape du mantra de Shneiderman - Overview first, zoom and filter, then details-on-demand - un principe aidant à concevoir une méthode d'analyse visuelle.
Face à ce constat, nous élaborons dans cette thèse deux méthodes d'analyse, l'une temporelle, l'autre spatiotemporelle, fondées sur la visualisation. Elles intègrent chacune des étapes du mantra de Shneiderman - dont la vue d'ensemble -, tout en assurant le passage à l'échelle.
Ces méthodes sont fondées sur une méthode d'agrégation qui s'attache à réduire la complexité de la représentation tout en préservant le maximum d'information. Pour ce faire, nous associons à ces deux concepts des mesures issues de la théorie de l'information. Les parties du système sont agrégées de manière à satisfaire un compromis entre ces deux mesures, dont le poids de chacune est ajusté par l'analyste afin de choisir un niveau de détail. L'effet de la résolution de ce compromis est la discrimination de l'hétérogénéité du comportement des entités composant le système à analyser. Cela nous permet de détecter des anomalies dans des traces d'applications multimédia embarquées, ou d'applications de calcul parallèle s'exécutant sur une grille.
Nous avons implémenté ces techniques au sein d'un logiciel, Ocelotl, dont les choix de conception assurent le passage à l'échelle pour des traces de plusieurs milliards d'évènements. Nous proposons également une interaction efficace, notamment en synchronisant notre méthode de visualisation avec des représentations plus détaillées, afin de permettre une analyse descendante jusqu'à la source des anomalies.
Titre : User-oriented probabilistic forecasts for bike-sharing systems
Type : Séminaire
Intervenant : Guiilaume Massonnet
Date : 04/06/2015
Heure : 13:00
Lieu:
C 208
Résumé: With the expansion of bike-sharing systems (BSS) in recent years, more and more effort is dedicated to the improvement of the quality of service toward users. In particular, providing reliable forecasts has become critical in order to predict blocking situations (i.e. empty or full stations), which often disrupt the flow of bikes in the system.
Most of the techniques in the literature develop predictors that compute a single deterministic value to forecast the number of available bikes in the stations. The most common way to evaluate their accuracy is then to use the standard root-mean-square-error (RMSE). In this work, we provide evidences that RMSE is not an appropriate measure of performance for predictions in such systems because it does not account for the inherent stochasticity of BSS. With this in mind, we introduce a new predictor based on a queuing network model that produces a probabilistic forecast instead of a deterministic one. In addition, we propose a new metric based on scoring rules to test the performances of our model against classical predictors on the Vélib' BSS of the city of Paris. Our results show that for prediction horizons of up to a few hours, classical predictors are outperformed by our probabilistic predictor. Finally, we show how our method leads the user towards better decision making by helping her avoid frustrating experiences.
Titre : Output Feedback in Wireless Communications
Type : Séminaire
Intervenant : Samir Perlaza
Date : 21/05/2015
Heure : 14:00
Information détaillée:
TBA
Résumé:
The main goal of this presentation is to highlight channel-output feedback as a promising technique for interference management in highly densified networks, e.g., 5G communications systems. For this purpose, recent results on the fundamental limits of centralized and decentralized multi-user channels with channel output feedback are described. These fundamental limits are presented in the form of capacity regions and equilibrium regions. In particular, the interference channel (IC), multiple access channel (MAC) and broadcast channel (BC) are thoroughly revisited using linear deterministic models for both achievability and converse theorems. Finally, recent results and emerging techniques for optimal utilization of CSI feedback in multi-user systems will also be covered.
Titre : Multi-armed Bandits
Canceled
Type : Séminaire
Intervenant : Vianney Perchet
Date : 07/05/2015
Heure : 14:00
Information détaillée:
Attention, this
seminar is canceled, hopefully postponed to a later date
Résumé:
TBA
Titre : Primal-dual and dual fitting analysis of online scheduling algorithms for generalized flow-time problems
Type : Séminaire
Intervenant : Giorgio Lucarelli
Date : 30/04/2015
Heure : 14:00
Information détaillée:
F 107
Résumé:
We study a variety of online scheduling problems on a single processor that can be viewed as extensions of the well-studied problem of minimizing total weighted flow time. Most previous work on this class of problems has relied on amortized analysis and the use of complicated potential-function arguments. In this paper we follow a different approach based on the primal-dual and dual-fitting paradigms. In particular, we provide a framework of analysis that is derived by duality properties, does not rely on potential functions, gives insights for new algorithms, and is applicable to a variety of scheduling problems. We begin with an interpretation of the algorithm Highest-Density-First (HDF) as a primal-dual algorithm, and a corresponding proof that HDF is optimal for total weighted fractional flow time, which directly implies that it is scalable for the integral objective. Building upon the salient ideas of the proof, we show how to apply and extend this analysis to generalized flow-time problems. Our results demonstrate that several online problems for minimizing extensions of flow-time objectives can be approached using the same underlying framework of analysis based on techniques from linear programming.
This is a joint work with Spyros Angelopoulos and Nguyen Kim Thang.
Titre: Approche de profilage en ligne avec Multi-Application Online Profiling (MALP) et son extension à la chaine de simulation
Type : Séminaire
Date : 26/02/2015
Heure : 14:00
Information détaillée:
F107-Inria
Résumé: L’évolution rapide des super-calculateurs
couplée à la complexité des codes de simulation pose de réelles
problématiques d’évolutivité des codes de calcul. Dans ce
contexte, cette présentation se concentre sur l’analyse du
couplage code-machine en présentant l’outil MALP
(Multi-Application Online Profiling) qui fournit une
infrastructure de profilage en ligne. Outil développé au CEA-DAM
dans le cadre d’une thèse [1]. Comme nous allons le montrer, bien
plus que l’aspect profilage en lui même, l’originalité de MALP a
été d’aborder différemment la problématique de gestion des
données en allouant explicitement des ressources couplées à
l’application instrumentée. Tout d’abord, nous présenterons
rapidement l’outil et ses fonctionnalités avant de commenter les
évolutions de notre infrastructure de mesure depuis un format de
trace dédié vers une approche « en-ligne »[2]. Enfin, nous
conclurons notre présentation en proposant quelques exemples
prospectifs d’utilisation d’une telle approche dans la gestion
des données d’une chaine de simulation : délégation d’IO, analyse
in-situ, couplage inter-codes, entrées/sorties enrichies «
dashboard » et interactivité, modèle de programmation out-of-core
« IO-GAS », tolérance aux pannes.
Références:
[1] https://tel.archives-ouvertes.fr/tel-01102639v1
[2] http://ieeexplore.ieee.org/xpl/articleDetails.jsp?arnumber=6687442
Titre
: Quanticol Plenary meeting
Type : Workshop
Date : 4-6/02/2015
Information détaillée:
MJK, campus
Résumé: QUANTICOL
is a European research initiative involving the University of
Edinburgh, Scotland; Istituto di Scienza e Tecnologie della
Informazione “A. Faedo”, Italy; Ludwig-Maximilians-Universität
München, Germany; Ecole Polytechnique Fédérale de Lausanne,
Switzerland; IMT Lucca, Italy and the University of Southampton.
The QUANTICOL project is a member of Fundamentals of Collective
Adaptive Systems (FOCAS), a Future and Emerging Technologies
Proactive Initiative funded by the European Commission under FP7.
The main objective of the QUANTICOL project is the development of
an innovative formal design framework that provides a
specification language for collective adaptive systems (CAS) and a
large variety of tool-supported, scalable analysis and
verification techniques. These techniques will be based on the
original combination of recent breakthroughs in stochastic process
algebras and associated verification techniques, and mean
field/continuous approximation and control theory. Such a design
framework will provide scalable extensive support for the
verification of developed models, and also enable and facilitate
experimentation and discovery of new design patterns for emergent
behaviour and control over spatially distributed CAS.
Titre : Locality-aware policies for scheduling in supercomputers
Type : Séminaire
Intervenant : Jose Antonio Pascual Saiz
Date : 5/02/2015
Heure : 13:45
Information détaillée:
F107-Inria
Résumé: Contiguous job placement can have great
on the performance of schedulers for large-scale computing
systems. In contrast with non-contiguous strategies, contiguous
partitioning enables the exploitation of communication locality in
applications, and also reduces inter-application
interference. However, contiguous partitioning increases
scheduling times and system fragmentation, degrading system
utilization. I present some strategies to select contiguous
partitions to allocate incoming jobs. These strategies are used in
combination with different mapping mechanisms to perform the
task-to-node assignment in order to further reduce application run
times.
Titre : Flooding Time in Sparsely Connected Networks
Type : Séminaire
Intervenant : Laurenzo Maggi
Date : 4/12/2014
Heure : 14:00
Information détaillée:
F107-Inria
Résumé: We study mobile ad hoc wireless networks
using the notion of evolving connectivity graphs. In particular,
we are interested in studying the expected flooding time when full
connectivity cannot be ensured at each point in time. Even in this
case, due to finite contact times durations, connected components
may appear in the connectivity graph. Hence, this represents the
intermediate case between extreme cases of sparse and static ad
hoc networks. By using a generalization of edge-Markovian graphs,
we extend the existing models based on sparse scenarios to this
intermediate case and calculate the expected flooding time, which
is the time needed by one source to broadcast a message to all the
other terminals. We also propose lower and upper bounds that have
reduced computational complexity. We finally provide the analysis
in the quasi-sparse regime.
Short bio: Lorenzo Maggi is a Researcher at
CREATE-NET (Italy) in the field of Stochastic models and Game
Theory for networks. In 2013 he served as Research Assistant at
Chair of Economic Theory, Saarland University (Germany). In 2012
he obtained his PhD degree from Université Nice Sophia Antipolis,
under the supervision of Konstantin Avrachenkov (INRIA) and Laura
Cottatellucci (EURECOM). He was the recipient, along with his
coauthor F. De Pellegrini, of the Best Paper Award at WiOpt'14. He
serves as Program Chair at Valuetools'14, that will take place in
Bratislava, Slovakia.
Titre : Agrégation de données et analyse
multi-échelle des systèmes complexes
Type : Séminaire
Intervenant : Robin Lamarche Perrin
Date : 27/11/2014
Heure : 14:30
Information détaillée:
C207-Inria
Résumé: La compréhension des systèmes complexes
nécessite la plupart du temps une approche multi-échelle. Qu'il
s'agisse de leur dimension spatiale, dynamique ou structurelle,
les évènements et relations de causalité responsables du
comportement macroscopique des systèmes peuvent recevoir des
interprétations variées en fonction de la granularité de
l'information disponible. Dans cette présentation, nous nous
intéressons aux méthodes d'agrégation de données pour fournir aux
experts une information pertinente, permettant notamment
d’identifier les évènements décisifs pour la compréhension du
système. Deux cadres applicatifs servent à illustrer nos propos :
l'agrégation de traces d'exécution pour la détection d'anomalies
dans les systèmes distribués et l'agrégation multi-échelle de
données géographiques pour l'analyse des relations internationale.
Le problème de la représentation multi-échelle des systèmes
complexes nécessite en particulier d'aborder deux aspects
fondamentaux de l'agrégation : son contenu informationnel et ses
contraintes structurelles. Nous montrons dans un premier temps que
l'agrégation repose ainsi sur l'optimisation conjointe de deux
propriétés antagonistes de l’information. L’objectif est de
réduire la complexité microscopique des données analysées tout en
préservant leur pouvoir explicatif. La théorie de l'information
offre à ce titre les bases mathématiques adéquates pour formaliser
le problème d'optimisation correspondant. Nous nous intéressons
ensuite au rôle des connaissances expertes pour l’interprétation
les données agrégées. Ces connaissances – essentielles à l’analyse
– sont exprimées par des jeux de contraintes structurant l'espace
de recherche du problème d’optimisation. Nous présentons enfin un
cadre algorithmique générique permettant de résoudre les
différentes versions du problème d'optimisation ainsi défini. Les
algorithmes ainsi élaborés agrègent l'information de manière
optimale tout en préservant les propriétés structurelles du
système analysé.
Titre : Contributions to fault-tolerant NoC-based
many-core processors and future-proof Off-Chip supercomputer
interconnects
Type : Séminaire
Intervenant : Fabien Chaix
Date : 10/10/2014
Heure : 14:00
Information détaillée:
F107-Inria
Résumé: Manufacturing processors with aggressive
CMOS topologies paves the way to more efficient and powerful
computers, but also introduces new challenges to the computer
industry. As the architecture of processors evolves towards
massively multi-core paradigm, the efficient design and use of
Network On Chips (NoCs) is paramount, but the exploitation of such
devices is hampered by increasing variability and defect
rates. Concurrently, the decrease of energy consumption and cost
of processor chips leads to larger Off-Chip interconnects, with an
increasing impact on system cost, energy and application
latencies. And lastly, designers are facing many uncertainties
when designing Off-Chip interconnects, as the best-suited topology
depends on target applications, which are not always defined at
that time.
Inside chips, we then propose the adoption of more complex routing
algorithms to better exploit the processor resources in the
presence of defects. This approach increases the interconnect
throughput by up to a factor 10 in the presence of 20 % of
defects. We also propose a method for applications to deploy
dynamically their task across cores while avoiding faulty cores,
avoiding less efficient cores, and minimizing the expected energy
consumption. Finally, a few elements of the NoC simulation model
that was developed for this thesis are explained, with a focus on
its graphical visualization features.
Outside chips, our focus is on the proposition of topologies
allowing better performances, while reducing the interconnect
cost. Hence, the team at NII contributed several
randomly-generated topologies that take advantage of the small
world effect and the physical clustering of nodes to both reduce
the network diameter and cabling cost. While this approach is very
effective for latency-bound applications, throughput-bound
applications are generally best run on a meshed or hierarchical
topology. Another issue is that supercomputers are often built in
more than one stage, and hence the cabling should be incremental
too, which is far from trivial for high-radix topologies. Hence,
we propose a method for cabling multiple topologies in a more
efficient and incremental way, thus enabling a more agile
deployment of the Off-Chip interconnect in supercomputers.
Titre : Large Deviations and Stochastic Stability
in Large Population Games: the Small Noise Double Limit
Type : Séminaire
Intervenant : Bill Sandholm
Date : 18/09/2014
Heure : 14:00
Information détaillée:
F107-Inria
Résumé: Stochastic stability studies the question
of long-term equilibrium selection and convergence in games with
multiple equilibria. We consider a model of stochastic evolution
in population games under general noisy best response protocols,
allowing the probabilities of suboptimal choices to depend on
their payoff consequences. Our analysis focuses on behavior in
the small noise double limit: we first take the noise level in
agents' decisions to zero, and then take the population size to
infinity. We show that in this double limit, escape from and
transitions between equilibria can be described in terms of
solutions to continuous optimal control problems. These are used
in turn to characterize the asymptotics of the the stationary
distribution, and so to determine the stochastically stable
states. We then focus on a class of examples - three-strategy
coordination games with an interior equilibrium, and choices
governed by the logit rule. In this setting the control problems
can be solved explicitly, and the analysis carried to its very
end. We argue that should remain true for other classes of games
and other choice rules.
Titre : Generic Algorithms for Deterministic
Random Number Generation in Dynamic-Multithreaded Platform
Type : Séminaire
Intervenant : Stefano Mohr
Date : 4/09/2014
Heure : 15:00
Information détaillée:
Grand amphi-Inria
Résumé: On dynamic multithreaded platforms with
on-line scheduling such as work-stealing, randomized computations
raise the issue of reproducibility. Compliant with de facto
standard sequential Deterministic Random Number Generators (DRNGs)
noted R, we propose a parallel DRNG implementation for finite
computations that provides deterministic parallel execution. It
uses the stateless sub-stream approach, enabling the use of
efficient DRNG such as Mersenne Twister or Linear Congruential. We
demonstrate that if R provides fast jump ahead in the random
sequence, the re-seeding overhead is small, polylog in
expectation, independently from the parallel computation’s
depth. Experiments bench- mark the performance of randomized
algorithms employing our solution against the stateful DRNG
DotMix, tailored to the Cilk Plus dynamic multithreading
runtime. The overhead of our implementation ParDRNG-R compares
favorably to the linear overhead of DotMix re-seedings.
Titre : A Resource Sharing Game with Relative Priorities
Type : Séminaire
Intervenant : Josu Doncel
Date : 4/09/2014
Heure : 14:00
Information détaillée:
Grand amphi-Inria
Résumé: Motivated by cloud-based computing
resources operating with relative priorities, we investigate the
strategic interaction between a fixed number of users sharing the
capacity of a processor. Each user chooses a payment, which
corresponds to his priority level, and submits jobs of variable
sizes according to a stochastic process. These jobs have to be
completed before some user-specic deadline. They are executed on
the processor and receive a share of the capacity that is
proportional to the priority level. The users' goal is to choose
priority levels so as to minimize their own payment, while
guaranteeing that their jobs meet their deadlines. We fully
characterize the solution of the game for two classes of users and
exponential service times. For an arbitrary number of classes and
general service times, we develop an approximation based on
heavy-trafic and we characterize the solution of the game under
the heavy-trafic assumption. Our experiments show that the
approximate solution captures accurately the structure of the
equilibrium in the original game.
Titre : Taking Advantage of Partial Customer
Flexibility in Service Systems
Type : Séminaire
Intervenant : Rhonda Righter
Date : 15/05/2014
Heure : 14:00
Information détaillée:
F107-Inria
Résumé:In many service, production, and traffic
systems there are multiple types of customers requiring different
types of service. Providing flexible servers that can serve
multiple customer types improves performance, but can be very
expensive. On the other hand, often some of the customers may be
flexible, i.e., they may be willing to change their type in order
to achieve faster service, and the infrastructure to take
advantage of this customer flexibility is often relatively
inexpensive. Our research is in part motivated by a call center
(in Quebec) which provides service in both English ("Press 1") and
French ("Press 2"). Because of the training expense and high
turnover of agents, the company policy is to train agents to only
handle calls in one language. The company would like to know the
benefit of adding a "Press 0" option for bilingual customers, how
these customers should best be handled, and how the benefit
depends on the proportion of customers who are bilingual.
We model our system as a set of alternative multi-server queues,
and with a mixture of dedicated (to a single queue) and flexible
(multi-lingual) customers, and exponential services. We extend
known results showing that JSQ - Join the Shortest Queue - is the
optimal queue-length based routing policy for flexible customers.
This policy not only minimizes overall waiting times and waiting
times for flexible customers, it also minimizes waiting times for
dedicated customers. The optimality of JSQ gives us monotonicity:
waiting time is decreasing in the proportion of flexible
customers, p. We then consider convexity, that the marginal
improvement in performance is decreasing as more customers become
flexible. We give a model where we can show a strong sample-path
version of convexity, but in general, convexity will not hold in
this strong sense. We give conditions for weaker notions of
convexity to hold.
We also consider two more efficient approaches to handle flexible
customers. We explore optimal policies under the different
approaches and the trade-offs in terms of efficiency, fairness,
incentive compatibility.
Titre : Accélération de codes scientifiques en Python avec Pythran
Type : Séminaire
Intervenant : Serge Guelton
Date : 12/05/2014
Heure : 14:00
Information détaillée:
F107-Inria
Résumé: Le calcul scientifique en Python prend de
plus en plus d’importance, grâce à des modules de calculs
scientifiques efficaces - numpy et scipy, une bibliothèque de
visualisation riche - Matplotlib, et un langage de haut niveau
avec un écosystème riche et plusieurs implémentations libres.
Le langage Python ne brille pas par ses performances. Numpy
propose une solution efficace à ce problème sous la forme d’un
module natif proposant des fonctions écrites en C/Fortran et
travaillant sur des données natives, sans
encapsulation. Cependant, la frontière entre code interprété et
code natif empêche de bénéficier de l’ensemble des capacités de la
machine hôte.
Le compilateur Pythran propose de déplacer cette frontière afin de
déporter l’ensemble des noyaux de calcul vers un module natif où
les opérations Numpy sont fusionnées, parallélisées et
vectorisées. Pour atteindre ce résultat, Pythran convertit un
sous-ensemble implicitement statiquement typé de Python en un
méta-programme C++11, qui est ensuite utilisé, combiné avec
quelques annotations de type - typiquement une par fonction
exportée - pour générer un module natif parallèle.
Pythran combine des techniques de compilation classiques
appliquées au langage Python avec un runtime proposant une API
semblable à celle de Numpy utilisant les expressions templates
pour fusionner certaines opérations, OpenMP pour les paralléliser
et Boost.SIMD pour les vectoriser.
Pythran propose également un ensemble d’analyses et
d’optimisations pour construire un compilateur dédié, ou
expérimenter de nouvelles optimisations sans avoir à réimplémenter
toutes les dépendances.
Titre : Collective Mind Technology: towards collaborative,
systematic and reproducible auto-tuning
Type : Séminaire
Intervenant : Grigori Fursin
Date : 16/04/2014
Heure : 14:00
Information détaillée:
A104-Inria
Résumé:
Empirical program and architecture tuning combined with run-time
adaptation and machine learning has been demonstrating good
potential to improve performance, power consumption and other
important metrics of computer systems for more than a
decade. However, it is still far from the widespread production
use due to unbearably long exploration and training times, ever
changing tools and their interfaces, lack of a common experimental
methodology, and lack of unified mechanisms for knowledge building
and exchange apart from publications where reproducibility of
results is often not even considered.
In this talk, I will present public plugin-based Collective Mind
infrastructure that attempts to systematize analysis and
optimization of computer systems using crowdsourcing, extensible
repository of knowledge, and machine learning. In this
cooperative approach, multi-objective program and architecture
tuning is transparently distributed among multiple users while
connecting together and unifying existing techniques and tools,
and utilizing any available mobile phones, cluster or cloud
computer services for online learning. Gradually increasing
optimization knowledge helps to continuously improve optimization
heuristics of any compiler (currently focusing on GCC and LLVM),
predict optimizations for new programs or suggest efficient
run-time adaptation strategies depending on end-user
requirements. Prototype of the framework and repository is
available online
at http://c-mind.org/repo
with hundreds of shared codelets, numerical applications, data
sets, models, universal experimental pipelines, and unified
tools. It enables systematic, reproducible and collaborative R&D
on auto-tuning and machine learning with a new publication model
where experiments and techniques are validated and improved by the
community.
Titre : Discrete time mean field games: the short-stage limit
Type : Séminaire
Intervenant : Juan Pablo Maldonado
Date : 10/04/2014
Heure : 14:00
Information détaillée:
A104-Inria
Résumé:
We construct an approximate Nash equilibrium of a discrete time
stochastic game with finitely many players. We study also the case
when the duration of each stage goes to zero and discuss some
possible applications and extensions.
Titre : Autour des automates cellulaires probabilistes
Type de séminaire : Séminaire
Intervenant : Irène Marcovici
Date : 20/03/2014
Heure : 15:00
Information détaillée
Grand amphi
Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA
Résumé
Un automate cellulaire probabiliste (ACP) est une chaîne de Markov sur un espace symbolique. Le temps est discret, les cellules évoluent de manière synchrone, et le nouvel état de chaque cellule est choisi de manière aléatoire, indépendamment des autres cellules, selon une distribution déterminée par les états d'un nombre fini de cellules situées dans le voisinage. Les ACP sont utilisés en informatique comme modèle de calcul, ainsi qu'en biologie et en physique. Ils interviennent aussi dans différents contextes en probabilités et en combinatoire.
Un ACP est ergodique s'il a une unique mesure invariante qui est attractive, ce qui signifie qu'au cours de son évolution, il "oublie" sa configuration initiale. Je présenterai l'algorithme que nous avons développé pour échantillonner parfaitement l'unique mesure invariante d'un ACP ergodique. Puis, je présenterai les résultats obtenus au cours de ma thèse sur deux "problèmes inverses" : le premier consiste à étudier les ACP ayant des mesures invariantes de forme produit de Bernoulli ; le second est le problème de la classification de la densité, qui consiste à trouver un AC(P) dont l'évolution permette de distinguer une configuration initiale sur l'alphabet binaire tirée selon une mesure de Bernoulli de paramètre inférieur ou supérieur à 1/2, et que nous avons résolu sur les grilles de dimension supérieure ou égale à 2 et sur les arbres.
Titre : Reinforcement learning with restrictions on the action set
Type de séminaire : Séminaire
Intervenant : Mario Bravo
Date : 20/03/2014
Heure : 13:30
Information détaillée
Grand amphi
Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA
Résumé
Consider a 2-player normal-form game repeated over time. We introduce an adaptive learning procedure, where the players only observe their own realized payoff at each stage. We assume that agents do not know their own payoff function, and have no information on the other player. Furthermore, we assume that they have restrictions on their own action set such that, at each stage, their choice is limited to a subset of their action set. We prove that the empirical distributions of play converge to the set of Nash equilibria for zero-sum and potential games, and games where one player has two actions.
Titre : Performance analysis and models for collocated VMs running on multi-core physical machines
Type de séminaire : Séminaire
Intervenant : Jonathan Rouzaud Cornabas
Date : 13/03/2014
Heure : 10:30
Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA
Résumé
During this presentation, I will first do a scope of my previous and on-going works.
Then, I will present on-going work around the performance evaluation and modeling of Cloud platforms and applications.
Titre : Feedback in Distributed Wireless Networks
Type de séminaire : Séminaire
Intervenant : Samir Perlaza
Date : 18/02/2014
Heure : 15:00
Information détaillée
Inria Montbonnot, F107
Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA
Résumé
Titre : Learning for Distributed Systems
Type de séminaire : Séminaire
Intervenant : Panayotis Mertikopoulos
Date : 16/01/2014
Heure : 14:00
Information détaillée
INRIA, F107
Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA
Résumé
Titre : Toward Better Simulation of MPI Applications on Ethernet/TCP Networks
Type de séminaire : Séminaire
Intervenant : Arnaud Legrand
Date : 12/12/2013
Heure : 14:00
Information détaillée
INRIA, F107
Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA
Résumé
Simulation and modeling for performance prediction and profiling is essential for developing and maintaining HPC code that is expected to scale for next-generation exascale systems, and correctly modeling network behavior is essential for creating realistic simulations. In this article we describe an implementation of a flow-based hybrid network model that accounts for factors such as network topology and contention, which are commonly ignored by other approaches. We focus on large-scale, Ethernet-connected systems, as these currently compose 37.8% of the TOP500 index, and this share is expected to increase as higher-speed 10 and 100GbE become more available. The European Mont-Blanc project to study exascale computing by developing prototype systems with low-power embedded devices will also use Ethernet-based interconnect. Our model is implemented within SMPI, an open-source MPI implementation that connects real applications to the SimGrid simulation framework. SMPI provides implementations of collective communications based on current versions of both OpenMPI and MPICH. SMPI and SimGrid also provide methods for easing the simulation of large-scale systems, including shadow execution, memory folding, and support for both online and offline (i.e., post-mortem) simulation. We validate our proposed model by comparing traces produced by SMPI with those from real world experiments, as well as with those obtained using other established network models. Our study shows that SMPI has a consistently better predictive power than classical LogP-based models for a wide range of scenarios including both established HPC benchmarks and real applications.
URL : http://www.dcs.warwick.ac.uk/ sdh/pmbs13papers/pmbs1130.pdf
Titre : Sean Meyn - Control Techniques for Complex Systems
Type de séminaire : Séminaire
Intervenant : Sean Meyn, Professor at University of Florida
Date : 02/12/2013
Heure : 13:30
Information détaillée
L'équipe MESCAL a le plaisir d'accueillir pour 2 jours (lundi 2 et mardi 3 décembre) le Prof. Sean Meyn qui est un spécialiste mondial du contrôle des systèmes distribués.
Il fera un expose en F107 (bat. Inria), lundi 2 Dec. a 13h30.
Venez nombreux !
Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA
Résumé
A focus of systems & control research is to create simplified models of reality to obtain insight regarding the structure of effective policies for control. The talk will survey how this point of view can be applied to approach resource allocation problems, such as those that will arise in the next-generation power grid. We also show how insight from this kind of analysis can be used to construct architectures for reinforcement learning algorithms used in a broad range of applications.
Much of the talk is a survey from a recent book by the author with a similar title :
Control Techniques for Complex Networks
Cambridge University Press, 2007.
http://www.meyn.ece.ufl.edu/archive/spm_files/CTCN/CTCN.html
And more recent work in :
Feature selection for neuro-dynamic programming
Book chapter, D. Huang, W. Chen, P. Mehta, S. Meyn, and A. Surana.
In F. Lewis, editor, Reinforcement Learning and Approximate Dynamic Programming for Feedback Control. Wiley, 2011
Titre : Robin Lamarche-Perrin - Analyse macroscopique des grands systèmes. Émergence épistémique et agrégation spatio-temporelle.
Type de séminaire : Soutenance de thèse
Heure : 14:30
Information détaillée
Thèse en informatique pour obtenir le grade
de docteur de l'Université de Grenoble
présentée par
Robin LAMARCHE-PERRIN
préparée au sein du Laboratoire d'Informatique de Grenoble
et de l'École Doctorale MSTII
sous la direction de Yves Demazeau (LIG-MAGMA) et Jean-Marc Vincent (LIG-MESCAL
Émergence épistémique et agrégation spatio-temporelle
Membres du Jury :
Résumé
Titre : Joseph Emeras - Workload Traces Analysis and Replay in Large Scale Distributed Platforms
Type de séminaire : Soutenance de thèse
Intervenant : Joseph Emeras
Date : 01/10/2013
Heure : 14:00
Information détaillée
- Lieu de soutenance : Grand Amphi INRIA
Membres du Jury :
Résumé
High Performance Computing is preparing the era of the transition from Petascale to Exascale. Distributed computing systems are already facing new scalability problems due to the increasing number of computing resources to manage. It is now necessary to study in depth these systems and comprehend their behaviors, strengths and weaknesses to better build the next generation. The complexity of managing users applications on the resources conducted to the analysis of the workload the platform has to support, this to provide them an efficient service.
The need for workload comprehension has led to the collection of traces from production systems and to the proposal of a standard workload format. These contributions enabled the study of numerous of these traces. This also led to the construction of several models, based on the statistical analysis of the different workloads from the collection. Until recently, existing workload traces did not enabled researchers to study the consumption of resources by the jobs in a temporal way. This is now changing with the need for characterization of jobs consumption patterns. In the first part of this thesis we propose a study of existing workload traces. Then we contribute with an observation of cluster workloads with the consideration of the jobs resource consumptions over time. This highlights specific and unattended patterns in the usage of resources from users. Finally, we propose an extension of the former standard workload format that enables to add such temporal consumptions without loosing the benefit of the existing works.
Experimental approaches based on workload models have also served the goal of distributed systems evaluation. Existing models describe the average behavior of observed systems. However, although the study of average behaviors is essential for the understanding of distributed systems, the study of critical cases and particular scenarios is also necessary. This study would give a more complete view and understanding of the performance of resource and job management. In the second part of this thesis we propose an experimental method for performance evaluation of distributed systems based on the replay of production workload trace extracts. These extracts, replaced in their original context, enable to experiment the change of configuration of the system in an online workload and observe the different configurations results. Our technical contribution in this experimental approach is twofold. We propose a first tool to construct the environment in which the experimentation will take place, then we propose a second set of tools that automatize the experiment setup and that replay the trace extract within its original context.
Finally, these contributions conducted together, enable to gain a better knowledge of HPC platforms. As future works, the approach proposed in this thesis will serve as a basis to further study larger infrastructures.
Titre : Matthieu Ospici - Modèles de programmation et d'exécution pour les architectures parallèles et hybrides. Applications à des codes de simulation pour la physique.
Type de séminaire : Soutenance de thèse
Date : 03/07/2013
Heure : 11:00
Information détaillée
- Thèse préparée dans le cadre d'une collaboration entre l'équipe
MESCAL du Laboratoire d'Informatique de Grenoble (LIG), le laboratoire
L_SIM de l'institut INAC du CEA Grenoble et la société Bull.
Lieu de soutenance :
Composition du jury :
Résumé
Nous nous intéressons dans cette thèse aux grandes architectures parallèles hybrides, c'est-à-dire aux architectures parallèles qui sont une combinaison de processeurs généraliste (Intel Xeon par exemple) et de processeurs accélérateur (GPU Nvidia). L'exploitation efficace de ces grappes hybrides pour le calcul haute performance est au coeur de nos travaux. L'hétérogénéité des ressources de calcul au sein des grappes hybrides pose de nombreuses problématiques lorsque l'on souhaite les exploiter efficacement avec de grandes applications scientifiques existantes. Deux principales problématiques ont été traitées. La première concerne le partage des accélérateurs pour les applications MPI et la seconde porte sur la programmation et l'exécution concurrente de code entre CPU et accélérateur.
Les calculateurs hybrides sont très hétérogènes : en fonction des architectures, le ratio entre le nombre d'accélérateurs et le nombre de coeurs CPU est très variable. Ainsi, nous avons tout d'abord proposé une notion de virtualisation d'accélérateur, qui permet de donner l'illusion aux applications qu'elles ont la capacité d'utiliser un nombre d'accélérateurs qui n'est pas lié au nombre d'accélérateurs physiques disponibles dans le matériel. Un modèle d'exécution basé sur un partage des accélérateurs est ainsi mis en place et permet d'exposer aux applications une architecture hybride plus homogène. Nous avons également proposé des extensions aux modèles de programmation basés sur MPI / threads afin de traiter le problème de l'exécution concurrente entre CPU et accélérateurs. Nous avons proposé pour cela un modèle basé sur deux types de threads, les threads CPU et les threads accélérateur, permettant de mettre en place des calculs hybrides exploitant simultanément les CPU et les accélérateurs.
Le déploiement et l'exécution du code sur les ressources hybrides est crucial. Nous avons pour cela proposé deux bibliothèques logicielles S_GPU 1 et S_GPU 2 qui ont pour rôle de déployer et d'exécuter les calculs sur le matériel hybride. S_GPU 1 s'occupant de la virtualisation, et S_GPU 2 de l'exploitation concurrente CPU — accélérateurs. Pour observer le déploiement et l'exécution du code sur des architectures complexes à base de GPU, nous avons intégré des mécanismes de traçage qui permettent d'analyser le déroulement des programmes utilisant nos bibliothèques.
La validation de nos propositions a été réalisée sur deux grandes application scientifiques : BigDFT (simulation ab-initio) et SPECFEM3D (simulation de propagation d'ondes sismiques).
Titre : Antoniu Pop - A Data-flow Approach to Solving the Von Neumann Bottlenecks in the Manycore Era
Type de séminaire : Séminaire
Intervenant : Antoniu Pop
Date : 11/04/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
As single-threaded performance has flattened, the prevailing trend in
current hardware architectures is to provide an ever increasing number
of processing units. Exploiting newer architectures poses tremendous
challenges to application programmers and to compiler developers
alike. Uncovering raw parallelism is insufficient in and of itself :
improving performance requires changing the code structure to harness
complex parallel hardware and memory hierarchies ; translating more
processing units into effective performance gains involves a
never-ending combination of target-specific optimizations, subtle
concurrency concepts and non-deterministic algorithms. As optimizing
compilers and runtime libraries no longer shield programmers from the
complexity of processor architectures, the gap to be filled by
programmers increases with every processor generation.
Driven by these challenges, we designed and implemented OpenStream, a high-level data-flow programming model, with the pragmatic perspective of achieving a fair middle-ground : programmers provide abstract information about their applications and leave the compiler and runtime system with the responsibility of lowering these abstractions to well-orchestrated threads and memory management. The expressiveness of such languages and the fine balance between the roles of programmers and compilers, as well as the static analysis and code generation techniques required to generate efficient code while abiding by the ``write once, compile anywhere'' rule, pose problems of great relevance from both theoretical and practical standpoints. The way forward still requires overcoming one of the greatest shortcomings of current compilers, their inability to understand concurrency, by developing new compiler intermediate representations for parallel programs. This is essential to both enable new compiler optimizations and avoid the current obfuscation of program semantics resulting from the lack of integration of parallel constructs in current intermediate representations. Finally, we developed a theoretical framework, the Control-Driven Data Flow model of computation, to reason about computation and execution in this context, to enable verification
Titre : Jonathan Rouzaud Cornabas - Simulation of Scientific Applications on multiple Clouds
Type de séminaire : Séminaire
Intervenant : Jonathan Rouzaud Cornabas
Date : 08/04/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé _ : Nowadays, a lot of scientific applications want to use Cloud Computing platforms. Many papers have been published on porting a specific application in a Cloud. But they do not go further than running the application and only take into account a part of the resources available. The goal of my work is to design new provisioning algorithms for scientific applications on multiple Clouds. Contrary to other approaches, I take into account all the resources and not only the computing ones. The purpose of this presentation is to show than even common and simple scientific applications such as Bag Of Tasks request
Titre : Cheng Wan - Coalitions et délégation dans les jeux de congestion
Type de séminaire : Séminaire
Intervenant : Cheng Wan
Date : 04/04/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Titre : Sylvain Durand - Commande des systèmes cyber-physiques, quelques exemples d'applications
Type de séminaire : Séminaire
Intervenant : Sylvain Durand
Date : 03/04/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Titre : Cheng Wan - Coalitions et délégation dans les jeux de congestion
Type de séminaire : Séminaire
Intervenant : Cheng Wan
Date : 28/03/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Titre : Georgio Lucarelli - Energy-aware scheduling algorithms
Type de séminaire : Séminaire
Intervenant : Georgio Lucarelli
Date : 25/03/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Titre : Energy-aware scheduling algorithms
Type de séminaire : Séminaire
Intervenant : Gergio Lucarelli
Date : 25/03/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Titre : Contrôle matériel des systèmes partiellement reconfigurables sur FPGA : de la modélisation à l'implémentation
Type de séminaire : Séminaire
Intervenant : Chiraz Trabelsi
Date : 25/03/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Titre : Chiraz Trabelsi - Contrôle matériel des systèmes partiellement reconfigurables sur FPGA : de la modélisation à l'implémentation
Type de séminaire : Séminaire
Intervenant : Chiraz Trabelsi
Date : 25/03/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Titre : Yannick Ngoko - Optimiser la coopération entre plusieurs heuristiques résolvant le même problème
Type de séminaire : Séminaire
Intervenant : Yannick Ngoko
Date : 22/03/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Titre : Florent Bouchez Tichadou - Compilation : the good, the bad and the ugly
Type de séminaire : Séminaire
Intervenant : Florent Bouchez Tichadou
Date : 21/03/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Short abstract :
In this presentation, a novel vision of the register allocation problem,
and an intermediate representation taken from Jurassic Park.
Somewhat longer abstract : The goal of register allocation is to assign the variables of a program to registers or to memory. Registers are preferred because they are much faster, but whenever there are more variables alive at the same time than R, the number of registers, it is mandatory to spill some of them, i.e., allocate them to memory. Conjointly, coalescing variables, i.e., allocating variables linked by copy instructions to the same register, saves those instructions. For nearly 25 years, the problems of spilling and coalescing have been considered in a single phase of register allocation because they both interact with each other : spilling a variable prevents its coalescing with other variables, but coalescing two variables increases their chances of being spilled.
I will show that it is possible to cleanly separate register allocation into two phases without loss of quality : first spill variables so that the number of variables simultaneously alive is at most R everywhere on the program ; then, allocate all remaining variables to the registers while performing coalescing. This was made possible by the observation that under a special form (the Static Single Assignment (SSA) form) the interference graph of the variables of a program is chordal and not general anymore. Since only spilling can reduce the coloring number of this graph, it can be done first. Then, register allocation is known to be possible and coalescing is performed carefully in order not to increase the coloring number again.
I will then present Tirex, a Textual Intermediate Representation for EXchanging target-level information between compiler optimizers. This allows to factor target-specific compiler optimizations into a single component from multiple compilers. Expressed at a target level, Tirex reduces the run-time cost of JIT compilation and of mixed mode execution, since the program to compile is already in a representation lowered to the level of the target processor. I will briefly outlines how Tirex is a powerful tool that opens research directions in program specialization for VLIW architectures.
The allocation of the "good," "bad," and "ugly" adjectives to their
Titre : Paul Renaud-Goud - Ordonnancement sous contraintes d'énergie
Type de séminaire : Séminaire
Intervenant : Paul Renaud-Goud
Date : 14/03/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Durant cet exposé, je présenterai les travaux que j'ai effectués sur le thème de l'ordonnancement sous contraintes d'énergie, tous ayant pour objectif commun de minimiser l'énergie consommée par la plate-forme considérée.
Nous commencerons par l'ordonnancement de taches indépendantes sur un ensemble de processeurs, où des bornes concernant la consommation énergétique d'un algorithme glouton classique (se prêtant initialement à la minimisation du temps d'exécution) seront données. Nous étudierons ensuite le placement d'applications pipelinées concurrentes sur un ensemble de processeurs reliés par une clique, et le placement de répliques dans un réseau arborescent. Puis nous considérerons ensuite les processeurs multi-cœurs à travers deux problèmes : d'une
Titre : Amina Guermouche - A New Hierarchical Fault Tolerance Protocol for MPI HPC Applications
Type de séminaire : Séminaire
Intervenant : Amina Guermouche
Date : 21/02/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
High performance computing will probably reach exascale in this
decade. At such a scale, the mean time between failures is expected to
be a few hours. Existing fault tolerance protocols will no longer be
suitable : Coordinated checkointing protocols force all processes to
restart and message logging protocols log all messages and their
determinants. In order to overcome these limits, one can combine
these protocols and use them on clusters of processes. Many protocols
based on this idea already exist in the litterature. This talk
presents a new hierarchical protocol that logs only message payload
unlike all existing hierarchical protocols. It is based on a study of
MPI applications. The study shows that many MPI applications are
"send-deterministic", and in many cases, the communication patterns of
the application allow creating groups of processes. The talk will
Titre : Guillaume Quintin - Codes d'évaluations et leur implantation
Type de séminaire : Séminaire
Intervenant : Guillaume Quintin
Date : 15/02/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Dans cet exposé, je vais présenter l'état de l'art concernant
l'implantation des codes correcteurs d'erreurs d'évaluation. Il s'agit de
codes correcteurs dont l'encodage se fait par évaluation de fonctions
polynomiales. Deux sous familles importantes sont les codes de
Reed-Solomon et les codes CRT. Je commencerai par un bref rappel sur les
codes correcteurs d'erreurs, il s'agira principalement de vocabulaire.
Ensuite j'expliquerai l'implantation des algorithmes de décodage que j'ai
faite durant ma thèse et les choix concernant cette implantation. Je
montrerai ce qu'est et ce que peut apporter le décodage en liste pour
effectuer des calculs parallélisables. Enfin, si le temps le permet, je
parlerai plus en détail du fonctionnement de la librairie dans laquelle
Titre : Marc Tchiboukdjian - Cache-efficient parallel algorithms based on divide and conquer
Type de séminaire : Séminaire
Intervenant : Marc Tchiboukdjian
Date : 14/02/2013
Heure : 14:00
Lieu : 40. Montbonnot-ENSIMAG
Résumé
It is foreseen that data movements will be the main cause of power consumption in future architecture. Enhancing data locality is thus essential to achieve energy efficiency. In this talk, I will present several examples of how one can adapt simultaneously computation order and data layout to produce algorithms that exposes lots of parallelism use caches efficiently. These algorithms are based on a recursive formulation of the algorithm and the underlying data structure to expose locality and parallelism at all levels of granularity. I will also give an overview of related projects I worked on during my post-doc.
Titre : Euriell Le Corronc - Symbolic models for switched systems
Type de séminaire : Séminaire
Intervenant : Euriell Le Corronc
Date : 31/01/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Titre : Jacek Blazewicz - Internet Shopping Optimization Problem - new algorithms
Type de séminaire : Séminaire
Intervenant : Jacek Blazewicz
Date : 24/01/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
In the talk we study an optimization aspect of Internet shopping with
price sensitive discounts from customer's perspective (which is a specific
case of the Internet Shopping Optimization Problem). We developed and
experimentally tested a simple greedy algorithm for ISOP. In this
algorithm products are considered in a certain order. Computer
experiments, where solutions obtained by the algorithm were compared
against optimal solutions and those provided by the internet algorithm of
Price Comparison Sites, were performed on the basis of data from the
online book industry.
Solutions found by the greedy algorithm were on average 4.1% more
expensive than the optimal solutions and were 36.1% cheaper than solutions
provided by Price Comparison Sites without taking delivery prices into
account.
New algorithms, taking into account the specificity of the problem, are presented as well and further extensions and generalizations are also
Titre : Bounds for Communication in Wireless Grids
Type de séminaire : Séminaire
Intervenant : Joseph Peters
Date : 06/12/2012
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Joseph Peters, School of Computing Science, Simon Fraser University
In a wireless network, a transmission can be received by a node if it is close enough to the sender. However, transmissions can interfere with each other and the interference distance is typically greater than the reception distance. Efficient communication protocols in these networks minimize the time to move information without interference.
In this talk, I will describe optimal protocols for the problem of collecting information into a central node of a two-dimensional square or hexagonal grid graph. The optimality of the protocols is proved using a new lower bound technique that is an adaptation to a discrete environment of a
Titre : Computationnal science of Distributed Systems
Type de séminaire : Séminaire
Intervenant : Martin Quinson
Date : 28/11/2012
Heure : 14:30
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
http://webloria.loria.fr/  ;...
Titre : Thread placement strategies on multicore processors.
Type de séminaire : Séminaire
Intervenant : Abdelhafid Mazouz
Date : 06/11/2012
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Titre : Adaptive decoding for dense and sparse evaluation/interpolation codes
Type de séminaire : Séminaire
Intervenant : Clément Pernet
Date : 20/09/2012
Heure : 15:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
We will present recent work on evaluation-interpolation error correcting codes. It is motivated in
the study of algorithm based fault tolerance (ABFT) applied to parallel exact linear algebra.
Indeed evaluation/interpolation schemes allow to split the computational load of one problem into
several independent tasks, making the problem embarassingly parrallel.
In the context where soft-errors occur during the computation of some of these tasks, the
evaluation/interpolation codes make it possible to still recover the result provided that some
amount of redundant information has been computed.
In a first part we will focus on the interpolation of dense polynomials with errors, and their equivalent over the ring of integer : the CRT-codes (Chinese Remainder Theorem). We will introduce a more general error model allowing to derive tighter bounds on the error correction capacities of such codes. Then we will describe some improvements making the error correction capacity adaptive with respect to the exact amount of information of the result to be computed.
In a second part we will focus on the interpolation of sparse polynomials with errors. After proving a lower bound on the required evaluation points, we will present a unique decoding algorithm matching that bound and a list-decoding variant of it, with a lesser requirement on the number of
Titre : Second workshop du LICIA
Type de séminaire : Séminaire
Date : 05/09/2012
Date de fin : 07/09/2012
Information détaillée
Le Licia (Laboratoire International de Calcul Intensif et d'Informatique Ambiante) est un laboratoire international associé entre le LIG et l'Université Fédérale Du Rio Grande do Sul à Porto Alegre (Brésil).
Le 2ème workshop a lieu les 5-6-7 septembre à la MJK.
Le programme de travail est joint à cet article et vous êtes cordialement invité à y participer et à rencontrer nos collègues brésiliens qui sont à Grenoble sur cette période.
C'est l'occasion pour découvrir les activités de l'UFRGS en informatique et initier de nouveaux projets de collaboration scientifique.
Évènement Confirmé : oui
Lieu : 10. Campus - Amphi MJK
Document joint (2Mo max) : IMG/protege/form10/LICIA-Workshop-2012-final.pdf
Titre : Proportional Optimization and Fairness : Applications
Type de séminaire : Séminaire
Intervenant : Wieslaw Kubiak
Date : 06/03/2012
Heure : 10:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Titre : Adaptive algorithms : The Portfolio Approach
Type de séminaire : Séminaire
Intervenant : Joachim Lepping
Date : 23/02/2012
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Titre : Charbel El Kaed - Home Devices Mediation using ontology alignment and code generation techniques
Type de séminaire : Soutenance de thèse
Intervenant : Charbel EL KAED
Date : 13/01/2012
Heure : 14:00
Date de fin : 13/01/2012
Information détaillée
La soutenance aura lieu dans l'Amphithéâtre "Amphi Bar" d'Orange Labs Meylan, au 28, Chemin du Vieux Chêne.
Le jury sera composé de :
Stéphane FRÉNOT, Professeur, INSA Lyon, Rapporteur
Michel RIVEILL, Professeur, Polytech'Nice Sophia, Rapporteur
Patrick REIGNIER, Professeur, Grenoble INP/Ensimag, Examinateur
Lukasz SZÒSTEK Expert TP R&D, Orange Labs, Poland, Invité
Yves DENNEULIN, Professeur, Grenoble INP/Ensimag, Encadrant
François-Gaël OTTOGALLI, Co-responsable de Recherche, Orange Labs, Co-encadrant
Évènement Confirmé : oui
Lieu : 90. Ailleurs
Résumé
Titre : MELT, a Domain Specific Language to extend the GCC compiler
Type de séminaire : Séminaire
Intervenant : Basile Starynkevitch
Date : 09/12/2011
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Titre : Jean-Noël Quintin - Equilibrage de charge dynamique sur plates-formes hiérarchiques
Type de séminaire : Soutenance de thèse
Date : 08/12/2011
Heure : 14:00
Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA
Résumé
La course à l'augmentation de la puissance de calcul qui se déroule depuis de nombreuses années entre les différents producteurs de matériel a depuis quelques années changé de visage : nous assistons en effet désormais à une véritable démocratisation des machines parallèles avec une complexification sans cesse croissante de la structure des processeurs. À terme, il est tout à fait envisageable de voir apparaître pour le grand public des architectures pleinement hétérogènes composées d'un ensemble de cœurs reliés par un réseau sur puce.
La parallélisation et l'exécution parallèle d'applications sur les machines à venir soulèvent ainsi de nombreux problèmes. Parmi ceux-ci, nous nous intéressons ici au problème de l'ordonnancement d'un ensemble de tâches sur un ensemble de cœurs, c'est à dire le choix de l'affectation du travail à réaliser sur les ressources disponibles.
Parmi les méthodes existantes, on distingue deux types d'algorithmes : en-ligne et hors-ligne. Les algo- rithmes en-ligne comme le vol de travail présentent l'avantage de fonctionner en l'absence d'informations sur le matériel ou la durée des tâches mais ne permettent généralement pas une gestion efficace des communications. Dans cette thèse, nous nous intéressons à l'ordonnancement de tâches en-ligne sur des plates-formes complexes pour lesquelles le réseau peut, par des problèmes de congestion, limiter les performances. Plus précisément, nous proposons de nouveaux algorithmes d'ordonnancement en-ligne, basés sur le vol de travail, ciblant deux configurations différentes.
D'une part, nous considérons des applications pour lesquelles le graphe de dépendance est connu à priori. L'utilisation de cette information nous permet ainsi de limiter les quantités de données transférées et d'obtenir des performances supérieures aux meilleurs algorithmes hors-ligne connus. D'autre part, nous étudions les optimisations possibles lorsque l'algorithme d'ordonnancement connaît la topologie de la plate-forme. Encore une fois, nous montrons qu'il est possible de tirer parti de cette information pour réaliser un gain non-négligeable en performance.
Nos travaux permettent ainsi d'étendre le champ d'application des algorithmes d'ordonnancement vers des architectures plus complexes et permettront peut-être une meilleure utilisation des machines de demain.
Titre : Benjamin Negrevergne - A generic and parallel pattern mining algorithm for multi-core architectures
Type de séminaire : Soutenance de thèse
Intervenant : Benjamin Negrevergne
Date : 29/11/2011
Heure : 14:00
Évènement Confirmé : oui
Lieu : 10. Campus - Amphi MJK
Résumé
Dans le domaine de l'extraction de motifs, il existe un grand nombre d'algorithmes pour résoudre une large variété de sous problèmes sensiblement identiques. Cette variété d'algorithmes freine l'adoption des techniques d'extraction de motifs pour
l'analyse de données. Dans cette thèse, nous proposons un formalisme qui permet de capturer une large gamme de problèmes d'extraction de motifs. Pour démontrer la généralité de ce formalisme, nous l'utilisons pour décrire trois problèmes d'extraction de motifs : le problème d'extraction d'itemsets fréquents fermés, le problème d'extraction de graphes relationnels fermés ou le problème d'extraction d'itemsets graduels fermés.
Ce formalisme nous permet de construire ParaMiner, un algorithme générique et parallèle pour les problèmes d'extraction de motifs. ParaMiner est capable de résoudre
tous les problèmes d'extraction de motifs qui peuvent être décrits dans notre formalisme.
Pour obtenir de bonnes performances, nous avons généralisé plusieurs optimisations proposées par la communauté dans le cadre de problèmes spécifiques d'extraction de motifs.
Nous avons également exploité la puissance de calcul disponible dans les architectures parallèles.
Nos expériences démontrent qu'en dépit de la généralité de ParaMiner, ses performances sont comparables à celles obtenues par les algorithmes les plus rapides de l'état de l'art. Ces
algorithmes bénéficient pourtant d'un avantage important, puisqu'ils incorporent de nombreuses optimisations spécifiques au sous problème d'extraction de motifs qu'ils résolvent.
Titre : Mathieu CUNCHE - Preserving Privacy with Secure Multiparty Computation
Type de séminaire : Séminaire
Intervenant : Mathieu Cunche
Date : 08/11/2011
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
In Secure Multiparty computation (SMPC) a group of
participants compute, in a secure way, a function of some inputs. By
secure we mean input confidentiality and result correctness. Focusing on
inputs confidentiality, SMPC is used in privacy preserving data
collection systems. The goal of those systems is to compute an
aggregated value of the inputs while keeping the inputs confidential.
Secure multiparty computation systems based on Shamir Secret Sharing
are used to build such privacy preserving aggregation systems. We will
present the construction of those systems, as well as the underlying
mathematical properties.
Current SMPC models consider homogeneous computing platform, i.e. all
participants are equivalents. In real case scenario, it is more likely
that the platform will be heterogeneous, and the participants will have
different failure/corruption probabilities. We show how more robust SMPC
systems can be build when this heterogeneity is taken into account.
Finally we will discuss how schemes based on the Chinese remainder
Titre : Ahmed Harbaoui - Vers une modélisation et un dimensionnement automatique des applications réparties
Type de séminaire : Soutenance de thèse
Intervenant : Ahmed Harbaoui
Date : 21/10/2011
Heure : 14:30
Information détaillée
Thèse préparée au sein de l'equipe Mescal (LIG) et MAPS/MEP/MSE (Orange Labs).
La soutenance aura lieu le Vendredi 21 octobre 2011 à 14h30, à Orange Labs [Entrée libre] 28 chemin du Vieux Chêne 38243 Meylan. (google Maps)
Évènement Confirmé : oui
Lieu : 90. Ailleurs
Résumé
Les systèmes répartis sont caractérisés par une complexité croissante aux niveaux de l'architecture, des fonctionnalités et de la charge soumise. Lorsque la charge est importante, cette complexité induit souvent à une perte de la qualité de service offerte, une saturation des ressources, voire même l'indisponibilité des services en ligne. Afin d'éviter les problèmes causés par d'importantes charges et d'assurer le niveau de la qualité de service attendue, les systèmes nécessitent une adaptation automatique, en optimisant par exemple un tier ou en renforçant sa capacité en le répliquant. Cette propriété autonome requiert une modélisation des performances de ces systèmes.
Cette thèse présente une méthodologie théorique et expérimentale d'identification automatique de modèle pour le dimensionnement des systèmes répartis. Après avoir décomposé un système sous test en un ensemble de composants boîtes noires. Notre approche permet de déterminer les limites de chaque boîte noire et de la modéliser automatiquement par un modèle de file d'attente. Le processus d'identification du modèle se base sur des tests d'injection de charge auto-régulés et des tests d'hypothèses statistiques. Ensuite, les modèles des boites noires générés sont composés pour former les réseaux de file d'attente associés à chaque configuration candidate permettant le dimensionnement du système global.
Enfin, nous avons développé un framework générique, FAMI, implémentant notre méthodologie de modélisation automatique. Ce framwork a été couplé à des outils de simulation et d'analyse de réseaux de files d'attente permettant la résolution du modèle du système global et son dimensionnement.
Titre : Vers une architecture pair-à-pair pour l'informatique dans le Nuage
Type de séminaire : Soutenance de thèse
Intervenant : Willy Malvault-Martiarena
Date : 04/10/2011
Heure : 10:00
Information détaillée
Cette soutenance aura lieu le mardi 4 Octobre 2011 à 10h00 et se déroulera dans le Grand Amphithéâtre de l'INRIA Rhône-Alpes (A103), 655 avenue de l'Europe, 38334 Saint Ismier.
Le jury sera composé des personnes suivantes :
Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA
Résumé
Avec l'émergence de l'informatique dans les nuages, une nouvelle approche consiste à externaliser des tâches de calcul, de façon à réduire les coûts d'hébergement et à augmenter la flexibilité des systèmes. L'infrastructure actuelle des services permettant cette externalisation repose sur l'utilisation de centres de traitement de données centralisés, qui sont dédiés à l'approvisionnement de ressources de calcul. Dans cette thèse, nous étudions la possibilité de fournir de tels services en utilisant une infrastructure pair-à-pair, c'est-à-dire une infrastructure totalement décentralisée pouvant être déployée sur une fédération de noeuds de calcul hétérogènes et de provenances diverses. Nous nous focalisons sur le problème de l'allocation des noeuds et présentons Salute, un service d'allocation de noeuds, qui organise les noeuds en réseaux virtuels non-structurés et repose sur des mécanismes de prédiction de disponibilité pour assurer, avec une grande probabilité, que les requêtes d'allocation sont satisfaites dans le temps, malgré le dynamisme de l'environnement hôte. Pour ce faire, le service Salute repose sur la collaboration de plusieurs protocoles pair-à-pair appartenant à la catégorie des protocoles épidémiques. Afin de valider nos propositions, nous évaluons Salute en utilisant des traces provenant d'un échantillonnage de plusieurs systèmes pair-à-pair de référence.
Mots clés : Systèmes pair à pair, large échelle, informatique dans les nuages, systèmes distribués, algorithmique distribuée, systèmes autonomes.
Titre : Simulation of large-scale neural networks on multiple GPUs
Type de séminaire : Séminaire
Intervenant : Raphael Camargo
Date : 15/09/2011
Heure : 15:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Titre : Flexible Development of Dense Linear Algebra Algorithms on Heterogeneous Parallel Architectures
Type de séminaire : Séminaire
Intervenant : George Bosilca
Date : 07/09/2011
Heure : 15:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Titre : Auto-optimisation des réseaux sans fil : une approche par la théorie des jeux
Type de séminaire : Soutenance de thèse
Présidence : Mérouane Debbah
Intervenant : Pierre Coucheney
Date : 31/08/2011
Heure : 10:00
Date de fin : 31/08/2011
Information détaillée
Cette thèse a été réalisée au sein de l'équipe MESCAL du Laboratoire d'Informatique de Grenoble.
La soutenance se tiendra le mercredi 31 août à 10 h dans l'amphithéatre de la maison Jean Kuntzmann.
Le jury sera composé de :
Évènement Confirmé : oui
Lieu : 10. Campus - Amphi MJK
Résumé
La thèse s'est déroulée dans le cadre d'un laboratoire commun entre l'INRIA et Alcatel-Lucent.
Pour faire face à l'accroissement des débits sur les réseaux sans fil, les constructeurs sont amenés à développer de nouvelles techniques d'optimisation qui s'adaptent de façon automatique à l'environnement. Dans cette thèse, nous avons proposé une approche reposant sur la théorie des jeux afin de développer des protocoles d'optimisation décentralisés.
La théorie des jeux en général, et les jeux de routage en particulier permettent de modéliser les situations d'interactions entre les utilisateurs des réseaux. Le problème d'optimisation revient alors à résoudre les deux points suivants : 1) Modifier le jeu en introduisant des prix fictifs afin d'obtenir un jeu ayant une structure particulière (jeu de potentiel, jeu avec des stratégies dominantes...). réseaux sans fil, routage, optimisation, théorie des jeux, apprentissage.
Titre : Game Theory and Networks
Type de séminaire : Séminaire
Date : 30/08/2011
Heure : 14:30
Information détaillée
Half-day seminar :
"Game Theory and Networks"
Date : Aug. 30, 2011.
Location : Grand Amphi INRIA
Program :
Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA
Résumé
-* Dense Networks : more base stations or more antennas ? (Merouane Debbah)
Wireless networks are inherently limited by their own interference. Therefore, a lot of research focuses on interference reduction techniques, such as mutiuser MIMO, interference alignment, interference coordination or multi-cell processing. Although these techniques might lead to considerable performance gains, it is unlikely that they will be able to meet the demand for wireless data traffic in the future. Therefore, a significant network densification, i.e., increasing the number of antennas per unit area, is inevitable. One way of densifying the network consists in cell-size shrinking, such as the deployment of femto or small cells, which comes at the cost of additional equipments and increased interference. Another much simpler, but also less explored, option is the use of massively more antennas at each base station (BS). In this talk, we will discuss the challenges of small cell versus massive MIMO networks.
Network densification is one prominent way for mobile operators to face the current "data tsunami". Various types of small cells are currently considered, all facing the strong requirement of a smooth integration within existing macro network in what is to be called a heterogeneous network. Such integration can only be achieved via the intensive use of self-optimization algorithms having good properties of stability, convergence, and ability to be distributed. In this talk we shall review one promising algorithm class based on the Gibbs sampler : we shall see what kind of performance can be expected but also how this can be implemented in "real-life" networks (femto, pico, macro, 3G and LTE).
Search engines play and will still play a major role in the use of networks. Sponsored search auctions is the basic tool for a return on investment in this industry, accounting for an increasing part of the business. This talk will be decomposed into several parts : after a brief description of adword auction principles, we will show that displaying only the highest bidding or highest revenue-producing advertisers in a deterministic way is not always the best strategy for the ad-word engine when some consumers perform the same request at different instant of time. Instead, some randomization among advertisers can provide higher revenues. Based on that, we design a Vickrey-Clarke-Groves auction rule for a display probability and compare it with the current generalized-second-price scheme. We will also investigate in a second part if the choice of most search engines for a revenue-based ranking and charging scheme instead of a bid-based one is necessary better in terms of revenue ; we show that, depending on the search engine's click-through-rate, revenue-based does not always outperform bid-based. Finally, in a third part, we will analyze the economic competition between search engines. We will develop a two-levels game where at the largest time scale search engines decide which allocation rule to implement, still between revenue-based and bid-based, and at the lowest time-scale advertisers decide how to split their advertising budget between the two search engines, depending on the benefits this will bring to them. We will describe the advertisers best strategies and show how to determine, depending on parameters, an equilibrium on the ranking rule strategy for search engines ; this may explain Yahoo !'s move to switch from bid-based to revenue-based ranking to follow Google strategy.
Evolutionary game dynamics model the evolution of behavior in populations of boundedly rational agents interacting repeteadly. The two most studied dynamics are the replicator dynamics and the best reply dynamics. The motivations and mathematical expressions of these dynamics are quite different. The former is the prototype of nonrational dynamics, the later of rational (though myopic) dynamics. Nevertheless, it has been noted heuristically that, in many games, the time average of the replicator dynamics behaves in the long run as the best reply dynamics. We largely explain this heuristics by showing that the time average of the replicator dynamics is a perturbed solution of the best reply dynamics.
Titre : Accurate and Fast Simulations of Large- Scale Distributed Computing Systems
Type de séminaire : Soutenance de thèse
Présidence : M. Frédéric Desprez, Directeur de Recherche, INRIA, Examinateur
Intervenant : Pedro Velho
Date : 04/07/2011
Heure : 10:30
Date de fin : 04/07/2011
Information détaillée
===================
Soutenance de thèse
===================
Titre : "Accurate and Fast Simulations of Large- Scale Distributed Computing Systems"
Autheur : Pedro Velho
Date : 04/07/2010
Horaire : 10:30
Addresse : Amphithéatre de l'INRIA Rhônes-Alpes
Jury : Mme. Isabelle Guérin Lassous Professeur, Université Lyon I, Rapporteur
M. Olivier Dalle Maître de Conférence, Université de Nice, Rapporteur
Mme. Françoise Baude Professeur, Université de Nice, Examinatrice
M. Frédéric Desprez Directeur de Recherche, INRIA, Examinateur
M. Hermes Senger Professor Adjunto, Universidade de São Carlos, Examinateur
M. Jean-François Méhaut Professeur, Université de Grenoble, Directeur de thèse
M. Arnaud Legrand Chargé de Recherche, CNRS, Co-Directeur de thèse
Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA
Résumé
De nos jours, la grande puissance de calcul et l'importante capacité de stockage fournie par les
systèmes de calcul distribué à large échelle sont exploitées par des applications dont les besoins
grandissent continuellement. Les plates-formes de ces systèmes sont composées d'un ensemble de
ressources reliées entre elles par une infrastructure de communication. Dans ce type de système,
comme dans n'importe quel environnement de calcul, il est courant que des solutions innovantes soient
étudiées. Leur adoption nécessite une phase d'expérimentation pour que l'on puisse les valider et les
comparer aux solutions existantes ou en développement.
Néanmoins, de par leur nature distribuée, l'exécution d'expériences dans ces environnements est difficile et coûteuse. Dans ces systèmes, l'ordre d'exécution dépend de l'ordre des événements, lequel peut changer d'une exécution à l'autre. L'absence de reproductibilité des expériences rend complexe la conception, le développement et la validation de nouvelles solutions. De plus, les ressources peu- vent changer d'état ou intégrer le système dynamiquement ; les architectures sont partagées et les interférences entre applications, ou même entre processus d'une même application, peuvent affecter le comportement général du système. Enfin, le temps d'exécution d'application à large échelle sur ces sys- tèmes est souvent long, ce qui empêche en général l'exploration exhaustive des valeurs des éventuels paramètres de cette application. Pour toutes ces raisons, les expérimentations dans ce domaine sont souvent basées sur la simulation. Diverses approches existent actuellement pour simuler le calcul dis- tribué à large-échelle. Parmi celles-ci, une grande partie est dédiée à des architectures particulières, comme les grappes de calcul, les grilles de calcul ou encore les plates-formes de calcul bénévole. Néan- moins, ces simulateurs adressent les mêmes problèmes : modéliser le réseau et gérer les ressources de calcul. De plus, leurs besoins sont les même quelle que soit l'architecture cible : la simulation doit être rapide et passer à l'échelle. Pour respecter ces exigences, la simulation de systèmes distribués à large échelle repose sur des techniques de modélisation pour approximer le comportement du système. Cependant, les estimations obtenues par ces modèles peuvent être fausses. Quand c'est le cas, faire confiance à des résultats obtenus par simulation peut amener à des conclusions aléatoires. En d'autres mots, il est nécessaire de connaître la précision des modèles que l'on utilise pour que les conclusions basées sur des résultats de simulation soient crédibles. Mais malgré l'importance de ce dernier point, il existe très rarement des études sur celui-ci.
Durant cette thèse, nous nous sommes intéressés à la problématique de la précision des modèles pour les architectures de calcul distribué à large-échelle. Pour atteindre cet objectif, nous avons mené une évaluation de la précision des modèles existants ainsi que des nouveaux modèles conçus pendant cette thèse. Grâce à cette évaluation, nous avons proposé des améliorations pour atténuer les erreurs dues aux modèles en utilisant SimGrid comme cas d'étude. Nous avons aussi évalué les effets des ces améliorations en terme de passage à l'échelle et de vitesse d'exécution. Une contribution majeure de nos travaux est le développement de modèles plus intuitifs et meilleurs que l'existant, que ce soit en termes de précision, vitesse ou passage à l'échelle. Enfin, nous avons mis en lumière les principaux en- jeux de la modélisation des systèmes distribuées à large-échelle en montrant que le principal problème
Titre : Contribuitions au contrôle de l'Affinité Mémoire sur Architectures Multicoeurs et Hiérarchiques
Type de séminaire : Soutenance de thèse
Intervenant : Christiane Pousa Ribeiro
Date : 29/06/2011
Heure : 14:30
Information détaillée
La soutenance de la thèse aura lieu à la fin du Workshop Laboratoire commun JLPC (INRIA UIUC NCSA),
le vendredi 29 Juin à 14h30
au World Trade Center de Grenoble (Place Robert Schuman)
Les membres du jury sont :
Bernard TOURANCHEAU, University of Lyon 1 : Rapporteur
Raymond NAMYST, Université de Bordeaux I : Rapporteur
Laxmikant KALE, University of Illinois at Urbana-Champaign : Examinateur
Dimitri KOMATITSCH, Université de Toulouse - IUF : Examinateur
Philippe NAVAUX, University Federal of Rio Grande do Sul : Examinateur
Alexandre CARISSIMI, University Federal of Rio Grande do Sul : Co-directeur de thèse
Jean- François MéHAUT, Université Joseph Fourier : Directeur de thèse
Évènement Confirmé : oui
Lieu : 90. Ailleurs
Résumé
Titre : Une approche à base de composants logiciels pour l'observation de systèmes embarqués
Type de séminaire : Soutenance de thèse
Intervenant : Carlos Hernan PRADA ROJAS
Date : 24/06/2011
Heure : 11:00
Information détaillée
Jury :
— M Michel Auguin. Professeur à l'Université de Nice, Président
— M Pierre Boulet. Professeur à l'Université Lille 1, Rapporteur
— M Christian Perez. Chercheur à l'INRIA Rhône-Alpes, Rapporteur
— M Jean-François Méhaut. Professeur à l'Université Joseph Fourier, Directeur de thèse
— Mme Vania Marangozova-Martin. Maître de conférences à l'Université Joseph Fourier, Co-Directrice de thèse
— M Miguel Santana. Directeur du centre IDTEC à STMicroelectronics, Co-Directeur de thèse
Cordialement :
Carlos Hernan Prada Rojas
Évènement Confirmé : oui
Lieu : 10. Campus - Amphi MJK
Résumé
Résumé :
À l'heure actuelle, les dispositifs embarqués regroupent une grande variété d'applications, ayant des fonctionnalités complexes et demandant une puissance de calcul de plus en plus importante. Ils évoluent actuellement de systèmes multiprocesseur sur puce vers des architectures \textitmany-core et posent de nouveaux défis au développement de logiciel embarqué. En effet, Il a classiquement été guidé par les performances et donc par les besoins spécifiques des plates-formes. Or, cette approche s'avère trop couteuse avec les nouvelles architectures matérielles et leurs évolutions rapprochées. Actuellement, il n'y a pas un consensus sur les environnements à utiliser pour programmer les nouvelles architectures embarquées.
Afin de permettre une programmation plus rapide du logiciel embarqué, la chaîne de développement a besoin d'outils pour la mise au point des applications. Cette mise au point s'appuie sur des techniques d'observation, qui consistent à recueillir des informations sur le comportement du système embarqué pendant l'exécution. Les techniques d'observation actuelles ne supportent qu'un nombre limité de processeurs et sont fortement dépendantes des caractéristiques matérielles.
Dans cette thèse, nous proposons EMBera : une approche à base de composants pour l'observation de systèmes multiprocesseurs sur puce. EMBera vise la généricité, la portabilité, l'observation d'un grand nombre d'éléments, ainsi que le contrôle de l'intrusion. La généricité est obtenue par l'encapsulation de fonctionnalités spécifiques et l'exportation d'interfaces génériques d'observation. La portabilité est possible grâce à des composants qui, d'une part, ciblent des traitements communs aux MPSoCs, et d'autre part, permettent d'être adaptés aux spécificités des plates-formes. Le passage à l'échelle est réussi en permettant une observation partielle d'un système en se concentrant uniquement sur les éléments d'intérêt : les modules applicatifs, les composants matériels ou les différents niveaux de la pile logicielle. Le contrôle de l'intrusion est facilité par la possibilité de configurer le type et le niveau de détail des mécanismes de collecte de données. L'approche est validée par le biais de différentes études de cas qui utilisent plusieurs configurations matérielles et logicielles. Nous montrons que cette approche offre une vraie valeur ajoutée dans le support du développement de logiciels embarqués.
Abstract : Embedded software development faces new challenges as embedded devices evolve from Multiprocessor Systems on Chip (MPSoC) with heterogeneous CPU towards many-core architectures. The classical approach of optimizing embedded software in a platform-specific way is no longer applicable as it is too costly. Moreover, there is no consensus on the programming environments to be used for the new and rapidly changing embedded architectures.
MPSoC software development needs debugging tools. These tools are based on observation techniques whose role is to gather information about the embedded system execution. Current techniques support only a limited number of processors and are highly dependent on hardware characteristics.
In this thesis, we propose EMBera, a component-based approach to MPSoC observation. EMBera aims at providing genericity, portability, scalability and intrusion control. Genericity is obtained by encapsulating specific embedded features and exporting generic observation interfaces. Portability is achieved through components targeting common treatments for MPSoCs but allowing specialization. Scalability is achieved by observing only the elements of interest from the system, namely application modules, hardware components or the different levels of the software stack. Intrusion control is facilitated by the possibility to configure the type and the level of detail of data collection mechanisms. The EMBera approach is validated by different case studies using different hardware and software configurations. We show that our approach provides a real added value in supporting the embedded software development.
Titre : Linear average-consensus algorithm for distributed estimation and control
Type de séminaire : Séminaire
Intervenant : Federica Garin
Date : 23/06/2011
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Titre : Gestion des quantités de ressources pour des applications multimédia distribuées dans le réseau local domestique
Type de séminaire : Séminaire
Intervenant : Maxime Louvel
Date : 09/06/2011
Heure : 15:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Dans cette présentation, je présenterai mes travaux de thèse qui attrait à la
gestion des quantités de ressources, pour garantir la qualité de service des
applications de diffusion de contenu multimédia, distribuées dans le réseau
local domestique.
Dans le contexte du réseau local domestique, on observe une forte présence des applications multimédia et ce sur un nombre toujours grandissant d'équipements. Il est primordial de pouvoir garantir que ces applications auront assez de ressources pour pouvoir s'exécuter et fournir la qualité de service attendue par l'utilisateur.
Dans le cadre de ma thèse, j'ai proposé un Framework pour permettre de démarrer une application tout en garantissant ses besoins en quantité de ressources. Ce Framework propose une approche complète, contenant l'estimation des quantités de ressources requises, des quantités de ressources disponibles ainsi que la réservation de ces quantités pour une application.
Le principal enjeu auquel répond cette thèse est l'hétérogénéité des contenus multimédia, des équipements et des liens réseau. De plus, il est nécessaire de proposer une solution étant le moins intrusive possible, pour pouvoir prendre en compte tous les équipements du réseau local domestique.
Durant cette présentation, je reviendrai sur le contexte de la thèse et ses enjeux, et sur les travaux existants. Ensuite, je décrirai le Framework proposé et son évaluation.
Titre : Application de l'automatique et de l'optimisation mathématique à la construction de systèmes informatiques autonomes
Type de séminaire : Séminaire
Intervenant : Eric Rutten, Bruno Gaujal, Sara Bouchenak, Nicolas Marchand, Jean-Marc Vincent, Bruno Dillenseger, Daniel Simon, Jean-Louis Roch, Denis Trystram, Nicolas Marchand, Corinne Touati
Date : 07/06/2011
Heure : 14:00
Date de fin : 07/06/2011
Information détaillée
Un séminaire LIG aura lieu prochainement, regroupant plusieurs orateurs et présentations sur l'application de l'automatique et de l'optimisation mathématique à la construction de systèmes informatiques autonomes.
Date et lieu :
— 7 juin 2011, 14h - 18h
— Campus de Saint Martin d'Hères - ENSIMAG - Amphitéâtre E
Programme :
— http://sardes.inrialpes.fr/ bouchena/seminars/2011-06-07-LIG/
Évènement Confirmé : oui
Lieu : 05. Campus - Amphi E, ENSIMAG
Résumé
- Eric Rutten (INRIA, LIG) :
— Synthèse de contrôleurs discrets pour l'adiministration de système autonomique
— We present examples of autonomic system administration issues that can be addressed and solved as discrete control problems. This shows evidence of the relevance of control techniques for the discrete aspects of closed-loop control of computing systems. The model-based control of adaptive and reconfigurable systems is considered via a reactive programming language, based on discrete controller synthesis (DCS) techniques. We identify control problems in autonomic systems belonging to the class of logical, discrete systems, and illustrate how to solve them using DCS.
Bruno Gaujal (INRIA, LIG) :
— Optimal control of large systems : from discrete to continuous optimization
— In this talk, we investigate the limit behavior of a controlled system made of many independent objects evolving in a common environment.
We show that when the number of objects becomes large,
the optimal cost of the system converges to the optimal cost of an ODE, called the Mean Field Approximation of the system. We further provide bounds on the speed of convergence by proving second order results that resemble
central limits theorems for the cost and the state of the Markov decision process.
This framework is applied to several problems : 1) Brokering in grid computing. Several simulations with growing numbers of processors are reported. They compare the performance of the optimal policy of the limit system used in the finite case with classical policies by measuring its asymptotic gain. 2) Stochastic stability in wireless networks under opportunistic scheduling, 3) volunteer computing systems (such as seti@home).
Several extensions are also discussed. In particular, for infinite horizon cases with discounted costs, we show that first order limits hold and that second order results also hold as long as the discount factor is small enough. As for infinite horizon cases with non-discounted costs, examples show that even the first order limits may not hold.
Sara Bouchenak, Nicolas Marchand (Grenoble Université, LIG, CNRS, GIPSA Lab) :
— Experience with ConSer : A System for Server Control with Fluid Modeling
— Ad-hoc configuration of server systems poses significant challenges to the performance, availability and economical costs of applications. In this talk, we examine the impact of server configuration on the central tradeoff between service performance and availability. First, we present a server model as a nonlinear continuous-time model using fluid approximations. Second, we develop concurrency control on server systems for an optimal configuration. Then, we present ConSer, a novel system for the control of servers. We evaluate ConSer's fluid model and control techniques on the TPC-C industry-standard benchmark. Our experiments show that the proposed techniques sucessfully guarantee performance and availability constraints.
[L. Malrait et. al. IEEE Trans. Comp. 11] [L. Malrait et. al. IEEE DSN 09]
Jean-Marc Vincent, Bruno Dillenseger (Grenoble Université, LIG, Orange Labs) :
— Model-based Performance Anticipation in Multi-tier Autonomic Systems : Methodology and Experiments
— This paper advocates for the introduction of performance
awareness in autonomic systems. Our goal is to introduce performance prediction of a possible target configuration when a self-* feature is planning a system reconfiguration. We propose a global and partially automated process based on queues and queuing networks modelling. This process includes decomposing a distributed application into black boxes, identifying the queue model for each black box and assembling these models into a queuing network according to the candidate target configuration.
Finally, performance prediction is performed either through simulation or analysis. This paper sketches the global process and focuses on the black box model identification step. This step is automated thanks to a load testing platform enhanced with a workload control loop. Model identification is based on statistical tests. The identified models are then used in performance prediction of autonomic system configurations. This paper describes the whole process through a practical experiment with a multi-tier application.
Daniel Simon (INRIA, GIPSA Lab) :
— Ordonnanceurs régulés et commandes robustes : études de cas et retours d'expérience
— En dehors de son cadre d'application traditionnel, la commande de processus physiques en temps continus, il apparait que la commande par rétroaction peut aussi s'appliquer à des objets informatiques. D'autre part, ces commandes sont naturellement robustes et peuvent subir certaines perturbations temporelles d'exécution sans dommages. L'association fructueuse de techniques d'ordonnancement et de commandes par rétroaction sont illustrées sur quelques exemples.
Jean-Louis Roch (INPG, LIG) :
— Parallélisme : lien entre adaptation et complexité algorithmique
Denis Trystram (INPG, LIG) :
— Une approche combinatoire pour la sélection d'algorithmes
Nicolas Marchand (CNRS, GIPSA Lab) :
— To Be Announced...
Corinne Touati (INRIA, LIG) :
— To Be Announced...
URL : http://sardes.inrialpes.fr/ bouchena/seminars/2011-06-07-LIG/
Titre : Cloud Computing Using Edge Resources
Type de séminaire : Séminaire
Intervenant : Jon Weissman
Date : 27/05/2011
Heure : 10:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
In this talk, we explore two opportunities for uniting the emerging
cloud computing paradigm with edge resources. In the first, we
describe how a proxy network comprised of volunteer nodes can
accelerate applications spanning one or more clouds. In the second, we
describe how several classes of cloud applications might be better
suited to an on-demand cloud comprised of distributed volunteer
resources, versus the alternative of a commercial cloud. The
talk will focus on the research challenges needed to realize these
two visions of cloud computing, and possible solutions to these
challenges, including progress we have made within our research
group.
*Bio : Jon Weissman is a leading researcher in the area of high performance distributed computing. His involvement dates back to the influential Legion project at the University of Virginia during his Ph.D. He is currently an Associate Professor of Computer Science at the University of Minnesota where he leads the Distributed Computing Systems Group. His current research interests are in cloud computing, Grid computing, distributed systems, high performance computing, resource management, reliability, and e-science applications. He works primarily at the boundary between applications and systems. He received his B.S. degree from Carnegie-Mellon University in 1984, and his M.S. and Ph.D. degrees from the University of Virginia in 1989 and 1995, respectively, all in computer science. He is a senior member of the IEEE and awardee of the
Titre : Towards MapReduce for Desktop Grid Computing
Type de séminaire : Séminaire
Intervenant : Haiwu He
Date : 28/04/2011
Heure : 15:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Titre : Etude de l'utilisation des mémoires transactionnelles pour le support de la programmation parallèle dans les multiprocesseurs intégrés
Type de séminaire : Séminaire
Intervenant : Quentin Meunier
Date : 21/04/2011
Heure : 15:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
Titre : A Scheduling Algorithm for Defeating Collusion
Type de séminaire : Séminaire
Intervenant : Louis-Claude Canon
Date : 14/04/2011
Heure : 15:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG
Résumé
By exploiting idle time on volunteer machines, desktop grids
provide a way to execute large sets of tasks with negligible maintenance
and low cost. Although desktop grids are attractive for their
scalability and low cost, relying on external resources may compromise
the correctness of application execution due to the well-known
unreliability of nodes. In this paper, we consider the most challenging
threat model : organized groups of cheaters that may collude to produce
incorrect results. By using a previously described on-line algorithm for
detecting collusion and characterizing the participant behaviors, we
propose a scheduling algorithm that tackles collusion. Using several
real-life traces, we show that our approach minimizes redundancy while
maximizing the number of correctly certified results.
Titre : Dynamic scheduling of virtual machines, scalability and fault tolerance are still the issues !
Type de séminaire : Séminaire
Intervenant : Flavien Quesnel/Adrien Lèbre
Date : 14/12/2010
Heure : 13h30
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG
Résumé
Virtualization technologies radically changed the way distributed architectures are exploited. With the contribution of virtual machines (VMs) capabilities and with the emergence of Infrastructure as a Service platforms (like Amazon EC2), more and more frameworks tend to manage VMs across distributed architectures like operating systems handle processes on a single node.
In most cases, these frameworks follow a centralized model, where roughly a master node is in charge of the scheduling of VMs. Considering the growing size of infrastructures in terms of nodes and VMs, these solutions are limited in terms of scalability and fault tolerance. More decentralized approaches have been recently introduced. However, to the best of our knowledge, they are still relying on a global view of the resources consumed by all the VMs.
After giving an overview about how virtualization technologies changed grid usage and a focus on the new concerns of dynamic scheduling of vjobs, (a vjob is a job composed of one or several VMs), we will present a new approach to perform VMs scheduling in a fully decentralized way. In our proposal, a node can get information only on its closest neighbours. The advantages are twofold. Firstly, the computation time of a new schedule is reduced, as fewer VMs and nodes are considered. Secondly, for the same reason, the reconfiguration time (i.e. the time required to migrate VMs to conform to the new schedule) is also reduced. Such a system is therefore inherently reactive.
Titre : Towards Clouds@home. Integration of Virtualization in Desktop Grids with OAR and BOINC
Type de séminaire : Séminaire
Intervenant : Thiago Presa
Date : 09/12/2010
Heure : 15:00
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG
Résumé
Titre : Correlated Resource Models of Internet End Hosts
Type de séminaire : Séminaire
Intervenant : Eric Heien
Date : 09/12/2010
Heure : 15:00
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG
Résumé
Titre : Simulation d'applications MPI dans SimGrid
Type de séminaire : Séminaire
Intervenant : Pierre-Nicolas Clauss
Date : 25/11/2010
Heure : 15:00
Résumé
La simulation est une approche classique de prédiction des performances d'une application MPI.
Le simulateur SMPI, qui fait partie de SimGrid, utilise une approche de simulation online : le code
de l'application est réellement exécuté, mais les communications sont simulées. SMPI bénéficie
des avancées de SimGrid, par exemple pour la simulation de la contention réseau, et propose un
nouvau modèle de communication orienté clusters. La simulation s'effectuant sur un seul noeud,
SMPI propose également des techniques de réduction de la consommation mémoire et de l'usage
du CPU, afin de permettre le passage à l'échelle. Enfin, les améliorations proposées dans SMPI
ont été validées expérimentalement.
Titre : Contributions à la Gestion de Ressources et de Tâches pour le Calcul de Haute Performance
Type de séminaire : Soutenance de thèse
Présidence : Daniel Hagimont
Intervenant : Yiannis Georgiou
Date : 05/11/2010
Heure : 14h00
Date de fin : 05/11/2010
MJK : 10. Campus - Amphi MJK
Résumé
Le domaine du Calcul à Haute Performance (HPC) évolue étroitement avec les dernières avancées technologiques des architectures informatiques et des besoins toujours croissants en demande de puissance de calcul.
Cette thèse s'intéresse à l'étude d'un type d'intergiciel particulier appelé gestionnaire de tâches et ressources (RJMS) qui est chargé de distribuer la puissance de calcul aux applications dans les plate-formes pour le HPC.
Le RJMS joue un rôle central du fait de sa position dans la pile logicielle. Les dernières évolutions dans les couches matérielles et dans les applications ont largement augmentés le niveau de complexité auquel doit faire face ce type d'intergiciel. Des problématiques telles que le passage à l'échelle, la prise en compte d'un taux d'activité irrégulier, la gestion des contraintes liées à la topologie du matériel, l'efficacité énergétique et la tolérance aux pannes doivent être particulièrement pris en considération, afin, entre autres, de fournir une meilleure exploitation des ressources à la fois du point de vue global du système ainsi que de celui des utilisateurs.
La première contribution de cette thèse est un état de l'art sur la gestion des tâches et des ressources ainsi qu'une analyse comparative des principaux intergiciels actuels et des différentes problématiques de recherche associées.
Une métrique important pour évaluer l'apport d'un RJMS sur une plate-forme est le niveau d'utilisation de l'ensemble du système. On constate parmi les traces d'activité de plusieurs plate-formes qu'un grand nombre d'entre elles présentent un taux d'utilisation significativement inférieure à une pleine utilisation.
Ce constat est la principale motivation des autres contributions de cette thèse qui portent sur les méthodes d'exploitations de ces périodes de sous-utilisation au profit de la gestion globale du système ou des applications en court d'exécution. Plus particulièrement cette thèse explore premièrement, les moyens d'accroître le taux de calculs utiles dans le contexte des grilles légères en présence d'une forte variabilité de la disponibilité des ressources de calcul. Deuxièmement, nous avons étudié le cas des tâches dynamiques et proposé différentes techniques s'intégrant au RJMS OAR et troisièmement nous évalués plusieurs modes d'exploitation des ressources en prenant en compte la consommation énergétique.
Finalement, les évaluations de cette thèse reposent sur une approche expérimentale pour laquelle nous avons proposés des outils et une méthodologie permettant d'améliorer significativement la maîtrise et la reproductibilité d'expériences complexes propre à ce domaine d'étude.
Titre : Modélisation et commande du trafic de villes régulière
Type de séminaire : Séminaire
Intervenant : Nadir Farhi
Heure : 15:00
Date : 23/09/2010
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG
Résumé
L'objectif de la thèse est la modélisation et la commande du trafic routier. Dans la partie modélisation on s'intéresse à la dérivation du diagramme fondamental du trafic, qui est une relation entre deux grandeurs macroscopiques : la densité et le flot moyens des véhicules. On propose un modèle du trafic 1D basé sur la commande optimale stochastique, et un modèle du trafic 2D basé sur les réseaux de Petri. Ce dernier modèle permet notamment de dériver et d'interpréter les phases du trafic 2D sur un système élémentaire de deux routes avec une intersection. Des modèles de commande du trafic à l'aide de feux de signalisation sont proposés, et l'apport de la commande sur le diagramme fondamental du trafic est montré.
Titre : Programmation des machines multicoeur hétérogènes - vers un support d'exécution unifié ?
Type de séminaire : Séminaire
Intervenant : Raymond Namyst
Heure : 10:30
Date : 24/06/2010
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG
Résumé
Titre : Génération automatique et source-à-source de code pour machines vectorielles
Type de séminaire : Séminaire
Intervenant : Serge Guelton
Heure : 10:00
Date : 18/05/2010
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG
Résumé
La loi de Moore emportera dans sa tombe les machines mono-processeurs
classiques. Les deux alternatives qui s'offrent à nous pour apaiser
la soif de puissance qui réside en tout scientifique sont la course au
multi-coeur et/ou le retour au vectoriel.
Mais qui va programmer ces nouvelles architectures ? Et que faire des millions de lignes de codes séquentiels ?
Des milliers de développeurs désespérés se tournent vers leurs compilateurs et l'implorent de faire des miracles.
L'exposé portera sur la génération automatique de code vectoriel pour des applications de traitement du signal classiques. L'accent est mis sur la ré-utilisabilité des transformations de code source-à-source afin de pouvoir facilement cibler des architectures multiples vérifiant certaines hypothèses de base. Une illustration sera faite sur l'architecture Ter@pix développée par
Titre : Calcul du débit d'applications probabilistes répliquées
Type de séminaire : Séminaire
Intervenant : Matthieu Gallet
Heure : 15:00
Date : 06/05/2010
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG
Résumé
Nous étudions le calcul du débit
d'applications probabilistes dont le graphe de dépendance est une chaîne. On
considère ainsi une application déployée sur une plate-forme complètement
hétérogène, de telle façon que si un processeur ne traite qu'un type de tâches,
une même tâche peut être traitée par plusieurs processeurs. De plus, les temps
de calcul et de communication sont modélisés par un ensemble de variables
aléatoires indépendantes et identiquement distribuées. Comment déterminer le
débit du système, c'est-à-dire le nombre d'instances traitées par unité de
temps ? Si le problème est simple quand les tâches ne sont pas répliquées, il
est beaucoup plus difficile quand elles le sont.
La première contribution est de donner une méthode générale pour le déterminer quand les variables aléatoires suivent des lois exponentielles, mais au prix d'une complexité exponentielle. Si la plate-forme permet le recouvrement des calculs par les communications et que celles-ci sont homogènes, nous donnons une méthode en temps polynomial. La seconde contribution montre que le débit du système peut-être borné facilement lorsque toutes les variables aléatoires sont IID et NBUE : il est compris entre le cas exponentiel et le cas déterministe.
Titre : Optimisation et contrôle de systèmes à grande échelle - comment combattre l'explosion combinatoire.
Type de séminaire : Soutenance de thèse
Heure : 10h30
Date : 29/09/2010
Information détaillée
La soutenance aura lieu dans le grand amphi de l'INRIA à Montbonnot.
Évènement Confirmé : oui
MJK : 50. Montbonnot-INRIA
Résumé
Dans cette thèse, nous étudions des méthodes permettant le contrôle et l'optimisation de systèmes à grande échelle à travers l'étude de modèles stochastiques. Les modèles classiques souffrent tous du même problème : le nombre d'états pour décrire le système explose lorsque la taille du système étudié grandit.
Dans une première partie, nous présentons deux méthodes différentes pour réduire la complexité du modèle en agrégeant les états des différents objets : l'introduction d'une fonction potentielle manipulée par un adversaire et les modèles champ moyen. Nous montrons comment ces méthodes peuvent être appliquées pour étudier le vol de travail.
Puis, nous nous intéressons au contrôle optimal de grands systèmes stochastiques. Nous montrerons comment étendre les résultats classiques champ moyen à des problèmes d'optimisation et de contrôle. Nous montrons que sous des hypothèses faibles, résoudre le problème d'optimisation initial est asymptotiquement équivalent à la résolution d'un problème d'optimisation déterministe. Nous discuterons aussi des implications pratiques de ces résultats en montrant comment résoudre des problèmes jusqu'ici impossibles.
Abstract : The goal of this thesis is to provide methods for the control and the optimization of large-scale systems, starting from stochastic models that approximate its behavior. However, such models suffer from the curse of dimensionality : the number of states needed to represent a system explodes when the size of the system grows.
In a first part, we present two different methods to reduce the complexity of the model by aggregating the states of the different objects. These two methods are illustrated by analyzing the performance of a distributed load balancing strategy, namely work-stealing. We first show how the use of a potential function leads to a tight analysis of the total completion time of a bag of tasks. Then we show how a mean field approximation can be used to study the steady-state of a grid scheduled by work-stealing.
Then, we focus on the optimal control of large stochastic systems. We extend classical mean field methods to study the controlled behavior of large systems. We show that under mild assumptions, solving an optimal control problem for a system with a large number of objects can be reduced to the solving of a problem for a deterministic system as the number of objects grows large. In practice, this allows one to evaluate the performance of a policy and provide a way to asymptotically solve problems that used to be intractable.
URL : http://mescal.imag.fr/membres/nicolas.gast/phd.html
Titre : Prédiction de performances d'applications de calcul haute performance sur réseau Infiniband
Type de séminaire : Thèse
Présidence : - M. Eddy CARON (Maitre de conférence, ENS de Lyon, co-rapporteur) - M. Frédéric DESPREZ (Directeur de Recherche, INRIA - Rhône-Alpes, rapporteur) - M. Jean-Francois MEHAUT (Professeur, UJF Grenoble, Directeur de thèse) - M. François SPIES (Professeur, Université de Franche-Comté, rapporteur) - M. Xavier VIGOUROUX (Manager équipe Benchmark, Bull S.A.S., examinateur) - M. Jean-Marc VINCENT (Maitre de Conférence, UJF Grenoble, co-directeur)
Intervenant : Jérome Vienne
Heure : 10:30
Date : 01/07/2010
Résumé
Afin de pouvoir répondre au mieux aux différents appels d'offres, les constructeurs de grappe
de calcul ont besoin d'outils et de méthodes permettant d'aider au mieux la prise de décisions en
terme de design architectural. Nos travaux se sont donc intéressés à l'estimation des temps de calcul
et à l'étude de la congestion sur le réseau InfiniBand. Ces deux problèmes sont souvent abordés
de manière globale. Néanmoins, une approche globale ne permet pas de comprendre les raisons
des pertes de performance liées aux choix architecturaux. Notre approche s'est donc orientée vers
une étude plus fine.
Pour évaluer les temps de calcul, la démarche proposée s'appuie sur une analyse statique ou semistatique du code source afin de le découper en blocs, avant d'effectuer un micro-benchmarking de ces blocs sur l'architecture cible. Pour l'estimation des temps de communication, un modèle de répartition de bande passante pour le réseau InfiniBand a été développé, permettant ainsi de prédire l'impact lié aux communications concurrentes. Ce modèle a ensuite été intégré dans un simulateur pour être validé sur un ensemble de graphes de communication synthétiques et sur l'application concurrentes, congestion réseau, MPI, InfiniBand, modélisation et simulation.
Type de séminaire : Séminaire
Titre : Bioinformatic problems in protein analysis.
Intervenant : Piotr Lukasiak
Heure : 15:00
Date : 12/11/2009
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG
Type de séminaire : Séminaire
Titre : Markovian Arrival Processes for Modeling of Temporal Dependent Time Series
Intervenant : Dr. Giuliano Casale, SAP researcher, UK
Heure : 14:30
Date : 12/10/2009
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG
Résumé
In this talk, I will present the KPC-Toolbox, a MATLAB tool for
fitting workload traces into Markovian Arrival Processes (MAPs). MAPs
are a general class of Markov-modulated processes used for fitting
real workload traces with time-varying characteristics, e.g., for
approximating workloads with short-range or long-range dependent
behavior. After introducing the main chacteristics of MAPs, I will
build intuition on which trace descriptors are most important to be
fitted in MAPs for queueing model parameterization. Given that the MAP
state space can be large, KPC-Toolbox focuses on first determining the
order of the smallest space that can fit the trace well and then it
derives the MAP that captures accurately the most essential features
of the trace. Experimentation on temporal dependent traces illustrates
the effectiveness of the KPC-Toolbox in fitting traces that are
well-documented in the literature as very challenging to fit.
Giuliano Casale received the MEE and PhD degrees in computer engineering from the Politecnico di Milano, Milan, Italy, in 2002 and 2006, respectively. He is currently a researcher at SAP Research, CEC Belfast. From January 2007 he was postdoctoral research associate at the College of William and Mary, Williamsburg, Virginia, where he studied the performance impact of burstiness in systems. In Fall 2004 he was a visiting scholar at UCLA studying bounds for queueing networks. His research interests include performance evaluation, modeling, capacity planning, and simulation. He is a member of the
Type de séminaire : Séminaire
Titre : Mean field models of interacting objects : fluid equations, independence assumptions and pitfalls
Intervenant : Jean-Yves Le Boudec
Heure : 15:00
Date : 01/10/2009
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG
Résumé
We consider a generic model of N interacting objects, where
each object has a state and interaction between objects is
Markovian, i.e. the evolution of the system depends only on the
collection of states at any point in time. This is quite a
general modeling framework, which was successfully applied to
many forms of communication protocols. When the number of
objects N is large, one often uses simplifying assumptions
called "mean field approximation", "fluid approximation",
"fixed point method" or "decoupling assumption". In this
tutorial we explain the meaning of these four concepts and show
that the first two, namely mean field approximation and fluid
approximation, are generally valid. However, we also show that
the last two, namely fixed point method and decoupling
assumption, require more care, as they may not be valid even in
simple cases. We give sufficient conditions under which they
Type de séminaire : Séminaire
Titre : An Overview of IME-USP Database Research Group
Intervenant : João Eduardo Ferreira
Heure : 15:00
Date : 17/09/2009
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG
Résumé
Type de séminaire : Thèse
Titre : Réseaux d'Automates Stochastiques : Analyse transitoire en temps continu et Algèbre tensorielle pour une sémantique en temps discret
Heure : 14:00
Date : 16/09/2009
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG
Résumé
Type de séminaire : Séminaire
Titre : Mining for Availability Models in Large-Scale Distributed Systems : A Case Study of SETI@home
Intervenant : Bahman Javadi-Jahantigh
Heure : 14:00
Date : 17/06/2009
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG
Résumé
Type de séminaire : Thèse
Titre : Exploration probabiliste de larges espaces d'états pour la vérification
Présidence : Jean-Claud Fernandez
Intervenant : ABED Nazha
Heure : 15H00
Date de fin : 16/06/2009
Date : 16/06/2009
Évènement Confirmé : oui
MJK : 50. Montbonnot-INRIA
Résumé
Type de séminaire : Séminaire
Titre : Typologie des "temps" de compilation
Intervenant : Henri-Pierre Charles
Heure : 15:00
Date : 07/05/2009
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG
Résumé
La génération de code binaire à partir d'un programme suit à la fois
la croissance de la complexité des applications et des architectures
matérielles. Il existe un grand nombre de solutions pour génerer un
code exécutable plus ou moins tardivement dans la chaîne de
compilation.
Dans ce séminaire je ferai une présentation des solutions existantes, de la compilation statique classique en passant par les jit, les GPU, les interpréteurs, etc.
Je tenterai de montrer à quel moment les optimisations classiques s'appliquent le mieux et je terminerai par la présentation d'un outil de génération dynamique de code : HPBCG et les expérimentations de transformations de la chaine de compilation menées avec cet outil.
Type de séminaire : Séminaire
Titre : Un réseau d'overlay structuré en arbre de préfixes pour la découverte de services à large échelle.
Intervenant : Cédric Tedeschi
Date : 12/03/2009
Heure : 14:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Type de séminaire : Séminaire
Titre : Energy-aware scheduling of flow applications on master-worker platforms
Intervenant : Jean-François Pineau
Date : 26/02/2009
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Résumé
In this work, we consider the problem of scheduling an application
composed of independent tasks on a fully heterogeneous master-worker
platform with communication costs. We introduce a bi-criteria
approach aiming at maximizing the throughput of the application
while minimizing the energy consumed by participating resources.
Assuming arbitrary super-linear power consumption laws, we
investigate different models for energy consumption, with and
without start-up overheads. Building upon closed-form expressions
for the uniprocessor case, we are able to derive optimal or
asymptotically optimal solutions for both models.
Type de séminaire : Séminaire
Titre : Low Latency Technology for Interactive Virtual Environments
Intervenant : Ingo Assenmacher
Date : 12/02/2009
Heure : 14:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Virtual Reality (VR) environments define computer simulated
worlds. The users' interaction with these worlds should be as
intuitive as possible, using the visual, aural and haptic senses and
natural body movements. In order to reach this goal, VR software
systems have to process inherently parallel heterogeneous tasks under
real-time conditions. Here, the maximum time for signal processing and
reproduction is constrained by human perception thresholds. The
reproduction systems often suffer from unavoidable latency, which
leads to a violation of the real-time constraint and thus to
perception perturbations. If the reproduction system that is used
suffers from unavoidable latency, compensation algorithms have to be
used. In order to be effective, the compensation must be combined with
efforts to minimize system overhead. This talk presents a
comprehensive approach to lower VR system latency by a concurrent
device and data processing architecture and its embedding in a
generalized interaction concept. Low latency history recording and
data exchange for multi-modal data types are among the key concepts of
the approach. The architecture is presented in the context of the
“Virtueller Kopfhörer” system, which is a representative of a
demanding multi-modal environment that was developed as a joint
research project between the Institute of Technical Acoustics and the
VR Group at RWTH Aachen University. This system features binaural
reproduction using few loudspeakers and real-time room acoustics. The
reproduction environment is discussed with respect to its interface
and latency as a distributed architecture. An adaptive tracking
approach is presented for latency compensation, as the signal path
from the loudspeakers to the ears introduce a latency of several
milliseconds that can not be eliminated by faster hard- or software.
Type de séminaire : Séminaire
Titre : A New Framework Supporting the Bottleneck Analysis of Multiclass Queueing Networks
Intervenant : Jonatha Anselmi
Date : 05/02/2009
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
The most critical resources affecting the performance of IT systems are the congestion points, commonly known as bottlenecks. Such congestion points limit the overall network performance and represent the resources a designer must invest to obtain significant improvements. In the literature, closed queueing network models have been widely used to perform bottleneck analyses.
Type de séminaire : Séminaire
Titre : Deux années de SAN dans MESCAL
Intervenant : Jean-Michel Fourneau
Date : 29/01/2009
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Le formalisme des SAN developpe par B Plateau en 88 permet de
representer un systeme de facon modulaire par des composants (les automates) interagissant par des transitions synchronisees et des taux de transition fonctionnels. L'analyse de la chaine de Markov associee est effectuee numeriquement. Depuis quelques annees et avec des collegues de Mescal, nous avons trouve des solutions analytiques de type forme produit pour des
SAN en temps continu et en temps discret et ceci en employant uniquement
les proprietes de l'algebre tensorielle ou celles de sa generalisation fonctionnelle. On generalise ainsi de nombreux resultats sur
les reseaux de file d'attente en temps continu ou discret, les reseaux
de Petri, les chaines de Markov en isolation, etc.
URL : http://mescal.imag.fr/seminars/2009/2009_01_29_Fourneau.pdf
Type de séminaire : Séminaire
Titre : AUTRANS 2009 : Réseaux sociaux et savoirs collectifs
Date : 07/01/2009
Date de fin : 9/01/2009
Lieu : 90. Ailleurs
Information détaillée
Voir le document joint.
Évènement Confirmé : oui
Résumé
13 ème édition des rencontres Internet d'Autrans :
Réseaux sociaux et savoirs collectifs...
Comment co-produire et organiser les connaissances ?
URL : www.autrans.net
Type de séminaire : Thèse
Titre : Réseaux d'Automates Stochastiques : Génération de l'espace d'états atteignables et Multiplication vecteur-descripteur pour une sémantique en temps discret
Présidence : Grenoble INP
Intervenant : Afonso Corrêa de Sales
Heure : 14:00
Date : 10/09/2009
Information détaillée
Membres du jury :
Rapporteurs : M. Jean-Michel Fourneau, Professeur à l'Université de Versailles Saint Quentin M. William J. Stewart, Professeur à North Caroline State University
Examinateurs : M. Roland Groz, Professeur à Grenoble INP M. Bruno Gaujal, Directeur de Recherche à l'INRIA Grenoble - Rhône-Alpes Mme Brigitte Plateau, Professeur à Grenoble INP
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG
Résumé
Type de séminaire : Thèse
Titre : Segmentation des tissus et structures sur les IRM cérébrales : agents markoviens locaux coopératifs et formulation bayésienne.
Intervenant : Benoit Scherrer
Présidence : Christian Jutten
Date : 12/12/2008
Heure : 14H00
Lieu : 90. Ailleurs
Information détaillée
Amphithéâtre du Grenoble Institut des Neurosciences rue Fortuné Ferrini,
La Tronche (proche de l'hopital)
Évènement Confirmé : oui
Résumé
La segmentation des IRM cérébrales est une étape cruciale pour de nombreuses applications, tant
dans le domaine clinique que pour les neurosciences. Elle est rendu difficile par les artéfacts
inhérents à ce type d'image, leur faible contraste et les importantes variations individuelles
qui limitent l'introduction de connaissances a priori. Dans cette thèse nous proposons une nouvelle
approche de segmentation des IRM cérébrales dont l'originalité réside (1) dans le couplage de la
segmentation des tissus, de la segmentation des structures et de l'intégration de connaissances
anatomiques et (2) la volonté de prendre en compte la localité de l'information.
La localité est modélisée via un cadre multi-agents : des agents sont distribués dans le volume et réalisent une segmentation markovienne locale. Dans une première approche (LOCUS, Local Cooperative Unified Segmentation) nous proposons des mécanismes intuitifs de coopération et de couplage pour assurer la cohérence des modèles locaux. Les structures sont segmentées via l'intégration de contraintes de localisation floue décrites par des relations spatiales entre structures. Dans une seconde approche (LOCUSB, LOCUS in a Bayesian framework) nous considérons l'introduction d'un atlas statistique des structures. Nous reformulons le problème dans un cadre bayésien nous permettant une formalisation statistique du couplage et de la coopération. Segmentation des tissus, régularisation des modèles locaux, segmentation des structures et recalage local affine de l'atlas sont alors réalisés de manière couplée dans un cadre EM, chacune des étapes s'améliorant mutuellement.
L'évaluation sur des images simulées et réelles montrent les performances de l'approche et en
particulier sa robustesse aux artéfacts pour de faibles temps de calculs. Les modèles markoviens
locaux distribués et coopératifs apparaissent alors comme une approche prometteuse pour la segmentation
d'images médicales.
URL : http://www-timc.imag.fr/Benoit.Scherrer/index.html
Type de séminaire : Séminaire
Titre : La compression avec accès aléatoire pour le traitement de masses de données
Intervenant : Clément Courbet
Date : 11/12/2008
Heure : 15:00
Évènement Confirmé : oui
Résumé
L'accroissement des masses de données en provenance de simulations
numériques sans cesse plus précises posent de nombreux problèmes en
visualisation. Les algorithmes classiques requièrent que les données
soient chargées en mémoire centrale pour un accès rapide aux données.
L'augmentation de la taille des données se heurte vite à la quantité
limitée de mémoire disponible. Il est alors naturel de vouloir utiliser
des méthodes de compression afin de permettre le chargement des données
en mémoire.
Nous présenterons le modèle de compression avec accès aléatoire qui
permet un accès transparent aux données tout en permettant de réduire
leur taille. Nous appliquerons ces principes à la visualisation de
Type de séminaire : Thèse
Titre : Contributions à l'expérimentation sur les systèmes distribués de grande taille
Date : 04/12/2008
Heure : 14h30
Lieu : 90. Ailleurs
Information détaillée
Campus - salle D207, ENSIMAG
Évènement Confirmé : oui
Résumé
Cette thèse s'inscrit dans le domaine de l'expérimentation sur les systèmes
distribués, et en particulier de leur test ou de leur validation. À côté des
méthodes d'expérimentation classiques (modélisation, simulation, plates-formes
d'expérimentation comme PlanetLab ou Grid'5000) les méthodes basées sur
l'émulation et la virtualisation proposent une alternative prometteuse. Elles
permettent d'exécuter l'application réelle à étudier, en lui présentant un
environnement synthétique, correspondant aux conditions d'expérience
souhaitées. Mais l'utilisation de tels outils ne peut se faire sans répondre à
des questions sur leur réalisme et leur passage à l'échelle.
Dans ce travail, nous utilisons une démarche incrémentale pour construire une
plate-forme d'émulation. Nous commençons par comparer les différentes solutions
d'émulation logicielle de liens réseaux, puis illustrons leur utilisation,
notamment en étudiant une application réseau complexe : TUNS, un tunnel IP sur
DNS. Nous nous intéressons ensuite à la conception d'une plate-forme pour
l'étude des systèmes pair-à-pair, P2PLab. Nous y utilisons l'un des émulateurs
réseaux précédemment étudiés, ainsi qu'une solution légère de virtualisation,
pour fournir de bonnes caractéristiques de passage à l'échelle. Après avoir
validé cette plate-forme, nous l'utilisons pour étudier le protocole de
diffusion de fichiers pair-à-pair BitTorrent à l'aide d'expériences mettant en
jeu près de 15000 noeuds participants.
URL : http://perso.ens-lyon.fr/lucas.nussbaum/
Type de séminaire : Séminaire
Titre : Prédiction de performances dans les systèmes distribués
Intervenant : Julien Bourgeois
Date : 27/11/2008
Heure : 14:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Type de séminaire : Thèse
Titre : Amélioration des performances MAC dans les réseaux sans-fils
Intervenant : Mohammad Nassiri
Date : 24/11/2008
Heure : 14:00
Lieu : 05. Campus - Amphi E, ENSIMAG
Information détaillée
Jury : M Guy Mazaré (Président), M David Simplot-Ryl (Rapporteur), M André-Luc Beylot (Rapporteur), M Fabrice Valois (Examinateur), M Andrzej Duda (Directeur de thèse), M Martin Heusse (Codirecteur de thèse)
Évènement Confirmé : oui
Résumé
Dans cette thèse, nous étudions les principaux problèmes de performance qui surviennent au niveau MAC dans les réseaux sans-fil 802.11 lorsqu'ils sont utilisés dans un contexte ad-hoc ou multi-sauts. Nous proposons plusieurs mécanismes afin de résoudre ces problèmes de performance. Dans la première partie, nous améliorons la performance d'un réseau sans-fil en fournissant plusieurs classes de services. Notre mécanisme est une méthode d'accès qui permet d'allouer le débit de manière proportionnelle entre les différentes classes et qui fournit un mécanisme de priorité absolue. Par la suite, nous proposons une approche efficace et localisée pour résoudre le problème des terminaux bloqués dans les réseaux sans-fil à grandes échelles. Finalement, nous proposons un mécanisme plus global qui combine les contraintes de topologie et le mécanisme MAC afin d'améliorer les performances des réseaux ad-hoc ou maillé du point de vue du débit et de l'équité. Nous évaluons nos stratégies et les comparons aux solutions existantes au moyen de simulation.
URL : http://drakkar.imag.fr/users/Mohammad.Nassiri/
Type de séminaire : Thèse
Titre : Algorithmes d'approximation pour l'ordonnancement multi-objectif. Application aux systèmes parallèles et embarqués
Intervenant : Erik Saule
Date : 20/11/2008
Heure : 11:10
Date de fin : 20/11/2008
Lieu : 10. Campus - Amphi MJK
Information détaillée
La soutenance aura lieu le jeudi 20 novembre à 11h10 dans l'amphithéatre de la MJK à Saint Martin d'Heres (campus de Grenoble). Un draft du manuscrit est diponible en ligne ( http://www-id.imag.fr/  ;sau... ).
Vous êtes naturellement également conviés au pot qui suivra. Pour avoir une estimation du nombre de personnes présentes, pouvez vous renseigner le sondage doodle suivant si vous comptez venir ? http://doodle.com/e55wkups5hh6pwku
Évènement Confirmé : oui
Résumé
L'informatique moderne n'est plus uniquement composée de machines
personnelles et de super calculateurs. De nombreux supports de calcul
sont maintenant disponibles et chacun pose des contraintes
particulières amenant à de nombreux objectifs. Ainsi, la notion de
performance d'une application est devenue multi-dimensionnelle. Par
exemple, ordonnancer optimalement (en temps) une application sur une
grille de calcul est inutile si elle ne fournit pas de résultat parce
qu'une machine tombe en panne. Fournir une solution à ces problèmes
est un défi algorithmique actuel.
Dans ce manuscrit, nous étudions l'ordonnancement multi-objectif à l'aide des outils de la théorie de l'approximation. Nous traitons ainsi quatre problèmes. Les deux premiers sont inspirés des systèmes embarqués, tandis que les deux derniers sont inspirés des problématiques que l'on retrouve sur les grilles et les clusters.
Le premier problème étudié est l'optimisation des performances d'une application sur une machine disposant de peu de mémoire de stockage. Nous montrons que l'utilisation de l'optimisation multi-objectif permet de fournir une solution et des informations sur le problème que la théorie mono-objectif de l'approximation ne pouvait pas obtenir.
Les deux problèmes suivants concernent l'optimisation des performances d'une application lorsque les machines ne sont pas entièrement fiables. Les différents modèles de défaillances amènent à des problèmes d'optimisation radicalement différents. C'est pourquoi le deuxième problème traite de la sûreté de fonctionnement des systèmes embarqués alors que le troisième considère la fiabilité des grilles et clusters.
Le dernier problème concerne l'utilisation simultanée d'une plate-forme de calcul parallèle par de nombreux utilisateurs. Nous montrons comment l'utilisation de l'optimisation multi-objectif peut permettre de prendre en compte les besoins utilisateurs au sein du processus
Type de séminaire : Séminaire
Titre : Optimal task graph scheduling
Intervenant : Oliver Sinnen
Date : 23/10/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Scheduling a task graph (a DAG with computation and communication costs) onto the processors of a parallel system is an NP-hard problem. As a consequence, scheduling algorithms are based on heuristics that try to produce good rather than optimal schedules. Nevertheless, in certain situations it is desirable to have optimal schedules, for example for time critical systems, for loop kernels or to evaluate scheduling heuristics. In this talk I will present scheduling algorithm based on A* that can produce optimal schedules in reasonable time for small task graphs. A* is a best-first state space search algorithm used in the area of artificial intelligence. In comparison to a previous approach, the presented scheduling algorithm has a significantly reduced search space due to a much improved cost function f (s) and additional pruning techniques. Experimental results will be presented that show the significantly improved performance. The experiments also reveal the sometimes surprising relation between the runtime of the algorithm and the structure of the task graphs.
Dr Oliver Sinnen is senior lecturer in the Department of Electrical and Computer Engineering, University of Auckland, New Zealand. He has gained his Dipl.-Ing. degree ( Master) from the RWTH-Aachen University, Germany, and another Master and PhD degree from the Instituto Superior Técnico, Technical University of Lisbon, Portugal. Recently, he published a book on "Task Scheduling for Parallel Systems" with John Wiley, USA. His research interest lies in parallel computing, namely on fundamental problems like scheduling and on new forms of parallelism. Currently, he is Professeur invité at ENS-Lyon.
Type de séminaire : Séminaire
Titre : Parallel Solutions for Hierarchical Radiosity
Intervenant : Emilio J. Padrón
Date : 16/10/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Type de séminaire : Séminaire
Titre : Réunion de rentrée MESCAL et MOAIS
Date : 09/10/2008
Heure : 14:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
_ 14h Votre labo, le LIG : Brigitte Plateau
14h15 présentation de Mescal : Bruno Gaujal
14h30 présentation de Moais : Jean-Louis Roch
14h45 présentation de Grimage : Bruno Raffin
15h présentation de Grid 5000 : Pierre Neyron
15h15 les doctorants : point du vue du permanent : Vania Marangozova
15h30 le point de vue du thésard : Xavier Besseron Xavier fera une liste des nouveaux, qui un à un se léveront, feront un beau sourire (obligé...) et diront avec qui ils travaillent et sur quel sujet
Type de séminaire : Séminaire
Titre : PaSTeL. une implantation parallèle de la STL pour les architectures multi-coeurs : une analyse des performances
Intervenant : Brice Videau
Date : 09/10/2008
Heure : 14:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Dans cet article, nous proposons la bibliothèque PaSTeL, implémentation parallèle d'une
partie de la STL, bibliothèque standard du langage C++. PaSTeL propose à la fois un
modèle de programmation pour la construction d'algorithmes parallèles, mais également un
modèle d'exécution basé sur du vol de travail. Une attention toute particulière a été portée
sur l'utilisation de mécanismes optimisés de synchronisation et d'activation des threads. Les
performances de PaSTeL sont évaluées sur une machine de bureau avec un processeur à
deux c÷urs, mais également avec une machine disposant de 16 c÷urs. On notera que les
performances de PaSTeL sont supérieures à celles d'autres implémentations de la STL même
pour des petites exécutions sur des petits jeux de données.
Type de séminaire : Séminaire
Titre : Toward a Fully Decentralized Algorithm for Multiple Bag-of-tasks Application Scheduling on Grids
Intervenant : Rémi Bertin
Date : 25/09/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Type de séminaire : Séminaire
Titre : B-OAR : Extending the scope of Resource Management through Volunteer Computing
Intervenant : Nagarjun Kota
Date : 17/07/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
In the current scenario, we can observe two distinct class of resources that are used for grid computing. Each of these classes has its own advantages and
disadvantages. On one hand, there are high-end, clusters or microprocessors which provide rich-feature sets dedicated to computation of user submitted jobs, whereas on the other hand, we have Desktop grids that combine the power of thousands of light-weight systems (desktops) and utilize their idle times in order to perform the same kind of jobs. However, in order to fully harness the potential of grid computing, it is necessary to develop an interface that can communicate with both these classes with equal ease, in order to use the best features offered by each of these clusters. Hence, in this project, we try to integrate two different resource management systems, which are being quite successfully used in their own domains. These are namely the Berkeley Open Infrastructure for Network Computing (BOINC), which is a resource management middleware for volunteer computing and desktop grid computing, and OAR, which a resource manager (batch scheduler) for large clusters. We try to implement a "B-OAR" interface that understands the underlying architectures of both these systems and translates the data storage and interpretation formats, in order to make the two systems communicate. A demo showing jobs submitted to OAR and successfully completed through BOINC will be presented. Finally, the various issues related to the construction of the B-OAR interface would be discussed.
Type de séminaire : Thèse
Titre : Architecture logicielle et outils pour systemes d'exploitation reconfigurables
Intervenant : Juraj Polakovic
Présidence : M. Gilles Muller
Date : 25/06/2008
Heure : 14:00
Date de fin : 25/06/2008
Lieu : 50. Montbonnot-INRIA
Évènement Confirmé : oui
Résumé
Cette these, intitulee
"Architecture logicielle et outils pour systemes d'exploitation
reconfigurables" a ete realisee au sein du laboratoire MAPS/AMS de
FranceTelecom R&D a Meylan. Sur le plan academmique cette these a ete
encadree par Jean-Bernard Stefani a l'INIRIA Rhone-Alpes (projet
SARDES) et sur le plan technique par Jacques Pulou a FranceTelecom
R&D.
La composition du jury est la suivante :
M. Gilles Muller (President) - Professeur a l'Ecole des Mines de Nantes
Mme Valerie Issarny (Rapporteur) - Directeur de recherche, INRIA Rocquencourt
M. Gilles Grimaud (Rapporteur) - Maitre de Conference en informatique, LIFL
M. Jacques Mossiere (Examinateur) - Professeur a l'INP Grenoble
M. Jean-Philippe Fassino (Examinateur) - Ingenieur de recherche, STMicroelectronics
M. Jacques Pulou (Examinateur) - Ingenieur de recherche, FranceTelecom R&D
M. Jean-Bernard Stefani (Directeur de these) - Directeur de
recherche, INRIA Rhone-Alpes
Voici un court resume :
Dynamic reconfiguration allows modifying a system during its execution, and can be used to apply patches and updates, to implement adaptive systems, dynamic instrumentation, or to support third-party modules. Dynamic reconfiguration is important in embedded systems, where one does not necessarily have the luxury to stop a running system.
While some operating systems do offer mechanisms for dynamic reconfiguration, the proposed mechanisms are essentially hardwired in the system. This results in a fixed trade-off between flexibility of reconfigurations and the system's efficiency which may be far from optimal in certain operational contexts, thus limiting the system reuse.
We present an architecture-based programming model allowing both construction of customized reconfigurable system kernels and programming of their reconfigurations. This model is based on the FRACTAL component model and its C implementation for constructing component-based operating systems, called THINK. The framework supporting our approach encompasses an architecture compiler for building customized system kernels and a reconfiguration compiler. We developed several prototypes of reconfigurable systems that show the flexibility of our approach and the impact of different implementations of reconfiguration mechanisms on the system's performance.
La reconfiguration dynamique est la capacité d'un système logiciel à permettre sa modification pendant son exécution et peut être utilisée pour mettre-à-jour une partie fautive du système, introduire des algorithmes spécialisés, autoriser des extensions faites par des tiers, adapter le système à un nouvel environment et ajouter des sondes de monitoring ou debugging, etc.
Les systèmes d'exploitation existants offrent des mécanismes de reconfiguration dynamique, néanmoins ceux-ci sont figés par l'implémentation du système. Par conséquent le compromis entre la flexibilité et l'efficacité du système reconfigurable est fixe et il n'est pas possible de réutiliser le système dans d'autres contextes opérationnels (avec des mécanismes de reconfiguration différents).
Nous présentons une approche architecturale pour la construction de systèmes reconfigurables à la carte et la programmation de leurs reconfigurations. Notre modèle de programmation est basé sur le modèle à composants Fractal et son implémentation en C, appelée Think. Le canevas associé au modèle comprend un compilateur d'architecture qui permet de construire des systèmes reconfigurables et un compilateur de reconfigurations. Pour illustrer notre approche, nous avons réalisé plusieurs prototypes de systèmes reconfigurables qui ont permis de montrer la flexibilité de notre approche ainsi qu'une évaluation quantitative et l'impact des différentes implémentations de reconfiguration dynamique sur l'efficacité d'un
Type de séminaire : Séminaire
Titre : M2R Informatique : soutenances de projets
Date : 23/06/2008
Date de fin : 25/06/2008
Lieu : 90. Ailleurs
Information détaillée
Les soutenances ont lieu dans les locaux de l'UFR IMAG
Évènement Confirmé : oui
URL : http://ufrima.imag.fr/spip.php?article472
Type de séminaire : Séminaire
Titre : Scheduling and Mobility in Wireless Networks
Intervenant : Nidhi Hegde
Date : 19/06/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Type de séminaire : Séminaire
Titre : LibMutiscale un environnement parallèle pour les méthodes de couplage multi échelles en physique des matériaux
Intervenant : Olivier Coulaud
Date : 05/06/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Type de séminaire : Séminaire
Titre : On Correlated Availability in Internet-Distributed Systems
Intervenant : Derrick Kondo
Date : 27/05/2008
Heure : 10:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
As computer networks rapidly increase in size and speed, Internet-distributed systems such as P2P, volunteer computing, and Grid systems are increasingly common. A precise and accurate characterization of Internet resources is important for the design and evaluation of such Internet-distributed systems, yet our picture of the Internet landscape is not perfectly clear. To improve this picture, we measure and characterize the time dynamics of availability in a large-scale Internet-distributed system with over 110,000 hosts. Our characterization focuses on identifying patterns of correlated availability. We determine scalable and accurate clustering techniques and distance metrics for automatically detecting significant availability patterns. By means of clustering, we identify groups of resources with correlated availability that exhibit similar time effects. Then we show how these correlated clusters of resources can be used to improve resource management for parallel applications in the context of volunteer computing.
This is joint work with Artur Andrzejak at the Zuse Institute of Berlin
Type de séminaire : Séminaire
Titre : Optimisation de critères et évaluation de performances dans les systèmes embarqués
Intervenant : Frederic Ridouard (ENSEEIHT)
Date : 13/05/2008
Heure : 11:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Un système embarqué peut se définir comme un équipement souvent autonome qui est en interaction directe avec l'environnement dans lequel il est placé. Les systèmes embarqués sont présents dans des applications de plus en plus nombreuses et variées : les cartes à puce, téléphonie mobile, l'automobile, l'avionique, la santé ou l'électronique grand public… Dans les systèmes critiques (automobile, avionique…), le comportement de l'application doit être garanti ou du moins, il doit être tolèrent à l'apparition de fautes. Dans les systèmes embarqués, l'objectif est aussi d'optimiser des critères de performance : qualité de service, coût, consommation d'énergie...
J'aborde deux aspects des systèmes embarqués. Les calculateurs embarqués et plus précisément, sur l'étude de problème d'ordonnancement des tâches présentes dans les calculateurs. Cette analyse comprend les difficultés à résoudre le problème, l'évaluation d'algorithmes et l'optimisation de critères de performances.
Type de séminaire : Séminaire
Titre : Les codes de simulation parallèles au CEA/CESTA
Intervenant : David Goudin
Date : 24/04/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Depuis de nombreuses années, et pour des besoins en simulation de plus en plus croissants, le CEA/CESTA a développé ses propres codes parallèles, dans des domaines
comme l'électromagnétisme, l'aérodynamique, etc.... Ces codes sont en production et tournent quotidiennement sur la machine TERA du CEA/DAM. Néammoins afin de
s'adapter à des architectures matérielles en pleine évolution et des tailles de problèmes à résoudre dépassant largement la dizaine de millions d'inconnues en 3D, des
Type de séminaire : Séminaire
Titre : ALaNOTr II & Séminaire LIG - Ingénierie des Modèles : nouvelles solutions et nouveaux problèmes
Intervenant : Jean Bézivin & Doctorants des Laboratoires Grenoblois
Date : 23/04/2008
Date de fin : 23/04/2008
Lieu : 10. Campus - Amphi MJK
Information détaillée
Suite au vif succès rencontré lors de la première journée ALaNOTr (Ateliers Langages Notations Ontologies Transformations) et aux très nombreux échanges générés lors de cet événement, la deuxième journée aura lieu le mercredi 23 mars de 9h à 18h.
Nous aurons le plaisir d'ouvrir ALaNOTr II avec une intervention de Jean Bézivin, l'un des acteurs principal de l'Ingénierie Dirigée par les Modèles.
Cette intervention, organisée dans le cadre des Séminaires LIG, est évidemment ouverte à tous les chercheurs de la région grenobloise et plus généralement à toute personne intéressée par l'Ingénierie des Modèles et l'Ingénierie des Langages Informatiques.
Évènement Confirmé : oui
Résumé
Le résumé est disponible et plus d'informations sont disponibles sur le site alanotr.planet-mde.org. Le programme détaillé des journées sera publié sur ce site.
Pour des raisons logistiques merci de vous inscrire si vous compter venir.
URL : http://alanotr.planet-babel.org/index.php?option=com_content&task=blogcategory&id=67&Itemid=57
Type de séminaire : Séminaire
Titre : Topologie de l'Internet, des routeurs aux réseaux recouvrants
Intervenant : Damien Magoni
Date : 11/04/2008
Heure : 10:30
Lieu : 30. Campus - D102
Évènement Confirmé : oui
Résumé
L'Internet est devenu sans conteste en trois décades le support matériel majeur de l'ère de l'information. Durant cette courte période, il a subi deux mutations importantes. Tout d'abord, il a subi une mutation de taille : de quelques dizaines de systèmes interconnectés suivant une topologie fixée et bien connue, l'Internet est passé à une taille phénoménale de quelques 300 millions d'hôtes suivant une topologie libre dûe au fait que son développement n'est plus centralisé. De plus, il a subi une mutation de forme : nous sommes passés des gros systèmes interconnectés par de simples lignes téléphoniques à des ordinateurs personnels mobiles interconnectés par des technologies radio en bordure de réseau et par des routeurs gigabits reliés par fibre optique en coeur de réseau. Ces deux mutations entraînent deux défis importants pour les chercheurs qui oeuvrent à l'amélioration de l'Internet. Premièrement, il est nécessaire de connaître avec le plus de précision possible, la topologie de l'Internet. Seules des méthodes macroscopiques et statistiques permettent désormais de connaître cette topologie car plus personne n'a autorité sur l'organisation et l'expansion du réseau Internet. De plus, étant donné sa dynamicité, il est aussi souhaitable que cette topologie soit mise à jour fréquemment. Deuxièmement, l'évolution rapide des technologies a fait que les paradigmes qui sous-tendaient à la création des protocoles initiaux de l'Internet ne sont plus valables à l'heure actuelle. Les notions de mobilité, de sécurité et de diffusion quasi-inexistantes à l'origine sont désormais ardemment souhaitées par les utilisateurs mais difficiles à mettre en oeuvre dans les protocoles actuels. Il faut donc trouver les moyens d'offrir ces nouvelles fonctionnalités en conservant les propriétés initiales des protocoles qui ont fait le succès d'Internet. Dans cette présentation, nous présentons des contributions qui tentent de répondre à certains aspects de ces deux défis majeurs. Nous nous concentrons tout particulièrement sur la cartographie de l'Internet, le stockage d'états dans les routeurs exécutant des protocoles multipoints, l'implémentation de fonctionnalités réseaux dans les hôtes et la conception de réseaux recouvrants.
URL : http://dpt-info.u-strasbg.fr/ magoni
Type de séminaire : Séminaire
Titre : Documenting and Automating Collateral Evolutions in Linux Device Drivers
Intervenant : Gilles Muller (École des Mines de Nantes)
Date : 10/04/2008
Heure : 10:00
Lieu : 90. Ailleurs
Information détaillée
Grande Salle de VERIMAG
Évènement Confirmé : oui
Résumé
The internal libraries of Linux are evolving rapidly, to address new
requirements and improve performance. These evolutions, however,
entail a massive problem of collateral evolution in Linux device
drivers : for every change that affects an API, all dependent drivers
must be updated accordingly. Manually performing such collateral
evolutions is time-consuming and unreliable, and has lead to errors
when modifications have not been done consistently.
In this talk, we present an automatic program transformation tool, Coccinelle, for documenting and automating device driver collateral evolutions. Because Linux programmers are accustomed to manipulating program modifications in terms of patch files, this tool uses a language based on the patch syntax to express transformations, extending patches to semantic patches. Coccinelle preserves the coding style of the original driver, as would a human programmer. We have evaluated our approach on 62 representative collateral evolutions that were previously performed manually in Linux 2.5 and 2.6. On a test suite of over 5800 relevant driver files, the semantic patches for these collateral evolutions update over 93% of the files completely. In the remaining cases, the user is typically alerted to a partial match against the driver code, identifying the files that must be considered manually. We have additionally identified over 150 driver files where the maintainer made an error in performing the collateral evolution, but Coccinelle transforms the code correctly. Finally, more than 40 patches derived from the use of Coccinelle have been accepted into the Linux kernel.
URL : http://www-verimag.imag.fr/SEMINAIRES/
Type de séminaire : Séminaire
Titre : The Grid Component Model and its applications
Intervenant : Françoise Baude, Sophia Antipolis
Date : 08/04/2008
Heure : 11:00
Date de fin : 08/04/2008
Lieu : 50. Montbonnot-INRIA
Information détaillée
Place : INRIA Rhône-Alpes room F107
Évènement Confirmé : oui
Résumé
In this talk, I will try to briefly present why and how we have proposed to extend the Fracal software component model in order to take into consideration the needs raised by applications devoted to run on
large-scale heterogeneous architectures as grids : the Grid Component Model (GCM) and its reference implementation within the ProActive grid platform.
Type de séminaire : Séminaire
Titre : Bounds on the order fill rates for an inventory system of service tools
Intervenant : Ingrid von Vliegen
Date : 08/04/2008
Heure : 16:00
Lieu : 40. Montbonnot-ENSIMAG
Résumé
In this talk, we deal with the analysis of a single-location, multi-item inventory model for service tools. Multiple service tools are kept, with different stock
levels, at the warehouse. Independent Poisson demand streams arrive at the warehouse requesting different sets of tools. Those tools from the requested set that are
in stock are then released ; they are in use for an exponential amount of time, after which they are returned together. (Requested tools that are not on stock are
delivered via an emergency channel ; for the warehouse they may be considered as lost sales.) Thus our model features coupled demands and coupled returns - sets of
tools are released and returned together. We are interested in the order fill rates, i.e., the percentage of demands for which all requested tools are delivered from
stock. As the Markov chain describing the original system is of extremely high dimension, we introduce two, more tractable, approximate models. By combining Markov
reward theory and aggregation we prove that the order fill rates of these approximate models lead to a lower and an upper bound on the order fill rate in the original
Type de séminaire : Séminaire
Titre : Reconnaissance d'un code en bloc
Intervenant : Mathieu Cluzeau
Date : 07/04/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Dans le cadre de l'étude de canaux dans un contexte non coopératif, nous nous intéressons à la reconstruction des codes correcteurs d'erreurs.
Dans ce contexte, un observateur qui voudrait avoir connaissance
d'informations échangées par des utilisateurs légitimes doit retrouver tousles paramètres de communication et de codage de canal afin de pouvoir
décoder l'information circulant sur le canal. Du point de vue de
l'attaquant, nous étudions les algorithmes permettant de retrouver sans
connaissance a priori les paramètres du codeur de canal et plus
particulièrement de codes en blocs linéaires. Nous verrons comment il est
Type de séminaire : Séminaire
Titre : BubbleSched, une approche exploitant la structure du parallélisme des applications
Intervenant : Samuel Thibault
Date : 03/04/2008
Heure : 15h00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
La tendance des constructeurs pour le calcul scientifique est à l'imbrication
de technologies permettant un degré de parallélisme toujours plus fort
au sein d'une même machine : architecture NUMA, puces multic½urs, SMT
(HyperThreading). L'efficacité de l'exécution d'une application parallèle
irrégulière sur de telles machines hiérarchiques repose alors sur la qualité
de l'ordonnancement des threads et du placement des données.
De quels outils dispose-t-on pour cela ? L'interface POSIX ne fournit absolument aucune aide ; les différents systèmes d'exploitations existants fournissent parfois quelques primitives de placement statique. Au final, si l'on veut contrôler vraiment l'ordonnancement, il est nécessaire de modifier le noyau.
Pour garantir une certaine portabilité des performances, nous définissons la notion de "bulle" permettant d'exprimer la nature structurée du parallélisme du calcul, et nous modélisons l'architecture de la machine cible. Chaque application ayant ses spécificités, un ordonnancement générique n'obtiendrait pas de très bonnes performances. Une interface de programmation et des outils de débogage de haut niveau permettent donc de développer simplement des ordonnanceurs dédiés, efficaces et portables. Quelques exemples d'ordonnanceurs adaptés à différentes classes d'applications permettent de montrer les
Type de séminaire : Séminaire
Titre : Analyses de propriétés quantitatives de programmes
Intervenant : Laure Gonnord
Date : 20/03/2008
Heure : 15h00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Dans cet exposé je présenterai mes travaux doctoraux et postdoctoraux
qui se placent tous les deux dans le contexte d'analyse des propriétés
quantitatives de programmes dans le but de faire des logiciels
embarqués sûrs.
Dans ma thèse, j'ai étudié l'analyse des relations linéaires, qui permet de découvrir automatiquement, en chaque point de contrôle d'un programme, des systèmes de contraintes linéaires invariantes sur les variables numériques. Les résultats de l'analyse sont utilisables en compilation, en vérification de programmes et en parallélisation. Après une introduction rapide à cette méthode, je montrerai plus spécifiquement comment la précision des analyses peut être améliorée grâce à la notion d'__accélération abstraite__.
Mes travaux postdoctoraux étudient d'autres types d'applications embarquées que sont les applications multimédia. Ces applications ne sont plus critiques, mais par contre on désire évaluer et garantir des propriétés extra fonctionnelles, comme la qualité de service. En effet, la resource allouée à un composant logiciel peut évoluer, et on aimerait garantir une certaine fluidité de l'application. Je présenterai mes travaux de formalisation des contraintes de ressources au sein d'une architecture logicielle à composants, Qinna, ainsi que les
Type de séminaire : Séminaire
Titre : Caches adaptables et applications aux systèmes de gestion de données répartis à grande échelle
Intervenant : Laurent d'Orazio
Date : 20/03/2008
Heure : 13h00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Les caches offrent une solution intéressante aux problèmes de performance liés à la gestion de données largement distribuées. Néanmoins, ils ne sont
efficaces que correctement configurés en fonction de leur environnement et sont donc souvent entièrement construits pour une application donnée. Les coûts de
développement peuvent alors être élevés, notamment sur grilles où de nombreux caches hétérogènes sont utiles. Nous proposons un canevas logiciel facilitant la
création de caches évolutifs et adaptables dynamiquement pour diverses applications, en particulier pour des environnements variables. Le canevas nous a permis de
tester différentes configurations pour les systèmes d'interrogation et de faire naître de nouvelles approches, pour la gestion sémantique des données et la mise en
place de coopérations fines entre caches, basées sur différentes topologies physiques et/ou logiques. Nos propositions ont été appliquées à la gestion de données
Type de séminaire : Séminaire
Titre : Outils de développement collaboratif : la forge INRIA et git
Intervenant : Vincent Danjean
Date : 13/03/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Dans ce séminaire, nous présenterons deux outils de développement logiciel collaboratif : la forge (en particulier celle déployée par l'INRIA) et git (qui a été conçu par Linus Torvald et qui est utilisé pour le développement du noyau linux).
Type de séminaire : Séminaire
Titre : Algorithmes stochastiques tronqués et réduction de variance
Intervenant : Jérôme Lelong
Date : 06/03/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Après une présentation rapide des algorithmes stochastiques de base et
de leur convergence, je présenterai les algorithmes stochastiques
tronqués bpc plus robustes et qui convergent sous des hypothèses plus
faibles. Un exposé détaillé de leur propriétés asymptotiques (cv p.s. et
TCL) sera fait. Dans un second temps, j'expliquerai comment utiliser les
algorithmes stochastiques pour mettre en oeuvre une technique de
Type de séminaire : Séminaire
Titre : Apprentissage d'équilibres de Nash. Dynamique d'un problème d'équilibrage de charges
Intervenant : Olivier Bournez
Date : 07/02/2008
Heure : 15h00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
On s'intéressera au problème de l'apprentissage des équilibres de Nash, par l'intermédiaire d'un problème (classique) d'équilibrage de charges : des tâches,
correspondante chacune à un joueur, doivent se placer sur des serveurs, en minimisant leur propre coût. Le coût d'une tâche est fonction de la somme des poids des
tâches qui choisissent le même serveur. On cherche à construire des dynamiques d'apprentissage qui permettent de garantir une convergence globale vers un équilibre de
Nash du système. On s'intéressera en particulier aux propriétés d'une certaine dynamique stochastique.
URL : http://mescal.imag.fr/seminars/2008/2008_02_07_Bournez.pdf
Type de séminaire : Séminaire
Titre : Towards wide-area ubiquitous computing
Intervenant : Markus Endler
Date : 04/02/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
A middleware for context-awaress is an important basic building block for
the development of mobile and ubiquitous computing systems. But in order
to achieve wide-area, inter-domain and interoperable ubiquity, several new
and interesting research problems have to be solved. In this talk, first I
will shortly present the MoCA service-oriented architecture for context-
and location-based services which has been developed at PUC-Rio, and then
discuss our ongoing research efforts towards the design of a middleware
infra-structure for the development of heterogeneous, interoperable and
inter-domain ubiquitous computing systems.
Markus Endler obtained his degree from the Technical University in Berlin in 1992. From 1994 to 2000 we worked as Assistant Professor at the Institute of Mathematics and Statistics of the University of São Paulo, and since 2001 he is with the Department of Informatics of the PontifÌcia Universidade Católica in Rio de Janeiro, where he is currently Associate Professor and head of the Laboratory for Advanced Collaboration (LAC). His main research interests include mobile systems, Ubiquitous computing and middleware for context- and location-aware services and applications. For more information, visit his home page at http://www.inf.puc-rio.br/ ...
URL : http://mescal.imag.fr/seminars/2008/2008_02_04_Endler.pdf
Type de séminaire : Séminaire
Titre : OppStore : Middleware for Data Storage in Opportunistic Grids
Intervenant : Raphael Camargo
Date : 31/01/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Shared machines in opportunistic grids typically have large quantities
of unused disk space. These resources could be used to store
application and checkpointing data when the machines are idle,
allowing those machines to share not only computational cycles, but
also disk space. I will present the design and implementation of
OppStore, a middleware that provides reliable distributed data storage
using the free disk space from shared grid machines. The system
utilizes a two-level peer-to-peer organization to connect grid
machines in a scalable and fault- tolerant way. Finally, we use the
concept of virtual ids to deal with resource heterogeneity, enabling
heterogeneity-aware load-balancing selection of storage sites.
URL : http://mescal.imag.fr/seminars/2008/2008_01_31_Camargo.pdf
Type de séminaire : Séminaire
Titre : Covert Channels inside DNS
Intervenant : Lucas Nussbaum
Date : 20/12/2007
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Pour finir l'année d'une manière moins sérieuse, Lucas nous parlera de
"Covert Channels inside DNS". Mais ce séminaire pourrait aussi
s'intituler "Comment avoir accès à Internet gratuitement dans tous les
aéroports, et beaucoup d'hotels et de gares ?". :) Lucas commencera
par nous expliquer le principe général, puis comparera les
caractéristiques et les performances de trois implémentations
existantes avec TUNS, son tunnel IP over DNS, avant de finir par une
démo.
URL : http://www-id.imag.fr/ nussbaum/tuns.pdf
Type de séminaire : Séminaire
Titre : High Performance Computing, Strategies et Technologies
Intervenant : Olivier Chorier
Date : 18/12/2007
Heure : 9:30
Lieu : 50. Montbonnot-INRIA
Information détaillée
Salle séminaire A104
Inscriptions
Évènement Confirmé : oui
Résumé
IBM France et Serviware ont le plaisir de vous inviter le 18 décembre à Grenoble dans les locaux de l'INRIA pour un séminaire dédié au High Performance Computing, stratégies et technologies appliquées à la Recherche.
Le coeur de la journée s'articulera autour des performances et de l'optimisation des systèmes de calcul intensif :
Les laboratoires LIG et LIP présenteront leurs avancées autour des projets de recherche informatique MOAIS, MESCAL et GRAAL.
L'ECOLE POLYTECHNIQUE FEDERALE DE LAUSANNE et le CINES présenteront leur expérience en matière de modélisation numérique et de calcul intensif sur la base de technologies HPC IBM. Des spécialistes IBM présenteront les technologies Blue Gene et selon de récentes annonces, les processeurs Power 6 et Cell, appliqués au monde de la Recherche.
Le processeur Cell, initialement destiné à l'industrie du jeu, s'est avéré extrêmement performant pour le calcul scientifique et parallèle grâce à sa technologie multi-coeur et sa puissance crête de 256GFlops, ainsi que pour le monde de l'imagerie et des technologies informatiques embarquées.
09:30 - 10:00 Accueil café et Introduction
10:00 - 10:20 Hugues Bourdais, présentation de la société SERVIWARE,
10:20 - 10:50 Guillaume Huard, LABORATOIRE D'INFORMATIQUE DE GRENOBLE, "KAAPI/TakTuk, HPC à grande échelle efficace sur infrastructures hétérogènes"
10:50 - 11:00 Questions / Réponses
11:05 - 11:35 Yves Denneulin, LABORATOIRE D'INFORMATIQUE DE GRENOBLE, "programmation parallèle, projet MESCAL"
11:35 - 11:45 Questions / Réponses
11:50 - 12:20 Frédéric Desprez, LABORATOIRE D'INFORMATIQUE DU PARALLELISME, "algorithmique et ordonnancement, projet GRAAL"
12:20 - 12:30 Questions / Réponses
12:30 - 13:30 Pause déjeuner "fêtes de fin d'année"
13:30 - 13:50 Olivier Multon, IBM System and Technology Group France, directeur HPC, "Panorama des technologies HPC IBM appliquées à la Recherche"
13:50 - 14:10 Olivier Multon, Focus BLADE CENTER, "architecture optimisée : densité et énergie"
14:10 - 14:30 Olivier Multon, Focus POWER 6, nouvelle génération de processeurs HPC
14:30 - 14:40 Questions/Réponses
14:45 - 15:15 Olivier Hess, IBM Deep Computing Europe, PSSC Montpellier, "Technologie BLUE GENE et modélisation appliquée à la Recherche"
15:20 - 16:00 Pierre Maruzewski, EPFL, Technical Coordinator of the BLUE GENE/L Project, "6 projets scientifiques appliqués"
16:00 - 16:10 Christian Clémençon, EPFL, administrateur système BLUE GENE
16:10 - 16:20 Questions/Réponses
16:20 - 16:30 Pause
16:30 - 17:00 François Thomas, IBM Deep Computing Europe, PSSC Montpellier, "Performances et Programmation du processeur CELL"
17:05 - 17:25 Bertrand Cirou, CINES, "Calcul intensif et Processeur CELL"
Type de séminaire : Thèse
Titre : Caches adaptables et applications aux systèmes de gestion de données répartis à grande échelle
Intervenant : Laurent d'Orazio
Date : 17/12/2007
Heure : 13:30
Lieu :
Information détaillée
Dans la salle D111 de l'ENSIMAG pour la soutenance et en D102 pour le pôt.
Évènement Confirmé : oui
Résumé
M. Jean-Luc KONING, Professeur à l'Institut Polytechnique de Grenoble (Président).
M. Guy BERNARD, Professeur à l'Institut National des Communication, Evry (Rapporteur).
M. Abdelkader HAMEURLAIN, Professeur à l'Université Paul Sabatier, Toulouse (Rapporteur).
M. Fabio HERNANDEZ, Ingénieur de Recherche à L'Institut National de Physique Nucléaire et de Physique des Particules, Lyon (Examinateur).
Mme. Claudia RONCANCIO, Maître de Conférence (HDR) à l'Institut Polytechnique de Grenoble (Directrice de thèse).
M. Cyril LABBE, Maître de Conférences à l'Université Joseph Fourier, Grenoble (Co-encadrant).
Résumé de la thèse :Les caches offrent une solution intéressante aux problèmes de performance liés à la gestion de données largement distribuées. Néanmoins, ils ne sont efficaces que correctement configurés en fonction de leur environnement et sont donc souvent entièrement construits pour une application donnée. Les coûts de développement peuvent alors être élevés, notamment sur grilles où de nombreux caches hétérogènes sont utiles. Nous proposons un canevas logiciel facilitant la création de caches évolutifs et adaptables dynamiquement pour diverses applications, en particulier pour des environnements variables. Le canevas nous a permis de tester différentes configurations pour les systèmes d'interrogation et de faire naître de nouvelles approches, pour la gestion sémantique des données et la mise en place de coopérations fines entre caches, basées sur différentes topologies physiques et/ou logiques. Nos propositions ont été appliquées à la gestion de données bio-informatiques sur
Type de séminaire : Thèse
Titre : Nouvelles approches pour l'ordonnancement d'applications parallèles sous contraintes de déploiement d'environnements sur grappe
Intervenant : Feryal-Kamila Moulai
Date : 13/12/2007
Heure : 10:30
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Cette thèse sera défendue devant :
M Georges-Pierre Bonneau Univ. Joseph Fourier, Président
M Jean-Claude König Professeur Université Montpellier II (Rapporteur)
M Christophe Cérin Professeur Université Paris XIII (Rapporteur)
M Arnaud Legrand Chargé de recherche CNRS, (Examinateur)
M Grégory Mounié Maitre de conférence ENSIMAG (Co-ancadrant)
M Jean-François Méhaut Professeur Université Joseph Fourier,(directeur de thèse).
Cette thèse s'inscrit dans le cadre des grappes dans le projet Grid'5000 (Projet Français pour les grilles). Grid'5000 est une plate-forme expérimentale qui offre la possibilité aux chercheurs de soumettre aux gestionnaires de ressource des programmes (travaux) et d'associer pour chaque requête un environnement. Une grappe est un ensemble de noeuds de calcul, connectés entre eux via un réseau dédié. Le processus de déploiement d'environnement sur les noeuds de calcul n'est pas sans conséquence. Un des problèmes que l'on rencontre est la défaillance des machines. Le démarrage excessif lors de la phase déploiement peut causer un endomagement de celles-ci. Nous avons ainsi modélisé ce problème sous forme d'un problème d'ordonnancement bicritère. Le premier critère à minimiser comptabilise pour chaque machine (processeur) le nombre de déploiements effectués. Il permet ainsi de définir le nombre total de déploiements sur toutes les machines. Nous avons également considéré un second critère à minimiser, le makespan.
Nous avons défini un algorithme Groups List Scheduling, basé sur une approche budget, avec un relâchement des contraintes d'optimalité. Cette approche nous a permis de définir une solution (alpha, beta)-budget-relaxée-approchée pour un problème d'optimisation bicritère. Dans le cadre du problème d'ordonnancement bicritère avec déploiement, l'algorithme GLS donne ainsi une solution (4,2)-budget-approchée-relaxée.
Nous avons ensuite abordé ce problème d'ordonnancement bicritère avec déploiement en utilisant l'approche « courbe de Pareto ». Nous avons défini un algorithme polynômial, qui permet de construire une courbe de Pareto (4+epsilon, 2)-approchée, à partir des solutions fournies par l'algorithme GLS.
Une analyse expérimentale nous a permis d'évaluer les performances de l'algorithme GLS et de valider ainsi les rapports
Type de séminaire : Habilitation
Titre : Intergiciel à haute performance pour architecture grande échelle
Intervenant : Yves Denneulin
Date : 07/12/2007
Heure : 10h00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Le contexte des travaux est le calcul parallèle hautes performances sur des architectures de grande taille sous le double angle de la gestion des activités et des
données. Les travaux sur les tâches se sont concentrés sur laspect exploitation darchitectures volatiles, du type intranet dentreprise, avec des travaux sur
lordonnancement multi-niveau, intra- et inter-applications, et la persistence des activités. Dans le domaine de la gestion des données, les travaux se sont concentrés
sur la conception de systèmes de fichiers hautes performances passant à léchelle ainsi que sur le développement dune nouvelle approche de gestion des données, hybride
entre les systèmes de fichiers et les systèmes de gestion de bases de données.
Après avis des rapporteurs : M. Luc Bougé, M. Ian Foster, M. Sacha Krakowiak
Devant le jury composé de : M. Luc BOUGÉ, Professeur des Universités, École Normale Supérieure de Cachan M. Franck CAPPELLO, Directeur de Recherche, INRIA Futurs M. Jean-Marc GEIB, Professeur des Universités, Université des Sciences et Technologies de Lille M. Sacha KRAKOWIAK, Professeur des Universités, Université Joseph Fourier de Grenoble
Type de séminaire : Séminaire
Titre : Stochastic comparison of Markov chains : an algorithmic approach
Intervenant : Ana Busic
Date : 29/11/2007
Heure : 15:00
Date de fin : 29/11/2007
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Markov processes are largely used in various domains due to their
simplicity to model real systems. Many high-level formalisms have been
developed in order to simplify the definition and generation of these
models. However, the growing complexity of studied systems results in
state-space explosion of Markovian models and the classical analytical
or numerical methods do not apply.
Stochastic comparison techniques allow to construct simpler models that are easier to solve and that can provide bounds for a given measure of interest. I am particularly interested in algorithmic aspects of these techniques and their applications to reliability and performance evaluation. In this seminar I will present some basic algorithms that use usual stochastic ordering (st-ordering).
Another important usage of stochastic comparison is to study systems that are only partially specified (the exact values of some parameters are unknown), or to prove some qualitative properties like monotonicity with respect to a given parameter of the system. Usual stochastic ordering is not always well adapted to these problems. I will end my presentation by showing some examples that motivate other stochastic orderings of Markov chains, like increasing convex or level-crossing orderings, that can be a topic of a future seminar, if
Type de séminaire : Séminaire
Titre : Load Balancing on an Interactive Multiplayer Game Server
Intervenant : Daniel Cordeiro
Date : 22/11/2007
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
In this presentation, I will show the results obtained during my
Master's at University of São Paulo (advisor : Alfredo Goldman) that
was abridged in a paper accepted in this year's edition of Euro-Par.
In this work, we investigate the impact of issues related to performance, parallelization, and scalability of interactive, multiplayer games. Particularly, we study and extend the game QuakeWorld, made publicly available by id Software under GPL license. We have created a new parallelization model for Quake's distributed simulation and implemented this model in QuakeWorld server. We implemented the model adapting the QuakeWorld server in order to allow a better management of the generated workload. In this talk, I will present in our methodology and experimental results on SMP computers.
Type de séminaire : Séminaire
Titre : Algorithmes cache-oblivious
Intervenant : Marc Tchiboukdjian
Date : 08/11/2007
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui
Résumé
Dans les domaines de la simulation numérique et de la visualisation
scientifique les applications utilisent tellement de données qu'il
n'est plus possible de les stocker entièrement dans la mémoire vive de
l'ordinateur. Les communications entre la mémoire vive et le disque,
beaucoup plus lent, entraînent une chute importante des performances.
Pour minimiser ces entrées/sorties, on développe des modèles de
machine qui représentent plus justement la hiérarchie mémoire que le
modèle de machine classique où le coût des accès mémoires est
uniforme.
Dans cet exposé on présentera deux de ces modèles :
le "Disk Access Model" est composé de deux niveaux, la mémoire et le
disque. Les données sont transférés entre les deux niveaux en blocs
d'éléments de taille fixée.
le "Cache Oblivious Model" reprend le modèle précédent mais la
taille des blocs est inconnue.
Pour chacun de ces modèles on expliquera les principes de conception
d'algorithmes efficaces à travers de nombreux exemples tels que les
arbres de recherche, les tris, la multiplication de matrices... On
mettra l'accent sur le modèle cache-oblivious qui permet de créer des
algorithmes optimaux pour tous les niveaux de la hiérarchie mémoire
sans voir besoin d'ajuster des paramètres relatifs à la configuration
Titre : Current Trends in High Performance Computing
Type de séminaire : Séminaire
Intervenant : Glenn Luecke
Heure : 15:00
Date : 09/09/10
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG
Résumé