MESCAL

MOAIS and MESCAL share common interests and thus also a seminar. It takes place (almost) every Thursday afternoon (from 15h00 to 16h00 in general but also often from 14h00 to 15h00 depending on everyone's and room's availability). This seminar is generally used to present recent works of invited researchers. The obsolete webpages with informations on past seminars can be found here.
The members of Mescal in charge for seminar organization are Arnaud Legrand and Bruno Gaujal. Informations related to seminar organization are available here

Titre : Kickoff meeting of Datamove and Polaris
Type : Séminaire
Intervenants : Arnaud Legrand and Bruno Raffin
Date : 28/01/2016
Heure : 14:00

Lieu : F 107 -Inria
Résumé: Each team will make a short (20 minutes) presentation of one challenge that will occupy us in the coming years.


Titre : Cache Analysis
Type : Séminaire
Intervenant : Nicolas Gast (Inria, Mescal)
Date : 28/01/2016
Heure : 14:00

Lieu : F 107 -Inria
Résumé: TBA


Titre : Stochastic Stability in Games
Type : Séminaire
Intervenant : Mathias Staudigl (Bielefeld Univ.)
Date : 21/01/2016
Heure : 14:00

Lieu : F 107 -Inria
Résumé: (joint with Bill Sandholm) Evolutionary dynamics in finite population games are discrete time Markov chains on compact polyhedra. These game dynamics are related to Simulated-Annealing algorithms, well known in stochastic optimization. All these dynamics are characterized by two key parameter: The rate of experimentation of the players, and the number of players in the game. The first parameter plays the same role as the temperature scheme in simulated annealing schemes, whereas the number of players renders the state space a-priori discrete. Usually one is interested in the ergodic properties of the process in the limit as one, or both, parameters approaches its extreme values. In this series of paper we lay the foundations for a more refined analysis of these kind of processes using tools from optimal control and large deviations. In this talk, I review results for these Markov chains, including various sample path large deviations results. Large deviations type of estimates are also used to obtain probabilistic bounds on key statistics of the algorithm. We conclude with open problems in this domain.


Titre : Online Learning with Gaussian Payoffs and Side Observations
Type : Séminaire
Intervenant : Andras Gyorgy (Imperial College)
Date : 14/01/2016
Heure : 14:00

Lieu : F 107 -Inria
Résumé: We consider a sequential learning problem with Gaussian payoffs and side observations: after selecting an action i, the learner receives information about the payoff of every action j in the form of Gaussian observations whose mean is the same as the mean payoff, but the variance depends on the pair (i,j) (and may be infinite). The setup allows a more refined information transfer from one action to another than previous partial monitoring setups, including the recently introduced graph-structured feedback case. For the first time in the literature, we provide non-asymptotic problem-dependent lower bounds on the regret of any algorithm, which recover existing asymptotic problem-dependent lower bounds and finite-time minimax lower bounds available in the literature. We also provide algorithms that achieve the problem-dependent lower bound (up to some universal constant factor) or the minimax lower bounds (up to logarithmic factors). Based on joint work with Yifan Wu and Csaba Szepesvari.


Titre : Online Independent Set with Stochastic Adversaries
Type : Séminaire
Intervenant : Martin Hoefer (Max Planck Institut)
Date : 05/01/2016
Heure : 14:00

Lieu : F 107 -Inria
Résumé: The independent set problem in graphs is a classic and well-studied combinatorial optimization problem with many applications. Recently, generalized variants have become prominent in the study of algorithms for realistic interference models in wireless networks. Perhaps surprisingly, much less is known about the natural online variant of the problem where nodes and edges of the graph arrive sequentially over time. In this talk I highlight some of our recent work for online variants with stochastic adversaries, including O(1)-competitive algorithms for interval and disk graphs. These results can be extended to polylogarithmic guarantees for rectangle graphs and for more general online admission problems in wireless networks.


Titre : Retours de Super-Computing
Type : Séminaire
Intervenant :David Beniamine, David Gessler, Pierre Neyron, Olivier Richard, Philippe Virouleau
Date : 17/12/2015
Heure : 14:00

Lieu : F 107 -Inria
Résumé: Les participants a Super-Computing nous présentent les dernieres tendances et les résultats importants exposés lors de la conférence.


Titre : A Mean-Field Game with Interactions for Epidemic Models.
Type : Séminaire
Intervenant : Josu Doncel (Inria, Mescal)
Date : 10/12/2015
Heure : 14:00

Lieu : F 107 -Inria
Résumé: We present a mean-field game where the objects follow an epidemic behavior. We consider that the strategy of objects is how to vaccinate, with a cost associated with vaccination and with each infected object. The strategy of the individual object does not alter the dynamics of the mass. The objective of the individual object is to minimise its expected cost. We model the behavior of the individual object as a continuous time Markov decision process. We also consider a centralized problem, where a vaccination policy can be chosen so as to minimise the total cost in the system. Finally, we build a pricing mechanism by which we force the equilibrium to coincide with the solution of the centralized problem. According to our numerical experiments, the vaccination price charged to the individual objects should be always less than the actual vaccination price in order to force the individual to maximize social welfare.


Titre : Certified Roundoff Error Bounds Using Semidefinite Programming
Type : Séminaire
Intervenant : Victor Magron (Verimag)
Date : 19/11/2015
Heure : 14:00

Lieu : C 207 -Inria
Résumé: Roundoff errors cannot be avoided when implementing numerical programs with finite precision. The ability to reason about rounding is especially important if one wants to explore a range of potential representations, for instance in the world of FPGAs. This problem becomes challenging when the program does not employ solely linear operations as non-linearities are inherent to many interesting computational problems in real-world applications. Existing solutions to reasoning are limited in presence of nonlinear correlations between variables, leading to either imprecise bounds or high analysis time. Furthermore, while it is easy to implement a straightforward method such as interval arithmetic, sophisticated techniques are less straightforward to implement in a formal setting. Thus there is a need for methods which output certificates that can be formally validated inside a proof assistant. We present a framework to provide upper bounds of absolute roundoff errors. This framework is based on optimization techniques employing semidefinite programming and sums of squares certificates, which can be formally checked inside the Coq theorem prover. Our tool covers a wide range of nonlinear programs, including polynomials and transcendental operations as well as conditional statements. We illustrate the efficiency and precision of this tool on non-trivial programs coming from biology, optimization and space control. This research work has been done in collaboration with Alastair Donaldson and George Constantinides from Imperial College London.


Titre : Voting in Networks
Type : Séminaire
Intervenant : Petra Berenbrink (Simon Fraser Univ.)
Date : 02/11/2015
Heure : 14:00

Lieu : Gd Amphi -Inria
Résumé: In my talk I will consider two different voting-type processes. For the first process an arbitrary network with n nodes is given. At the beginning every node has one of k opinions. The process works in synchronous rounds, in every round every node considers the opinion of a randomly chosen neighbour and decides to adopt the opinion of that node or not. The question is how long does it take until all nodes agree on an opinion. The second protocol deals with plurality consensus in a complete network of n nodes, each having one of k opinions. Nodes execute a (randomized) distributed protocol to gain knowledge about opinions in their neighborhood, which might cause them to change their opinion. The goal is to find a protocol that, with high probability, causes all nodes to adopt the the opinion initially supported by most of the nodes. A major open question has been whether there is a protocol for the complete graph that converges in polylogarithmic time and uses only polylogarithmic memory (per node). We answer this question affirmative.


Titre : Scheduling for Large Scale Distributed Computing Systems: Approaches and Performance Evaluation Issues
Type : Soutenance HDR
Intervenant : Arnaud Legrand (CNRS, Mescal)
Date : 02/11/2015
Heure : 10:00

Lieu : Gd Amphi -Inria
Résumé: In a few decades, large scale computing infrastructures have become a key element for all sciences (physics, biology, medicine, astronomy, ecology, ...) both to analyze huge amount of data (a.k.a "big data") or to simulate complex systems ("in silico" approach). Designing and efficiently exploiting such infrastructures that constantly follow technology evolution raises optimization, modeling and performance evaluation issues. In this talk, I will present the main two aspects of my research and how they have nurtured each others. First, I will present how several scheduling problems can be simplified and efficiently solved through continuous and less combinatorial techniques by exploiting regularity hypothesis. Such relaxation allows to more easily account for key aspects of such systems such as resource heterogeneity and variability, complex interconnection topology, the need for online and distributed optimization, or the presence of users with diverse needs and objectives. These works show how classical scheduling theory, distributed optimization and game theory concepts can be applied to a better understanding of such systems. Then, I will present my involvement in SimGrid, an open source and community project that allows to design faithful simulations and performance evaluations of distributed computing systems. My main contributions concern the development, the validation and the invalidation of platform models and the optimization of their implementation in SimGrid. I will conclude by a brief presentation of the perspectives opened by such work.


Titre : A Reproducible Research Methodology for Designing and Conducting Faithful Simulations of Dynamic Task-based Scientific Applications
Type : Soutenance Thèse
Intervenant : Luka Stanisic (Mescal)
Date : 31/10/2015
Heure : 15:00

Lieu : Gd Amphi -Inria
Résumé: The evolution of High-Performance Computing systems has taken a sharp turn in the last decade. Due to the enormous energy consumption of modern platforms, miniaturization and frequency scaling of processors have reached a limit. The energy constraints has forced hardware manufacturers to develop alternative computer architecture solutions in order to manage answering the ever-growing need of performance imposed by the scientists and the society. However, efficiently programming such diversity of platforms and fully exploiting the potentials of the numerous different resources they offer is extremely challenging. The previously dominant trend for designing high performance applications, which was based on large monolithic codes offering many optimization opportunities, has thus become more and more difficult to apply since implementing and maintaining such complex codes is very difficult. Therefore, application developers increasingly consider modular approaches and dynamic application executions. A popular approach is to implement the application at a high level independently of the hardware architecture as Directed Acyclic Graphs of tasks, each task corresponding to carefully optimized computation kernels for each architecture. A runtime system can then be used to dynamically schedule those tasks on the different computing resources. Developing such solutions and ensuring their good performance on a wide range of setups is however very challenging. Due to the high complexity of the hardware, to the duration variability of the operations performed on a machine and to the dynamic scheduling of the tasks, the application executions are non-deterministic and the performance evaluation of such systems is extremely difficult. Therefore, there is a definite need for systematic and reproducible methods for conducting such research as well as reliable performance evaluation techniques for studying these complex systems. In this thesis, we show that it is possible to perform a clean, coherent, reproducible study, using simulation, of dynamic HPC applications. We propose a unique workflow based on two well-known and widely-used tools, Git and Org-mode, for conducting a reproducible experimental research. This simple workflow allows for pragmatically addressing issues such as provenance tracking and data analysis replication. Our contribution to the performance evaluation of dynamic HPC applications consists in the design and validation of a coarse-grain hybrid simulation/emulation of StarPU, a dynamic task-based runtime for hybrid architectures, over SimGrid, a versatile simulator for distributed systems. We present how this tool can achieve faithful performance predictions of native executions on a wide range of heterogeneous machines and for two different classes of programs, dense and sparse linear algebra applications, that are a good representative of the real scientific applications.


Titre : Energy-efficient power allocation problem in dynamic multi-carrier MIMO systems
Type : Séminaire
Intervenant :Veronica Belmega (Inria, Mescal)
Date : 01/10/2015
Heure : 14:00

Lieu : F 107-Inria
Résumé: In this joint work with Panayotis Mertikopoulos, we propose an online power allocation algorithm for optimizing energy efficiency (throughput per unit of transmit power) in multi-user, multi-carrier MIMO systems that evolve dynamically over time (e.g. due to changes in the wireless environment or the users' load). Contrary to the static/ergodic regime, transmitting at a fixed optimal power allocation profile (either static or in the mean) is not realistic, so we draw on exponential learning techniques to design an algorithm that is able to adapt to system changes "on the fly". Specifically, the proposed transmit policy leads to no regret, i.e., it is asymptotically optimal in hindsight, irrespective of the system's evolution over time. Importantly, despite the algorithm's simplicity and distributed nature, users are able to track their individually optimum transmit profiles as they vary with time, even under rapidly changing network conditions.


Titre : Statistical modelling and (spatio-)temporal analysis of RSS news feeds
Type : Séminaire
Intervenant : Angelika Studeny (Inria, Mescal)
Date : 10/07/2015
Heure : 14:00

Lieu : F107-Inria
Résumé: This talk presents on-going work within the context of the ANR Geomedia. RSS news feeds can be seen as a representation of the information flow in geopolitical space. As such they allow us to study media events of global extent and how they affect international relations. Here I will show how hidden Markov models (HMM) can be applied in this context to study the evolution of media events in time. First, basic HMMs are introduced and we then discuss various extensions. As a show case, the Ebola epidemic which spread through West Africa in 2014 is given.


Titre : The Machine
Type : Séminaire
Intervenant : Patrick Demichel (system architect at HP)
Date : 09/07/2015
Heure : 14:00

Lieu : Grand Amphi Inria
Résumé: By 2020, 30 billion connected devices will generate unprecedented amounts of data. The infrastructure required to collect, process, store, and analyze this data requires transformational changes in the foundations of computing. Bottom line: current systems can’t handle where we are headed and we need a new solution. HP has that solution in The Machine. By discarding a computing model that has stood unchallenged for sixty years, we are poised to leave sixty years of compromises and inefficiencies behind. We’re pushing the boundaries of the physics behind IT, using electrons for computation, photons for communication, and ions for storage. The Machine will fuse memory and storage, flatten complex data hierarchies, bring processing closer to the data, embed security control points throughout the hardware and software stacks, and enable management and assurance of the system at scale. The Machine will reinvent the fundamental architecture of computers to enable a quantum leap in performance and efficiency, while lowering costs over the long term and improving security. The industry is at a technology inflection point that HP is uniquely positioned to take advantage of going forward. The Machine demonstrates the innovation agenda that will drive our company, and the world, forward. Slides: Slides


Titre :A Reward-Based Incentive Mechanism for Delay Tolerant Networks
Type : Seminaire
Intervenant : Balakrishna Prabhu
Date : 25/06/2015
Heure : 14:00
Lieu : C 208
Résumé : A central problem in Delay Tolerant Networks (DTNs) is to persuade mobile nodes to participate in relaying messages. Indeed, the delivery of a message incurs a certain number of costs for a relay. We consider a two- hop DTN in which a source node, wanting to get its message across to the destination as fast as possible, promises each relay it meets a reward. This reward is the minimum amount that offsets the expected delivery cost, as estimated by the relay from the information given by the source (number of existing copies of the message, age of these copies). A reward is given only to the relay that is the first one to deliver the message to the destination. We show that under fairly weak assumptions the expected reward the source pays remains the same irrespective of the information it conveys, provided that the type of information does not vary dynamically over time. On the other hand, the source can gain by adapting the information it conveys to a meeting relay. For the particular cases of two relays or exponentially distributed inter-contact times, we give some structural results of the optimal adaptive policy.


Titre : Big Data, Beyond the Data Center
Type : Séminaire
Intervenant : Gilles Fedak
Date : 11/06/2015
Heure : 14:00

Lieu : F107-Inria
Résumé: Increasingly the next scientific discoveries and the next industrial innovative breakthroughs will depend on the capacity to extract knowledge and sense from gigantic amount of information. Examples vary from processing data provided by scientific instruments such as the CERN’s LHC; collecting data from large-scale sensor networks; grabbing, indexing and nearly instantaneously mining and searching the Web; building and traversing the billion-edges social network graphs; anticipating market and customer trends through multiple channels of information. Collecting information from various sources, recognizing patterns and distilling insights constitutes what is called the Big Data challenge. However, As the volume of data grows exponentially, the management of these data becomes more complex in proportion. A key challenge is to handle the complexity of data management on Hybrid distributed infrastructures, i.e assemblage of Cloud, Grid or Desktop Grids. In this talk, I will overview our works in this research area; starting with BitDew, a middleware for large scale data management on Clouds and Desktop Grids. Then I will present our approach to enable MapReduce on Hybrid infrastructures. Finnally, I will present our latest results around Active Data, a programming model for managing data life cycle on heterogeneous systems and infrastructures.


Titre : Agrégation spatiotemporelle pour la visualisation de traces d'exécution.
Type : Soutenance de thèse
Intervenant : Damien Dosimont
Date : 10/06/2015
Heure : 9:30

Lieu : Grand Amphi, Inria
Résumé: Les techniques de visualisation de traces sont fréquemment employées par les développeurs pour comprendre, déboguer, et optimiser leurs applications. La plupart des outils d'analyse font appel à des représentations spatiotemporelles, qui impliquent un axe du temps et une représentation des ressources, et lient la dynamique de l'application avec sa structure ou sa topologie. Toutefois, ces dernières ne répondent pas au problème de passage à l'échelle de manière satisfaisante. Face à un volume de trace de l'ordre du Gigaoctet et une quantité d'évènements supérieure au million, elles s'avèrent incapables de représenter une vue d'ensemble de la trace, à cause des limitations imposées par la taille de l'écran, des performances nécessaires pour une bonne interaction, mais aussi des limites cognitives et perceptives de l'analyste qui ne peut pas faire face à une représentation trop complexe. Cette vue d'ensemble est nécessaire puisqu'elle constitue un point d'entrée à l'analyse; elle constitue la première étape du mantra de Shneiderman - Overview first, zoom and filter, then details-on-demand - un principe aidant à concevoir une méthode d'analyse visuelle. Face à ce constat, nous élaborons dans cette thèse deux méthodes d'analyse, l'une temporelle, l'autre spatiotemporelle, fondées sur la visualisation. Elles intègrent chacune des étapes du mantra de Shneiderman - dont la vue d'ensemble -, tout en assurant le passage à l'échelle. Ces méthodes sont fondées sur une méthode d'agrégation qui s'attache à réduire la complexité de la représentation tout en préservant le maximum d'information. Pour ce faire, nous associons à ces deux concepts des mesures issues de la théorie de l'information. Les parties du système sont agrégées de manière à satisfaire un compromis entre ces deux mesures, dont le poids de chacune est ajusté par l'analyste afin de choisir un niveau de détail. L'effet de la résolution de ce compromis est la discrimination de l'hétérogénéité du comportement des entités composant le système à analyser. Cela nous permet de détecter des anomalies dans des traces d'applications multimédia embarquées, ou d'applications de calcul parallèle s'exécutant sur une grille. Nous avons implémenté ces techniques au sein d'un logiciel, Ocelotl, dont les choix de conception assurent le passage à l'échelle pour des traces de plusieurs milliards d'évènements. Nous proposons également une interaction efficace, notamment en synchronisant notre méthode de visualisation avec des représentations plus détaillées, afin de permettre une analyse descendante jusqu'à la source des anomalies.


Titre : User-oriented probabilistic forecasts for bike-sharing systems
Type : Séminaire
Intervenant : Guiilaume Massonnet
Date : 04/06/2015
Heure : 13:00

Lieu:
C 208
Résumé: With the expansion of bike-sharing systems (BSS) in recent years, more and more effort is dedicated to the improvement of the quality of service toward users. In particular, providing reliable forecasts has become critical in order to predict blocking situations (i.e. empty or full stations), which often disrupt the flow of bikes in the system. Most of the techniques in the literature develop predictors that compute a single deterministic value to forecast the number of available bikes in the stations. The most common way to evaluate their accuracy is then to use the standard root-mean-square-error (RMSE). In this work, we provide evidences that RMSE is not an appropriate measure of performance for predictions in such systems because it does not account for the inherent stochasticity of BSS. With this in mind, we introduce a new predictor based on a queuing network model that produces a probabilistic forecast instead of a deterministic one. In addition, we propose a new metric based on scoring rules to test the performances of our model against classical predictors on the Vélib' BSS of the city of Paris. Our results show that for prediction horizons of up to a few hours, classical predictors are outperformed by our probabilistic predictor. Finally, we show how our method leads the user towards better decision making by helping her avoid frustrating experiences.


Titre : Output Feedback in Wireless Communications
Type : Séminaire
Intervenant : Samir Perlaza
Date : 21/05/2015
Heure : 14:00

Information détaillée:
TBA
Résumé: The main goal of this presentation is to highlight channel-output feedback as a promising technique for interference management in highly densified networks, e.g., 5G communications systems. For this purpose, recent results on the fundamental limits of centralized and decentralized multi-user channels with channel output feedback are described. These fundamental limits are presented in the form of capacity regions and equilibrium regions. In particular, the interference channel (IC), multiple access channel (MAC) and broadcast channel (BC) are thoroughly revisited using linear deterministic models for both achievability and converse theorems. Finally, recent results and emerging techniques for optimal utilization of CSI feedback in multi-user systems will also be covered.


Titre : Multi-armed Bandits Canceled
Type : Séminaire
Intervenant : Vianney Perchet
Date : 07/05/2015
Heure : 14:00

Information détaillée:
Attention, this seminar is canceled, hopefully postponed to a later date
Résumé: TBA


Titre : Primal-dual and dual fitting analysis of online scheduling algorithms for generalized flow-time problems
Type : Séminaire
Intervenant : Giorgio Lucarelli
Date : 30/04/2015
Heure : 14:00

Information détaillée:
F 107
Résumé: We study a variety of online scheduling problems on a single processor that can be viewed as extensions of the well-studied problem of minimizing total weighted flow time. Most previous work on this class of problems has relied on amortized analysis and the use of complicated potential-function arguments. In this paper we follow a different approach based on the primal-dual and dual-fitting paradigms. In particular, we provide a framework of analysis that is derived by duality properties, does not rely on potential functions, gives insights for new algorithms, and is applicable to a variety of scheduling problems. We begin with an interpretation of the algorithm Highest-Density-First (HDF) as a primal-dual algorithm, and a corresponding proof that HDF is optimal for total weighted fractional flow time, which directly implies that it is scalable for the integral objective. Building upon the salient ideas of the proof, we show how to apply and extend this analysis to generalized flow-time problems. Our results demonstrate that several online problems for minimizing extensions of flow-time objectives can be approached using the same underlying framework of analysis based on techniques from linear programming. This is a joint work with Spyros Angelopoulos and Nguyen Kim Thang.


Titre: Approche de profilage en ligne avec Multi-Application Online Profiling (MALP) et son extension à la chaine de simulation
Type : Séminaire
Date : 26/02/2015
Heure : 14:00

Information détaillée:
F107-Inria
Résumé: L’évolution rapide des super-calculateurs couplée à la complexité des codes de simulation pose de réelles problématiques d’évolutivité des codes de calcul. Dans ce contexte, cette présentation se concentre sur l’analyse du couplage code-machine en présentant l’outil MALP (Multi-Application Online Profiling) qui fournit une infrastructure de profilage en ligne. Outil développé au CEA-DAM dans le cadre d’une thèse [1]. Comme nous allons le montrer, bien plus que l’aspect profilage en lui même, l’originalité de MALP a été d’aborder différemment la problématique de gestion des données en allouant explicitement des ressources couplées à l’application instrumentée. Tout d’abord, nous présenterons rapidement l’outil et ses fonctionnalités avant de commenter les évolutions de notre infrastructure de mesure depuis un format de trace dédié vers une approche « en-ligne »[2]. Enfin, nous conclurons notre présentation en proposant quelques exemples prospectifs d’utilisation d’une telle approche dans la gestion des données d’une chaine de simulation : délégation d’IO, analyse in-situ, couplage inter-codes, entrées/sorties enrichies « dashboard » et interactivité, modèle de programmation out-of-core « IO-GAS », tolérance aux pannes. Références: [1] https://tel.archives-ouvertes.fr/tel-01102639v1 [2] http://ieeexplore.ieee.org/xpl/articleDetails.jsp?arnumber=6687442


Titre : Quanticol Plenary meeting
Type : Workshop
Date : 4-6/02/2015
Information détaillée:
MJK, campus
Résumé: QUANTICOL is a European research initiative involving the University of Edinburgh, Scotland; Istituto di Scienza e Tecnologie della Informazione “A. Faedo”, Italy; Ludwig-Maximilians-Universität München, Germany; Ecole Polytechnique Fédérale de Lausanne, Switzerland; IMT Lucca, Italy and the University of Southampton. The QUANTICOL project is a member of Fundamentals of Collective Adaptive Systems (FOCAS), a Future and Emerging Technologies Proactive Initiative funded by the European Commission under FP7. The main objective of the QUANTICOL project is the development of an innovative formal design framework that provides a specification language for collective adaptive systems (CAS) and a large variety of tool-supported, scalable analysis and verification techniques. These techniques will be based on the original combination of recent breakthroughs in stochastic process algebras and associated verification techniques, and mean field/continuous approximation and control theory. Such a design framework will provide scalable extensive support for the verification of developed models, and also enable and facilitate experimentation and discovery of new design patterns for emergent behaviour and control over spatially distributed CAS.


Titre : Locality-aware policies for scheduling in supercomputers
Type : Séminaire
Intervenant : Jose Antonio Pascual Saiz
Date : 5/02/2015
Heure : 13:45

Information détaillée:
F107-Inria
Résumé: Contiguous job placement can have great on the performance of schedulers for large-scale computing systems. In contrast with non-contiguous strategies, contiguous partitioning enables the exploitation of communication locality in applications, and also reduces inter-application interference. However, contiguous partitioning increases scheduling times and system fragmentation, degrading system utilization. I present some strategies to select contiguous partitions to allocate incoming jobs. These strategies are used in combination with different mapping mechanisms to perform the task-to-node assignment in order to further reduce application run times.


Titre : Flooding Time in Sparsely Connected Networks
Type : Séminaire
Intervenant : Laurenzo Maggi
Date : 4/12/2014
Heure : 14:00

Information détaillée:
F107-Inria
Résumé: We study mobile ad hoc wireless networks using the notion of evolving connectivity graphs. In particular, we are interested in studying the expected flooding time when full connectivity cannot be ensured at each point in time. Even in this case, due to finite contact times durations, connected components may appear in the connectivity graph. Hence, this represents the intermediate case between extreme cases of sparse and static ad hoc networks. By using a generalization of edge-Markovian graphs, we extend the existing models based on sparse scenarios to this intermediate case and calculate the expected flooding time, which is the time needed by one source to broadcast a message to all the other terminals. We also propose lower and upper bounds that have reduced computational complexity. We finally provide the analysis in the quasi-sparse regime.
Short bio: Lorenzo Maggi is a Researcher at CREATE-NET (Italy) in the field of Stochastic models and Game Theory for networks. In 2013 he served as Research Assistant at Chair of Economic Theory, Saarland University (Germany). In 2012 he obtained his PhD degree from Université Nice Sophia Antipolis, under the supervision of Konstantin Avrachenkov (INRIA) and Laura Cottatellucci (EURECOM). He was the recipient, along with his coauthor F. De Pellegrini, of the Best Paper Award at WiOpt'14. He serves as Program Chair at Valuetools'14, that will take place in Bratislava, Slovakia.


Titre : Agrégation de données et analyse multi-échelle des systèmes complexes
Type : Séminaire
Intervenant : Robin Lamarche Perrin
Date : 27/11/2014
Heure : 14:30

Information détaillée:
C207-Inria
Résumé: La compréhension des systèmes complexes nécessite la plupart du temps une approche multi-échelle. Qu'il s'agisse de leur dimension spatiale, dynamique ou structurelle, les évènements et relations de causalité responsables du comportement macroscopique des systèmes peuvent recevoir des interprétations variées en fonction de la granularité de l'information disponible. Dans cette présentation, nous nous intéressons aux méthodes d'agrégation de données pour fournir aux experts une information pertinente, permettant notamment d’identifier les évènements décisifs pour la compréhension du système. Deux cadres applicatifs servent à illustrer nos propos : l'agrégation de traces d'exécution pour la détection d'anomalies dans les systèmes distribués et l'agrégation multi-échelle de données géographiques pour l'analyse des relations internationale. Le problème de la représentation multi-échelle des systèmes complexes nécessite en particulier d'aborder deux aspects fondamentaux de l'agrégation : son contenu informationnel et ses contraintes structurelles. Nous montrons dans un premier temps que l'agrégation repose ainsi sur l'optimisation conjointe de deux propriétés antagonistes de l’information. L’objectif est de réduire la complexité microscopique des données analysées tout en préservant leur pouvoir explicatif. La théorie de l'information offre à ce titre les bases mathématiques adéquates pour formaliser le problème d'optimisation correspondant. Nous nous intéressons ensuite au rôle des connaissances expertes pour l’interprétation les données agrégées. Ces connaissances – essentielles à l’analyse – sont exprimées par des jeux de contraintes structurant l'espace de recherche du problème d’optimisation. Nous présentons enfin un cadre algorithmique générique permettant de résoudre les différentes versions du problème d'optimisation ainsi défini. Les algorithmes ainsi élaborés agrègent l'information de manière optimale tout en préservant les propriétés structurelles du système analysé.


Titre : Contributions to fault-tolerant NoC-based many-core processors and future-proof Off-Chip supercomputer interconnects
Type : Séminaire
Intervenant : Fabien Chaix
Date : 10/10/2014
Heure : 14:00

Information détaillée:
F107-Inria
Résumé: Manufacturing processors with aggressive CMOS topologies paves the way to more efficient and powerful computers, but also introduces new challenges to the computer industry. As the architecture of processors evolves towards massively multi-core paradigm, the efficient design and use of Network On Chips (NoCs) is paramount, but the exploitation of such devices is hampered by increasing variability and defect rates. Concurrently, the decrease of energy consumption and cost of processor chips leads to larger Off-Chip interconnects, with an increasing impact on system cost, energy and application latencies. And lastly, designers are facing many uncertainties when designing Off-Chip interconnects, as the best-suited topology depends on target applications, which are not always defined at that time. Inside chips, we then propose the adoption of more complex routing algorithms to better exploit the processor resources in the presence of defects. This approach increases the interconnect throughput by up to a factor 10 in the presence of 20 % of defects. We also propose a method for applications to deploy dynamically their task across cores while avoiding faulty cores, avoiding less efficient cores, and minimizing the expected energy consumption. Finally, a few elements of the NoC simulation model that was developed for this thesis are explained, with a focus on its graphical visualization features. Outside chips, our focus is on the proposition of topologies allowing better performances, while reducing the interconnect cost. Hence, the team at NII contributed several randomly-generated topologies that take advantage of the small world effect and the physical clustering of nodes to both reduce the network diameter and cabling cost. While this approach is very effective for latency-bound applications, throughput-bound applications are generally best run on a meshed or hierarchical topology. Another issue is that supercomputers are often built in more than one stage, and hence the cabling should be incremental too, which is far from trivial for high-radix topologies. Hence, we propose a method for cabling multiple topologies in a more efficient and incremental way, thus enabling a more agile deployment of the Off-Chip interconnect in supercomputers.


Titre : Large Deviations and Stochastic Stability in Large Population Games: the Small Noise Double Limit
Type : Séminaire
Intervenant : Bill Sandholm
Date : 18/09/2014
Heure : 14:00

Information détaillée:
F107-Inria
Résumé: Stochastic stability studies the question of long-term equilibrium selection and convergence in games with multiple equilibria. We consider a model of stochastic evolution in population games under general noisy best response protocols, allowing the probabilities of suboptimal choices to depend on their payoff consequences. Our analysis focuses on behavior in the small noise double limit: we first take the noise level in agents' decisions to zero, and then take the population size to infinity. We show that in this double limit, escape from and transitions between equilibria can be described in terms of solutions to continuous optimal control problems. These are used in turn to characterize the asymptotics of the the stationary distribution, and so to determine the stochastically stable states. We then focus on a class of examples - three-strategy coordination games with an interior equilibrium, and choices governed by the logit rule. In this setting the control problems can be solved explicitly, and the analysis carried to its very end. We argue that should remain true for other classes of games and other choice rules.


Titre : Generic Algorithms for Deterministic Random Number Generation in Dynamic-Multithreaded Platform
Type : Séminaire
Intervenant : Stefano Mohr
Date : 4/09/2014
Heure : 15:00

Information détaillée:
Grand amphi-Inria
Résumé: On dynamic multithreaded platforms with on-line scheduling such as work-stealing, randomized computations raise the issue of reproducibility. Compliant with de facto standard sequential Deterministic Random Number Generators (DRNGs) noted R, we propose a parallel DRNG implementation for finite computations that provides deterministic parallel execution. It uses the stateless sub-stream approach, enabling the use of efficient DRNG such as Mersenne Twister or Linear Congruential. We demonstrate that if R provides fast jump ahead in the random sequence, the re-seeding overhead is small, polylog in expectation, independently from the parallel computation’s depth. Experiments bench- mark the performance of randomized algorithms employing our solution against the stateful DRNG DotMix, tailored to the Cilk Plus dynamic multithreading runtime. The overhead of our implementation ParDRNG-R compares favorably to the linear overhead of DotMix re-seedings.


Titre : A Resource Sharing Game with Relative Priorities
Type : Séminaire
Intervenant : Josu Doncel
Date : 4/09/2014
Heure : 14:00

Information détaillée:
Grand amphi-Inria
Résumé: Motivated by cloud-based computing resources operating with relative priorities, we investigate the strategic interaction between a fixed number of users sharing the capacity of a processor. Each user chooses a payment, which corresponds to his priority level, and submits jobs of variable sizes according to a stochastic process. These jobs have to be completed before some user-specic deadline. They are executed on the processor and receive a share of the capacity that is proportional to the priority level. The users' goal is to choose priority levels so as to minimize their own payment, while guaranteeing that their jobs meet their deadlines. We fully characterize the solution of the game for two classes of users and exponential service times. For an arbitrary number of classes and general service times, we develop an approximation based on heavy-trafic and we characterize the solution of the game under the heavy-trafic assumption. Our experiments show that the approximate solution captures accurately the structure of the equilibrium in the original game.


Titre : Taking Advantage of Partial Customer Flexibility in Service Systems
Type : Séminaire
Intervenant : Rhonda Righter
Date : 15/05/2014
Heure : 14:00

Information détaillée:
F107-Inria
Résumé:In many service, production, and traffic systems there are multiple types of customers requiring different types of service. Providing flexible servers that can serve multiple customer types improves performance, but can be very expensive. On the other hand, often some of the customers may be flexible, i.e., they may be willing to change their type in order to achieve faster service, and the infrastructure to take advantage of this customer flexibility is often relatively inexpensive. Our research is in part motivated by a call center (in Quebec) which provides service in both English ("Press 1") and French ("Press 2"). Because of the training expense and high turnover of agents, the company policy is to train agents to only handle calls in one language. The company would like to know the benefit of adding a "Press 0" option for bilingual customers, how these customers should best be handled, and how the benefit depends on the proportion of customers who are bilingual. We model our system as a set of alternative multi-server queues, and with a mixture of dedicated (to a single queue) and flexible (multi-lingual) customers, and exponential services. We extend known results showing that JSQ - Join the Shortest Queue - is the optimal queue-length based routing policy for flexible customers. This policy not only minimizes overall waiting times and waiting times for flexible customers, it also minimizes waiting times for dedicated customers. The optimality of JSQ gives us monotonicity: waiting time is decreasing in the proportion of flexible customers, p. We then consider convexity, that the marginal improvement in performance is decreasing as more customers become flexible. We give a model where we can show a strong sample-path version of convexity, but in general, convexity will not hold in this strong sense. We give conditions for weaker notions of convexity to hold. We also consider two more efficient approaches to handle flexible customers. We explore optimal policies under the different approaches and the trade-offs in terms of efficiency, fairness, incentive compatibility.


Titre : Accélération de codes scientifiques en Python avec Pythran
Type : Séminaire
Intervenant : Serge Guelton
Date : 12/05/2014
Heure : 14:00

Information détaillée:
F107-Inria
Résumé: Le calcul scientifique en Python prend de plus en plus d’importance, grâce à des modules de calculs scientifiques efficaces - numpy et scipy, une bibliothèque de visualisation riche - Matplotlib, et un langage de haut niveau avec un écosystème riche et plusieurs implémentations libres. Le langage Python ne brille pas par ses performances. Numpy propose une solution efficace à ce problème sous la forme d’un module natif proposant des fonctions écrites en C/Fortran et travaillant sur des données natives, sans encapsulation. Cependant, la frontière entre code interprété et code natif empêche de bénéficier de l’ensemble des capacités de la machine hôte. Le compilateur Pythran propose de déplacer cette frontière afin de déporter l’ensemble des noyaux de calcul vers un module natif où les opérations Numpy sont fusionnées, parallélisées et vectorisées. Pour atteindre ce résultat, Pythran convertit un sous-ensemble implicitement statiquement typé de Python en un méta-programme C++11, qui est ensuite utilisé, combiné avec quelques annotations de type - typiquement une par fonction exportée - pour générer un module natif parallèle. Pythran combine des techniques de compilation classiques appliquées au langage Python avec un runtime proposant une API semblable à celle de Numpy utilisant les expressions templates pour fusionner certaines opérations, OpenMP pour les paralléliser et Boost.SIMD pour les vectoriser. Pythran propose également un ensemble d’analyses et d’optimisations pour construire un compilateur dédié, ou expérimenter de nouvelles optimisations sans avoir à réimplémenter toutes les dépendances.


Titre : Collective Mind Technology: towards collaborative, systematic and reproducible auto-tuning
Type : Séminaire
Intervenant : Grigori Fursin
Date : 16/04/2014
Heure : 14:00

Information détaillée:
A104-Inria
Résumé: Empirical program and architecture tuning combined with run-time adaptation and machine learning has been demonstrating good potential to improve performance, power consumption and other important metrics of computer systems for more than a decade. However, it is still far from the widespread production use due to unbearably long exploration and training times, ever changing tools and their interfaces, lack of a common experimental methodology, and lack of unified mechanisms for knowledge building and exchange apart from publications where reproducibility of results is often not even considered. In this talk, I will present public plugin-based Collective Mind infrastructure that attempts to systematize analysis and optimization of computer systems using crowdsourcing, extensible repository of knowledge, and machine learning. In this cooperative approach, multi-objective program and architecture tuning is transparently distributed among multiple users while connecting together and unifying existing techniques and tools, and utilizing any available mobile phones, cluster or cloud computer services for online learning. Gradually increasing optimization knowledge helps to continuously improve optimization heuristics of any compiler (currently focusing on GCC and LLVM), predict optimizations for new programs or suggest efficient run-time adaptation strategies depending on end-user requirements. Prototype of the framework and repository is available online at http://c-mind.org/repo with hundreds of shared codelets, numerical applications, data sets, models, universal experimental pipelines, and unified tools. It enables systematic, reproducible and collaborative R&D on auto-tuning and machine learning with a new publication model where experiments and techniques are validated and improved by the community.


Titre : Discrete time mean field games: the short-stage limit
Type : Séminaire
Intervenant : Juan Pablo Maldonado
Date : 10/04/2014
Heure : 14:00

Information détaillée:
A104-Inria
Résumé: We construct an approximate Nash equilibrium of a discrete time stochastic game with finitely many players. We study also the case when the duration of each stage goes to zero and discuss some possible applications and extensions.


Titre : Autour des automates cellulaires probabilistes
Type de séminaire : Séminaire
Intervenant : Irène Marcovici
Date : 20/03/2014
Heure : 15:00

Information détaillée
Grand amphi
Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA

Résumé
Un automate cellulaire probabiliste (ACP) est une chaîne de Markov sur un espace symbolique. Le temps est discret, les cellules évoluent de manière synchrone, et le nouvel état de chaque cellule est choisi de manière aléatoire, indépendamment des autres cellules, selon une distribution déterminée par les états d'un nombre fini de cellules situées dans le voisinage. Les ACP sont utilisés en informatique comme modèle de calcul, ainsi qu'en biologie et en physique. Ils interviennent aussi dans différents contextes en probabilités et en combinatoire.

Un ACP est ergodique s'il a une unique mesure invariante qui est attractive, ce qui signifie qu'au cours de son évolution, il "oublie" sa configuration initiale. Je présenterai l'algorithme que nous avons développé pour échantillonner parfaitement l'unique mesure invariante d'un ACP ergodique. Puis, je présenterai les résultats obtenus au cours de ma thèse sur deux "problèmes inverses" : le premier consiste à étudier les ACP ayant des mesures invariantes de forme produit de Bernoulli ; le second est le problème de la classification de la densité, qui consiste à trouver un AC(P) dont l'évolution permette de distinguer une configuration initiale sur l'alphabet binaire tirée selon une mesure de Bernoulli de paramètre inférieur ou supérieur à 1/2, et que nous avons résolu sur les grilles de dimension supérieure ou égale à 2 et sur les arbres.


Titre : Reinforcement learning with restrictions on the action set
Type de séminaire : Séminaire
Intervenant : Mario Bravo
Date : 20/03/2014
Heure : 13:30

Information détaillée
Grand amphi
Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA

Résumé
Consider a 2-player normal-form game repeated over time. We introduce an adaptive learning procedure, where the players only observe their own realized payoff at each stage. We assume that agents do not know their own payoff function, and have no information on the other player. Furthermore, we assume that they have restrictions on their own action set such that, at each stage, their choice is limited to a subset of their action set. We prove that the empirical distributions of play converge to the set of Nash equilibria for zero-sum and potential games, and games where one player has two actions.


Titre : Performance analysis and models for collocated VMs running on multi-core physical machines
Type de séminaire : Séminaire
Intervenant : Jonathan Rouzaud Cornabas
Date : 13/03/2014
Heure : 10:30
Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA

Résumé
During this presentation, I will first do a scope of my previous and on-going works.

Then, I will present on-going work around the performance evaluation and modeling of Cloud platforms and applications.


Titre : Feedback in Distributed Wireless Networks
Type de séminaire : Séminaire
Intervenant : Samir Perlaza
Date : 18/02/2014
Heure : 15:00

Information détaillée
Inria Montbonnot, F107
Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA

Résumé


Titre : Learning for Distributed Systems
Type de séminaire : Séminaire
Intervenant : Panayotis Mertikopoulos
Date : 16/01/2014
Heure : 14:00

Information détaillée
INRIA, F107
Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA

Résumé


Titre : Toward Better Simulation of MPI Applications on Ethernet/TCP Networks
Type de séminaire : Séminaire
Intervenant : Arnaud Legrand
Date : 12/12/2013
Heure : 14:00

Information détaillée
INRIA, F107
Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA

Résumé
Simulation and modeling for performance prediction and profiling is essential for developing and maintaining HPC code that is expected to scale for next-generation exascale systems, and correctly modeling network behavior is essential for creating realistic simulations. In this article we describe an implementation of a flow-based hybrid network model that accounts for factors such as network topology and contention, which are commonly ignored by other approaches. We focus on large-scale, Ethernet-connected systems, as these currently compose 37.8% of the TOP500 index, and this share is expected to increase as higher-speed 10 and 100GbE become more available. The European Mont-Blanc project to study exascale computing by developing prototype systems with low-power embedded devices will also use Ethernet-based interconnect. Our model is implemented within SMPI, an open-source MPI implementation that connects real applications to the SimGrid simulation framework. SMPI provides implementations of collective communications based on current versions of both OpenMPI and MPICH. SMPI and SimGrid also provide methods for easing the simulation of large-scale systems, including shadow execution, memory folding, and support for both online and offline (i.e., post-mortem) simulation. We validate our proposed model by comparing traces produced by SMPI with those from real world experiments, as well as with those obtained using other established network models. Our study shows that SMPI has a consistently better predictive power than classical LogP-based models for a wide range of scenarios including both established HPC benchmarks and real applications.
URL : http://www.dcs.warwick.ac.uk/ sdh/pmbs13papers/pmbs1130.pdf


Titre : Sean Meyn - Control Techniques for Complex Systems
Type de séminaire : Séminaire
Intervenant : Sean Meyn, Professor at University of Florida
Date : 02/12/2013
Heure : 13:30

Information détaillée

- L'équipe MESCAL a le plaisir d'accueillir pour 2 jours (lundi 2 et mardi 3 décembre) le Prof. Sean Meyn qui est un spécialiste mondial du contrôle des systèmes distribués.

- Il fera un expose en F107 (bat. Inria), lundi 2 Dec. a 13h30. Venez nombreux !
Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA

Résumé
A focus of systems & control research is to create simplified models of reality to obtain insight regarding the structure of effective policies for control. The talk will survey how this point of view can be applied to approach resource allocation problems, such as those that will arise in the next-generation power grid. We also show how insight from this kind of analysis can be used to construct architectures for reinforcement learning algorithms used in a broad range of applications.

Much of the talk is a survey from a recent book by the author with a similar title :

Control Techniques for Complex Networks

Cambridge University Press, 2007.

http://www.meyn.ece.ufl.edu/archive/spm_files/CTCN/CTCN.html

And more recent work in :

Feature selection for neuro-dynamic programming

Book chapter, D. Huang, W. Chen, P. Mehta, S. Meyn, and A. Surana.

In F. Lewis, editor, Reinforcement Learning and Approximate Dynamic Programming for Feedback Control. Wiley, 2011

http://www.meyn.ece.ufl.edu/555


Titre : Robin Lamarche-Perrin - Analyse macroscopique des grands systèmes. Émergence épistémique et agrégation spatio-temporelle.
Type de séminaire : Soutenance de thèse
Heure : 14:30

Information détaillée


Thèse en informatique pour obtenir le grade
de docteur de l'Université de Grenoble
présentée par

Robin LAMARCHE-PERRIN

préparée au sein du Laboratoire d'Informatique de Grenoble
et de l'École Doctorale MSTII
sous la direction de Yves Demazeau (LIG-MAGMA) et Jean-Marc Vincent (LIG-MESCAL

Analyse macroscopique des grands systèmes

Émergence épistémique et agrégation spatio-temporelle


- Membres du Jury :

  • M. Éric FLEURY, ENS Lyon, Rapporteur
  • M. Bernard MOULIN, Université Laval, Québec, Rapporteur
  • Mme Salima HASSAS, Université Claude Bernard - Lyon 1, Examinatrice
  • Mme Brigitte PLATEAU, Grenoble INP, Examinatrice
  • M. Yves DEMAZEAU, CNRS, Directeur de thèse
  • M. Jean-Marc VINCENT, Université Joseph Fourier, Grenoble, Codirecteur de thèse
    Évènement Confirmé : oui
    Lieu : 05. Campus - Amphi E, ENSIMAG

Résumé


Titre : Joseph Emeras - Workload Traces Analysis and Replay in Large Scale Distributed Platforms
Type de séminaire : Soutenance de thèse
Intervenant : Joseph Emeras
Date : 01/10/2013
Heure : 14:00

Information détaillée
- Lieu de soutenance : Grand Amphi INRIA

- Membres du Jury :

  • M. Dror FEITELSON, The Hebrew University, Jerusalem, Rapporteur
  • Mme Christine MORIN, INRIA, Examinateur
  • M. Denis TRYSTRAM, UJF, Examinateur
  • M. Yves DENNEULIN, Grenoble INP, Directeur de thèse
  • M. Olivier RICHARD, UJF, CoDirecteur de thèse
  • M. Christian PEREZ, INRIA, Rapporteur
  • M. Philippe DENIEL, CEA DAM
    Évènement Confirmé : oui
    Lieu : 50. Montbonnot-INRIA

Résumé

High Performance Computing is preparing the era of the transition from Petascale to Exascale. Distributed computing systems are already facing new scalability problems due to the increasing number of computing resources to manage. It is now necessary to study in depth these systems and comprehend their behaviors, strengths and weaknesses to better build the next generation. The complexity of managing users applications on the resources conducted to the analysis of the workload the platform has to support, this to provide them an efficient service.

The need for workload comprehension has led to the collection of traces from production systems and to the proposal of a standard workload format. These contributions enabled the study of numerous of these traces. This also led to the construction of several models, based on the statistical analysis of the different workloads from the collection. Until recently, existing workload traces did not enabled researchers to study the consumption of resources by the jobs in a temporal way. This is now changing with the need for characterization of jobs consumption patterns. In the first part of this thesis we propose a study of existing workload traces. Then we contribute with an observation of cluster workloads with the consideration of the jobs resource consumptions over time. This highlights specific and unattended patterns in the usage of resources from users. Finally, we propose an extension of the former standard workload format that enables to add such temporal consumptions without loosing the benefit of the existing works.

Experimental approaches based on workload models have also served the goal of distributed systems evaluation. Existing models describe the average behavior of observed systems. However, although the study of average behaviors is essential for the understanding of distributed systems, the study of critical cases and particular scenarios is also necessary. This study would give a more complete view and understanding of the performance of resource and job management. In the second part of this thesis we propose an experimental method for performance evaluation of distributed systems based on the replay of production workload trace extracts. These extracts, replaced in their original context, enable to experiment the change of configuration of the system in an online workload and observe the different configurations results. Our technical contribution in this experimental approach is twofold. We propose a first tool to construct the environment in which the experimentation will take place, then we propose a second set of tools that automatize the experiment setup and that replay the trace extract within its original context.

Finally, these contributions conducted together, enable to gain a better knowledge of HPC platforms. As future works, the approach proposed in this thesis will serve as a basis to further study larger infrastructures.


Titre : Matthieu Ospici - Modèles de programmation et d'exécution pour les architectures parallèles et hybrides. Applications à des codes de simulation pour la physique.
Type de séminaire : Soutenance de thèse
Date : 03/07/2013
Heure : 11:00

Information détaillée
- Thèse préparée dans le cadre d'une collaboration entre l'équipe MESCAL du Laboratoire d'Informatique de Grenoble (LIG), le laboratoire L_SIM de l'institut INAC du CEA Grenoble et la société Bull.

- Lieu de soutenance :

  • UFR IMAG, salle f022, sur le domaine universitaire de Grenoble
    (plan d'accès)

- Composition du jury :

  • M. Édouard AUDIT, CEA/Maison de la Simulation, Rapporteur
  • M. Pierre MANNEBACK, Université de Mons, Rapporteur
  • M. David GOUDIN, CEA-CESTA, Examinateur
  • M. Jean VIRIEUX, Université Joseph Fourier, Examinateur
  • M. Dimitri KOMATITSCH, CNRS-Marseille, Examinateur
  • M. Thierry DEUTSCH, CEA-Grenoble, Co-Directeur de thèse
  • Mme Pascale ROSSÉ-LAURENT, Bull-Échirolles, Examinateur
  • M. Jean-François MÉHAUT, Université Joseph Fourier, Directeur de thèse
    Lieu : 90. Ailleurs

Résumé

Nous nous intéressons dans cette thèse aux grandes architectures parallèles hybrides, c'est-à-dire aux architectures parallèles qui sont une combinaison de processeurs généraliste (Intel Xeon par exemple) et de processeurs accélérateur (GPU Nvidia). L'exploitation efficace de ces grappes hybrides pour le calcul haute performance est au coeur de nos travaux. L'hétérogénéité des ressources de calcul au sein des grappes hybrides pose de nombreuses problématiques lorsque l'on souhaite les exploiter efficacement avec de grandes applications scientifiques existantes. Deux principales problématiques ont été traitées. La première concerne le partage des accélérateurs pour les applications MPI et la seconde porte sur la programmation et l'exécution concurrente de code entre CPU et accélérateur.

Les calculateurs hybrides sont très hétérogènes : en fonction des architectures, le ratio entre le nombre d'accélérateurs et le nombre de coeurs CPU est très variable. Ainsi, nous avons tout d'abord proposé une notion de virtualisation d'accélérateur, qui permet de donner l'illusion aux applications qu'elles ont la capacité d'utiliser un nombre d'accélérateurs qui n'est pas lié au nombre d'accélérateurs physiques disponibles dans le matériel. Un modèle d'exécution basé sur un partage des accélérateurs est ainsi mis en place et permet d'exposer aux applications une architecture hybride plus homogène. Nous avons également proposé des extensions aux modèles de programmation basés sur MPI / threads afin de traiter le problème de l'exécution concurrente entre CPU et accélérateurs. Nous avons proposé pour cela un modèle basé sur deux types de threads, les threads CPU et les threads accélérateur, permettant de mettre en place des calculs hybrides exploitant simultanément les CPU et les accélérateurs.

Le déploiement et l'exécution du code sur les ressources hybrides est crucial. Nous avons pour cela proposé deux bibliothèques logicielles S_GPU 1 et S_GPU 2 qui ont pour rôle de déployer et d'exécuter les calculs sur le matériel hybride. S_GPU 1 s'occupant de la virtualisation, et S_GPU 2 de l'exploitation concurrente CPU — accélérateurs. Pour observer le déploiement et l'exécution du code sur des architectures complexes à base de GPU, nous avons intégré des mécanismes de traçage qui permettent d'analyser le déroulement des programmes utilisant nos bibliothèques.

La validation de nos propositions a été réalisée sur deux grandes application scientifiques : BigDFT (simulation ab-initio) et SPECFEM3D (simulation de propagation d'ondes sismiques).


Titre : Antoniu Pop - A Data-flow Approach to Solving the Von Neumann Bottlenecks in the Manycore Era
Type de séminaire : Séminaire
Intervenant : Antoniu Pop
Date : 11/04/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé
As single-threaded performance has flattened, the prevailing trend in current hardware architectures is to provide an ever increasing number of processing units. Exploiting newer architectures poses tremendous challenges to application programmers and to compiler developers alike. Uncovering raw parallelism is insufficient in and of itself : improving performance requires changing the code structure to harness complex parallel hardware and memory hierarchies ; translating more processing units into effective performance gains involves a never-ending combination of target-specific optimizations, subtle concurrency concepts and non-deterministic algorithms. As optimizing compilers and runtime libraries no longer shield programmers from the complexity of processor architectures, the gap to be filled by programmers increases with every processor generation.

Driven by these challenges, we designed and implemented OpenStream, a high-level data-flow programming model, with the pragmatic perspective of achieving a fair middle-ground : programmers provide abstract information about their applications and leave the compiler and runtime system with the responsibility of lowering these abstractions to well-orchestrated threads and memory management. The expressiveness of such languages and the fine balance between the roles of programmers and compilers, as well as the static analysis and code generation techniques required to generate efficient code while abiding by the ``write once, compile anywhere'' rule, pose problems of great relevance from both theoretical and practical standpoints. The way forward still requires overcoming one of the greatest shortcomings of current compilers, their inability to understand concurrency, by developing new compiler intermediate representations for parallel programs. This is essential to both enable new compiler optimizations and avoid the current obfuscation of program semantics resulting from the lack of integration of parallel constructs in current intermediate representations. Finally, we developed a theoretical framework, the Control-Driven Data Flow model of computation, to reason about computation and execution in this context, to enable verification


Titre : Jonathan Rouzaud Cornabas - Simulation of Scientific Applications on multiple Clouds
Type de séminaire : Séminaire
Intervenant : Jonathan Rouzaud Cornabas
Date : 08/04/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé _ : Nowadays, a lot of scientific applications want to use Cloud Computing platforms. Many papers have been published on porting a specific application in a Cloud. But they do not go further than running the application and only take into account a part of the resources available. The goal of my work is to design new provisioning algorithms for scientific applications on multiple Clouds. Contrary to other approaches, I take into account all the resources and not only the computing ones. The purpose of this presentation is to show than even common and simple scientific applications such as Bag Of Tasks request


Titre : Cheng Wan - Coalitions et délégation dans les jeux de congestion
Type de séminaire : Séminaire
Intervenant : Cheng Wan
Date : 04/04/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé


Titre : Sylvain Durand - Commande des systèmes cyber-physiques, quelques exemples d'applications
Type de séminaire : Séminaire
Intervenant : Sylvain Durand
Date : 03/04/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé


Titre : Cheng Wan - Coalitions et délégation dans les jeux de congestion
Type de séminaire : Séminaire
Intervenant : Cheng Wan
Date : 28/03/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé


Titre : Georgio Lucarelli - Energy-aware scheduling algorithms
Type de séminaire : Séminaire
Intervenant : Georgio Lucarelli
Date : 25/03/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé


Titre : Energy-aware scheduling algorithms
Type de séminaire : Séminaire
Intervenant : Gergio Lucarelli
Date : 25/03/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé


Titre : Contrôle matériel des systèmes partiellement reconfigurables sur FPGA : de la modélisation à l'implémentation
Type de séminaire : Séminaire
Intervenant : Chiraz Trabelsi
Date : 25/03/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé


Titre : Chiraz Trabelsi - Contrôle matériel des systèmes partiellement reconfigurables sur FPGA : de la modélisation à l'implémentation
Type de séminaire : Séminaire
Intervenant : Chiraz Trabelsi
Date : 25/03/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé


Titre : Yannick Ngoko - Optimiser la coopération entre plusieurs heuristiques résolvant le même problème
Type de séminaire : Séminaire
Intervenant : Yannick Ngoko
Date : 22/03/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé


Titre : Florent Bouchez Tichadou - Compilation : the good, the bad and the ugly
Type de séminaire : Séminaire
Intervenant : Florent Bouchez Tichadou
Date : 21/03/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé
Short abstract : In this presentation, a novel vision of the register allocation problem, and an intermediate representation taken from Jurassic Park.

Somewhat longer abstract : The goal of register allocation is to assign the variables of a program to registers or to memory. Registers are preferred because they are much faster, but whenever there are more variables alive at the same time than R, the number of registers, it is mandatory to spill some of them, i.e., allocate them to memory. Conjointly, coalescing variables, i.e., allocating variables linked by copy instructions to the same register, saves those instructions. For nearly 25 years, the problems of spilling and coalescing have been considered in a single phase of register allocation because they both interact with each other : spilling a variable prevents its coalescing with other variables, but coalescing two variables increases their chances of being spilled.

I will show that it is possible to cleanly separate register allocation into two phases without loss of quality : first spill variables so that the number of variables simultaneously alive is at most R everywhere on the program ; then, allocate all remaining variables to the registers while performing coalescing. This was made possible by the observation that under a special form (the Static Single Assignment (SSA) form) the interference graph of the variables of a program is chordal and not general anymore. Since only spilling can reduce the coloring number of this graph, it can be done first. Then, register allocation is known to be possible and coalescing is performed carefully in order not to increase the coloring number again.

I will then present Tirex, a Textual Intermediate Representation for EXchanging target-level information between compiler optimizers. This allows to factor target-specific compiler optimizations into a single component from multiple compilers. Expressed at a target level, Tirex reduces the run-time cost of JIT compilation and of mixed mode execution, since the program to compile is already in a representation lowered to the level of the target processor. I will briefly outlines how Tirex is a powerful tool that opens research directions in program specialization for VLIW architectures.

The allocation of the "good," "bad," and "ugly" adjectives to their


Titre : Paul Renaud-Goud - Ordonnancement sous contraintes d'énergie
Type de séminaire : Séminaire
Intervenant : Paul Renaud-Goud
Date : 14/03/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé
Durant cet exposé, je présenterai les travaux que j'ai effectués sur le thème de l'ordonnancement sous contraintes d'énergie, tous ayant pour objectif commun de minimiser l'énergie consommée par la plate-forme considérée.

Nous commencerons par l'ordonnancement de taches indépendantes sur un ensemble de processeurs, où des bornes concernant la consommation énergétique d'un algorithme glouton classique (se prêtant initialement à la minimisation du temps d'exécution) seront données. Nous étudierons ensuite le placement d'applications pipelinées concurrentes sur un ensemble de processeurs reliés par une clique, et le placement de répliques dans un réseau arborescent. Puis nous considérerons ensuite les processeurs multi-cœurs à travers deux problèmes : d'une


Titre : Amina Guermouche - A New Hierarchical Fault Tolerance Protocol for MPI HPC Applications
Type de séminaire : Séminaire
Intervenant : Amina Guermouche
Date : 21/02/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé
High performance computing will probably reach exascale in this decade. At such a scale, the mean time between failures is expected to be a few hours. Existing fault tolerance protocols will no longer be suitable : Coordinated checkointing protocols force all processes to restart and message logging protocols log all messages and their determinants. In order to overcome these limits, one can combine these protocols and use them on clusters of processes. Many protocols based on this idea already exist in the litterature. This talk presents a new hierarchical protocol that logs only message payload unlike all existing hierarchical protocols. It is based on a study of MPI applications. The study shows that many MPI applications are "send-deterministic", and in many cases, the communication patterns of the application allow creating groups of processes. The talk will


Titre : Guillaume Quintin - Codes d'évaluations et leur implantation
Type de séminaire : Séminaire
Intervenant : Guillaume Quintin
Date : 15/02/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé
Dans cet exposé, je vais présenter l'état de l'art concernant l'implantation des codes correcteurs d'erreurs d'évaluation. Il s'agit de codes correcteurs dont l'encodage se fait par évaluation de fonctions polynomiales. Deux sous familles importantes sont les codes de Reed-Solomon et les codes CRT. Je commencerai par un bref rappel sur les codes correcteurs d'erreurs, il s'agira principalement de vocabulaire. Ensuite j'expliquerai l'implantation des algorithmes de décodage que j'ai faite durant ma thèse et les choix concernant cette implantation. Je montrerai ce qu'est et ce que peut apporter le décodage en liste pour effectuer des calculs parallélisables. Enfin, si le temps le permet, je parlerai plus en détail du fonctionnement de la librairie dans laquelle


Titre : Marc Tchiboukdjian - Cache-efficient parallel algorithms based on divide and conquer
Type de séminaire : Séminaire
Intervenant : Marc Tchiboukdjian
Date : 14/02/2013
Heure : 14:00
Lieu : 40. Montbonnot-ENSIMAG

Résumé
It is foreseen that data movements will be the main cause of power consumption in future architecture. Enhancing data locality is thus essential to achieve energy efficiency. In this talk, I will present several examples of how one can adapt simultaneously computation order and data layout to produce algorithms that exposes lots of parallelism use caches efficiently. These algorithms are based on a recursive formulation of the algorithm and the underlying data structure to expose locality and parallelism at all levels of granularity. I will also give an overview of related projects I worked on during my post-doc.


Titre : Euriell Le Corronc - Symbolic models for switched systems
Type de séminaire : Séminaire
Intervenant : Euriell Le Corronc
Date : 31/01/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé


Titre : Jacek Blazewicz - Internet Shopping Optimization Problem - new algorithms
Type de séminaire : Séminaire
Intervenant : Jacek Blazewicz
Date : 24/01/2013
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé
In the talk we study an optimization aspect of Internet shopping with price sensitive discounts from customer's perspective (which is a specific case of the Internet Shopping Optimization Problem). We developed and experimentally tested a simple greedy algorithm for ISOP. In this algorithm products are considered in a certain order. Computer experiments, where solutions obtained by the algorithm were compared against optimal solutions and those provided by the internet algorithm of Price Comparison Sites, were performed on the basis of data from the online book industry. Solutions found by the greedy algorithm were on average 4.1% more expensive than the optimal solutions and were 36.1% cheaper than solutions provided by Price Comparison Sites without taking delivery prices into account. New algorithms, taking into account the specificity of the problem, are presented as well and further extensions and generalizations are also


Titre : Bounds for Communication in Wireless Grids
Type de séminaire : Séminaire
Intervenant : Joseph Peters
Date : 06/12/2012
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé
Joseph Peters, School of Computing Science, Simon Fraser University

In a wireless network, a transmission can be received by a node if it is close enough to the sender. However, transmissions can interfere with each other and the interference distance is typically greater than the reception distance. Efficient communication protocols in these networks minimize the time to move information without interference.

In this talk, I will describe optimal protocols for the problem of collecting information into a central node of a two-dimensional square or hexagonal grid graph. The optimality of the protocols is proved using a new lower bound technique that is an adaptation to a discrete environment of a


Titre : Computationnal science of Distributed Systems
Type de séminaire : Séminaire
Intervenant : Martin Quinson
Date : 28/11/2012
Heure : 14:30
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé
http://webloria.loria.fr/&nbsp ;...


Titre : Thread placement strategies on multicore processors.
Type de séminaire : Séminaire
Intervenant : Abdelhafid Mazouz
Date : 06/11/2012
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé


Titre : Adaptive decoding for dense and sparse evaluation/interpolation codes
Type de séminaire : Séminaire
Intervenant : Clément Pernet
Date : 20/09/2012
Heure : 15:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé
We will present recent work on evaluation-interpolation error correcting codes. It is motivated in the study of algorithm based fault tolerance (ABFT) applied to parallel exact linear algebra. Indeed evaluation/interpolation schemes allow to split the computational load of one problem into several independent tasks, making the problem embarassingly parrallel. In the context where soft-errors occur during the computation of some of these tasks, the evaluation/interpolation codes make it possible to still recover the result provided that some amount of redundant information has been computed.

In a first part we will focus on the interpolation of dense polynomials with errors, and their equivalent over the ring of integer : the CRT-codes (Chinese Remainder Theorem). We will introduce a more general error model allowing to derive tighter bounds on the error correction capacities of such codes. Then we will describe some improvements making the error correction capacity adaptive with respect to the exact amount of information of the result to be computed.

In a second part we will focus on the interpolation of sparse polynomials with errors. After proving a lower bound on the required evaluation points, we will present a unique decoding algorithm matching that bound and a list-decoding variant of it, with a lesser requirement on the number of


Titre : Second workshop du LICIA
Type de séminaire : Séminaire
Date : 05/09/2012
Date de fin : 07/09/2012

Information détaillée

Le Licia (Laboratoire International de Calcul Intensif et d'Informatique Ambiante) est un laboratoire international associé entre le LIG et l'Université Fédérale Du Rio Grande do Sul à Porto Alegre (Brésil).

Le 2ème workshop a lieu les 5-6-7 septembre à la MJK.

Le programme de travail est joint à cet article et vous êtes cordialement invité à y participer et à rencontrer nos collègues brésiliens qui sont à Grenoble sur cette période.

C'est l'occasion pour découvrir les activités de l'UFRGS en informatique et initier de nouveaux projets de collaboration scientifique.

Évènement Confirmé : oui
Lieu : 10. Campus - Amphi MJK
Document joint (2Mo max) : IMG/protege/form10/LICIA-Workshop-2012-final.pdf


Titre : Proportional Optimization and Fairness : Applications
Type de séminaire : Séminaire
Intervenant : Wieslaw Kubiak
Date : 06/03/2012
Heure : 10:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé


Titre : Adaptive algorithms : The Portfolio Approach
Type de séminaire : Séminaire
Intervenant : Joachim Lepping
Date : 23/02/2012
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé


Titre : Charbel El Kaed - Home Devices Mediation using ontology alignment and code generation techniques
Type de séminaire : Soutenance de thèse
Intervenant : Charbel EL KAED
Date : 13/01/2012
Heure : 14:00
Date de fin : 13/01/2012

Information détaillée
La soutenance aura lieu dans l'Amphithéâtre "Amphi Bar" d'Orange Labs Meylan, au 28, Chemin du Vieux Chêne.

Le jury sera composé de :
- Stéphane FRÉNOT, Professeur, INSA Lyon, Rapporteur
- Michel RIVEILL, Professeur, Polytech'Nice Sophia, Rapporteur
- Patrick REIGNIER, Professeur, Grenoble INP/Ensimag, Examinateur
- Lukasz SZÒSTEK Expert TP R&D, Orange Labs, Poland, Invité
- Yves DENNEULIN, Professeur, Grenoble INP/Ensimag, Encadrant
- François-Gaël OTTOGALLI, Co-responsable de Recherche, Orange Labs, Co-encadrant
Évènement Confirmé : oui
Lieu : 90. Ailleurs

Résumé


Titre : MELT, a Domain Specific Language to extend the GCC compiler
Type de séminaire : Séminaire
Intervenant : Basile Starynkevitch
Date : 09/12/2011
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé


Titre : Jean-Noël Quintin - Equilibrage de charge dynamique sur plates-formes hiérarchiques
Type de séminaire : Soutenance de thèse
Date : 08/12/2011
Heure : 14:00
Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA

Résumé
La course à l'augmentation de la puissance de calcul qui se déroule depuis de nombreuses années entre les différents producteurs de matériel a depuis quelques années changé de visage : nous assistons en effet désormais à une véritable démocratisation des machines parallèles avec une complexification sans cesse croissante de la structure des processeurs. À terme, il est tout à fait envisageable de voir apparaître pour le grand public des architectures pleinement hétérogènes composées d'un ensemble de cœurs reliés par un réseau sur puce. La parallélisation et l'exécution parallèle d'applications sur les machines à venir soulèvent ainsi de nombreux problèmes. Parmi ceux-ci, nous nous intéressons ici au problème de l'ordonnancement d'un ensemble de tâches sur un ensemble de cœurs, c'est à dire le choix de l'affectation du travail à réaliser sur les ressources disponibles. Parmi les méthodes existantes, on distingue deux types d'algorithmes : en-ligne et hors-ligne. Les algo- rithmes en-ligne comme le vol de travail présentent l'avantage de fonctionner en l'absence d'informations sur le matériel ou la durée des tâches mais ne permettent généralement pas une gestion efficace des communications. Dans cette thèse, nous nous intéressons à l'ordonnancement de tâches en-ligne sur des plates-formes complexes pour lesquelles le réseau peut, par des problèmes de congestion, limiter les performances. Plus précisément, nous proposons de nouveaux algorithmes d'ordonnancement en-ligne, basés sur le vol de travail, ciblant deux configurations différentes. D'une part, nous considérons des applications pour lesquelles le graphe de dépendance est connu à priori. L'utilisation de cette information nous permet ainsi de limiter les quantités de données transférées et d'obtenir des performances supérieures aux meilleurs algorithmes hors-ligne connus. D'autre part, nous étudions les optimisations possibles lorsque l'algorithme d'ordonnancement connaît la topologie de la plate-forme. Encore une fois, nous montrons qu'il est possible de tirer parti de cette information pour réaliser un gain non-négligeable en performance. Nos travaux permettent ainsi d'étendre le champ d'application des algorithmes d'ordonnancement vers des architectures plus complexes et permettront peut-être une meilleure utilisation des machines de demain.


Titre : Benjamin Negrevergne - A generic and parallel pattern mining algorithm for multi-core architectures
Type de séminaire : Soutenance de thèse
Intervenant : Benjamin Negrevergne
Date : 29/11/2011
Heure : 14:00
Évènement Confirmé : oui
Lieu : 10. Campus - Amphi MJK

Résumé
Dans le domaine de l'extraction de motifs, il existe un grand nombre d'algorithmes pour résoudre une large variété de sous problèmes sensiblement identiques. Cette variété d'algorithmes freine l'adoption des techniques d'extraction de motifs pour l'analyse de données. Dans cette thèse, nous proposons un formalisme qui permet de capturer une large gamme de problèmes d'extraction de motifs. Pour démontrer la généralité de ce formalisme, nous l'utilisons pour décrire trois problèmes d'extraction de motifs : le problème d'extraction d'itemsets fréquents fermés, le problème d'extraction de graphes relationnels fermés ou le problème d'extraction d'itemsets graduels fermés. Ce formalisme nous permet de construire ParaMiner, un algorithme générique et parallèle pour les problèmes d'extraction de motifs. ParaMiner est capable de résoudre tous les problèmes d'extraction de motifs qui peuvent être décrits dans notre formalisme. Pour obtenir de bonnes performances, nous avons généralisé plusieurs optimisations proposées par la communauté dans le cadre de problèmes spécifiques d'extraction de motifs. Nous avons également exploité la puissance de calcul disponible dans les architectures parallèles. Nos expériences démontrent qu'en dépit de la généralité de ParaMiner, ses performances sont comparables à celles obtenues par les algorithmes les plus rapides de l'état de l'art. Ces algorithmes bénéficient pourtant d'un avantage important, puisqu'ils incorporent de nombreuses optimisations spécifiques au sous problème d'extraction de motifs qu'ils résolvent.


Titre : Mathieu CUNCHE - Preserving Privacy with Secure Multiparty Computation
Type de séminaire : Séminaire
Intervenant : Mathieu Cunche
Date : 08/11/2011
Heure : 14:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé
In Secure Multiparty computation (SMPC) a group of participants compute, in a secure way, a function of some inputs. By secure we mean input confidentiality and result correctness. Focusing on inputs confidentiality, SMPC is used in privacy preserving data collection systems. The goal of those systems is to compute an aggregated value of the inputs while keeping the inputs confidential. Secure multiparty computation systems based on Shamir Secret Sharing are used to build such privacy preserving aggregation systems. We will present the construction of those systems, as well as the underlying mathematical properties. Current SMPC models consider homogeneous computing platform, i.e. all participants are equivalents. In real case scenario, it is more likely that the platform will be heterogeneous, and the participants will have different failure/corruption probabilities. We show how more robust SMPC systems can be build when this heterogeneity is taken into account. Finally we will discuss how schemes based on the Chinese remainder


Titre : Ahmed Harbaoui - Vers une modélisation et un dimensionnement automatique des applications réparties
Type de séminaire : Soutenance de thèse
Intervenant : Ahmed Harbaoui
Date : 21/10/2011
Heure : 14:30

Information détaillée
Thèse préparée au sein de l'equipe Mescal (LIG) et MAPS/MEP/MSE (Orange Labs).

La soutenance aura lieu le Vendredi 21 octobre 2011 à 14h30, à Orange Labs [Entrée libre] 28 chemin du Vieux Chêne 38243 Meylan. (google Maps)

Évènement Confirmé : oui
Lieu : 90. Ailleurs

Résumé
Les systèmes répartis sont caractérisés par une complexité croissante aux niveaux de l'architecture, des fonctionnalités et de la charge soumise. Lorsque la charge est importante, cette complexité induit souvent à une perte de la qualité de service offerte, une saturation des ressources, voire même l'indisponibilité des services en ligne. Afin d'éviter les problèmes causés par d'importantes charges et d'assurer le niveau de la qualité de service attendue, les systèmes nécessitent une adaptation automatique, en optimisant par exemple un tier ou en renforçant sa capacité en le répliquant. Cette propriété autonome requiert une modélisation des performances de ces systèmes.

Cette thèse présente une méthodologie théorique et expérimentale d'identification automatique de modèle pour le dimensionnement des systèmes répartis. Après avoir décomposé un système sous test en un ensemble de composants boîtes noires. Notre approche permet de déterminer les limites de chaque boîte noire et de la modéliser automatiquement par un modèle de file d'attente. Le processus d'identification du modèle se base sur des tests d'injection de charge auto-régulés et des tests d'hypothèses statistiques. Ensuite, les modèles des boites noires générés sont composés pour former les réseaux de file d'attente associés à chaque configuration candidate permettant le dimensionnement du système global.

Enfin, nous avons développé un framework générique, FAMI, implémentant notre méthodologie de modélisation automatique. Ce framwork a été couplé à des outils de simulation et d'analyse de réseaux de files d'attente permettant la résolution du modèle du système global et son dimensionnement.


Titre : Vers une architecture pair-à-pair pour l'informatique dans le Nuage
Type de séminaire : Soutenance de thèse
Intervenant : Willy Malvault-Martiarena
Date : 04/10/2011
Heure : 10:00

Information détaillée
Cette soutenance aura lieu le mardi 4 Octobre 2011 à 10h00 et se déroulera dans le Grand Amphithéâtre de l'INRIA Rhône-Alpes (A103), 655 avenue de l'Europe, 38334 Saint Ismier.

Le jury sera composé des personnes suivantes :

  • Anne-Marie KERMARREC (Directeur de recherche - INRIA Rennes) Rapporteur
  • Pierre SENS (Professeur - Université Paris 6) Rapporteur
  • Pascal FELBER (Professeur - Université de Neuchatel) Examinateur
  • Yves DENNEULIN (Professeur - ENSIMAG) Examinateur
  • Jean-Bernard STEFANI (Directeur de recherche - INRIA) Directeur de thèse
  • Vivien QUEMA (Professeur - INP Grenoble) Codirecteur de thèse

Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA

Résumé
Avec l'émergence de l'informatique dans les nuages, une nouvelle approche consiste à externaliser des tâches de calcul, de façon à réduire les coûts d'hébergement et à augmenter la flexibilité des systèmes. L'infrastructure actuelle des services permettant cette externalisation repose sur l'utilisation de centres de traitement de données centralisés, qui sont dédiés à l'approvisionnement de ressources de calcul. Dans cette thèse, nous étudions la possibilité de fournir de tels services en utilisant une infrastructure pair-à-pair, c'est-à-dire une infrastructure totalement décentralisée pouvant être déployée sur une fédération de noeuds de calcul hétérogènes et de provenances diverses. Nous nous focalisons sur le problème de l'allocation des noeuds et présentons Salute, un service d'allocation de noeuds, qui organise les noeuds en réseaux virtuels non-structurés et repose sur des mécanismes de prédiction de disponibilité pour assurer, avec une grande probabilité, que les requêtes d'allocation sont satisfaites dans le temps, malgré le dynamisme de l'environnement hôte. Pour ce faire, le service Salute repose sur la collaboration de plusieurs protocoles pair-à-pair appartenant à la catégorie des protocoles épidémiques. Afin de valider nos propositions, nous évaluons Salute en utilisant des traces provenant d'un échantillonnage de plusieurs systèmes pair-à-pair de référence.

Mots clés : Systèmes pair à pair, large échelle, informatique dans les nuages, systèmes distribués, algorithmique distribuée, systèmes autonomes.


Titre : Simulation of large-scale neural networks on multiple GPUs
Type de séminaire : Séminaire
Intervenant : Raphael Camargo
Date : 15/09/2011
Heure : 15:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé


Titre : Flexible Development of Dense Linear Algebra Algorithms on Heterogeneous Parallel Architectures
Type de séminaire : Séminaire
Intervenant : George Bosilca
Date : 07/09/2011
Heure : 15:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé


Titre : Auto-optimisation des réseaux sans fil : une approche par la théorie des jeux
Type de séminaire : Soutenance de thèse
Présidence : Mérouane Debbah
Intervenant : Pierre Coucheney
Date : 31/08/2011
Heure : 10:00
Date de fin : 31/08/2011

Information détaillée
Cette thèse a été réalisée au sein de l'équipe MESCAL du Laboratoire d'Informatique de Grenoble.

La soutenance se tiendra le mercredi 31 août à 10 h dans l'amphithéatre de la maison Jean Kuntzmann.

Le jury sera composé de :

  • Bruno Gaujal, Directeur de recherche à l'INRIA, Directeur
  • Corinne Touati, Chargé de recherche à l'INRIA, Co-directeur
  • Laurent Roullet, Chercheur à Alcatel Lucent, Examinateur
  • Olivier Bournez, Professeur au laboratoire d'informatique de l'école Polytechnique, Rapporteur
  • Bruno Tuffin, Chargé de recherche à l'INRIA Rennes, Rapporteur
  • Mérouane Debbah, Professeur à Supélec, Président
  • Yannick Viossat, Maitre de conférence à l'université Paris Dauphine, Examinateur
  • Denis Trystram, Professeur à Grenoble INP, Examinateur

Évènement Confirmé : oui
Lieu : 10. Campus - Amphi MJK

Résumé
La thèse s'est déroulée dans le cadre d'un laboratoire commun entre l'INRIA et Alcatel-Lucent.

Pour faire face à l'accroissement des débits sur les réseaux sans fil, les constructeurs sont amenés à développer de nouvelles techniques d'optimisation qui s'adaptent de façon automatique à l'environnement. Dans cette thèse, nous avons proposé une approche reposant sur la théorie des jeux afin de développer des protocoles d'optimisation décentralisés.

La théorie des jeux en général, et les jeux de routage en particulier permettent de modéliser les situations d'interactions entre les utilisateurs des réseaux. Le problème d'optimisation revient alors à résoudre les deux points suivants : 1) Modifier le jeu en introduisant des prix fictifs afin d'obtenir un jeu ayant une structure particulière (jeu de potentiel, jeu avec des stratégies dominantes...). réseaux sans fil, routage, optimisation, théorie des jeux, apprentissage.


Titre : Game Theory and Networks
Type de séminaire : Séminaire
Date : 30/08/2011
Heure : 14:30

Information détaillée
Half-day seminar :

"Game Theory and Networks"

Date : Aug. 30, 2011.

Location : Grand Amphi INRIA

Program :

  • 1) 14h30- 15h15 : Merouane Debbah
    Title : Dense Networks : more base stations or more antennas ?
  • 2) 15h15 - 16h00 : Laurent Roullet
    Title : Real-life self organizing heterogeneous networks
  • 3) 16h00 - 16h30 : Coffee Break
  • 4) 16h30 - 17h15 : Bruno Tuffin
    Title : Sponsored search auctions
  • 5) 17h15- 18h00 : Yannick Viossat
    Title : Links between the replicator and the best-reply dynamics

Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA

Résumé
-* Dense Networks : more base stations or more antennas ? (Merouane Debbah)

Wireless networks are inherently limited by their own interference. Therefore, a lot of research focuses on interference reduction techniques, such as mutiuser MIMO, interference alignment, interference coordination or multi-cell processing. Although these techniques might lead to considerable performance gains, it is unlikely that they will be able to meet the demand for wireless data traffic in the future. Therefore, a significant network densification, i.e., increasing the number of antennas per unit area, is inevitable. One way of densifying the network consists in cell-size shrinking, such as the deployment of femto or small cells, which comes at the cost of additional equipments and increased interference. Another much simpler, but also less explored, option is the use of massively more antennas at each base station (BS). In this talk, we will discuss the challenges of small cell versus massive MIMO networks.

  • Real-life self organizing heterogeneous networks (Laurent Roullet)

Network densification is one prominent way for mobile operators to face the current "data tsunami". Various types of small cells are currently considered, all facing the strong requirement of a smooth integration within existing macro network in what is to be called a heterogeneous network. Such integration can only be achieved via the intensive use of self-optimization algorithms having good properties of stability, convergence, and ability to be distributed. In this talk we shall review one promising algorithm class based on the Gibbs sampler : we shall see what kind of performance can be expected but also how this can be implemented in "real-life" networks (femto, pico, macro, 3G and LTE).

  • Sponsored search auctions (Bruno Tuffin)

Search engines play and will still play a major role in the use of networks. Sponsored search auctions is the basic tool for a return on investment in this industry, accounting for an increasing part of the business. This talk will be decomposed into several parts : after a brief description of adword auction principles, we will show that displaying only the highest bidding or highest revenue-producing advertisers in a deterministic way is not always the best strategy for the ad-word engine when some consumers perform the same request at different instant of time. Instead, some randomization among advertisers can provide higher revenues. Based on that, we design a Vickrey-Clarke-Groves auction rule for a display probability and compare it with the current generalized-second-price scheme. We will also investigate in a second part if the choice of most search engines for a revenue-based ranking and charging scheme instead of a bid-based one is necessary better in terms of revenue ; we show that, depending on the search engine's click-through-rate, revenue-based does not always outperform bid-based. Finally, in a third part, we will analyze the economic competition between search engines. We will develop a two-levels game where at the largest time scale search engines decide which allocation rule to implement, still between revenue-based and bid-based, and at the lowest time-scale advertisers decide how to split their advertising budget between the two search engines, depending on the benefits this will bring to them. We will describe the advertisers best strategies and show how to determine, depending on parameters, an equilibrium on the ranking rule strategy for search engines ; this may explain Yahoo !'s move to switch from bid-based to revenue-based ranking to follow Google strategy.

  • Links between the replicator and the best-reply dynamics (Yannick Viossat)

Evolutionary game dynamics model the evolution of behavior in populations of boundedly rational agents interacting repeteadly. The two most studied dynamics are the replicator dynamics and the best reply dynamics. The motivations and mathematical expressions of these dynamics are quite different. The former is the prototype of nonrational dynamics, the later of rational (though myopic) dynamics. Nevertheless, it has been noted heuristically that, in many games, the time average of the replicator dynamics behaves in the long run as the best reply dynamics. We largely explain this heuristics by showing that the time average of the replicator dynamics is a perturbed solution of the best reply dynamics.


Titre : Accurate and Fast Simulations of Large- Scale Distributed Computing Systems
Type de séminaire : Soutenance de thèse
Présidence : M. Frédéric Desprez, Directeur de Recherche, INRIA, Examinateur
Intervenant : Pedro Velho
Date : 04/07/2011
Heure : 10:30
Date de fin : 04/07/2011

Information détaillée
=================== Soutenance de thèse ===================

Titre : "Accurate and Fast Simulations of Large- Scale Distributed Computing Systems"

Autheur : Pedro Velho

Date : 04/07/2010

Horaire : 10:30

Addresse : Amphithéatre de l'INRIA Rhônes-Alpes

Jury : Mme. Isabelle Guérin Lassous Professeur, Université Lyon I, Rapporteur

M. Olivier Dalle Maître de Conférence, Université de Nice, Rapporteur

Mme. Françoise Baude Professeur, Université de Nice, Examinatrice

M. Frédéric Desprez Directeur de Recherche, INRIA, Examinateur

M. Hermes Senger Professor Adjunto, Universidade de São Carlos, Examinateur

M. Jean-François Méhaut Professeur, Université de Grenoble, Directeur de thèse

M. Arnaud Legrand Chargé de Recherche, CNRS, Co-Directeur de thèse

Évènement Confirmé : oui
Lieu : 50. Montbonnot-INRIA

Résumé
De nos jours, la grande puissance de calcul et l'importante capacité de stockage fournie par les systèmes de calcul distribué à large échelle sont exploitées par des applications dont les besoins grandissent continuellement. Les plates-formes de ces systèmes sont composées d'un ensemble de ressources reliées entre elles par une infrastructure de communication. Dans ce type de système, comme dans n'importe quel environnement de calcul, il est courant que des solutions innovantes soient étudiées. Leur adoption nécessite une phase d'expérimentation pour que l'on puisse les valider et les comparer aux solutions existantes ou en développement.

Néanmoins, de par leur nature distribuée, l'exécution d'expériences dans ces environnements est difficile et coûteuse. Dans ces systèmes, l'ordre d'exécution dépend de l'ordre des événements, lequel peut changer d'une exécution à l'autre. L'absence de reproductibilité des expériences rend complexe la conception, le développement et la validation de nouvelles solutions. De plus, les ressources peu- vent changer d'état ou intégrer le système dynamiquement ; les architectures sont partagées et les interférences entre applications, ou même entre processus d'une même application, peuvent affecter le comportement général du système. Enfin, le temps d'exécution d'application à large échelle sur ces sys- tèmes est souvent long, ce qui empêche en général l'exploration exhaustive des valeurs des éventuels paramètres de cette application. Pour toutes ces raisons, les expérimentations dans ce domaine sont souvent basées sur la simulation. Diverses approches existent actuellement pour simuler le calcul dis- tribué à large-échelle. Parmi celles-ci, une grande partie est dédiée à des architectures particulières, comme les grappes de calcul, les grilles de calcul ou encore les plates-formes de calcul bénévole. Néan- moins, ces simulateurs adressent les mêmes problèmes : modéliser le réseau et gérer les ressources de calcul. De plus, leurs besoins sont les même quelle que soit l'architecture cible : la simulation doit être rapide et passer à l'échelle. Pour respecter ces exigences, la simulation de systèmes distribués à large échelle repose sur des techniques de modélisation pour approximer le comportement du système. Cependant, les estimations obtenues par ces modèles peuvent être fausses. Quand c'est le cas, faire confiance à des résultats obtenus par simulation peut amener à des conclusions aléatoires. En d'autres mots, il est nécessaire de connaître la précision des modèles que l'on utilise pour que les conclusions basées sur des résultats de simulation soient crédibles. Mais malgré l'importance de ce dernier point, il existe très rarement des études sur celui-ci.

Durant cette thèse, nous nous sommes intéressés à la problématique de la précision des modèles pour les architectures de calcul distribué à large-échelle. Pour atteindre cet objectif, nous avons mené une évaluation de la précision des modèles existants ainsi que des nouveaux modèles conçus pendant cette thèse. Grâce à cette évaluation, nous avons proposé des améliorations pour atténuer les erreurs dues aux modèles en utilisant SimGrid comme cas d'étude. Nous avons aussi évalué les effets des ces améliorations en terme de passage à l'échelle et de vitesse d'exécution. Une contribution majeure de nos travaux est le développement de modèles plus intuitifs et meilleurs que l'existant, que ce soit en termes de précision, vitesse ou passage à l'échelle. Enfin, nous avons mis en lumière les principaux en- jeux de la modélisation des systèmes distribuées à large-échelle en montrant que le principal problème


Titre : Contribuitions au contrôle de l'Affinité Mémoire sur Architectures Multicoeurs et Hiérarchiques
Type de séminaire : Soutenance de thèse
Intervenant : Christiane Pousa Ribeiro
Date : 29/06/2011
Heure : 14:30

Information détaillée
La soutenance de la thèse aura lieu à la fin du Workshop Laboratoire commun JLPC (INRIA UIUC NCSA),

le vendredi 29 Juin à 14h30

au World Trade Center de Grenoble (Place Robert Schuman)

Les membres du jury sont :

- Bernard TOURANCHEAU, University of Lyon 1 : Rapporteur
- Raymond NAMYST, Université de Bordeaux I : Rapporteur
- Laxmikant KALE, University of Illinois at Urbana-Champaign : Examinateur
- Dimitri KOMATITSCH, Université de Toulouse - IUF : Examinateur
- Philippe NAVAUX, University Federal of Rio Grande do Sul : Examinateur
- Alexandre CARISSIMI, University Federal of Rio Grande do Sul : Co-directeur de thèse
- Jean- François MéHAUT, Université Joseph Fourier : Directeur de thèse

Évènement Confirmé : oui
Lieu : 90. Ailleurs

Résumé


Titre : Une approche à base de composants logiciels pour l'observation de systèmes embarqués
Type de séminaire : Soutenance de thèse
Intervenant : Carlos Hernan PRADA ROJAS
Date : 24/06/2011
Heure : 11:00

Information détaillée Jury :
— M Michel Auguin. Professeur à l'Université de Nice, Président
— M Pierre Boulet. Professeur à l'Université Lille 1, Rapporteur
— M Christian Perez. Chercheur à l'INRIA Rhône-Alpes, Rapporteur
— M Jean-François Méhaut. Professeur à l'Université Joseph Fourier, Directeur de thèse
— Mme Vania Marangozova-Martin. Maître de conférences à l'Université Joseph Fourier, Co-Directrice de thèse
— M Miguel Santana. Directeur du centre IDTEC à STMicroelectronics, Co-Directeur de thèse

Cordialement : Carlos Hernan Prada Rojas
Évènement Confirmé : oui
Lieu : 10. Campus - Amphi MJK

Résumé
Résumé : À l'heure actuelle, les dispositifs embarqués regroupent une grande variété d'applications, ayant des fonctionnalités complexes et demandant une puissance de calcul de plus en plus importante. Ils évoluent actuellement de systèmes multiprocesseur sur puce vers des architectures \textitmany-core et posent de nouveaux défis au développement de logiciel embarqué. En effet, Il a classiquement été guidé par les performances et donc par les besoins spécifiques des plates-formes. Or, cette approche s'avère trop couteuse avec les nouvelles architectures matérielles et leurs évolutions rapprochées. Actuellement, il n'y a pas un consensus sur les environnements à utiliser pour programmer les nouvelles architectures embarquées.

Afin de permettre une programmation plus rapide du logiciel embarqué, la chaîne de développement a besoin d'outils pour la mise au point des applications. Cette mise au point s'appuie sur des techniques d'observation, qui consistent à recueillir des informations sur le comportement du système embarqué pendant l'exécution. Les techniques d'observation actuelles ne supportent qu'un nombre limité de processeurs et sont fortement dépendantes des caractéristiques matérielles.

Dans cette thèse, nous proposons EMBera : une approche à base de composants pour l'observation de systèmes multiprocesseurs sur puce. EMBera vise la généricité, la portabilité, l'observation d'un grand nombre d'éléments, ainsi que le contrôle de l'intrusion. La généricité est obtenue par l'encapsulation de fonctionnalités spécifiques et l'exportation d'interfaces génériques d'observation. La portabilité est possible grâce à des composants qui, d'une part, ciblent des traitements communs aux MPSoCs, et d'autre part, permettent d'être adaptés aux spécificités des plates-formes. Le passage à l'échelle est réussi en permettant une observation partielle d'un système en se concentrant uniquement sur les éléments d'intérêt : les modules applicatifs, les composants matériels ou les différents niveaux de la pile logicielle. Le contrôle de l'intrusion est facilité par la possibilité de configurer le type et le niveau de détail des mécanismes de collecte de données. L'approche est validée par le biais de différentes études de cas qui utilisent plusieurs configurations matérielles et logicielles. Nous montrons que cette approche offre une vraie valeur ajoutée dans le support du développement de logiciels embarqués.

Abstract : Embedded software development faces new challenges as embedded devices evolve from Multiprocessor Systems on Chip (MPSoC) with heterogeneous CPU towards many-core architectures. The classical approach of optimizing embedded software in a platform-specific way is no longer applicable as it is too costly. Moreover, there is no consensus on the programming environments to be used for the new and rapidly changing embedded architectures.

MPSoC software development needs debugging tools. These tools are based on observation techniques whose role is to gather information about the embedded system execution. Current techniques support only a limited number of processors and are highly dependent on hardware characteristics.

In this thesis, we propose EMBera, a component-based approach to MPSoC observation. EMBera aims at providing genericity, portability, scalability and intrusion control. Genericity is obtained by encapsulating specific embedded features and exporting generic observation interfaces. Portability is achieved through components targeting common treatments for MPSoCs but allowing specialization. Scalability is achieved by observing only the elements of interest from the system, namely application modules, hardware components or the different levels of the software stack. Intrusion control is facilitated by the possibility to configure the type and the level of detail of data collection mechanisms. The EMBera approach is validated by different case studies using different hardware and software configurations. We show that our approach provides a real added value in supporting the embedded software development.


Titre : Linear average-consensus algorithm for distributed estimation and control
Type de séminaire : Séminaire
Intervenant : Federica Garin
Date : 23/06/2011
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG

Résumé


Titre : Gestion des quantités de ressources pour des applications multimédia distribuées dans le réseau local domestique
Type de séminaire : Séminaire
Intervenant : Maxime Louvel
Date : 09/06/2011
Heure : 15:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé
Dans cette présentation, je présenterai mes travaux de thèse qui attrait à la gestion des quantités de ressources, pour garantir la qualité de service des applications de diffusion de contenu multimédia, distribuées dans le réseau local domestique.

Dans le contexte du réseau local domestique, on observe une forte présence des applications multimédia et ce sur un nombre toujours grandissant d'équipements. Il est primordial de pouvoir garantir que ces applications auront assez de ressources pour pouvoir s'exécuter et fournir la qualité de service attendue par l'utilisateur.

Dans le cadre de ma thèse, j'ai proposé un Framework pour permettre de démarrer une application tout en garantissant ses besoins en quantité de ressources. Ce Framework propose une approche complète, contenant l'estimation des quantités de ressources requises, des quantités de ressources disponibles ainsi que la réservation de ces quantités pour une application.

Le principal enjeu auquel répond cette thèse est l'hétérogénéité des contenus multimédia, des équipements et des liens réseau. De plus, il est nécessaire de proposer une solution étant le moins intrusive possible, pour pouvoir prendre en compte tous les équipements du réseau local domestique.

Durant cette présentation, je reviendrai sur le contexte de la thèse et ses enjeux, et sur les travaux existants. Ensuite, je décrirai le Framework proposé et son évaluation.


Titre : Application de l'automatique et de l'optimisation mathématique à la construction de systèmes informatiques autonomes
Type de séminaire : Séminaire
Intervenant : Eric Rutten, Bruno Gaujal, Sara Bouchenak, Nicolas Marchand, Jean-Marc Vincent, Bruno Dillenseger, Daniel Simon, Jean-Louis Roch, Denis Trystram, Nicolas Marchand, Corinne Touati
Date : 07/06/2011
Heure : 14:00
Date de fin : 07/06/2011

Information détaillée
Un séminaire LIG aura lieu prochainement, regroupant plusieurs orateurs et présentations sur l'application de l'automatique et de l'optimisation mathématique à la construction de systèmes informatiques autonomes.

- Date et lieu :
— 7 juin 2011, 14h - 18h
— Campus de Saint Martin d'Hères - ENSIMAG - Amphitéâtre E

- Programme :
http://sardes.inrialpes.fr/ bouchena/seminars/2011-06-07-LIG/

Évènement Confirmé : oui
Lieu : 05. Campus - Amphi E, ENSIMAG

Résumé
- Eric Rutten (INRIA, LIG) :
Synthèse de contrôleurs discrets pour l'adiministration de système autonomique
We present examples of autonomic system administration issues that can be addressed and solved as discrete control problems. This shows evidence of the relevance of control techniques for the discrete aspects of closed-loop control of computing systems. The model-based control of adaptive and reconfigurable systems is considered via a reactive programming language, based on discrete controller synthesis (DCS) techniques. We identify control problems in autonomic systems belonging to the class of logical, discrete systems, and illustrate how to solve them using DCS.

- Bruno Gaujal (INRIA, LIG) :
Optimal control of large systems : from discrete to continuous optimization
In this talk, we investigate the limit behavior of a controlled system made of many independent objects evolving in a common environment. We show that when the number of objects becomes large, the optimal cost of the system converges to the optimal cost of an ODE, called the Mean Field Approximation of the system. We further provide bounds on the speed of convergence by proving second order results that resemble central limits theorems for the cost and the state of the Markov decision process.

This framework is applied to several problems : 1) Brokering in grid computing. Several simulations with growing numbers of processors are reported. They compare the performance of the optimal policy of the limit system used in the finite case with classical policies by measuring its asymptotic gain. 2) Stochastic stability in wireless networks under opportunistic scheduling, 3) volunteer computing systems (such as seti@home).

Several extensions are also discussed. In particular, for infinite horizon cases with discounted costs, we show that first order limits hold and that second order results also hold as long as the discount factor is small enough. As for infinite horizon cases with non-discounted costs, examples show that even the first order limits may not hold.

- Sara Bouchenak, Nicolas Marchand (Grenoble Université, LIG, CNRS, GIPSA Lab) :
Experience with ConSer : A System for Server Control with Fluid Modeling
Ad-hoc configuration of server systems poses significant challenges to the performance, availability and economical costs of applications. In this talk, we examine the impact of server configuration on the central tradeoff between service performance and availability. First, we present a server model as a nonlinear continuous-time model using fluid approximations. Second, we develop concurrency control on server systems for an optimal configuration. Then, we present ConSer, a novel system for the control of servers. We evaluate ConSer's fluid model and control techniques on the TPC-C industry-standard benchmark. Our experiments show that the proposed techniques sucessfully guarantee performance and availability constraints. [L. Malrait et. al. IEEE Trans. Comp. 11] [L. Malrait et. al. IEEE DSN 09]

- Jean-Marc Vincent, Bruno Dillenseger (Grenoble Université, LIG, Orange Labs) :
Model-based Performance Anticipation in Multi-tier Autonomic Systems : Methodology and Experiments
This paper advocates for the introduction of performance awareness in autonomic systems. Our goal is to introduce performance prediction of a possible target configuration when a self-* feature is planning a system reconfiguration. We propose a global and partially automated process based on queues and queuing networks modelling. This process includes decomposing a distributed application into black boxes, identifying the queue model for each black box and assembling these models into a queuing network according to the candidate target configuration. Finally, performance prediction is performed either through simulation or analysis. This paper sketches the global process and focuses on the black box model identification step. This step is automated thanks to a load testing platform enhanced with a workload control loop. Model identification is based on statistical tests. The identified models are then used in performance prediction of autonomic system configurations. This paper describes the whole process through a practical experiment with a multi-tier application.

- Daniel Simon (INRIA, GIPSA Lab) :
Ordonnanceurs régulés et commandes robustes : études de cas et retours d'expérience
En dehors de son cadre d'application traditionnel, la commande de processus physiques en temps continus, il apparait que la commande par rétroaction peut aussi s'appliquer à des objets informatiques. D'autre part, ces commandes sont naturellement robustes et peuvent subir certaines perturbations temporelles d'exécution sans dommages. L'association fructueuse de techniques d'ordonnancement et de commandes par rétroaction sont illustrées sur quelques exemples.

- Jean-Louis Roch (INPG, LIG) :
Parallélisme : lien entre adaptation et complexité algorithmique

- Denis Trystram (INPG, LIG) :
Une approche combinatoire pour la sélection d'algorithmes

- Nicolas Marchand (CNRS, GIPSA Lab) :
To Be Announced...

- Corinne Touati (INRIA, LIG) :
To Be Announced...

URL : http://sardes.inrialpes.fr/ bouchena/seminars/2011-06-07-LIG/


Titre : Cloud Computing Using Edge Resources
Type de séminaire : Séminaire
Intervenant : Jon Weissman
Date : 27/05/2011
Heure : 10:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé
In this talk, we explore two opportunities for uniting the emerging cloud computing paradigm with edge resources. In the first, we describe how a proxy network comprised of volunteer nodes can accelerate applications spanning one or more clouds. In the second, we describe how several classes of cloud applications might be better suited to an on-demand cloud comprised of distributed volunteer resources, versus the alternative of a commercial cloud. The talk will focus on the research challenges needed to realize these two visions of cloud computing, and possible solutions to these challenges, including progress we have made within our research group.

*Bio : Jon Weissman is a leading researcher in the area of high performance distributed computing. His involvement dates back to the influential Legion project at the University of Virginia during his Ph.D. He is currently an Associate Professor of Computer Science at the University of Minnesota where he leads the Distributed Computing Systems Group. His current research interests are in cloud computing, Grid computing, distributed systems, high performance computing, resource management, reliability, and e-science applications. He works primarily at the boundary between applications and systems. He received his B.S. degree from Carnegie-Mellon University in 1984, and his M.S. and Ph.D. degrees from the University of Virginia in 1989 and 1995, respectively, all in computer science. He is a senior member of the IEEE and awardee of the


Titre : Towards MapReduce for Desktop Grid Computing
Type de séminaire : Séminaire
Intervenant : Haiwu He
Date : 28/04/2011
Heure : 15:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé


Titre : Etude de l'utilisation des mémoires transactionnelles pour le support de la programmation parallèle dans les multiprocesseurs intégrés
Type de séminaire : Séminaire
Intervenant : Quentin Meunier
Date : 21/04/2011
Heure : 15:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé


Titre : A Scheduling Algorithm for Defeating Collusion
Type de séminaire : Séminaire
Intervenant : Louis-Claude Canon
Date : 14/04/2011
Heure : 15:00
Évènement Confirmé : oui
Lieu : 40. Montbonnot-ENSIMAG

Résumé
By exploiting idle time on volunteer machines, desktop grids provide a way to execute large sets of tasks with negligible maintenance and low cost. Although desktop grids are attractive for their scalability and low cost, relying on external resources may compromise the correctness of application execution due to the well-known unreliability of nodes. In this paper, we consider the most challenging threat model : organized groups of cheaters that may collude to produce incorrect results. By using a previously described on-line algorithm for detecting collusion and characterizing the participant behaviors, we propose a scheduling algorithm that tackles collusion. Using several real-life traces, we show that our approach minimizes redundancy while maximizing the number of correctly certified results.


Titre : Dynamic scheduling of virtual machines, scalability and fault tolerance are still the issues !
Type de séminaire : Séminaire
Intervenant : Flavien Quesnel/Adrien Lèbre
Date : 14/12/2010
Heure : 13h30
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG

Résumé
Virtualization technologies radically changed the way distributed architectures are exploited. With the contribution of virtual machines (VMs) capabilities and with the emergence of Infrastructure as a Service platforms (like Amazon EC2), more and more frameworks tend to manage VMs across distributed architectures like operating systems handle processes on a single node. In most cases, these frameworks follow a centralized model, where roughly a master node is in charge of the scheduling of VMs. Considering the growing size of infrastructures in terms of nodes and VMs, these solutions are limited in terms of scalability and fault tolerance. More decentralized approaches have been recently introduced. However, to the best of our knowledge, they are still relying on a global view of the resources consumed by all the VMs.

After giving an overview about how virtualization technologies changed grid usage and a focus on the new concerns of dynamic scheduling of vjobs, (a vjob is a job composed of one or several VMs), we will present a new approach to perform VMs scheduling in a fully decentralized way. In our proposal, a node can get information only on its closest neighbours. The advantages are twofold. Firstly, the computation time of a new schedule is reduced, as fewer VMs and nodes are considered. Secondly, for the same reason, the reconfiguration time (i.e. the time required to migrate VMs to conform to the new schedule) is also reduced. Such a system is therefore inherently reactive.


Titre : Towards Clouds@home. Integration of Virtualization in Desktop Grids with OAR and BOINC
Type de séminaire : Séminaire
Intervenant : Thiago Presa
Date : 09/12/2010
Heure : 15:00
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG

Résumé


Titre : Correlated Resource Models of Internet End Hosts
Type de séminaire : Séminaire
Intervenant : Eric Heien
Date : 09/12/2010
Heure : 15:00
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG

Résumé


Titre : Simulation d'applications MPI dans SimGrid
Type de séminaire : Séminaire
Intervenant : Pierre-Nicolas Clauss
Date : 25/11/2010
Heure : 15:00

Résumé
La simulation est une approche classique de prédiction des performances d'une application MPI. Le simulateur SMPI, qui fait partie de SimGrid, utilise une approche de simulation online : le code de l'application est réellement exécuté, mais les communications sont simulées. SMPI bénéficie des avancées de SimGrid, par exemple pour la simulation de la contention réseau, et propose un nouvau modèle de communication orienté clusters. La simulation s'effectuant sur un seul noeud, SMPI propose également des techniques de réduction de la consommation mémoire et de l'usage du CPU, afin de permettre le passage à l'échelle. Enfin, les améliorations proposées dans SMPI ont été validées expérimentalement.


Titre : Contributions à la Gestion de Ressources et de Tâches pour le Calcul de Haute Performance
Type de séminaire : Soutenance de thèse
Présidence : Daniel Hagimont
Intervenant : Yiannis Georgiou
Date : 05/11/2010
Heure : 14h00
Date de fin : 05/11/2010
MJK : 10. Campus - Amphi MJK

Résumé
Le domaine du Calcul à Haute Performance (HPC) évolue étroitement avec les dernières avancées technologiques des architectures informatiques et des besoins toujours croissants en demande de puissance de calcul.

Cette thèse s'intéresse à l'étude d'un type d'intergiciel particulier appelé gestionnaire de tâches et ressources (RJMS) qui est chargé de distribuer la puissance de calcul aux applications dans les plate-formes pour le HPC.

Le RJMS joue un rôle central du fait de sa position dans la pile logicielle. Les dernières évolutions dans les couches matérielles et dans les applications ont largement augmentés le niveau de complexité auquel doit faire face ce type d'intergiciel. Des problématiques telles que le passage à l'échelle, la prise en compte d'un taux d'activité irrégulier, la gestion des contraintes liées à la topologie du matériel, l'efficacité énergétique et la tolérance aux pannes doivent être particulièrement pris en considération, afin, entre autres, de fournir une meilleure exploitation des ressources à la fois du point de vue global du système ainsi que de celui des utilisateurs.

La première contribution de cette thèse est un état de l'art sur la gestion des tâches et des ressources ainsi qu'une analyse comparative des principaux intergiciels actuels et des différentes problématiques de recherche associées.

Une métrique important pour évaluer l'apport d'un RJMS sur une plate-forme est le niveau d'utilisation de l'ensemble du système. On constate parmi les traces d'activité de plusieurs plate-formes qu'un grand nombre d'entre elles présentent un taux d'utilisation significativement inférieure à une pleine utilisation.

Ce constat est la principale motivation des autres contributions de cette thèse qui portent sur les méthodes d'exploitations de ces périodes de sous-utilisation au profit de la gestion globale du système ou des applications en court d'exécution. Plus particulièrement cette thèse explore premièrement, les moyens d'accroître le taux de calculs utiles dans le contexte des grilles légères en présence d'une forte variabilité de la disponibilité des ressources de calcul. Deuxièmement, nous avons étudié le cas des tâches dynamiques et proposé différentes techniques s'intégrant au RJMS OAR et troisièmement nous évalués plusieurs modes d'exploitation des ressources en prenant en compte la consommation énergétique.

Finalement, les évaluations de cette thèse reposent sur une approche expérimentale pour laquelle nous avons proposés des outils et une méthodologie permettant d'améliorer significativement la maîtrise et la reproductibilité d'expériences complexes propre à ce domaine d'étude.


Titre : Modélisation et commande du trafic de villes régulière
Type de séminaire : Séminaire
Intervenant : Nadir Farhi
Heure : 15:00
Date : 23/09/2010
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG

Résumé
L'objectif de la thèse est la modélisation et la commande du trafic routier. Dans la partie modélisation on s'intéresse à la dérivation du diagramme fondamental du trafic, qui est une relation entre deux grandeurs macroscopiques : la densité et le flot moyens des véhicules. On propose un modèle du trafic 1D basé sur la commande optimale stochastique, et un modèle du trafic 2D basé sur les réseaux de Petri. Ce dernier modèle permet notamment de dériver et d'interpréter les phases du trafic 2D sur un système élémentaire de deux routes avec une intersection. Des modèles de commande du trafic à l'aide de feux de signalisation sont proposés, et l'apport de la commande sur le diagramme fondamental du trafic est montré.


Titre : Programmation des machines multicoeur hétérogènes - vers un support d'exécution unifié ?
Type de séminaire : Séminaire
Intervenant : Raymond Namyst
Heure : 10:30
Date : 24/06/2010
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG

Résumé


Titre : Génération automatique et source-à-source de code pour machines vectorielles
Type de séminaire : Séminaire
Intervenant : Serge Guelton
Heure : 10:00
Date : 18/05/2010
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG

Résumé
La loi de Moore emportera dans sa tombe les machines mono-processeurs classiques. Les deux alternatives qui s'offrent à nous pour apaiser la soif de puissance qui réside en tout scientifique sont la course au multi-coeur et/ou le retour au vectoriel.

Mais qui va programmer ces nouvelles architectures ? Et que faire des millions de lignes de codes séquentiels ?

Des milliers de développeurs désespérés se tournent vers leurs compilateurs et l'implorent de faire des miracles.

L'exposé portera sur la génération automatique de code vectoriel pour des applications de traitement du signal classiques. L'accent est mis sur la ré-utilisabilité des transformations de code source-à-source afin de pouvoir facilement cibler des architectures multiples vérifiant certaines hypothèses de base. Une illustration sera faite sur l'architecture Ter@pix développée par


Titre : Calcul du débit d'applications probabilistes répliquées
Type de séminaire : Séminaire
Intervenant : Matthieu Gallet
Heure : 15:00
Date : 06/05/2010
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG

Résumé
Nous étudions le calcul du débit d'applications probabilistes dont le graphe de dépendance est une chaîne. On considère ainsi une application déployée sur une plate-forme complètement hétérogène, de telle façon que si un processeur ne traite qu'un type de tâches, une même tâche peut être traitée par plusieurs processeurs. De plus, les temps de calcul et de communication sont modélisés par un ensemble de variables aléatoires indépendantes et identiquement distribuées. Comment déterminer le débit du système, c'est-à-dire le nombre d'instances traitées par unité de temps ? Si le problème est simple quand les tâches ne sont pas répliquées, il est beaucoup plus difficile quand elles le sont.

La première contribution est de donner une méthode générale pour le déterminer quand les variables aléatoires suivent des lois exponentielles, mais au prix d'une complexité exponentielle. Si la plate-forme permet le recouvrement des calculs par les communications et que celles-ci sont homogènes, nous donnons une méthode en temps polynomial. La seconde contribution montre que le débit du système peut-être borné facilement lorsque toutes les variables aléatoires sont IID et NBUE : il est compris entre le cas exponentiel et le cas déterministe.


Titre : Optimisation et contrôle de systèmes à grande échelle - comment combattre l'explosion combinatoire.
Type de séminaire : Soutenance de thèse
Heure : 10h30
Date : 29/09/2010

Information détaillée
La soutenance aura lieu dans le grand amphi de l'INRIA à Montbonnot.
Évènement Confirmé : oui
MJK : 50. Montbonnot-INRIA

Résumé
Dans cette thèse, nous étudions des méthodes permettant le contrôle et l'optimisation de systèmes à grande échelle à travers l'étude de modèles stochastiques. Les modèles classiques souffrent tous du même problème : le nombre d'états pour décrire le système explose lorsque la taille du système étudié grandit.

Dans une première partie, nous présentons deux méthodes différentes pour réduire la complexité du modèle en agrégeant les états des différents objets : l'introduction d'une fonction potentielle manipulée par un adversaire et les modèles champ moyen. Nous montrons comment ces méthodes peuvent être appliquées pour étudier le vol de travail.

Puis, nous nous intéressons au contrôle optimal de grands systèmes stochastiques. Nous montrerons comment étendre les résultats classiques champ moyen à des problèmes d'optimisation et de contrôle. Nous montrons que sous des hypothèses faibles, résoudre le problème d'optimisation initial est asymptotiquement équivalent à la résolution d'un problème d'optimisation déterministe. Nous discuterons aussi des implications pratiques de ces résultats en montrant comment résoudre des problèmes jusqu'ici impossibles.

Abstract : The goal of this thesis is to provide methods for the control and the optimization of large-scale systems, starting from stochastic models that approximate its behavior. However, such models suffer from the curse of dimensionality : the number of states needed to represent a system explodes when the size of the system grows.

In a first part, we present two different methods to reduce the complexity of the model by aggregating the states of the different objects. These two methods are illustrated by analyzing the performance of a distributed load balancing strategy, namely work-stealing. We first show how the use of a potential function leads to a tight analysis of the total completion time of a bag of tasks. Then we show how a mean field approximation can be used to study the steady-state of a grid scheduled by work-stealing.

Then, we focus on the optimal control of large stochastic systems. We extend classical mean field methods to study the controlled behavior of large systems. We show that under mild assumptions, solving an optimal control problem for a system with a large number of objects can be reduced to the solving of a problem for a deterministic system as the number of objects grows large. In practice, this allows one to evaluate the performance of a policy and provide a way to asymptotically solve problems that used to be intractable.
URL : http://mescal.imag.fr/membres/nicolas.gast/phd.html


Titre : Prédiction de performances d'applications de calcul haute performance sur réseau Infiniband
Type de séminaire : Thèse
Présidence : - M. Eddy CARON (Maitre de conférence, ENS de Lyon, co-rapporteur) - M. Frédéric DESPREZ (Directeur de Recherche, INRIA - Rhône-Alpes, rapporteur) - M. Jean-Francois MEHAUT (Professeur, UJF Grenoble, Directeur de thèse) - M. François SPIES (Professeur, Université de Franche-Comté, rapporteur) - M. Xavier VIGOUROUX (Manager équipe Benchmark, Bull S.A.S., examinateur) - M. Jean-Marc VINCENT (Maitre de Conférence, UJF Grenoble, co-directeur)
Intervenant : Jérome Vienne
Heure : 10:30
Date : 01/07/2010

Résumé
Afin de pouvoir répondre au mieux aux différents appels d'offres, les constructeurs de grappe de calcul ont besoin d'outils et de méthodes permettant d'aider au mieux la prise de décisions en terme de design architectural. Nos travaux se sont donc intéressés à l'estimation des temps de calcul et à l'étude de la congestion sur le réseau InfiniBand. Ces deux problèmes sont souvent abordés de manière globale. Néanmoins, une approche globale ne permet pas de comprendre les raisons des pertes de performance liées aux choix architecturaux. Notre approche s'est donc orientée vers une étude plus fine.

Pour évaluer les temps de calcul, la démarche proposée s'appuie sur une analyse statique ou semistatique du code source afin de le découper en blocs, avant d'effectuer un micro-benchmarking de ces blocs sur l'architecture cible. Pour l'estimation des temps de communication, un modèle de répartition de bande passante pour le réseau InfiniBand a été développé, permettant ainsi de prédire l'impact lié aux communications concurrentes. Ce modèle a ensuite été intégré dans un simulateur pour être validé sur un ensemble de graphes de communication synthétiques et sur l'application concurrentes, congestion réseau, MPI, InfiniBand, modélisation et simulation.


Type de séminaire : Séminaire
Titre : Bioinformatic problems in protein analysis.
Intervenant : Piotr Lukasiak
Heure : 15:00
Date : 12/11/2009
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG


Type de séminaire : Séminaire
Titre : Markovian Arrival Processes for Modeling of Temporal Dependent Time Series
Intervenant : Dr. Giuliano Casale, SAP researcher, UK
Heure : 14:30
Date : 12/10/2009
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG

Résumé
In this talk, I will present the KPC-Toolbox, a MATLAB tool for fitting workload traces into Markovian Arrival Processes (MAPs). MAPs are a general class of Markov-modulated processes used for fitting real workload traces with time-varying characteristics, e.g., for approximating workloads with short-range or long-range dependent behavior. After introducing the main chacteristics of MAPs, I will build intuition on which trace descriptors are most important to be fitted in MAPs for queueing model parameterization. Given that the MAP state space can be large, KPC-Toolbox focuses on first determining the order of the smallest space that can fit the trace well and then it derives the MAP that captures accurately the most essential features of the trace. Experimentation on temporal dependent traces illustrates the effectiveness of the KPC-Toolbox in fitting traces that are well-documented in the literature as very challenging to fit.


Giuliano Casale received the MEE and PhD degrees in computer engineering from the Politecnico di Milano, Milan, Italy, in 2002 and 2006, respectively. He is currently a researcher at SAP Research, CEC Belfast. From January 2007 he was postdoctoral research associate at the College of William and Mary, Williamsburg, Virginia, where he studied the performance impact of burstiness in systems. In Fall 2004 he was a visiting scholar at UCLA studying bounds for queueing networks. His research interests include performance evaluation, modeling, capacity planning, and simulation. He is a member of the


Type de séminaire : Séminaire
Titre : Mean field models of interacting objects : fluid equations, independence assumptions and pitfalls
Intervenant : Jean-Yves Le Boudec
Heure : 15:00
Date : 01/10/2009
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG

Résumé
We consider a generic model of N interacting objects, where each object has a state and interaction between objects is Markovian, i.e. the evolution of the system depends only on the collection of states at any point in time. This is quite a general modeling framework, which was successfully applied to many forms of communication protocols. When the number of objects N is large, one often uses simplifying assumptions called "mean field approximation", "fluid approximation", "fixed point method" or "decoupling assumption". In this tutorial we explain the meaning of these four concepts and show that the first two, namely mean field approximation and fluid approximation, are generally valid. However, we also show that the last two, namely fixed point method and decoupling assumption, require more care, as they may not be valid even in simple cases. We give sufficient conditions under which they


Type de séminaire : Séminaire
Titre : An Overview of IME-USP Database Research Group
Intervenant : João Eduardo Ferreira
Heure : 15:00
Date : 17/09/2009
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG

Résumé


Type de séminaire : Thèse
Titre : Réseaux d'Automates Stochastiques : Analyse transitoire en temps continu et Algèbre tensorielle pour une sémantique en temps discret
Heure : 14:00
Date : 16/09/2009
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG

Résumé


Type de séminaire : Séminaire
Titre : Mining for Availability Models in Large-Scale Distributed Systems : A Case Study of SETI@home
Intervenant : Bahman Javadi-Jahantigh
Heure : 14:00
Date : 17/06/2009
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG

Résumé


Type de séminaire : Thèse
Titre : Exploration probabiliste de larges espaces d'états pour la vérification
Présidence : Jean-Claud Fernandez
Intervenant : ABED Nazha
Heure : 15H00
Date de fin : 16/06/2009
Date : 16/06/2009
Évènement Confirmé : oui
MJK : 50. Montbonnot-INRIA

Résumé


Type de séminaire : Séminaire
Titre : Typologie des "temps" de compilation
Intervenant : Henri-Pierre Charles
Heure : 15:00
Date : 07/05/2009
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG

Résumé
La génération de code binaire à partir d'un programme suit à la fois la croissance de la complexité des applications et des architectures matérielles. Il existe un grand nombre de solutions pour génerer un code exécutable plus ou moins tardivement dans la chaîne de compilation.

Dans ce séminaire je ferai une présentation des solutions existantes, de la compilation statique classique en passant par les jit, les GPU, les interpréteurs, etc.

Je tenterai de montrer à quel moment les optimisations classiques s'appliquent le mieux et je terminerai par la présentation d'un outil de génération dynamique de code : HPBCG et les expérimentations de transformations de la chaine de compilation menées avec cet outil.


Type de séminaire : Séminaire
Titre : Un réseau d'overlay structuré en arbre de préfixes pour la découverte de services à large échelle.
Intervenant : Cédric Tedeschi
Date : 12/03/2009
Heure : 14:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé


Type de séminaire : Séminaire
Titre : Energy-aware scheduling of flow applications on master-worker platforms
Intervenant : Jean-François Pineau
Date : 26/02/2009
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG

Résumé
In this work, we consider the problem of scheduling an application composed of independent tasks on a fully heterogeneous master-worker platform with communication costs. We introduce a bi-criteria approach aiming at maximizing the throughput of the application while minimizing the energy consumed by participating resources. Assuming arbitrary super-linear power consumption laws, we investigate different models for energy consumption, with and without start-up overheads. Building upon closed-form expressions for the uniprocessor case, we are able to derive optimal or asymptotically optimal solutions for both models.


Type de séminaire : Séminaire
Titre : Low Latency Technology for Interactive Virtual Environments
Intervenant : Ingo Assenmacher
Date : 12/02/2009
Heure : 14:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
Virtual Reality (VR) environments define computer simulated worlds. The users' interaction with these worlds should be as intuitive as possible, using the visual, aural and haptic senses and natural body movements. In order to reach this goal, VR software systems have to process inherently parallel heterogeneous tasks under real-time conditions. Here, the maximum time for signal processing and reproduction is constrained by human perception thresholds. The reproduction systems often suffer from unavoidable latency, which leads to a violation of the real-time constraint and thus to perception perturbations. If the reproduction system that is used suffers from unavoidable latency, compensation algorithms have to be used. In order to be effective, the compensation must be combined with efforts to minimize system overhead. This talk presents a comprehensive approach to lower VR system latency by a concurrent device and data processing architecture and its embedding in a generalized interaction concept. Low latency history recording and data exchange for multi-modal data types are among the key concepts of the approach. The architecture is presented in the context of the “Virtueller Kopfhörer” system, which is a representative of a demanding multi-modal environment that was developed as a joint research project between the Institute of Technical Acoustics and the VR Group at RWTH Aachen University. This system features binaural reproduction using few loudspeakers and real-time room acoustics. The reproduction environment is discussed with respect to its interface and latency as a distributed architecture. An adaptive tracking approach is presented for latency compensation, as the signal path from the loudspeakers to the ears introduce a latency of several milliseconds that can not be eliminated by faster hard- or software.


Type de séminaire : Séminaire
Titre : A New Framework Supporting the Bottleneck Analysis of Multiclass Queueing Networks
Intervenant : Jonatha Anselmi
Date : 05/02/2009
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
The most critical resources affecting the performance of IT systems are the congestion points, commonly known as bottlenecks. Such congestion points limit the overall network performance and represent the resources a designer must invest to obtain significant improvements. In the literature, closed queueing network models have been widely used to perform bottleneck analyses.


Type de séminaire : Séminaire
Titre : Deux années de SAN dans MESCAL
Intervenant : Jean-Michel Fourneau
Date : 29/01/2009
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
Le formalisme des SAN developpe par B Plateau en 88 permet de representer un systeme de facon modulaire par des composants (les automates) interagissant par des transitions synchronisees et des taux de transition fonctionnels. L'analyse de la chaine de Markov associee est effectuee numeriquement. Depuis quelques annees et avec des collegues de Mescal, nous avons trouve des solutions analytiques de type forme produit pour des SAN en temps continu et en temps discret et ceci en employant uniquement les proprietes de l'algebre tensorielle ou celles de sa generalisation fonctionnelle. On generalise ainsi de nombreux resultats sur les reseaux de file d'attente en temps continu ou discret, les reseaux de Petri, les chaines de Markov en isolation, etc.
URL : http://mescal.imag.fr/seminars/2009/2009_01_29_Fourneau.pdf


Type de séminaire : Séminaire
Titre : AUTRANS 2009 : Réseaux sociaux et savoirs collectifs
Date : 07/01/2009
Date de fin : 9/01/2009
Lieu : 90. Ailleurs

Information détaillée
Voir le document joint.
Évènement Confirmé : oui

Résumé
13 ème édition des rencontres Internet d'Autrans :

Réseaux sociaux et savoirs collectifs...

Comment co-produire et organiser les connaissances ?
URL : www.autrans.net


Type de séminaire : Thèse
Titre : Réseaux d'Automates Stochastiques : Génération de l'espace d'états atteignables et Multiplication vecteur-descripteur pour une sémantique en temps discret
Présidence : Grenoble INP
Intervenant : Afonso Corrêa de Sales
Heure : 14:00
Date : 10/09/2009

Information détaillée
Membres du jury :

Rapporteurs : M. Jean-Michel Fourneau, Professeur à l'Université de Versailles Saint Quentin M. William J. Stewart, Professeur à North Caroline State University

Examinateurs : M. Roland Groz, Professeur à Grenoble INP M. Bruno Gaujal, Directeur de Recherche à l'INRIA Grenoble - Rhône-Alpes Mme Brigitte Plateau, Professeur à Grenoble INP

Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG

Résumé


Type de séminaire : Thèse
Titre : Segmentation des tissus et structures sur les IRM cérébrales : agents markoviens locaux coopératifs et formulation bayésienne.
Intervenant : Benoit Scherrer
Présidence : Christian Jutten
Date : 12/12/2008
Heure : 14H00
Lieu : 90. Ailleurs

Information détaillée
Amphithéâtre du Grenoble Institut des Neurosciences rue Fortuné Ferrini, La Tronche (proche de l'hopital)

Plan d'accès sur Google maps

Évènement Confirmé : oui

Résumé
La segmentation des IRM cérébrales est une étape cruciale pour de nombreuses applications, tant dans le domaine clinique que pour les neurosciences. Elle est rendu difficile par les artéfacts inhérents à ce type d'image, leur faible contraste et les importantes variations individuelles qui limitent l'introduction de connaissances a priori. Dans cette thèse nous proposons une nouvelle approche de segmentation des IRM cérébrales dont l'originalité réside (1) dans le couplage de la segmentation des tissus, de la segmentation des structures et de l'intégration de connaissances anatomiques et (2) la volonté de prendre en compte la localité de l'information.

La localité est modélisée via un cadre multi-agents : des agents sont distribués dans le volume et réalisent une segmentation markovienne locale. Dans une première approche (LOCUS, Local Cooperative Unified Segmentation) nous proposons des mécanismes intuitifs de coopération et de couplage pour assurer la cohérence des modèles locaux. Les structures sont segmentées via l'intégration de contraintes de localisation floue décrites par des relations spatiales entre structures. Dans une seconde approche (LOCUSB, LOCUS in a Bayesian framework) nous considérons l'introduction d'un atlas statistique des structures. Nous reformulons le problème dans un cadre bayésien nous permettant une formalisation statistique du couplage et de la coopération. Segmentation des tissus, régularisation des modèles locaux, segmentation des structures et recalage local affine de l'atlas sont alors réalisés de manière couplée dans un cadre EM, chacune des étapes s'améliorant mutuellement.

L'évaluation sur des images simulées et réelles montrent les performances de l'approche et en particulier sa robustesse aux artéfacts pour de faibles temps de calculs. Les modèles markoviens locaux distribués et coopératifs apparaissent alors comme une approche prometteuse pour la segmentation d'images médicales.
URL : http://www-timc.imag.fr/Benoit.Scherrer/index.html


Type de séminaire : Séminaire
Titre : La compression avec accès aléatoire pour le traitement de masses de données
Intervenant : Clément Courbet
Date : 11/12/2008
Heure : 15:00
Évènement Confirmé : oui

Résumé
L'accroissement des masses de données en provenance de simulations numériques sans cesse plus précises posent de nombreux problèmes en visualisation. Les algorithmes classiques requièrent que les données soient chargées en mémoire centrale pour un accès rapide aux données. L'augmentation de la taille des données se heurte vite à la quantité limitée de mémoire disponible. Il est alors naturel de vouloir utiliser des méthodes de compression afin de permettre le chargement des données en mémoire. Nous présenterons le modèle de compression avec accès aléatoire qui permet un accès transparent aux données tout en permettant de réduire leur taille. Nous appliquerons ces principes à la visualisation de


Type de séminaire : Thèse
Titre : Contributions à l'expérimentation sur les systèmes distribués de grande taille
Date : 04/12/2008
Heure : 14h30
Lieu : 90. Ailleurs

Information détaillée
Campus - salle D207, ENSIMAG
Évènement Confirmé : oui

Résumé
Cette thèse s'inscrit dans le domaine de l'expérimentation sur les systèmes distribués, et en particulier de leur test ou de leur validation. À côté des méthodes d'expérimentation classiques (modélisation, simulation, plates-formes d'expérimentation comme PlanetLab ou Grid'5000) les méthodes basées sur l'émulation et la virtualisation proposent une alternative prometteuse. Elles permettent d'exécuter l'application réelle à étudier, en lui présentant un environnement synthétique, correspondant aux conditions d'expérience souhaitées. Mais l'utilisation de tels outils ne peut se faire sans répondre à des questions sur leur réalisme et leur passage à l'échelle.

Dans ce travail, nous utilisons une démarche incrémentale pour construire une plate-forme d'émulation. Nous commençons par comparer les différentes solutions d'émulation logicielle de liens réseaux, puis illustrons leur utilisation, notamment en étudiant une application réseau complexe : TUNS, un tunnel IP sur DNS. Nous nous intéressons ensuite à la conception d'une plate-forme pour l'étude des systèmes pair-à-pair, P2PLab. Nous y utilisons l'un des émulateurs réseaux précédemment étudiés, ainsi qu'une solution légère de virtualisation, pour fournir de bonnes caractéristiques de passage à l'échelle. Après avoir validé cette plate-forme, nous l'utilisons pour étudier le protocole de diffusion de fichiers pair-à-pair BitTorrent à l'aide d'expériences mettant en jeu près de 15000 noeuds participants.
URL : http://perso.ens-lyon.fr/lucas.nussbaum/


Type de séminaire : Séminaire
Titre : Prédiction de performances dans les systèmes distribués
Intervenant : Julien Bourgeois
Date : 27/11/2008
Heure : 14:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé


Type de séminaire : Thèse
Titre : Amélioration des performances MAC dans les réseaux sans-fils
Intervenant : Mohammad Nassiri
Date : 24/11/2008
Heure : 14:00
Lieu : 05. Campus - Amphi E, ENSIMAG

Information détaillée
Jury : M Guy Mazaré (Président), M David Simplot-Ryl (Rapporteur), M André-Luc Beylot (Rapporteur), M Fabrice Valois (Examinateur), M Andrzej Duda (Directeur de thèse), M Martin Heusse (Codirecteur de thèse)
Évènement Confirmé : oui

Résumé
Dans cette thèse, nous étudions les principaux problèmes de performance qui surviennent au niveau MAC dans les réseaux sans-fil 802.11 lorsqu'ils sont utilisés dans un contexte ad-hoc ou multi-sauts. Nous proposons plusieurs mécanismes afin de résoudre ces problèmes de performance. Dans la première partie, nous améliorons la performance d'un réseau sans-fil en fournissant plusieurs classes de services. Notre mécanisme est une méthode d'accès qui permet d'allouer le débit de manière proportionnelle entre les différentes classes et qui fournit un mécanisme de priorité absolue. Par la suite, nous proposons une approche efficace et localisée pour résoudre le problème des terminaux bloqués dans les réseaux sans-fil à grandes échelles. Finalement, nous proposons un mécanisme plus global qui combine les contraintes de topologie et le mécanisme MAC afin d'améliorer les performances des réseaux ad-hoc ou maillé du point de vue du débit et de l'équité. Nous évaluons nos stratégies et les comparons aux solutions existantes au moyen de simulation.
URL : http://drakkar.imag.fr/users/Mohammad.Nassiri/


Type de séminaire : Thèse
Titre : Algorithmes d'approximation pour l'ordonnancement multi-objectif. Application aux systèmes parallèles et embarqués
Intervenant : Erik Saule
Date : 20/11/2008
Heure : 11:10
Date de fin : 20/11/2008
Lieu : 10. Campus - Amphi MJK

Information détaillée
La soutenance aura lieu le jeudi 20 novembre à 11h10 dans l'amphithéatre de la MJK à Saint Martin d'Heres (campus de Grenoble). Un draft du manuscrit est diponible en ligne ( http://www-id.imag.fr/&nbsp ;sau... ).

Vous êtes naturellement également conviés au pot qui suivra. Pour avoir une estimation du nombre de personnes présentes, pouvez vous renseigner le sondage doodle suivant si vous comptez venir ? http://doodle.com/e55wkups5hh6pwku
Évènement Confirmé : oui

Résumé
L'informatique moderne n'est plus uniquement composée de machines personnelles et de super calculateurs. De nombreux supports de calcul sont maintenant disponibles et chacun pose des contraintes particulières amenant à de nombreux objectifs. Ainsi, la notion de performance d'une application est devenue multi-dimensionnelle. Par exemple, ordonnancer optimalement (en temps) une application sur une grille de calcul est inutile si elle ne fournit pas de résultat parce qu'une machine tombe en panne. Fournir une solution à ces problèmes est un défi algorithmique actuel.

Dans ce manuscrit, nous étudions l'ordonnancement multi-objectif à l'aide des outils de la théorie de l'approximation. Nous traitons ainsi quatre problèmes. Les deux premiers sont inspirés des systèmes embarqués, tandis que les deux derniers sont inspirés des problématiques que l'on retrouve sur les grilles et les clusters.

Le premier problème étudié est l'optimisation des performances d'une application sur une machine disposant de peu de mémoire de stockage. Nous montrons que l'utilisation de l'optimisation multi-objectif permet de fournir une solution et des informations sur le problème que la théorie mono-objectif de l'approximation ne pouvait pas obtenir.

Les deux problèmes suivants concernent l'optimisation des performances d'une application lorsque les machines ne sont pas entièrement fiables. Les différents modèles de défaillances amènent à des problèmes d'optimisation radicalement différents. C'est pourquoi le deuxième problème traite de la sûreté de fonctionnement des systèmes embarqués alors que le troisième considère la fiabilité des grilles et clusters.

Le dernier problème concerne l'utilisation simultanée d'une plate-forme de calcul parallèle par de nombreux utilisateurs. Nous montrons comment l'utilisation de l'optimisation multi-objectif peut permettre de prendre en compte les besoins utilisateurs au sein du processus


Type de séminaire : Séminaire
Titre : Optimal task graph scheduling
Intervenant : Oliver Sinnen
Date : 23/10/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
Scheduling a task graph (a DAG with computation and communication costs) onto the processors of a parallel system is an NP-hard problem. As a consequence, scheduling algorithms are based on heuristics that try to produce good rather than optimal schedules. Nevertheless, in certain situations it is desirable to have optimal schedules, for example for time critical systems, for loop kernels or to evaluate scheduling heuristics. In this talk I will present scheduling algorithm based on A* that can produce optimal schedules in reasonable time for small task graphs. A* is a best-first state space search algorithm used in the area of artificial intelligence. In comparison to a previous approach, the presented scheduling algorithm has a significantly reduced search space due to a much improved cost function f (s) and additional pruning techniques. Experimental results will be presented that show the significantly improved performance. The experiments also reveal the sometimes surprising relation between the runtime of the algorithm and the structure of the task graphs.

Biography :

Dr Oliver Sinnen is senior lecturer in the Department of Electrical and Computer Engineering, University of Auckland, New Zealand. He has gained his Dipl.-Ing. degree ( Master) from the RWTH-Aachen University, Germany, and another Master and PhD degree from the Instituto Superior Técnico, Technical University of Lisbon, Portugal. Recently, he published a book on "Task Scheduling for Parallel Systems" with John Wiley, USA. His research interest lies in parallel computing, namely on fundamental problems like scheduling and on new forms of parallelism. Currently, he is Professeur invité at ENS-Lyon.


Type de séminaire : Séminaire
Titre : Parallel Solutions for Hierarchical Radiosity
Intervenant : Emilio J. Padrón
Date : 16/10/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé


Type de séminaire : Séminaire
Titre : Réunion de rentrée MESCAL et MOAIS
Date : 09/10/2008
Heure : 14:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
_ 14h Votre labo, le LIG : Brigitte Plateau
14h15 présentation de Mescal : Bruno Gaujal
14h30 présentation de Moais : Jean-Louis Roch
14h45 présentation de Grimage : Bruno Raffin
15h présentation de Grid 5000 : Pierre Neyron
15h15 les doctorants : point du vue du permanent : Vania Marangozova
15h30 le point de vue du thésard : Xavier Besseron Xavier fera une liste des nouveaux, qui un à un se léveront, feront un beau sourire (obligé...) et diront avec qui ils travaillent et sur quel sujet


Type de séminaire : Séminaire
Titre : PaSTeL. une implantation parallèle de la STL pour les architectures multi-coeurs : une analyse des performances
Intervenant : Brice Videau
Date : 09/10/2008
Heure : 14:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
Dans cet article, nous proposons la bibliothèque PaSTeL, implémentation parallèle d'une partie de la STL, bibliothèque standard du langage C++. PaSTeL propose à la fois un modèle de programmation pour la construction d'algorithmes parallèles, mais également un modèle d'exécution basé sur du vol de travail. Une attention toute particulière a été portée sur l'utilisation de mécanismes optimisés de synchronisation et d'activation des threads. Les performances de PaSTeL sont évaluées sur une machine de bureau avec un processeur à deux c÷urs, mais également avec une machine disposant de 16 c÷urs. On notera que les performances de PaSTeL sont supérieures à celles d'autres implémentations de la STL même pour des petites exécutions sur des petits jeux de données.


Type de séminaire : Séminaire
Titre : Toward a Fully Decentralized Algorithm for Multiple Bag-of-tasks Application Scheduling on Grids
Intervenant : Rémi Bertin
Date : 25/09/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé


Type de séminaire : Séminaire
Titre : B-OAR : Extending the scope of Resource Management through Volunteer Computing
Intervenant : Nagarjun Kota
Date : 17/07/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
In the current scenario, we can observe two distinct class of resources that are used for grid computing. Each of these classes has its own advantages and disadvantages. On one hand, there are high-end, clusters or microprocessors which provide rich-feature sets dedicated to computation of user submitted jobs, whereas on the other hand, we have Desktop grids that combine the power of thousands of light-weight systems (desktops) and utilize their idle times in order to perform the same kind of jobs. However, in order to fully harness the potential of grid computing, it is necessary to develop an interface that can communicate with both these classes with equal ease, in order to use the best features offered by each of these clusters. Hence, in this project, we try to integrate two different resource management systems, which are being quite successfully used in their own domains. These are namely the Berkeley Open Infrastructure for Network Computing (BOINC), which is a resource management middleware for volunteer computing and desktop grid computing, and OAR, which a resource manager (batch scheduler) for large clusters. We try to implement a "B-OAR" interface that understands the underlying architectures of both these systems and translates the data storage and interpretation formats, in order to make the two systems communicate. A demo showing jobs submitted to OAR and successfully completed through BOINC will be presented. Finally, the various issues related to the construction of the B-OAR interface would be discussed.


Type de séminaire : Thèse
Titre : Architecture logicielle et outils pour systemes d'exploitation reconfigurables
Intervenant : Juraj Polakovic
Présidence : M. Gilles Muller
Date : 25/06/2008
Heure : 14:00
Date de fin : 25/06/2008
Lieu : 50. Montbonnot-INRIA
Évènement Confirmé : oui

Résumé
Cette these, intitulee "Architecture logicielle et outils pour systemes d'exploitation reconfigurables" a ete realisee au sein du laboratoire MAPS/AMS de FranceTelecom R&D a Meylan. Sur le plan academmique cette these a ete encadree par Jean-Bernard Stefani a l'INIRIA Rhone-Alpes (projet SARDES) et sur le plan technique par Jacques Pulou a FranceTelecom R&D.

La composition du jury est la suivante :
- M. Gilles Muller (President) - Professeur a l'Ecole des Mines de Nantes
- Mme Valerie Issarny (Rapporteur) - Directeur de recherche, INRIA Rocquencourt
- M. Gilles Grimaud (Rapporteur) - Maitre de Conference en informatique, LIFL
- M. Jacques Mossiere (Examinateur) - Professeur a l'INP Grenoble
- M. Jean-Philippe Fassino (Examinateur) - Ingenieur de recherche, STMicroelectronics
- M. Jacques Pulou (Examinateur) - Ingenieur de recherche, FranceTelecom R&D
- M. Jean-Bernard Stefani (Directeur de these) - Directeur de recherche, INRIA Rhone-Alpes

Voici un court resume :


Dynamic reconfiguration allows modifying a system during its execution, and can be used to apply patches and updates, to implement adaptive systems, dynamic instrumentation, or to support third-party modules. Dynamic reconfiguration is important in embedded systems, where one does not necessarily have the luxury to stop a running system.

While some operating systems do offer mechanisms for dynamic reconfiguration, the proposed mechanisms are essentially hardwired in the system. This results in a fixed trade-off between flexibility of reconfigurations and the system's efficiency which may be far from optimal in certain operational contexts, thus limiting the system reuse.

We present an architecture-based programming model allowing both construction of customized reconfigurable system kernels and programming of their reconfigurations. This model is based on the FRACTAL component model and its C implementation for constructing component-based operating systems, called THINK. The framework supporting our approach encompasses an architecture compiler for building customized system kernels and a reconfiguration compiler. We developed several prototypes of reconfigurable systems that show the flexibility of our approach and the impact of different implementations of reconfiguration mechanisms on the system's performance.


La reconfiguration dynamique est la capacité d'un système logiciel à permettre sa modification pendant son exécution et peut être utilisée pour mettre-à-jour une partie fautive du système, introduire des algorithmes spécialisés, autoriser des extensions faites par des tiers, adapter le système à un nouvel environment et ajouter des sondes de monitoring ou debugging, etc.

Les systèmes d'exploitation existants offrent des mécanismes de reconfiguration dynamique, néanmoins ceux-ci sont figés par l'implémentation du système. Par conséquent le compromis entre la flexibilité et l'efficacité du système reconfigurable est fixe et il n'est pas possible de réutiliser le système dans d'autres contextes opérationnels (avec des mécanismes de reconfiguration différents).

Nous présentons une approche architecturale pour la construction de systèmes reconfigurables à la carte et la programmation de leurs reconfigurations. Notre modèle de programmation est basé sur le modèle à composants Fractal et son implémentation en C, appelée Think. Le canevas associé au modèle comprend un compilateur d'architecture qui permet de construire des systèmes reconfigurables et un compilateur de reconfigurations. Pour illustrer notre approche, nous avons réalisé plusieurs prototypes de systèmes reconfigurables qui ont permis de montrer la flexibilité de notre approche ainsi qu'une évaluation quantitative et l'impact des différentes implémentations de reconfiguration dynamique sur l'efficacité d'un


Type de séminaire : Séminaire
Titre : M2R Informatique : soutenances de projets
Date : 23/06/2008
Date de fin : 25/06/2008
Lieu : 90. Ailleurs

Information détaillée
Les soutenances ont lieu dans les locaux de l'UFR IMAG
Évènement Confirmé : oui
URL : http://ufrima.imag.fr/spip.php?article472


Type de séminaire : Séminaire
Titre : Scheduling and Mobility in Wireless Networks
Intervenant : Nidhi Hegde
Date : 19/06/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé


Type de séminaire : Séminaire
Titre : LibMutiscale un environnement parallèle pour les méthodes de couplage multi échelles en physique des matériaux
Intervenant : Olivier Coulaud
Date : 05/06/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé


Type de séminaire : Séminaire
Titre : On Correlated Availability in Internet-Distributed Systems
Intervenant : Derrick Kondo
Date : 27/05/2008
Heure : 10:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
As computer networks rapidly increase in size and speed, Internet-distributed systems such as P2P, volunteer computing, and Grid systems are increasingly common. A precise and accurate characterization of Internet resources is important for the design and evaluation of such Internet-distributed systems, yet our picture of the Internet landscape is not perfectly clear. To improve this picture, we measure and characterize the time dynamics of availability in a large-scale Internet-distributed system with over 110,000 hosts. Our characterization focuses on identifying patterns of correlated availability. We determine scalable and accurate clustering techniques and distance metrics for automatically detecting significant availability patterns. By means of clustering, we identify groups of resources with correlated availability that exhibit similar time effects. Then we show how these correlated clusters of resources can be used to improve resource management for parallel applications in the context of volunteer computing.

This is joint work with Artur Andrzejak at the Zuse Institute of Berlin


Type de séminaire : Séminaire
Titre : Optimisation de critères et évaluation de performances dans les systèmes embarqués
Intervenant : Frederic Ridouard (ENSEEIHT)
Date : 13/05/2008
Heure : 11:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
Un système embarqué peut se définir comme un équipement souvent autonome qui est en interaction directe avec l'environnement dans lequel il est placé. Les systèmes embarqués sont présents dans des applications de plus en plus nombreuses et variées : les cartes à puce, téléphonie mobile, l'automobile, l'avionique, la santé ou l'électronique grand public… Dans les systèmes critiques (automobile, avionique…), le comportement de l'application doit être garanti ou du moins, il doit être tolèrent à l'apparition de fautes. Dans les systèmes embarqués, l'objectif est aussi d'optimiser des critères de performance : qualité de service, coût, consommation d'énergie...

J'aborde deux aspects des systèmes embarqués. Les calculateurs embarqués et plus précisément, sur l'étude de problème d'ordonnancement des tâches présentes dans les calculateurs. Cette analyse comprend les difficultés à résoudre le problème, l'évaluation d'algorithmes et l'optimisation de critères de performances.


Type de séminaire : Séminaire
Titre : Les codes de simulation parallèles au CEA/CESTA
Intervenant : David Goudin
Date : 24/04/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
Depuis de nombreuses années, et pour des besoins en simulation de plus en plus croissants, le CEA/CESTA a développé ses propres codes parallèles, dans des domaines comme l'électromagnétisme, l'aérodynamique, etc.... Ces codes sont en production et tournent quotidiennement sur la machine TERA du CEA/DAM. Néammoins afin de s'adapter à des architectures matérielles en pleine évolution et des tailles de problèmes à résoudre dépassant largement la dizaine de millions d'inconnues en 3D, des


Type de séminaire : Séminaire
Titre : ALaNOTr II & Séminaire LIG - Ingénierie des Modèles : nouvelles solutions et nouveaux problèmes
Intervenant : Jean Bézivin & Doctorants des Laboratoires Grenoblois
Date : 23/04/2008
Date de fin : 23/04/2008
Lieu : 10. Campus - Amphi MJK

Information détaillée
Suite au vif succès rencontré lors de la première journée ALaNOTr (Ateliers Langages Notations Ontologies Transformations) et aux très nombreux échanges générés lors de cet événement, la deuxième journée aura lieu le mercredi 23 mars de 9h à 18h.

Nous aurons le plaisir d'ouvrir ALaNOTr II avec une intervention de Jean Bézivin, l'un des acteurs principal de l'Ingénierie Dirigée par les Modèles.

Cette intervention, organisée dans le cadre des Séminaires LIG, est évidemment ouverte à tous les chercheurs de la région grenobloise et plus généralement à toute personne intéressée par l'Ingénierie des Modèles et l'Ingénierie des Langages Informatiques.
Évènement Confirmé : oui

Résumé
Le résumé est disponible et plus d'informations sont disponibles sur le site alanotr.planet-mde.org. Le programme détaillé des journées sera publié sur ce site. Pour des raisons logistiques merci de vous inscrire si vous compter venir.
URL : http://alanotr.planet-babel.org/index.php?option=com_content&task=blogcategory&id=67&Itemid=57


Type de séminaire : Séminaire
Titre : Topologie de l'Internet, des routeurs aux réseaux recouvrants
Intervenant : Damien Magoni
Date : 11/04/2008
Heure : 10:30
Lieu : 30. Campus - D102
Évènement Confirmé : oui

Résumé
L'Internet est devenu sans conteste en trois décades le support matériel majeur de l'ère de l'information. Durant cette courte période, il a subi deux mutations importantes. Tout d'abord, il a subi une mutation de taille : de quelques dizaines de systèmes interconnectés suivant une topologie fixée et bien connue, l'Internet est passé à une taille phénoménale de quelques 300 millions d'hôtes suivant une topologie libre dûe au fait que son développement n'est plus centralisé. De plus, il a subi une mutation de forme : nous sommes passés des gros systèmes interconnectés par de simples lignes téléphoniques à des ordinateurs personnels mobiles interconnectés par des technologies radio en bordure de réseau et par des routeurs gigabits reliés par fibre optique en coeur de réseau. Ces deux mutations entraînent deux défis importants pour les chercheurs qui oeuvrent à l'amélioration de l'Internet. Premièrement, il est nécessaire de connaître avec le plus de précision possible, la topologie de l'Internet. Seules des méthodes macroscopiques et statistiques permettent désormais de connaître cette topologie car plus personne n'a autorité sur l'organisation et l'expansion du réseau Internet. De plus, étant donné sa dynamicité, il est aussi souhaitable que cette topologie soit mise à jour fréquemment. Deuxièmement, l'évolution rapide des technologies a fait que les paradigmes qui sous-tendaient à la création des protocoles initiaux de l'Internet ne sont plus valables à l'heure actuelle. Les notions de mobilité, de sécurité et de diffusion quasi-inexistantes à l'origine sont désormais ardemment souhaitées par les utilisateurs mais difficiles à mettre en oeuvre dans les protocoles actuels. Il faut donc trouver les moyens d'offrir ces nouvelles fonctionnalités en conservant les propriétés initiales des protocoles qui ont fait le succès d'Internet. Dans cette présentation, nous présentons des contributions qui tentent de répondre à certains aspects de ces deux défis majeurs. Nous nous concentrons tout particulièrement sur la cartographie de l'Internet, le stockage d'états dans les routeurs exécutant des protocoles multipoints, l'implémentation de fonctionnalités réseaux dans les hôtes et la conception de réseaux recouvrants.

URL : http://dpt-info.u-strasbg.fr/ magoni


Type de séminaire : Séminaire
Titre : Documenting and Automating Collateral Evolutions in Linux Device Drivers
Intervenant : Gilles Muller (École des Mines de Nantes)
Date : 10/04/2008
Heure : 10:00
Lieu : 90. Ailleurs

Information détaillée
Grande Salle de VERIMAG
Évènement Confirmé : oui

Résumé
The internal libraries of Linux are evolving rapidly, to address new requirements and improve performance. These evolutions, however, entail a massive problem of collateral evolution in Linux device drivers : for every change that affects an API, all dependent drivers must be updated accordingly. Manually performing such collateral evolutions is time-consuming and unreliable, and has lead to errors when modifications have not been done consistently.

In this talk, we present an automatic program transformation tool, Coccinelle, for documenting and automating device driver collateral evolutions. Because Linux programmers are accustomed to manipulating program modifications in terms of patch files, this tool uses a language based on the patch syntax to express transformations, extending patches to semantic patches. Coccinelle preserves the coding style of the original driver, as would a human programmer. We have evaluated our approach on 62 representative collateral evolutions that were previously performed manually in Linux 2.5 and 2.6. On a test suite of over 5800 relevant driver files, the semantic patches for these collateral evolutions update over 93% of the files completely. In the remaining cases, the user is typically alerted to a partial match against the driver code, identifying the files that must be considered manually. We have additionally identified over 150 driver files where the maintainer made an error in performing the collateral evolution, but Coccinelle transforms the code correctly. Finally, more than 40 patches derived from the use of Coccinelle have been accepted into the Linux kernel.

URL : http://www-verimag.imag.fr/SEMINAIRES/


Type de séminaire : Séminaire
Titre : The Grid Component Model and its applications
Intervenant : Françoise Baude, Sophia Antipolis
Date : 08/04/2008
Heure : 11:00
Date de fin : 08/04/2008
Lieu : 50. Montbonnot-INRIA

Information détaillée
Place : INRIA Rhône-Alpes room F107

Évènement Confirmé : oui

Résumé
In this talk, I will try to briefly present why and how we have proposed to extend the Fracal software component model in order to take into consideration the needs raised by applications devoted to run on large-scale heterogeneous architectures as grids : the Grid Component Model (GCM) and its reference implementation within the ProActive grid platform.


Type de séminaire : Séminaire
Titre : Bounds on the order fill rates for an inventory system of service tools
Intervenant : Ingrid von Vliegen
Date : 08/04/2008
Heure : 16:00
Lieu : 40. Montbonnot-ENSIMAG

Résumé
In this talk, we deal with the analysis of a single-location, multi-item inventory model for service tools. Multiple service tools are kept, with different stock levels, at the warehouse. Independent Poisson demand streams arrive at the warehouse requesting different sets of tools. Those tools from the requested set that are in stock are then released ; they are in use for an exponential amount of time, after which they are returned together. (Requested tools that are not on stock are delivered via an emergency channel ; for the warehouse they may be considered as lost sales.) Thus our model features coupled demands and coupled returns - sets of tools are released and returned together. We are interested in the order fill rates, i.e., the percentage of demands for which all requested tools are delivered from stock. As the Markov chain describing the original system is of extremely high dimension, we introduce two, more tractable, approximate models. By combining Markov reward theory and aggregation we prove that the order fill rates of these approximate models lead to a lower and an upper bound on the order fill rate in the original


Type de séminaire : Séminaire
Titre : Reconnaissance d'un code en bloc
Intervenant : Mathieu Cluzeau
Date : 07/04/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
Dans le cadre de l'étude de canaux dans un contexte non coopératif, nous nous intéressons à la reconstruction des codes correcteurs d'erreurs. Dans ce contexte, un observateur qui voudrait avoir connaissance d'informations échangées par des utilisateurs légitimes doit retrouver tousles paramètres de communication et de codage de canal afin de pouvoir décoder l'information circulant sur le canal. Du point de vue de l'attaquant, nous étudions les algorithmes permettant de retrouver sans connaissance a priori les paramètres du codeur de canal et plus particulièrement de codes en blocs linéaires. Nous verrons comment il est


Type de séminaire : Séminaire
Titre : BubbleSched, une approche exploitant la structure du parallélisme des applications
Intervenant : Samuel Thibault
Date : 03/04/2008
Heure : 15h00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
La tendance des constructeurs pour le calcul scientifique est à l'imbrication de technologies permettant un degré de parallélisme toujours plus fort au sein d'une même machine : architecture NUMA, puces multic½urs, SMT (HyperThreading). L'efficacité de l'exécution d'une application parallèle irrégulière sur de telles machines hiérarchiques repose alors sur la qualité de l'ordonnancement des threads et du placement des données.

De quels outils dispose-t-on pour cela ? L'interface POSIX ne fournit absolument aucune aide ; les différents systèmes d'exploitations existants fournissent parfois quelques primitives de placement statique. Au final, si l'on veut contrôler vraiment l'ordonnancement, il est nécessaire de modifier le noyau.

Pour garantir une certaine portabilité des performances, nous définissons la notion de "bulle" permettant d'exprimer la nature structurée du parallélisme du calcul, et nous modélisons l'architecture de la machine cible. Chaque application ayant ses spécificités, un ordonnancement générique n'obtiendrait pas de très bonnes performances. Une interface de programmation et des outils de débogage de haut niveau permettent donc de développer simplement des ordonnanceurs dédiés, efficaces et portables. Quelques exemples d'ordonnanceurs adaptés à différentes classes d'applications permettent de montrer les


Type de séminaire : Séminaire
Titre : Analyses de propriétés quantitatives de programmes
Intervenant : Laure Gonnord
Date : 20/03/2008
Heure : 15h00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
Dans cet exposé je présenterai mes travaux doctoraux et postdoctoraux qui se placent tous les deux dans le contexte d'analyse des propriétés quantitatives de programmes dans le but de faire des logiciels embarqués sûrs.

Dans ma thèse, j'ai étudié l'analyse des relations linéaires, qui permet de découvrir automatiquement, en chaque point de contrôle d'un programme, des systèmes de contraintes linéaires invariantes sur les variables numériques. Les résultats de l'analyse sont utilisables en compilation, en vérification de programmes et en parallélisation. Après une introduction rapide à cette méthode, je montrerai plus spécifiquement comment la précision des analyses peut être améliorée grâce à la notion d'__accélération abstraite__.

Mes travaux postdoctoraux étudient d'autres types d'applications embarquées que sont les applications multimédia. Ces applications ne sont plus critiques, mais par contre on désire évaluer et garantir des propriétés extra fonctionnelles, comme la qualité de service. En effet, la resource allouée à un composant logiciel peut évoluer, et on aimerait garantir une certaine fluidité de l'application. Je présenterai mes travaux de formalisation des contraintes de ressources au sein d'une architecture logicielle à composants, Qinna, ainsi que les


Type de séminaire : Séminaire
Titre : Caches adaptables et applications aux systèmes de gestion de données répartis à grande échelle
Intervenant : Laurent d'Orazio
Date : 20/03/2008
Heure : 13h00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
Les caches offrent une solution intéressante aux problèmes de performance liés à la gestion de données largement distribuées. Néanmoins, ils ne sont efficaces que correctement configurés en fonction de leur environnement et sont donc souvent entièrement construits pour une application donnée. Les coûts de développement peuvent alors être élevés, notamment sur grilles où de nombreux caches hétérogènes sont utiles. Nous proposons un canevas logiciel facilitant la création de caches évolutifs et adaptables dynamiquement pour diverses applications, en particulier pour des environnements variables. Le canevas nous a permis de tester différentes configurations pour les systèmes d'interrogation et de faire naître de nouvelles approches, pour la gestion sémantique des données et la mise en place de coopérations fines entre caches, basées sur différentes topologies physiques et/ou logiques. Nos propositions ont été appliquées à la gestion de données


Type de séminaire : Séminaire
Titre : Outils de développement collaboratif : la forge INRIA et git
Intervenant : Vincent Danjean
Date : 13/03/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
Dans ce séminaire, nous présenterons deux outils de développement logiciel collaboratif : la forge (en particulier celle déployée par l'INRIA) et git (qui a été conçu par Linus Torvald et qui est utilisé pour le développement du noyau linux).


Type de séminaire : Séminaire
Titre : Algorithmes stochastiques tronqués et réduction de variance
Intervenant : Jérôme Lelong
Date : 06/03/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
Après une présentation rapide des algorithmes stochastiques de base et de leur convergence, je présenterai les algorithmes stochastiques tronqués bpc plus robustes et qui convergent sous des hypothèses plus faibles. Un exposé détaillé de leur propriétés asymptotiques (cv p.s. et TCL) sera fait. Dans un second temps, j'expliquerai comment utiliser les algorithmes stochastiques pour mettre en oeuvre une technique de


Type de séminaire : Séminaire
Titre : Apprentissage d'équilibres de Nash. Dynamique d'un problème d'équilibrage de charges
Intervenant : Olivier Bournez
Date : 07/02/2008
Heure : 15h00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
On s'intéressera au problème de l'apprentissage des équilibres de Nash, par l'intermédiaire d'un problème (classique) d'équilibrage de charges : des tâches, correspondante chacune à un joueur, doivent se placer sur des serveurs, en minimisant leur propre coût. Le coût d'une tâche est fonction de la somme des poids des tâches qui choisissent le même serveur. On cherche à construire des dynamiques d'apprentissage qui permettent de garantir une convergence globale vers un équilibre de Nash du système. On s'intéressera en particulier aux propriétés d'une certaine dynamique stochastique.

URL : http://mescal.imag.fr/seminars/2008/2008_02_07_Bournez.pdf


Type de séminaire : Séminaire
Titre : Towards wide-area ubiquitous computing
Intervenant : Markus Endler
Date : 04/02/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
A middleware for context-awaress is an important basic building block for the development of mobile and ubiquitous computing systems. But in order to achieve wide-area, inter-domain and interoperable ubiquity, several new and interesting research problems have to be solved. In this talk, first I will shortly present the MoCA service-oriented architecture for context- and location-based services which has been developed at PUC-Rio, and then discuss our ongoing research efforts towards the design of a middleware infra-structure for the development of heterogeneous, interoperable and inter-domain ubiquitous computing systems.

Bio :

Markus Endler obtained his degree from the Technical University in Berlin in 1992. From 1994 to 2000 we worked as Assistant Professor at the Institute of Mathematics and Statistics of the University of São Paulo, and since 2001 he is with the Department of Informatics of the PontifÌcia Universidade Católica in Rio de Janeiro, where he is currently Associate Professor and head of the Laboratory for Advanced Collaboration (LAC). His main research interests include mobile systems, Ubiquitous computing and middleware for context- and location-aware services and applications. For more information, visit his home page at http://www.inf.puc-rio.br/&nbsp...

URL : http://mescal.imag.fr/seminars/2008/2008_02_04_Endler.pdf


Type de séminaire : Séminaire
Titre : OppStore : Middleware for Data Storage in Opportunistic Grids
Intervenant : Raphael Camargo
Date : 31/01/2008
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
Shared machines in opportunistic grids typically have large quantities of unused disk space. These resources could be used to store application and checkpointing data when the machines are idle, allowing those machines to share not only computational cycles, but also disk space. I will present the design and implementation of OppStore, a middleware that provides reliable distributed data storage using the free disk space from shared grid machines. The system utilizes a two-level peer-to-peer organization to connect grid machines in a scalable and fault- tolerant way. Finally, we use the concept of virtual ids to deal with resource heterogeneity, enabling heterogeneity-aware load-balancing selection of storage sites.

URL : http://mescal.imag.fr/seminars/2008/2008_01_31_Camargo.pdf


Type de séminaire : Séminaire
Titre : Covert Channels inside DNS
Intervenant : Lucas Nussbaum
Date : 20/12/2007
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
Pour finir l'année d'une manière moins sérieuse, Lucas nous parlera de "Covert Channels inside DNS". Mais ce séminaire pourrait aussi s'intituler "Comment avoir accès à Internet gratuitement dans tous les aéroports, et beaucoup d'hotels et de gares ?". :) Lucas commencera par nous expliquer le principe général, puis comparera les caractéristiques et les performances de trois implémentations existantes avec TUNS, son tunnel IP over DNS, avant de finir par une démo.

URL : http://www-id.imag.fr/ nussbaum/tuns.pdf


Type de séminaire : Séminaire
Titre : High Performance Computing, Strategies et Technologies
Intervenant : Olivier Chorier
Date : 18/12/2007
Heure : 9:30
Lieu : 50. Montbonnot-INRIA

Information détaillée
Salle séminaire A104

Inscriptions
Évènement Confirmé : oui

Résumé
IBM France et Serviware ont le plaisir de vous inviter le 18 décembre à Grenoble dans les locaux de l'INRIA pour un séminaire dédié au High Performance Computing, stratégies et technologies appliquées à la Recherche.

Le coeur de la journée s'articulera autour des performances et de l'optimisation des systèmes de calcul intensif :

Les laboratoires LIG et LIP présenteront leurs avancées autour des projets de recherche informatique MOAIS, MESCAL et GRAAL.

L'ECOLE POLYTECHNIQUE FEDERALE DE LAUSANNE et le CINES présenteront leur expérience en matière de modélisation numérique et de calcul intensif sur la base de technologies HPC IBM. Des spécialistes IBM présenteront les technologies Blue Gene et selon de récentes annonces, les processeurs Power 6 et Cell, appliqués au monde de la Recherche.

Le processeur Cell, initialement destiné à l'industrie du jeu, s'est avéré extrêmement performant pour le calcul scientifique et parallèle grâce à sa technologie multi-coeur et sa puissance crête de 256GFlops, ainsi que pour le monde de l'imagerie et des technologies informatiques embarquées.

- 09:30 - 10:00 Accueil café et Introduction

- 10:00 - 10:20 Hugues Bourdais, présentation de la société SERVIWARE,
- 10:20 - 10:50 Guillaume Huard, LABORATOIRE D'INFORMATIQUE DE GRENOBLE, "KAAPI/TakTuk, HPC à grande échelle efficace sur infrastructures hétérogènes"
- 10:50 - 11:00 Questions / Réponses
- 11:05 - 11:35 Yves Denneulin, LABORATOIRE D'INFORMATIQUE DE GRENOBLE, "programmation parallèle, projet MESCAL"
- 11:35 - 11:45 Questions / Réponses
- 11:50 - 12:20 Frédéric Desprez, LABORATOIRE D'INFORMATIQUE DU PARALLELISME, "algorithmique et ordonnancement, projet GRAAL"
- 12:20 - 12:30 Questions / Réponses

- 12:30 - 13:30 Pause déjeuner "fêtes de fin d'année"

- 13:30 - 13:50 Olivier Multon, IBM System and Technology Group France, directeur HPC, "Panorama des technologies HPC IBM appliquées à la Recherche"
- 13:50 - 14:10 Olivier Multon, Focus BLADE CENTER, "architecture optimisée : densité et énergie"
- 14:10 - 14:30 Olivier Multon, Focus POWER 6, nouvelle génération de processeurs HPC
- 14:30 - 14:40 Questions/Réponses

- 14:45 - 15:15 Olivier Hess, IBM Deep Computing Europe, PSSC Montpellier, "Technologie BLUE GENE et modélisation appliquée à la Recherche"
- 15:20 - 16:00 Pierre Maruzewski, EPFL, Technical Coordinator of the BLUE GENE/L Project, "6 projets scientifiques appliqués"
- 16:00 - 16:10 Christian Clémençon, EPFL, administrateur système BLUE GENE
- 16:10 - 16:20 Questions/Réponses

- 16:20 - 16:30 Pause

- 16:30 - 17:00 François Thomas, IBM Deep Computing Europe, PSSC Montpellier, "Performances et Programmation du processeur CELL"
- 17:05 - 17:25 Bertrand Cirou, CINES, "Calcul intensif et Processeur CELL"


Type de séminaire : Thèse
Titre : Caches adaptables et applications aux systèmes de gestion de données répartis à grande échelle
Intervenant : Laurent d'Orazio
Date : 17/12/2007
Heure : 13:30
Lieu :

Information détaillée
Dans la salle D111 de l'ENSIMAG pour la soutenance et en D102 pour le pôt.
Évènement Confirmé : oui

Résumé

Composition du jury :

M. Jean-Luc KONING, Professeur à l'Institut Polytechnique de Grenoble (Président).

M. Guy BERNARD, Professeur à l'Institut National des Communication, Evry (Rapporteur).

M. Abdelkader HAMEURLAIN, Professeur à l'Université Paul Sabatier, Toulouse (Rapporteur).

M. Fabio HERNANDEZ, Ingénieur de Recherche à L'Institut National de Physique Nucléaire et de Physique des Particules, Lyon (Examinateur).

Mme. Claudia RONCANCIO, Maître de Conférence (HDR) à l'Institut Polytechnique de Grenoble (Directrice de thèse).

M. Cyril LABBE, Maître de Conférences à l'Université Joseph Fourier, Grenoble (Co-encadrant).

Résumé de la thèse :

Les caches offrent une solution intéressante aux problèmes de performance liés à la gestion de données largement distribuées. Néanmoins, ils ne sont efficaces que correctement configurés en fonction de leur environnement et sont donc souvent entièrement construits pour une application donnée. Les coûts de développement peuvent alors être élevés, notamment sur grilles où de nombreux caches hétérogènes sont utiles. Nous proposons un canevas logiciel facilitant la création de caches évolutifs et adaptables dynamiquement pour diverses applications, en particulier pour des environnements variables. Le canevas nous a permis de tester différentes configurations pour les systèmes d'interrogation et de faire naître de nouvelles approches, pour la gestion sémantique des données et la mise en place de coopérations fines entre caches, basées sur différentes topologies physiques et/ou logiques. Nos propositions ont été appliquées à la gestion de données bio-informatiques sur


Type de séminaire : Thèse
Titre : Nouvelles approches pour l'ordonnancement d'applications parallèles sous contraintes de déploiement d'environnements sur grappe
Intervenant : Feryal-Kamila Moulai
Date : 13/12/2007
Heure : 10:30
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
Cette thèse sera défendue devant :
- M Georges-Pierre Bonneau Univ. Joseph Fourier, Président
- M Jean-Claude König Professeur Université Montpellier II (Rapporteur)
- M Christophe Cérin Professeur Université Paris XIII (Rapporteur)
- M Arnaud Legrand Chargé de recherche CNRS, (Examinateur)
- M Grégory Mounié Maitre de conférence ENSIMAG (Co-ancadrant)
- M Jean-François Méhaut Professeur Université Joseph Fourier,(directeur de thèse).

Résumé

Cette thèse s'inscrit dans le cadre des grappes dans le projet Grid'5000 (Projet Français pour les grilles). Grid'5000 est une plate-forme expérimentale qui offre la possibilité aux chercheurs de soumettre aux gestionnaires de ressource des programmes (travaux) et d'associer pour chaque requête un environnement. Une grappe est un ensemble de noeuds de calcul, connectés entre eux via un réseau dédié. Le processus de déploiement d'environnement sur les noeuds de calcul n'est pas sans conséquence. Un des problèmes que l'on rencontre est la défaillance des machines. Le démarrage excessif lors de la phase déploiement peut causer un endomagement de celles-ci. Nous avons ainsi modélisé ce problème sous forme d'un problème d'ordonnancement bicritère. Le premier critère à minimiser comptabilise pour chaque machine (processeur) le nombre de déploiements effectués. Il permet ainsi de définir le nombre total de déploiements sur toutes les machines. Nous avons également considéré un second critère à minimiser, le makespan.

Nous avons défini un algorithme Groups List Scheduling, basé sur une approche budget, avec un relâchement des contraintes d'optimalité. Cette approche nous a permis de définir une solution (alpha, beta)-budget-relaxée-approchée pour un problème d'optimisation bicritère. Dans le cadre du problème d'ordonnancement bicritère avec déploiement, l'algorithme GLS donne ainsi une solution (4,2)-budget-approchée-relaxée.

Nous avons ensuite abordé ce problème d'ordonnancement bicritère avec déploiement en utilisant l'approche « courbe de Pareto ». Nous avons défini un algorithme polynômial, qui permet de construire une courbe de Pareto (4+epsilon, 2)-approchée, à partir des solutions fournies par l'algorithme GLS.

Une analyse expérimentale nous a permis d'évaluer les performances de l'algorithme GLS et de valider ainsi les rapports


Type de séminaire : Habilitation
Titre : Intergiciel à haute performance pour architecture grande échelle
Intervenant : Yves Denneulin
Date : 07/12/2007
Heure : 10h00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
Le contexte des travaux est le calcul parallèle hautes performances sur des architectures de grande taille sous le double angle de la gestion des activités et des données. Les travaux sur les tâches se sont concentrés sur laspect exploitation darchitectures volatiles, du type intranet dentreprise, avec des travaux sur lordonnancement multi-niveau, intra- et inter-applications, et la persistence des activités. Dans le domaine de la gestion des données, les travaux se sont concentrés sur la conception de systèmes de fichiers hautes performances passant à léchelle ainsi que sur le développement dune nouvelle approche de gestion des données, hybride entre les systèmes de fichiers et les systèmes de gestion de bases de données.

Après avis des rapporteurs : M. Luc Bougé, M. Ian Foster, M. Sacha Krakowiak

Devant le jury composé de : M. Luc BOUGÉ, Professeur des Universités, École Normale Supérieure de Cachan M. Franck CAPPELLO, Directeur de Recherche, INRIA Futurs M. Jean-Marc GEIB, Professeur des Universités, Université des Sciences et Technologies de Lille M. Sacha KRAKOWIAK, Professeur des Universités, Université Joseph Fourier de Grenoble


Type de séminaire : Séminaire
Titre : Stochastic comparison of Markov chains : an algorithmic approach
Intervenant : Ana Busic
Date : 29/11/2007
Heure : 15:00
Date de fin : 29/11/2007
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
Markov processes are largely used in various domains due to their simplicity to model real systems. Many high-level formalisms have been developed in order to simplify the definition and generation of these models. However, the growing complexity of studied systems results in state-space explosion of Markovian models and the classical analytical or numerical methods do not apply.

Stochastic comparison techniques allow to construct simpler models that are easier to solve and that can provide bounds for a given measure of interest. I am particularly interested in algorithmic aspects of these techniques and their applications to reliability and performance evaluation. In this seminar I will present some basic algorithms that use usual stochastic ordering (st-ordering).

Another important usage of stochastic comparison is to study systems that are only partially specified (the exact values of some parameters are unknown), or to prove some qualitative properties like monotonicity with respect to a given parameter of the system. Usual stochastic ordering is not always well adapted to these problems. I will end my presentation by showing some examples that motivate other stochastic orderings of Markov chains, like increasing convex or level-crossing orderings, that can be a topic of a future seminar, if


Type de séminaire : Séminaire
Titre : Load Balancing on an Interactive Multiplayer Game Server
Intervenant : Daniel Cordeiro
Date : 22/11/2007
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
In this presentation, I will show the results obtained during my Master's at University of São Paulo (advisor : Alfredo Goldman) that was abridged in a paper accepted in this year's edition of Euro-Par.

In this work, we investigate the impact of issues related to performance, parallelization, and scalability of interactive, multiplayer games. Particularly, we study and extend the game QuakeWorld, made publicly available by id Software under GPL license. We have created a new parallelization model for Quake's distributed simulation and implemented this model in QuakeWorld server. We implemented the model adapting the QuakeWorld server in order to allow a better management of the generated workload. In this talk, I will present in our methodology and experimental results on SMP computers.


Type de séminaire : Séminaire
Titre : Algorithmes cache-oblivious
Intervenant : Marc Tchiboukdjian
Date : 08/11/2007
Heure : 15:00
Lieu : 40. Montbonnot-ENSIMAG
Évènement Confirmé : oui

Résumé
Dans les domaines de la simulation numérique et de la visualisation scientifique les applications utilisent tellement de données qu'il n'est plus possible de les stocker entièrement dans la mémoire vive de l'ordinateur. Les communications entre la mémoire vive et le disque, beaucoup plus lent, entraînent une chute importante des performances. Pour minimiser ces entrées/sorties, on développe des modèles de machine qui représentent plus justement la hiérarchie mémoire que le modèle de machine classique où le coût des accès mémoires est uniforme.

Dans cet exposé on présentera deux de ces modèles :
- le "Disk Access Model" est composé de deux niveaux, la mémoire et le disque. Les données sont transférés entre les deux niveaux en blocs d'éléments de taille fixée.
- le "Cache Oblivious Model" reprend le modèle précédent mais la taille des blocs est inconnue. Pour chacun de ces modèles on expliquera les principes de conception d'algorithmes efficaces à travers de nombreux exemples tels que les arbres de recherche, les tris, la multiplication de matrices... On mettra l'accent sur le modèle cache-oblivious qui permet de créer des algorithmes optimaux pour tous les niveaux de la hiérarchie mémoire sans voir besoin d'ajuster des paramètres relatifs à la configuration


Titre : Current Trends in High Performance Computing
Type de séminaire : Séminaire
Intervenant : Glenn Luecke
Heure : 15:00
Date : 09/09/10
Évènement Confirmé : oui
MJK : 40. Montbonnot-ENSIMAG

Résumé

 
LIG         CNRS         Grenoble INP         INRIA         UJF         UPMF
last update: 20/05/2015 - web-id at imag.fr