Magistère 2008/2009

Voici la liste des travaux effectués par les étudiants en Magistère en 2009/2010, triés par famille de sujets.

Systèmes embarqués

Jérôme Reybert (M2) - A parallelization model for embedded applications

Sous la tutelle de Jean-François Méhaut, Miguel Santana et Carlos Prada, en coopération entre l'équipe MESCAL (LIG-INRIA) et STMicroelectronics

The previous years have seen an important evolution in the embedded system domain, with the apparition of multi processors and multi cores architectures. For the moment, these architectures are embedded specific, built with one processor and several accelerators around it. The next ones will be based on many processors and core/accelerators. The software development should change as develop for a parallel system is completely different from a monoprocessor one. Furthermore, the software directory of industries such as STMicroelectronics must be adapted, in order for the applications to benefit all the available computing power of multicore systels. It is important to define a simple model to parallelize efficiently sequential and embedded applications.

Laurie Lugrin (M2) - An Abstraction Relation for Energy Consumption Properties

Sous la tutelle de Florence Maraninchi et de Laurent Mounier, dans le laboratoire VERIMAG

Abstraction is often used in verification to reduce the size of models and avoid blow-up. An abstraction must be conservative for the property we want to prove on a model. In this paper, we focus on worst-case consumption, so as to guarantee that a system consumes no more than a given quantity of energy. Therefore the abstract model must over-approximate the consumption of the detailed one. We use power state automata to model the system and an abstraction relation which observes this criterion. We restrict ourself to non-functional properties, that is, the system behavior does not depend on the amount energy consumed or left. We propose an automatic procedure which checks if a model is an abstract model for a given concrete model and a context.

Systèmes distribués

Raphaël Jamet (L3) - File Broadcasting in a Cluster or Grid

Sous la tutelle de Guillaume Huard, dans l'équipe MOAIS (LIG-INRIA).

L'objectif de ce stage est d'améliorer les procédés de diffusion de fichiers utilisés dans Grid'5000. Plutôt qu'un transfert en pipeline, nous avons essayé d'utiliser les arbres de diffusion afin de créer un outil plus performant et robuste, capable de se servir avantageusement de la structure réseau.

Pierre Louis Aublin (M1) - Lazylon : a Lightweight and Churn-aware Membership Protocol

Sous la tutelle de Vivien Quéma, dans l'équipe SARDES (INRIA).

Gossip-based peer sampling protocols are used in peer-to-peer systems to construct robust overlays. However the existing protocols does not have any mechanism to adapt themselves to the churn. In this paper we present Lazylon, a protocol based on Cyclon which modulates its shuffle period according to the churn rate. We will see that this protocol allows us to keep a random network in presence of massive failures and that it uses the bandwidth according to the churn. Finally the protocol can be enhanced and this work can be seen as an introduction.

Gaël Gorgo (M2) - Perfect Sampling of Load Sharing Policies in Large Scale Distributed Systems

Sous la tutelle de Jean-Marc Vincent, dans l'équipe MESCAL (LIG-INRIA).

Load sharing is essential to improve the efficiency of distributed systems computations. This paper deals with performance evaluation of load sharing policies, with a theoretical model. Queueing networks models of such systems usually lead to markov chains with very large states spaces and an exact solution is extremely difficult to obtain. We use an efficient simulation method, derived from Propp & Wilson, perfect sampling, which enables to sample state of the markov chain according to the stationary distribution. Thus, we study the performance of load sharing systems, computing an exact statistical estimation of their steady state. When the events of the system are monotone, the monotone perfect sampling algorithm is used to reduce drastically the sampling time. We propose a general index based model for the definition of load sharing policies and prove that this model is monotone. Then, we are able to study large scale distributed systems, i.e. with thousands of processors, keeping a reasonable sampling time.

Web et sémantique

Adrien Brilhault (M2) - Indexation et recherche par le contenu de documents vidéos

Sous la tutelle de Catherine Garbay et de Georges Quénot, dans les équipes MAGMA et MRIM (LIG)

Ce stage traite de l’indexation sémantique de documents vidéos, ou en d’autres termes de la reconnaissance de concepts haut-niveau par des méthodes de classification basées sur un apprentissage supervisé. Nous avons examiné différentes pistes de recherche en vue de l’amélioration des modèles et systèmes existants, pour finalement nous focaliser sur la création de méthodes automatiques de sélection et de fusion des différentes sources d’information dans la chaine de traitement de l’image.

Cédric Lagnier (M2) - Clustering of Document Streams

Sous la tutelle de Eric Gaussier et de Jan-Michel Renders, dans l'entreprise Xerox en partenariat avec le LIG

With Internet, the number of data published every day increases more and more and a single person is not able to read all documents that are generated. That's why we need clustering algorithms to help us read new documents. In this document, we present the adaptation of some clustering methods (K-means, PLSA, Hierarchical clustering) on document streams. Each method has been developped in order to solve problems of previous methods.

Elmehdi Damou (M2) - Environnement pour le développement, l'assemblage et le déploiement de chaînes de médiation données

Sous la tutelle de Philippe Lalanda et de Catherine Hamon, dans l'équipe ADELE (LIG)

Le développement de l'Internet et la prolifération des dispositifs mobiles ont générés une large quantité d'information, qui provient de sources différentes et hétérogènes (web, stations de travail, dispositifs mobiles, capteurs, etc.). Un défi est donc lancé: pouvoir les intégrer pour les utiliser dans une seule application, sans être trop coûteux. Dans ce contexte-là, la médiation est une solution efficace à ce problème. En effet, la médiation est le processus d'intégration d’informations provenant de sources disparates pour qu'une application de plus haut niveau puisse les utiliser. Les médiateurs permettent, ainsi, d'intégrer l'information sans avoir besoin d'intégrer les bases fournissant cette information.

Image et visualisation

Dounia Azzi (L3) - Visualisation de cartes de potentiel à partir d'un client Web

Sous la tutelle de Jérôme Gensel et Christine Plumejeaud , dans l'équipe STEAMER (LIG)

Les travaux du groupe de recherche HyperCarte ont abouti au développement d'une plateforme logicielle dédiée à la cartographie interactive pour l’analyse territoriale et spatiale multi-scalaire de données socio-économiques ou environnementales. HyperSmooth est un module de cette plateforme qui livre une représentation continue des phénomènes analysés, en utilisant la méthode du potentiel. Il comprend un moteur de calcul (Hyantès), activable par un service Web, qui produit des matrices de valeurs de potentiel, mais qui n’ont pas encore une représentation immédiate. L’objectif de ce travail est de simplifier la chaîne de traitement des données via le développement d'un portail Web qui permettra l'activation des services de calcul via une interface Web ainsi que la fabrication et l'affichage des images à partir des matrices de données calculées.

Thomas Castel (M1) - Multi-surface : techniques d'interaction avec un dispositif portable - Application à la visualisation "focus+contexte" sur iPhone

Sous la tutelle de Laurence Nigay, dans l'équipe IIHM (LIG)

We focus on interaction techniques with a PDA in the context of multi-surface interaction. The PDA is one interaction surface and at least one other surface is used (e.g., projection onto a wall, PC screen). Facing the huge space of design possibilities, we first identify the various roles that the PDA can play in the context of multiple surfaces. This constitutes the first axis of our design space. In order to define this axis, we based our design space on the Instrumental Interaction model. Orthogonally to the role that the PDA can play, we also study the interaction techniques on the PDA: these techniques define the second axis of our design space. Based on recent technological advances, along this axis we consider innovative interaction techniques including gestural and two-handed techniques. We illustrate our design space by the design and development of a multimodal application using an iPhone. The application domain is the navigation in a large map (i.e., exploration, edition of POI). We designed a focus+context visualization technique of the map and the resulting application offers several interaction techniques on the PDA that are characterized using our design space. The next step of this study is to perform a comparative experimental evaluation with end-users to conclude on the usability, efficiency and users’ experiences of the different interaction techniques.

Kevin Dowlut (M2) - Segmentation de la trajectoire de l'aiguille de ponction dans une image échographique et validation du suivi de la prostate pour les biopsies assistées par ordinateur

Sous la tutelle de Michael Baumann, dans l'équipe TIMC (LIG).
Ce rapport a été retiré à la demande du laboratoire : demandez au tuteur pour plus d'informations.

La réalisation des biopsies de la prostate sous contrôle échographique assistées par ordinateur est rapidement devenue indispensable aux protocoles chirurgicaux. Le logiciel d'assistance permet en effet au praticien de confronter les ponctions réalisées au planning prévu. Le but étant d'assurer un rendement clinique optimal et de contribuer au confort du patient. Le système informatique nécessite toutefois encore souvent l'intervention du chirurgien. Afin de le libérer de certaine contrainte informatiques et de lui permettre de se consacrer pleinement à la réalisation des biopsies, nous avons développé des outils qui réaliseront la segmentation automatiquement la trajectoires des aiguilles à biopsie et la validation du recalage des volumes échographiques. A terme ces outils pourront s'intégrer au sein du logiciel d'assistance.

Cryptologie

Laure Fouard (M1) - List decoding of Reed-Solomon codes

Sous la tutelle de Rei Safavi-Naini, à l'Université de Calgary (Canada).

In cryptography, data is often transmitted through a noisy channel. Hence one needs to have error-correcting codes, in order to recover from the possible errors. Moreover, in the case of large error rates, it is better to use list-decoding. In this paper we focus on the Reed-Solomon error-correcting code and on its list-decoding technic. We will explain deeply how the algorithms work, in order to be able to use them to solve other hard problems.