|
ListRecords (40 records )
|
|
dc:title
|
Flexibilité dans la gestion des infrastructures informatiques distribuées |
dc:title
|
Flexible management of distributed computing infrastructures |
dc:subject
|
Flexibilité des systèmes informatiques |
dc:subject
|
Virtualisation |
dc:subject
|
Infrastructure distribuée |
dc:subject
|
Informatique en nuage |
dc:subject
|
Multicentrale numérique |
dc:subject
|
Grille (informatique) |
dc:subject
|
Grappe (informatique) |
dc:subject
|
Approvisionnement dynamique de ressources |
dc:subject
|
Distributed processing |
dc:subject
|
Management information systems |
dc:subject
|
Virtual computer systems |
dc:subject
|
Cloud computing |
dc:description
|
Cette thèse s'intéresse à la flexibilité dans les infrastructures informatiques distribuées du point de vue de leurs administrateurs et utilisateurs. Pour les utilisateurs, il s'agit de trouver au moment où ils en ont besoin des ressources matérielles adaptées avec un environnement personnalisé à l'exécution de leur application. Pour les administrateurs, il s'agit de définir les politiques d'allocation des ressources (politiques d'usage et de sécurité) pour les applications des utilisateurs. Nous avons étudié la problématique de la flexibilité dans le contexte des grilles et des centrales numériques (CN). Tout d'abord, nous avons conçu et mis en oeuvre le système Saline qui s'appuie sur la virtualisation pour permettre l'exécution de tout type de tâche en mode préemptif dans les grilles. Nous avons également proposé le système Grillade qui combine les mécanismes de flexibilité offerts par les grilles et les CN pour d'une part, étendre dynamiquement une grille avec des ressources virtuelles fournies par des CN et d'autre part, construire des nuages de type IaaS fédérant les ressources de plusieurs sites. Grillade étend le système de grille XtreemOS. Il permet en outre grâce à la technologie de système à image unique de proposer aux utilisateurs des machines virtuelles exécutées sur une agrégation de nœuds. Enfin, nous proposons un formalisme permettant de classer les systèmes de gestion de ressources offrant de la flexibilité et de définir des règles pour les combiner. Le système Tropicbird qui s'appuie sur ce formalisme met en œuvre, à la demande, des plates-formes virtuelles spécifiées par les utilisateurs sur une infrastructure matérielle. |
dc:description
|
This thesis focuses on flexibility in distributed IT infrastructure for administrators and users. From users point of view, they need on-demand resources fitting their application needs. For administrators, they set policies for resource allocation (policies for resource usage and safety) in order to meet the user application needs. We studied the issue of flexibility in the context of grids and clouds. First, we designed and implemented the Saline system. Saline is based on virtualization technology for the execution of besteffort jobs in grids. We also proposed the Grillade system which combines flexibility mechanisms provided by grids and clouds. This allow, firstly, to dynamically extend a grid with virtual resources provided by a cloud and secondly, to build IaaS clouds by federating resources provided by multiple sites. Grillade extends the XtreemOS grid system. It also allows to use single system image technology to provide to users virtual machines run on an aggregation of nodes. Finally, we propose a formalism to classify the resource management systems and to provide flexibility to define rules for combining them. Tropicbird system, based on this formalism, implements on-demand virtual platforms specified by users on the physical infrastructure. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
fr |
dc:identifier
|
https://ecm.univ-rennes1.fr/nuxeo/site/esupversions/3823d20a-d39f-40c5-b6c0-1f33594d8a57
|
dc:creator
|
Gallard, Jérôme |
dc:date
|
2011-05-06 |
dc:contributor
|
Universite de Rennes 1 |
dc:contributor
|
Morin, Christine |
|
|
|
dc:title
|
Parallelization on graphic hardware : contributions to RNA folding and sequence alignment |
dc:title
|
Parallélisation sur matériel graphique : contributions au repliement d'ARN et à l'alignement de séquences |
dc:subject
|
Bioinformatique |
dc:subject
|
Programmation parallèle |
dc:subject
|
Calcul intensif |
dc:subject
|
Bioinformatic |
dc:subject
|
Parallel programming |
dc:subject
|
High performance computing |
dc:subject
|
Next Generation Sequencing |
dc:subject
|
mapping |
dc:subject
|
RNA folding |
dc:description
|
La bioinformatique nécessite l'analyse de grandes quantités de données. Avec l'apparition de nouvelles technologies permettant un séquençage à haut débit à bas coût, la puissance de calcul requise pour traiter les données a énormément augmenté.. Cette thèse examine la possibilité d'utiliser les processeurs graphiques (GPU) pour des applications de bioinformatique. Dans un premier temps, ce travail s'intéresse au calcul des structures secondaires d'ARN. Ce problème est en général calculé par programmation dynamique, avec un algorithme qui pose de sérieux problèmes pour un code GPU. Nous introduisons une nouvelle implémentation tuilée qui fait apparaitre une bonne localité mémoire, permettant ainsi un programme GPU très efficace. Cette modification permet également de vectoriser le code CPU et donc de faire une comparaison honnête des performances entre GPU et CPU. Dans un deuxième temps, ce travail aborde le problème d'alignements de séquences. Nous présentons une parallélisation GPU d'une méthode utilisant une indexation par graines. L' implémentation sur GPU n'étant pas efficace, nous nous tournons vers le développement d'une version CPU. Notre contribution principale est le développement d'un nouvel algorithme éliminant rapidement les nombreux alignements potentiels, basé sur le précalcul de portions de la matrice de programmation dynamique. Ce nouvel algorithme a conduit au développement d'un nouveau programme d'alignement très efficace. Notre travail fournit l'exemple de deux problèmes différents dont seulement un a pu être efficacement parallélisé sur GPU. Ces deux expériences nous permettent d'évaluer l'efficacité des GPU et leur place en bioinformatique. |
dc:description
|
Bioinformatics require the analysis of large amounts of data. With the recent advent of next generation sequencing technologies generating data at a cheap cost, the computational power needed has increased dramatically. Graphic Processing Units (GPU) are now programmable beyond simple graphic computations, providing cheap high performance for general purpose applications. This thesis explores the usage of GPUs for bioinformatics applications. First, this work focuses on the computation of secondary structures of RNA sequences. It is traditionally conducted with a dynamic programming algorithm, which poses significant challenges for a GPU implementation. We introduce a new tiled implementation providing good data locality and therefore very efficient GPU code. We note that our algorithmic modification also enables tiling and subsequent vectorization of the CPU program, allowing us to conduct a fair CPU-GPU comparison. Secondly, this works addresses the short sequence alignment problem. We present an attempt at GPU parallelization using the seed-and-extend paradigm. Since this attempt is unsuccessful, we then focus on the development of a program running on CPU. Our main contribution is the development of a new algorithm filtering candidate alignment locations quickly, based on the pre computation of tiles of the dynamic programming matrix. This new algorithm proved to be in fact more effective on a sequential CPU program and lead to an efficient new CPU aligner. Our work provides the example of both successful an unsuccessful attempts at GPU parallelization. These two points of view allow us to evaluate GPUs efficiency and the role they can play in bioinformatics. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
https://ecm.univ-rennes1.fr/nuxeo/site/esupversions/df86b1c1-46f8-4fe8-ac6c-fb4920b31b84
|
dc:creator
|
Rizk, Guillaume |
dc:date
|
2011-01-12 |
dc:contributor
|
Universite de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Lavenier, Dominique |
|
|
|
dc:title
|
De la nécessité d’une vision holistique du code pour l’analyse statique et la correction automatique des applications Web |
dc:title
|
The necessity of an holistic code view for static analysis and automatic refactoring of Web Applications |
dc:subject
|
Analyse statique |
dc:subject
|
multilinguisme |
dc:subject
|
Java (informatique) |
dc:subject
|
Logiciels Internet |
dc:subject
|
Qualité |
dc:subject
|
Sécurité (informatique) |
dc:subject
|
Holisme |
dc:subject
|
Transformation |
dc:subject
|
Computer programs -- Verification |
dc:subject
|
Multilingualism |
dc:subject
|
Java (Computer program language) |
dc:subject
|
Internet -- Computer programs |
dc:description
|
L'omniprésence de l'informatique a comme conséquences, parmi d'autres, la multiplication du volume logiciel existant et en cours de développement pour répondre à une demande toujours croissante. Cette course à la productivité implique une industrialisation de la production de code sous contrôle qualitatif de plus en plus exigeante.Cette thèse tend à repousser des limites constatées dans le domaine de la qualité logicielle. Ces limites perceptibles dans les outils actuels concernent (1) le périmètre d'analyse, (2) l'ergonomie et les contextes d'utilisation, ainsi que (3) les solutions de correction du code proposées.Le point prépondérant de cette étude est la valorisation de l'ensemble des contenus qui entrentdans la composition d'une application pour améliorer les performances de l'analyse statique.Cette approche nous a permis d'obtenir des réponses plus complètes pour les problématiques déjà couvertes par l'existant. Cette diversité des sources nous a également permis de formuler des nouvelles analyses plus spécifiques et mieux adaptées aux caractéristiques de l'application cible. Nous avons aussi montré que la parallélisation de l'exécution et la possible automatisation de corrections aux problèmes trouvés lors de l'analyse permettent d'appliquer rapidement un nombre important de transformations sur un code volumineux. |
dc:description
|
Ubiquitous computing has as a consequence, among others, the existing and under development software’s size increasing to meet an increasing demand. This race for productivity implies industrialization of the code production under a more demanding quality control. This thesis tends to push the limits founded in the field of software quality. These limits, which are notice able in the current tools are (1) the scope of analysis, (2) ergonomics and usages contexts , and (3) the proposed code correction solutions.The overriding point of this study is the integration of all kind of code which composing an application to improve static analysis performance.This approach allowed us to get more answers to resolve problems already covered by existing tools. This diversity of sources has also allowed to make further more specific analysis and better adapted to the characteristics of the target application.We have also shown that a parallel computation and a possible automatic problem correction found during the analysis can quickly apply a large number of transformations on a large size code. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
fr |
dc:identifier
|
https://ecm.univ-rennes1.fr/nuxeo/site/esupversions/97e18c9f-0f48-41e5-ab49-6280560f67c6
|
dc:creator
|
Levointurier, Christophe |
dc:date
|
2011-12-08 |
dc:contributor
|
Universite de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Bodin , François |
dc:contributor
|
Rousée, Frank |
|
|
|
dc:title
|
Simulation du comportement de suivi dans une foule de piétons à travers l'expérience, l'analyse et la modélisation |
dc:title
|
Simulating following behavior in a pedestrian crowd throughout experimentation, analysis and modeling |
dc:subject
|
Animation comportementale |
dc:subject
|
Simulation de foule |
dc:subject
|
Comportement de suivi |
dc:subject
|
Capture de mouvements |
dc:subject
|
Analyse cinématique |
dc:subject
|
Modélisation |
dc:subject
|
Behavioral animation |
dc:subject
|
Crowd simulation |
dc:subject
|
Following behavior |
dc:subject
|
Motion capture |
dc:subject
|
Kinematic analysis |
dc:subject
|
Modeling |
dc:description
|
La simulation réaliste de foule est un problème ouvert et difficile à cause de la multitude d'informations qui sont prises en compte par un humain pour déterminer sa trajectoire de marche. Dans cette thèse nous cherchons à modéliser puis à simuler de manière aussi réaliste que possible les interactions de suivis entre individus se déplaçant dans les foules. Nous proposons une approche en trois grandes étapes. Dans un premier temps, nous constituons une base de données cinématiques pour observer le comportement de suivi lors du déplacement de groupes de piétons à partir d'un procédé expérimental original utilisant la technologie de capture de mouvements optoélectronique. Le traitement des données acquises requiert le développement d'une méthode spécifique de reconstruction des données brutes. La base de données ainsi obtenue représente le premier résultat de notre travail. Dans un deuxième temps, nous proposons une analyse détaillée de ces données. Nous mettons en évidence d'une part, la nature des interactions locales entre les sujets, et d'autre part les phénomènes globaux qui émergent de la combinaison de ces interactions dont en particulier la formation de vague de vitesses qui se propagent. Cette analyse constitue notre deuxième résultat majeur et conduit à notre troisième et dernier résultat : un modèle numérique d'interaction locale de suivi que nous calibrons sur les données expérimentales acquises. Les résultats de simulation sont finalement évalués quant à leur capacité à reproduire les phénomènes macroscopiques observés et analysés. Enfin, nous montrons des cas d'usage pratique de notre modèle. |
dc:description
|
Realistic crowd simulation is an open and challenging problem due to the high quantity of information that is taken into account by a human to determine his walking trajectory. In this thesis, we aim at modeling and simulating the following interactions between individuals moving in crowds. We propose an approach in three major steps. Firstly, we build up a kinematic database to observe following behaviors during pedestrian groups movement from an original experimental process using motion capture. Acquired data treatment requires to develop a specific reconstruction method of the raw data. The obtained database is our first result. Secondly, we propose a detailed analysis of these data. We highlight both the nature of the local interactions between participants and the global patterns that emerge from the combination of these interactions, in particular, the formation of propagating speed waves. This analysis is our second major result and leads up to our third and last result : a numerical model of following behavior between pedestrians calibrated on our experimental data. Simulation results are evaluated on their capacity to reproduce the macroscopic patterns we have observed and analyzed. We finally show different applications of our model. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
fr |
dc:identifier
|
https://ecm.univ-rennes1.fr/nuxeo/site/esupversions/d58a9239-bd19-4011-9bb7-6a8924030684
|
dc:creator
|
Lemercier, Samuel |
dc:date
|
2012-04-11 |
dc:contributor
|
Universite de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Donikian, Stéphane |
|
|
|
dc:title
|
Exploitation du contenu pour l'optimisation du stockage distribué |
dc:title
|
Leveraging content properties to optimize distributed storage systems |
dc:subject
|
systèmes de stockage distribués |
dc:subject
|
systèmes large échelle |
dc:subject
|
déduplication |
dc:subject
|
distributed storage systems |
dc:subject
|
large scale systems |
dc:subject
|
deduplication |
dc:description
|
Les fournisseurs de services de cloud computing, les réseaux sociaux et les entreprises de gestion des données ont assisté à une augmentation considérable du volume de données qu'ils reçoivent chaque jour. Toutes ces données créent des nouvelles opportunités pour étendre la connaissance humaine dans des domaines comme la santé, l'urbanisme et le comportement humain et permettent d'améliorer les services offerts comme la recherche, la recommandation, et bien d'autres. Ce n'est pas par accident que plusieurs universitaires mais aussi les médias publics se référent à notre époque comme l'époque “Big Data”. Mais ces énormes opportunités ne peuvent être exploitées que grâce à de meilleurs systèmes de gestion de données. D'une part, ces derniers doivent accueillir en toute sécurité ce volume énorme de données et, d'autre part, être capable de les restituer rapidement afin que les applications puissent bénéficier de leur traite- ment. Ce document se concentre sur ces deux défis relatifs aux “Big Data”. Dans notre étude, nous nous concentrons sur le stockage de sauvegarde (i) comme un moyen de protéger les données contre un certain nombre de facteurs qui peuvent les rendre indisponibles et (ii) sur le placement des données sur des systèmes de stockage répartis géographiquement, afin que les temps de latence perçue par l'utilisateur soient minimisés tout en utilisant les ressources de stockage et du réseau efficacement. Tout au long de notre étude, les données sont placées au centre de nos choix de conception dont nous essayons de tirer parti des propriétés de contenu à la fois pour le placement et le stockage efficace. |
dc:description
|
Cloud service providers, social networks and data-management companies are witnessing a tremendous increase in the amount of data they receive every day. All this data creates new opportunities to expand human knowledge in fields like healthcare and human behavior and improve offered services like search, recommendation, and many others. It is not by accident that many academics but also public media refer to our era as the “Big Data” era. But these huge opportunities come with the requirement for better data management systems that, on one hand, can safely accommodate this huge and constantly increasing volume of data and, on the other, serve them in a timely and useful manner so that applications can benefit from processing them. This document focuses on the above two challenges that come with “Big Data”. In more detail, we study (i) backup storage systems as a means to safeguard data against a number of factors that may render them unavailable and (ii) data placement strategies on geographically distributed storage systems, with the goal to reduce the user perceived latencies and the network and storage resources are efficiently utilized. Throughout our study, data are placed in the centre of our design choices as we try to leverage content properties for both placement and efficient storage. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/a58904f0-af8e-4348-be29-b2d69f9fda44
|
dc:creator
|
Kloudas, Konstantinos |
dc:date
|
2013-03-06 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Kermarrec, Anne-Marie |
|
|
|
dc:title
|
Methodology for the derivation of product behaviour in a Software Product Line |
dc:title
|
Méthodologie SPL pour la dérivation de modèles comportementaux des produits |
dc:subject
|
Lignes de Produits Logiciels |
dc:subject
|
Ingénierie dirigé par les modèles |
dc:subject
|
Processus opérationnels |
dc:subject
|
Methodologie |
dc:subject
|
Verification |
dc:subject
|
Reseaux de Petri |
dc:subject
|
Language specifique domaine |
dc:subject
|
Software Product Line |
dc:subject
|
Model Driven Engineering |
dc:subject
|
Business process |
dc:subject
|
Methodology |
dc:subject
|
Verification |
dc:subject
|
Petri Nets |
dc:subject
|
Domain specific language |
dc:description
|
Le principal problème abordé dans cette thèse est la définition d'une nouvelle méthodologie SPL qui couvre les deux phases du processus et met l'accent sur la dérivation de modèles comportementaux des produits. Le chapitre 2 définit le cadre de cette thèse : les lignes de produits logiciels, les processus opérationnels et l'ingénierie dirigé par les modèles. Dans le chapitre 3, nous proposons une nouvelle méthodologie SPL centrée sur la dérivation de comportement des produits. Nous décrivons d'abord le courant principal de la méthodologie, et ensuite les différentes étapes. Dans le chapitre 4, nous proposons un nouveau langage spécifique domaine appelé CBPF pour la modélisation des fragments de processus opérationnels. Une approche dirigée par les modèles est suivie pour créer CBPF: syntaxe abstraite, syntaxe concrète graphique et sémantique translationnelles. Dans le chapitre 5, nous proposons plusieurs types de vérifications applicables aux fragments afin de déterminer leur justesse. Pour la vérification structurelle, est définit un ensemble des règles de cohérence qui doivent être valides pour chaque fragment réalisé avec CBPF. Pour vérifier le comportement, nous transformons d'abord les fragments dans des réseaux de Pétri équivalents. On peut alors vérifier des propriétés génériques mais aussi définir des propriétés spécifiques. Dans le chapitre 6, nous illustrons la méthodologie proposée en l'appliquant à une étude de cas à partir du domaine système de gestion de crise. Nous proposons également une suite d'outils qui supporte notre méthodologie. Le chapitre 7 décrit les améliorations possibles et les extensions aux contributions de cette thèse. Nous concluons la thèse dans le chapitre 8. |
dc:description
|
The major problem addressed in this thesis is the definition of a new SPLE methodology that covers both phases of the SPLE process and focuses on the derivation of behavioral models of SPL products.
In Chapter 2 three research areas scope context of this thesis: Software Product Lines, Business Processes, and Model-Driven Engineering. Throughout Chapter 3, we propose a new SPLE methodology that focuses on the derivation of product behavior. We first describe the main flow of the methodology, and then detail the individual steps. In chapter 4 we propose a new domain specific language called CBPF created for modeling composable business process fragments. A model driven approach is followed for creating CBPF: definition of the abstract syntax, graphical concrete syntax and translational semantics. In Chapter 5 we propose several types of verifications that can be applied to business process
fragments to determine their "correctness". For structural verification we definine a set of fragment consistency rules that should be valid for every business process fragment created with CBPF. To check behavioral correctness we first transform the business process fragment into an equivalent HCPN. We can then check generic properties but also define a
set of fragment specific properties.
In chapter 6 we exemplify the proposed SPL methodology by applying it to a case study from the crisis management system domain. We also propose a tool suite that supports our methodology. Chapter 7 describes possible improvements and extensions to the contributions of this thesis. We conclude the thesis in Chapter 8 and draw some conclusions. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/27b326fd-731c-4613-9d7c-2f67ca622f41
|
dc:creator
|
Istoan, Paul |
dc:date
|
2013-02-21 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université du Luxembourg |
dc:contributor
|
Jézéquel, Jean-Marc |
dc:contributor
|
Guelfi, Nicolas |
|
|
|
dc:title
|
Throughput-oriented analytical models for performance estimation on programmable hardware accelerators |
dc:title
|
Analyse de performance potentielle d'une simulation de QCD sur réseau sur processeur Cell et GPU |
dc:subject
|
GPGPU |
dc:subject
|
Multi-coeurs |
dc:subject
|
Processeurs graphiques |
dc:subject
|
|
dc:subject
|
GPGPU |
dc:subject
|
CUDA |
dc:subject
|
Fermi GPU |
dc:subject
|
Kepler GPU |
dc:subject
|
Performance upper bound |
dc:subject
|
Performance Prediction |
dc:subject
|
Performance Analysis |
dc:description
|
Durant cette thèse, nous avons principalement travaillé sur deux sujets liés à l'analyse de la performance GPU (Graphics Processing Unit - Processeur graphique). Dans un premier temps, nous avons développé une méthode analytique et un outil d'estimation temporel (TEG) pour prédire les performances d'applications CUDA s’exécutant sur des GPUs de la famille GT200. Cet outil peut prédire les performances avec une précision approchant celle des outils précis au cycle près. Dans un second temps, nous avons développé une approche pour estimer la borne supérieure des performances d'une application GPU, en se basant sur l'analyse de l'application et de son code assembleur. Avec cette borne, nous connaissons la marge d'optimisation restante, et nous pouvons décider des efforts d'optimisation à fournir. Grâce à cette analyse, nous pouvons aussi comprendre quels paramètres sont critiques à la performance. |
dc:description
|
In this thesis work, we have mainly worked on two topics of GPU performance analysis. First, we have developed an analytical method and a timing estimation tool (TEG) to predict CUDA application's performance for GT200 generation GPUs. TEG can predict GPU applications' performance in cycle-approximate level. Second, we have developed an approach to estimate GPU applications' performance upper bound based on application analysis and assembly code level benchmarking. With the performance upper bound of an application, we know how much optimization space is left and can decide the optimization effort. Also with the analysis we can understand which parameters are critical to the performance. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/6ab11fda-5a50-419d-bd1a-9206d512bc9e
|
dc:creator
|
Lai, Junjie |
dc:date
|
2013-02-15 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Seznec, André |
|
|
|
dc:title
|
Detection and localization of link-level network anomalies using end-to-end path monitoring |
dc:title
|
Détection et localisation des anomalies réseau au niveau des liens en utilisant de la surveillance des chemins de bout-en-bout |
dc:subject
|
Monitorage des réseaux |
dc:subject
|
détection des anomalies |
dc:subject
|
localisation des anomalies |
dc:subject
|
monitorage des chemins de bout-en-bout |
dc:subject
|
Network monitoring |
dc:subject
|
anomaly detection |
dc:subject
|
anomaly localization |
dc:subject
|
end-toend
path monitoring |
dc:subject
|
link-level network anomalies |
dc:description
|
L'objectif de cette thèse est de trouver des techniques de détection et de localisation des anomalies au niveau des liens qui soient à faible coût, précises et rapides. La plupart des techniques de détection et de localisation des anomalies au niveau des liens qui existent dans la littérature calculent les solutions, c-à-d l'ensemble des chemins à monitorer et les emplacements des dispositifs de monitorage, en deux étapes. La première étape sélectionne un ensemble minimal d'emplacements des dispositifs de monitorage qui permet de détecter/localiser toutes les anomalies possibles. La deuxième étape sélectionne un ensemble minimal de chemins de monitorage entre les emplacements sélectionnés de telle sorte que tous les liens du réseau soient couverts/distinguables paire par paire. Toutefois, ces techniques ignorent l'interaction entre les objectifs d'optimisation contradictoires des deux étapes, ce qui entraîne une utilisation sous-optimale des ressources du réseau et des mesures de monitorage biaisées. L'un des objectifs de cette thèse est d'évaluer et de réduire cette interaction. A cette fin, nous proposons des techniques de détection et de localisation d'anomalies au niveau des liens qui sélectionnent les emplacements des moniteurs et les chemins qui doivent être monitorés
conjointement en une seule étape. Par ailleurs, nous démontrons que la condition établie pour la localisation des anomalies est suffisante mais pas nécessaire. Une condition nécessaire et suffisante qui minimise le coût de localisation considérablement est établie. Il est démontré que les deux problèmes sont NP-durs. Des algorithmes heuristiques scalables et efficaces sont alors proposés. |
dc:description
|
The aim of this thesis is to come up with cost-efficient, accurate and fast schemes for link-level network anomaly detection and localization. It has been established that for detecting all potential link-level anomalies, a set of paths that cover all links of the network must be monitored, whereas for localizing all potential link-level anomalies, a set of paths that can distinguish between all links of the network pairwise must be monitored. Either end-node of each path monitored must be equipped with a monitoring
device. Most existing link-level anomaly detection and localization schemes are two-step. The first step selects a minimal set of monitor locations that can detect/localize any link-level anomaly. The second step selects a minimal set of monitoring paths between the selected monitor locations such that all links of the network are covered/distinguishable pairwise. However, such stepwise schemes do not consider the interplay between the conflicting optimization objectives of the two steps, which results in suboptimal consumption of the network resources and biased monitoring measurements. One of the objectives of this thesis is to evaluate and reduce this interplay. To this end, one-step anomaly detection and localization schemes that select monitor locations and paths that are to be monitored jointly are proposed. Furthermore, we demonstrate that the already established condition for anomaly localization is sufficient but not necessary. A necessary and sufficient condition that minimizes the localization cost
drastically is established. The problems are demonstrated to be NP-Hard. Scalable and near-optimal heuristic algorithms are proposed. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
|
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/8656a5c6-f26d-4e7c-81ea-15335fd057a6
|
dc:creator
|
Salhi, Emna |
dc:date
|
2013-02-13 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Cousin, Bernard |
dc:contributor
|
Lahoud, Samer |
|
|
|
dc:title
|
On improving the ease of use of the software transactional memory abstraction |
dc:title
|
Faciliter l'utilisation des mémoires transactionnelles logicielles |
dc:subject
|
mémoire transactionnelle logicielle |
dc:subject
|
STM |
dc:subject
|
programmation concurrente |
dc:subject
|
structures de données |
dc:subject
|
software transactional memory |
dc:subject
|
STM |
dc:subject
|
concurrent programming |
dc:subject
|
data structures |
dc:description
|
Les architectures multicœurs changent notre façon d'écrire des programmes. L'écriture de programmes concurrents est bien connue pour être difficile. Traditionnellement, l'utilisation de verrous (locks) permettant au code de s'exécuter en exclusion mutuelle, a été l'abstraction la plus largement utilisée pour l'écriture des programmes concurrents. Malheureusement, il est difficile d'écrire des programmes concurrents efficaces et corrects reposant sur des verrous. En outre, les verrous présentent d'autres problèmes, notamment celui du passage à l'échelle. Le concept de mémoire transactionnelle a été proposé comme une solution à ces difficultés. Les transactions peuvent être considérées comme une abstraction de haut niveau, ou une méthodologie pour l'écriture de programmes concurrents, ce qui permet au programmeur de pouvoir déclarer des sections de code devant être exécutés de façon atomique, sans avoir à se soucier des détails de synchronisation. Malheureusement, bien qu'assurément plus facile à utiliser que les verrous, la mémoire transactionnelle souffre encore de problèmes de performance et de facilité d'utilisation. En fait, de nombreux concepts relatifs à l'utilisation et à la sémantique des transactions n'ont pas encore des normes convenues. Cette thèse propose de nouvelles solutions permettant de faciliter l'utilisation des mémoires transactionellles. La thèse débute par un chapitre qui donne un bref aperçu de la mémoire transactionnelle logicielle (STM) ainsi qu'une discussion sur le problème de la facilité d'utilisation. Les contributions à la recherche sont ensuite divisées en quatre chapitres principaux, chacun proposant une approche différente afin de rendre les STMs plus facile à utiliser. |
dc:description
|
Multicore architectures are changing the way we write programs. Writing concurrent programs is well known to be difficult task. Traditionally, the use of locks allowing code to execute in mutual exclusion has been the most widely used abstraction to write concurrent programs. Unfortunately, using locks it is difficult to write correct concurrent programs that perform efficiently. Additionally, locks present other problems such as scalability issues. Transactional memory has been proposed as a possible promising solution to these difficulties of writing concurrent programs. Transactions can be viewed as a high level abstraction or methodology for writing concurrent programs, allowing the programmer to be able to declare what sections of his code should be executed atomically, without having to worry about synchronization details. Unfortunately, although arguably easier to use then locks, transactional memory still suffers from performance and ease of use problems. In fact many concepts surrounding the usage and semantics of transactions have no widely agreed upon standards. This thesis specifically focuses on these ease of use problems by discussing how previous research has dealt with them and proposing new solutions putting ease of use first. The thesis starts with a chapter giving a brief overview of software transactional memory (STM) as well as a discussion of the problem of ease of use that is focused on in the later chapters. The research contributions are then divided into four main chapters, each looking at different approaches working towards making transactional memory easier to use. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/d8dc686b-b58f-473e-aa2a-39724cc74ba8
|
dc:creator
|
Crain, Tyler |
dc:date
|
2013-03-06 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Raynal, Michel |
|
|
|
dc:title
|
Optimiser l'utilisation de la bande passante dans les systèmes de stockage distribué |
dc:title
|
Optimizing the bandwidth utilization in distributed storage systems |
dc:subject
|
Stockage distribué |
dc:subject
|
bande passante |
dc:subject
|
codes correcteurs |
dc:subject
|
gateways |
dc:subject
|
timeout |
dc:subject
|
network coding |
dc:description
|
Les systèmes de stockage actuels font face à une explosion des données à gérer. A l'échelle actuelle, il serait illusoire d'imaginer une unique entité centralisée capable de stocker et de restituer les données de tous ses utilisateurs. Bien que du point de vue de l'utilisateur, le système de stockage apparaît tel un unique interlocuteur, son architecture sous-jacente est nécessairement devenue distribuée. En d'autres termes, le stockage n'est plus assigné à un équipement centralisé, mais est maintenant distribué parmi de multiples entités de stockage indépendantes, connectées via un réseau. Par conséquent, la bande passante inhérente à ce réseau devient une ressource à prendre en compte dans le design d'un système de stockage distribué. En effet, la bande passante d'un système est intrinsèquement une ressource limitée, qui doit être convenablement gérée de manière à éviter toute congestion du système. Cette thèse se propose d'optimiser l'utilisation de la bande passante dans les systèmes de stockage distribués, en limitant l'impact du churn et des défaillances. L'objectif est double, le but est d'une part, de maximiser la bande passante disponible pour les échanges de données, et d'une autre part de réduire la consommation de bande passante inhérente aux opérations de maintenance. Pour ce faire, nous présentons trois contributions distinctes. La première contribution présente une architecture pair-à-pair hybride qui tient compte de la topologie bas-niveau du réseau, c'est à dire la présence de gateways entre les utilisateurs et le système. La seconde contribution propose un mécanisme de timeout adaptatif au niveau utilisateur, basé sur une approche Bayésienne. La troisième contribution décrit un protocole permettant la réparation efficace de données encodées via des codes à effacement. Enfin, cette thèse se conclut sur la possibilité d'utiliser des techniques d'alignement d'interférence, communément utilisées en communication numérique afin d’accroître l'efficacité des protocoles de réparation de données encodées. |
dc:description
|
Modern storage systems have to face the surge of the amount of data to handle. At the current scale, it would be an illusion to believe that a single centralized storage device is able to store and retrieve all its users' data. While from the user's viewpoint the storage system remains a single interlocutor, its underlying architecture has become necessarily distributed. In others words, storage is no longer assigned to a centralized storage equipment, but is now distributed between multiple independent storage devices, connected via a network. Therefore, when designing networked storage systems, bandwidth should now be taken into account as a critical resource. In fact, the bandwidth of a system is intrinsically a limited resource which should be handled with care to avoid congestion. The focus of this thesis is to optimize the available bandwidth of distributed storage systems, lowering the impact of churn and failures. The objective is twofold, on the one hand the purpose is to increase the available bandwidth for data exchanges and on the other hand, to decrease the amount of bandwidth consumed by maintenance. We present three distinct contributions in this manuscript. The first contribution of this thesis presents an hybrid peer-to-peer architecture taking into account the low level topology of the network i.e., the presence of gateways between the system and the users. The second contribution proposes an adaptive and user-level timeout mechanism, based on a Bayesian approach. The third contribution describes a repair protocol especially designed for erasure-coded stored data. Finally, this thesis concludes on the possibility of employing interference alignment techniques in order to increase the efficiency of repair protocols especially designed for encoded data. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/80864c2c-cec3-423b-b07c-f95aec54ac99
|
dc:creator
|
Van Kempen, Alexandre |
dc:date
|
2013-03-08 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Kermarrec, Anne-Marie |
dc:contributor
|
Le Merrer, Erwan |
|
|
|
dc:title
|
Chemical computing for distributed systems : algorithms and implementation |
dc:title
|
Programmation chimique pour les systèmes répartis : algorithmes et implémentation |
dc:subject
|
systèmes répartis |
dc:subject
|
réseaux pair-à-pair structurés |
dc:subject
|
modèle de programmation chimique |
dc:subject
|
distributed systems |
dc:subject
|
structured peer-to-peer networks |
dc:subject
|
chemical programming model, distributed runtime |
dc:description
|
Avec l’émergence de plates-formes distribuées très hétérogènes, dynamiques et à large-échelle, la nécessité d’un moyen de les programmer efficacement et de les gérer a surgi. Le concept de l’informatique autonomique propose de créer des systèmes autogérables — des systèmes qui sont conscients de leurs composants et de leur environnement, et peuvent se configurer, s’optimiser, se guérir et se protéger. Dans le cadre de la réalisation de tels systèmes, la programmation déclarative, dont l’objectif est de faciliter la tâche du programmeur en séparant le contrôle de la logique du calcul, a retrouvé beaucoup d’intérêt ce dernier temps. En particulier, la programmation à base de des règles est considérée comme un modèle prometteur dans cette quête pour des abstractions de programmation adéquates pour ces plates-formes. Cependant, bien que ces modèles gagnent beaucoup d’attention, ils créent une demande pour des outils génériques capables de les exécuter à large échelle. Le modèle de programmation chimique, qui a été conçu suite à la métaphore chimique, est un modéle de programmation à bas de règles et d’ordre supérieur, avec une exécution non-déterministe modèle, où les règles sont appliquées simultanément sur un multi-ensemble de données. Dans cette thèse, nous proposons la conception, le développement et l’expérimentation d’un intergiciel distribué pour l’exécution de programmes chimique sur des plates-formes à large échelle et génériques. L’architecture proposée combine une couche de communication pair-à-pair avec un protocole de capture atomique d’objets sur lesquels les règles doivent être appliquées, et un système efficace de détection de terminaison. Nous décrivons le prototype d’intergiciel mettant en œuvre cette architecture. Basé sur son déploiement dans un banc d’essai réel, nous présentons les résultats de performance, qui confirment les complexités analytiques obtenues et montrons expérimentalement la viabilité d’un tel modèle de programmation. |
dc:description
|
With the emergence of highly heterogeneous, dynamic and large distributed platforms, the need for a way to efficiently program and manage them has arisen. The concept of autonomic computing proposes to create self-manageable systems — systems which are aware of their components and their environment, and can configure, optimise, heal and protect themselves. In the context of realisation of such systems, declarative programming, whose goal is to ease the programmer’s task by separating the control from the logic of a computation, has regained a lot of interest recently. In particular, rule-based programming is regarded as a promising model in this quest for adequate programming abstractions for these platforms. However, while these models are gaining a lot of attention, there is a demand for generic tools able to run such models at large scale. The chemical programming model, which was designed following the chemical metaphor, is a higher-order, rule-based programming model, with a non-deterministic execution model, where rules are applied concurrently on a multiset of data. In this thesis, we propose the design, development, and experimentation of a distributed chemical runtime for generic, largely-distributed platforms. The architecture proposed combines a peer-to-peer communication layer with an adaptive protocol for atomically capturing objects on which rules should be applied, and an efficient termination-detection scheme. We describe the software prototype implementing this architecture. Based on its deployment over a real-world test-bed, we present its performance results, which confirm analytically obtained complexities, and experimentally show the sustainability of such a programming model. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:creator
|
Obrovac, Marko |
dc:date
|
2013-03-28 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Priol, Thierry |
dc:contributor
|
Tedeschi, Cédric |
|
|
|
dc:title
|
Étude des potentialités offertes par les technologies de transmission optique flexible pour les réseaux métro / coeur |
dc:title
|
Study of the potentialities offered by the flexible optical transmission technologies for metro and core networks |
dc:subject
|
Réseau de transport optique, montée en débit, réseau opaque, réseau transparent commutation optique, multi-bandes OFDM |
dc:subject
|
optical transport network, high bit-rates, opaque network, transparent network, optical switching, sub-wavelength switching, multi-band OFDM |
dc:description
|
L'évolution vers de nouveaux services, comme la TV à la demande, nécessitant de grosses bandes passantes remet en question les débits transportés par chaque canal optique d'un réseau WDM. Les débits des canaux ont atteint aujourd'hui les 100 Gbit/s. Cette montée en débit doit être accompagnée par de nouvelles fonctionnalités au sein des réseaux de transport optiques. Améliorer la flexibilité et assurer la transparence des réseaux optiques sont des défis très importants auxquels les opérateurs doivent faire face aujourd'hui. Un réseau optique est dit transparent, si les signaux optiques transportés ne subissent aucune conversion optoélectronique sauf au moment de leur insertion et de leur extraction dans le réseau optique. La flexibilité, quant à elle, concerne principalement les fonctions d'agrégation et de désagrégation optiques. Aujourd'hui ces fonctions d'agrégation et de désagrégation sont réalisées dans le domaine électronique, ce qui avec la montée du débit, va engendrer un coût important pour les opérateurs. Une manière d'y remédier serait de trouver une technologie adaptée à la montée du débit et offrant la possibilité de faire de l'agrégation et de la désagrégation optique des flux de trafics. Dans cette thèse nous proposons d'étudier une technique de commutation tout-optique offrant la possibilité de faire de la commutation optique intra-canal. Cette technique, baptisée multi-bande OFDM, consiste à diviser un canal WDM en plusieurs entités appelées sous-bandes. Le nombre de ces entités dépend des contraintes technologiques des équipements utilisés pour générer le canal multi-bande (les filtres optiques, les convertisseurs analogiques/numérique et numériques/analogiques). Nous comparons la technologie multi-bande OFDM par rapport à des technologies tendancielles mono-bande : le cas mono-bande opaque et mono-bande transparent. Nous démontrons que la technologie multi-bande OFDM peut être un compromis entre ces deux technologies pour les futurs réseaux de télécommunications optiques. Pour ce faire, nous calculons les performances en termes de blocage. Nous étudions l'impact de la conversion de longueurs d'onde sur les réseaux multi-bande OFDM ainsi que l'impact d'augmenter les nombres de sous-bandes sur les performances du réseau. Nous dégageons les limites technologiques de cette approche. Dans une autre partie de l'étude, nous montrons l'intérêt économique de la technologie multi-bande OFDM. Nous exposons le gain en coût des émetteurs/récepteurs obtenu grâce au déploiement de la technologie multi-bande OFDM sur un réseau cœur et un réseau métropolitain. |
dc:description
|
The evolution of new telecommunication services, which requires large bandwidth, challenges bit-rates transported by each optical channel of a WDM network. Bit-rates of optical channels have now reached 100 Gbit/s. This increase in bit-rate must be supported by new features in optical network. Improve flexibility and ensure transparency of optical network, are very important challenges that telecom operators face today. An optical network is called transparent, if the transported optical signals are not converted in electrical domain except at the time of their insertion and extraction in/from the optical network. Flexibility concerns mainly the aggregation / disaggregation processes. Today, the functions of aggregation/disaggregation are made on the electrical domain. This generates a significant cost for operators. One way to avoid this would be to find a technology which offers high bit-rates and enable the aggregation and disaggregation functions in the optical domain. In this thesis, we propose to study all-optical switching technology at the sub-wavelength granularity. This technique, called multi-band OFDM, consists in dividing a WDM channel into multiple entities, called sub-bands. The number of sub-bands depends on the technological constraints of optical components used to transport the optical signal (optical filters, digital analogical converters, analogical digital converters, optical transponders, optical multiplexers, etc.). We compare the multi-band OFDM technology to two legacies scenarios: mono-band opaque and mono-band transparent WDM technologies. We demonstrate that the multi-band OFDM technology can be a trade-off between these two legacies scenarios. To do that, we studied the performance in terms of blocking ratio of the multi-band OFDM technology and mono-bands WDM technologies. We study the impact of increasing the number of sub-bands on network performances. We also investigate the technical limits of this technology. Moreover, we demonstrate the economic interest of the multi-band OFDM. We expose the gain on the number of transponders when the multi-band OFDM technology is deployed on metro and core network. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
fr |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/23422805-5066-41e6-9cf5-4ec6bff4a6e4
|
dc:creator
|
Blouza, Sofiene |
dc:date
|
2013-05-16 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Cousin, Bernard |
|
|
|
dc:title
|
Architecture multi-coeurs et temps d'exécution au pire cas |
dc:title
|
Multicore architectures and worst-case execution time |
dc:subject
|
systèmes temps-réel |
dc:subject
|
hiérarchie mémoire |
dc:subject
|
multi-coeur |
dc:subject
|
pire-temps d'exécution |
dc:subject
|
bypass |
dc:subject
|
analyse statique |
dc:subject
|
partitionnement de cache |
dc:subject
|
real-time systems |
dc:subject
|
memory hierarchy |
dc:subject
|
multicore |
dc:subject
|
worst-case execution time |
dc:subject
|
bypass |
dc:subject
|
static analysis |
dc:subject
|
cache partitioning |
dc:description
|
Les tâches critiques en systèmes temps-réel sont soumises à des contraintes temporelles et de correction. La validation d'un tel système repose sur l'estimation du comportement temporel au pire cas de ses tâches. Le partage de ressources, inhérent aux architectures multi-cœurs, entrave le calcul de ces estimations. Le comportement temporel d'une tâche dépend de ses rivales du fait de l'arbitrage de l'accès aux ressources ou de modifications concurrentes de leur état. Cette étude vise à l'estimation de la contribution temporelle de la hiérarchie mémoire au pire temps d'exécution de tâches critiques. Les méthodes existantes, pour caches d'instructions, sont étendues afin de supporter caches de données privés et partagés, et permettre l'analyse de hiérarchies mémoires riches. Le court-circuitage de cache est ensuite utilisé pour réduire la pression sur les caches partagés. Nous proposons à cette fin différentes heuristiques basées sur la capture de la réutilisation de blocs de cache entre différents accès mémoire. Notre seconde proposition est la politique de partitionnement Preti qui permet l'allocation d'un espace sans conflits à une tâche. Preti favorise aussi les performances de tâches non critiques concurrentes aux temps-réel dans les systèmes de criticité hybride. |
dc:description
|
Critical tasks in the context of real-time systems submit to both timing and correctness constraints. Whence, the validation of a real-time system rely on the estimation of its tasks’ Worst case execution times. Resource sharing, as it occurs on multicore architectures, hinders the computation of such estimates. The timing behaviour of a task is impacted by its concurrents, whether because of resource access arbitration or concurrent modifications of a resource state. This study focuses on estimating the contribution of the memory hierarchy to tasks’ worst case execution time. Existing analysis methods, defined for instruction caches, are extended to support private and shared data caches, hence allowing for the analysis of rich memory hierarchies. Cache bypass is then used to reduce the pressure laid by concurrent tasks on shared caches levels. We propose different bypass heuristics, based on the capture of cache blocks’ reuse between memory accesses. Our second proposal is the Preti partitioning scheme which allows for the allocation to tasks of a cache space, free from inter-task conflicts. Preti offers the added benefit of providing for average-case performance to non-critical tasks concurrent to real-time ones on hybrid criticality systems. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
fr |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/c970d964-ec0b-437c-a6ca-e2801147e806
|
dc:creator
|
Lesage, Benjamin |
dc:date
|
2013-05-21 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Puaut, Isabelle |
dc:contributor
|
Seznec, André |
|
|
|
dc:title
|
Contributing to energy efficiency through a user-centered smart home |
dc:title
|
Contribution à la gestion efficace de l'énergie dans le contexte d'une maison intelligente ''centrée utilisateur'' |
dc:subject
|
Domotique |
dc:subject
|
Économie d'énergie |
dc:subject
|
Conception centrée sur l'utilisateur |
dc:subject
|
Ergonomie cognitive |
dc:subject
|
Informatique omniprésente |
dc:subject
|
Smart Home |
dc:subject
|
Energy Saving |
dc:subject
|
User-Centered Design |
dc:subject
|
Cognitive Ergonomics |
dc:subject
|
Ubiquitous Computing |
dc:description
|
Les maisons intelligentes sont des habitations équipées de technologies de l'information et de la communication qui anticipent et répondent aux besoins des occupants. Malgré les nombreux travaux et solutions existants, seulement peu d'exemplaires de maisons intelligentes ont été construits et vendus. La raison cachée derrière cette lente diffusion est l'orientation technologique des approches existantes. Cette thèse de doctorat vise à démontrer qu'une maison intelligente peut fournir des fonctionnalités conçues avec une approche centrée utilisateur, en prenant en compte de considérations ergonomiques sur l'activité domestique et sur la cognition humaine. Ceci est réalisé en collaboration avec des ergonomes cognitifs, qui aident à "prendre garde" à l'écart entre le contexte humain et le contexte compréhensible par une machine. En utilisant une instrumentation légère, qui minimise les problèmes d'acceptabilité et de protection de la vie privée, ce travail de thèse a mené aux contributions suivantes: (i) la conception interdisciplinaire de fonctionnalités adaptées, en collaboration avec des ergonomes cognitifs; (ii) la conception d'un système sensible au contexte qui capture et raisonne sur des informations contextuelles incertaines de façon distribuée; (iii) la réalisation d'un prototype qui démontre la fourniture de fonctionnalités qui réalisent des économies d'énergie, tout en préservant le confort des habitants. |
dc:description
|
Smart homes are residences equipped with information and communication technologies that anticipate and respond to the needs of the occupants. Despite the numerous research and industrial efforts, today only few expensive smart homes have been built and sold. The reason behind this slow uptake is the technology-driven approach characterizing existing solutions. The doctoral Thesis aims at demonstrating that a smart home can provide functionalities designed with a user-centered approach, taking into account ergonomic considerations about domestic activity and human cognition. This is achieved in collaboration with cognitive ergonomists, which help "minding the gap" between human context and machine-understandable context. Using off-the-shelf and lightweight instrumentation (also minimizing privacy concerns), extending existing context modeling, reasoning and management tools and following the Ubiquitous Computing principles, the doctoral work led to the following achievements: (i) the inter-disciplinary design of suitable functionalities, in collaboration with cognitive ergonomists; (ii) the design of a context-aware system that captures and reasons about uncertain contextual information in a distributed fashion; (ii) the realization of a working prototype that demonstrates the provision of energy-saving and comfort-preserving functionalities. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/2f1c4825-af92-4a53-a4d1-f3383c71f44f
|
dc:creator
|
Dominici, Michele |
dc:date
|
2013-06-03 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Banâtre, Michel |
dc:contributor
|
Weis, Frédéric |
|
|
|
dc:title
|
Decentralizing news personalization systems |
dc:title
|
Décentralisation des systèmes de personnalisation |
dc:subject
|
système de recommandation |
dc:subject
|
pair-à-pair |
dc:subject
|
personnalisation |
dc:subject
|
réseaux sociaux |
dc:subject
|
systèmes distribués |
dc:subject
|
protection de la vie privée |
dc:subject
|
algorithmes épidémiques |
dc:subject
|
distributed systems |
dc:subject
|
peer-to-peer |
dc:subject
|
personalization |
dc:subject
|
privacy |
dc:subject
|
gossip protocols |
dc:subject
|
social networks |
dc:subject
|
recommendation system
|
dc:description
|
L'évolution rapide du web a changé la façon dont l'information est créée, distribuée, évaluée et consommée. L'utilisateur est dorénavant mis au centre du web en devenant le générateur de contenu le plus prolifique. Pour évoluer dans le flot d'informations, les utilisateurs ont besoin de filtrer le contenu en fonction de leurs centres d'intérêts. Pour bénéficier de contenus personnalisés, les utilisateurs font appel aux réseaux sociaux ou aux systèmes de recommandations exploitant leurs informations privées. Cependant, ces systèmes posent des problèmes de passage à l'échelle, ne prennent pas en compte la nature dynamique de l'information et soulèvent de multiples questions d'un point de vue de la vie privée. Dans cette thèse, nous exploitons les architectures pair-à-pair pour implémenter des systèmes de recommandations pour la dissémination personnalisée des news. Une approche pair-à-pair permet un passage à l'échelle naturel et évite qu'une entité centrale contrôle tous les profils des utilisateurs. Cependant, l'absence de connaissance globale fait appel à des schémas de filtrage collaboratif qui doivent palier les informations partielles et dynamiques des utilisateurs. De plus, ce schéma de filtrage doit pouvoir respecter la vie privée des utilisateurs. La première contribution de cette thèse démontre la faisabilité d'un système de recommandation de news totalement distribué. Le système proposé maintient dynamiquement un réseau social implicit pour chaque utilisateur basé sur les opinions qu'il exprime à propos des news reçues. Les news sont disséminées au travers d'un protocole épidémique hétérogène qui (1) biaise l'orientation des cibles et (2) amplifie la dissémination de chaque news en fonction du niveau d'intérêt qu'elle suscite. Ensuite, pour améliorer la vie privée des utilisateurs, nous proposons des mécanismes d'offuscation permettant de cacher le profil exact des utilisateurs sans trop dégrader la qualité de la recommandation fournie. Enfin, nous explorons un nouveau modèle tirant parti des avantages des systèmes distribués tout en conservant une architecture centralisée. Cette solution hybride et générique permet de démocratiser les systèmes de recommandations en offrant aux fournisseurs de contenu un système de personnalisation à faible coût. |
dc:description
|
The rapid evolution of the web has changed the way information is created, distributed, evaluated and consumed. Users are now at the center of the web and becoming the most prolific content generators. To effectively navigate through the stream of available news, users require tools to efficiently filter the content according to their interests. To receive personalized content, users exploit social networks and recommendation systems using their private data. However, these systems face scalability issues, have difficulties in coping with interest dynamics, and raise a multitude of privacy challenges. In this thesis, we exploit peer-to-peer networks to propose a recommendation system to disseminate news in a personalized manner. Peer-to-peer approaches provide highly-scalable systems and are an interesting alternative to Big brother type companies. However, the absence of any global knowledge calls for collaborative filtering schemes that can cope with partial and dynamic interest profiles. Furthermore, the collaborative filtering schemes must not hurt the privacy of users. The first contribution of this thesis conveys the feasibility of a fully decentralized news recommender. The proposed system constructs an implicit social network based on user profiles that express the opinions of users about the news items they receive. News items are disseminated through a heterogeneous gossip protocol that (1) biases the orientation of the dissemination, and (2) amplifies dissemination based on the level of interest in each news item. Then, we propose obfuscation mechanisms to preserve privacy without sacrificing the quality of the recommendation. Finally, we explore a novel scheme leveraging the power of the distribution in a centralized architecture. This hybrid and generic scheme democratizes personalized systems by providing an online, cost-effective and scalable architecture for content providers at a minimal investment cost. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/33e6209b-6314-461b-a3bd-f942513cdb4f
|
dc:creator
|
Boutet, Antoine |
dc:date
|
2013-03-08 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Kermarrec, Anne-Marie |
|
|
|
dc:title
|
From group to patient-specific analysis of brain function in arterial spin labelling and BOLD functional MRI |
dc:title
|
Des études de groupe aux analyses individuelles dans l’exploration de la fonction cérébrale en imagerie de perfusion par marquage de spins et en IRM fonctionnelle BOLD |
dc:subject
|
IRM fonctionnelle BOLD |
dc:subject
|
Analyses individuelles |
dc:subject
|
Hétéroscédasticité |
dc:subject
|
Modèle linéaire généralisé |
dc:subject
|
Approches localement multivariées |
dc:subject
|
Approche a contrario |
dc:subject
|
Arterial Spin Labelling |
dc:subject
|
BOLD functional MRI |
dc:subject
|
Patient-specific analysis |
dc:subject
|
Heteroscedasticity |
dc:subject
|
General Linear Model |
dc:subject
|
Locally multivariate procedure |
dc:subject
|
a contrario approach |
dc:description
|
Cette thèse aborde l'étude de la fonction cérébrale en Imagerie par Résonance Magnétique (IRM) à l'aide de deux séquences : l'IRM fonctionnelle (IRMf) BOLD et l'imagerie de perfusion par marquage de spins (ASL). Dans ce contexte, les analyses de groupe jouent un rôle important dans l'identification des dysfonctionnements globaux associés à une pathologie. D'autre part, les études individuelles, qui fournissent des conclusions au niveau d'un sujet unique, présentent un intérêt croissant. Dans ce travail, nous abordons à la fois les études de groupe et les analyses individuelles. Dans un premier temps, nous réalisons une analyse de groupe en IRMf BOLD en vue d'étudier la dysphasie chez l'enfant, une pathologie peu explorée en neuroimagerie. Nous mettons ainsi en évidence un fonctionnement et une latéralisation atypiques des aires langagières. Ensuite, nous nous concentrons sur les analyses individuelles. Nous proposons l'utilisation d'estimateurs robustes pour calculer les cartographies de débit sanguin cérébral en ASL. Ensuite, nous étudions la validité des hypothèses qui sous-tendent les analyses statistiques standard dans le contexte de l'ASL. Finalement, nous proposons une nouvelle méthode localement multivariée basée sur une approche a contrario. La validation de cette nouvelle approche est réalisée dans deux contextes applicatifs : la détection d'anomalies de perfusion en ASL et la détection de zones d'activation en IRMf BOLD. |
dc:description
|
This thesis deals with the analysis of brain function in Magnetic Resonance Imaging (MRI) using two sequences: BOLD functional MRI (fMRI) and Arterial Spin Labelling (ASL). In this context, group statistical analyses are of great importance in order to understand the general mechanisms underlying a pathology, but there is also an increasing interest towards patient-specific analyses that draw conclusions at the patient level. Both group and patient-specific analyses are studied in this thesis. We first introduce a group analysis in BOLD fMRI for the study of specific language impairment, a pathology that was very little investigated in neuroimaging. We outline atypical patterns of functional activity and lateralisation in language regions. Then, we move forward to patient-specific analysis. We propose the use of robust estimators to compute cerebral blood flow maps in ASL. Then, we analyse the validity of the assumptions underlying standard statistical analyses in the context of ASL. Finally, we propose a new locally multivariate statistical method based on an a contrario approach and apply it to the detection of atypical patterns of perfusion in ASL and to activation detection in BOLD functional MRI. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
https://ecm.univ-rennes1.fr/nuxeo/site/esupversions/158d96ec-ee2e-4c4a-af35-acc181262b91
|
dc:creator
|
Maumet, Camille |
dc:date
|
2013-05-29 |
dc:contributor
|
Universite de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Barillot, Christian |
dc:contributor
|
Maurel, Pierre |
|
|
|
dc:title
|
Passive interoperability testing for communication protocols |
dc:title
|
Le test d'interopérabilité passif pour les protocoles de communication |
dc:subject
|
Le test passif |
dc:subject
|
test d'interopérabilité |
dc:subject
|
protocole |
dc:subject
|
CoAP |
dc:subject
|
IOLTS |
dc:subject
|
génération automatique |
dc:subject
|
Automatic test generation |
dc:subject
|
CoAP |
dc:subject
|
interoperability testing |
dc:subject
|
IOLTS |
dc:subject
|
passive testing |
dc:description
|
Dans le domaine des réseaux, le test de protocoles de communication est une activité importante afin de valider les protocoles applications avant de les mettre en service. Généralement, les services qu'un protocole doit fournir sont décrits dans sa spécification. Cette spécification est une norme ou un standard défini par des organismes de normalisation tels que l'ISO (International Standards Organisation), l'IETF (Internet Engineering Task Force), l'ITU (International Telecommunication Union), etc. Le but du test est de vérifier que les implémentations du protocole fonctionnent correctement et rendent bien les services prévus. Pour atteindre cet objectif, différentes méthodes de tests peuvent être utilisées. Parmi eux, le test de conformité vérifie qu'un produit est conforme à sa spécification. Le test de robustesse vérifie les comportements de l'implémentation de protocole face à des événements imprévus. Dans cette thèse, nous nous intéressons plus particulièrement au test d'interopérabilité, qui vise à vérifier que plusieurs composants réseaux interagissent correctement et fournissent les services prévus. L'architecture générale de test d'interopérabilité fait intervenir un système sous test (SUT) composé de plusieurs implémentations sous test (IUT). Les objectifs du test d'interopérabilité sont à la fois de vérifier que plusieurs implémentations (basées sur des protocoles conçus pour fonctionner ensemble) sont capables d'interagir et que, lors de leur interaction, elles rendent les services prévus dans leurs spécifications respectives. En général, les méthodes de test d'interopérabilité peuvent être classées en deux grandes approches: le test actif et le test passif. Le test actif est une technique de validation très populaire, dont l'objectif est essentiellement de tester les implémentations (IUT), en pratiquant une suite de contrôles et d'observations sur celles-ci. Cependant, une caractéristique fondamentale du test actif est que le testeur possède la capacité de contrôler les IUTs. Cela implique que le testeur perturbe le fonctionnement normal du système testé. De ce fait, le test actif n'est pas une technique appropriée pour le test d'interopérabilité, qui est souvent effectué dans les réseaux opérationnels, où il est difficile d'insérer des entrées arbitraires sans affecter les services ou les fonctionnements normaux des réseaux. A l'inverse, le test passif est une technique se basant uniquement sur les observations. Le testeur n'a pas besoin d'agir sur le SUT notamment en lui envoyant des stimuli. Cela permet au test d'être effectué sans perturber l'environnement normal du système sous test. Le test passif possède également d'autres avantages comme par exemple, pour les systèmes embarqués où le testeur n'a pas d'accès direct, de pourvoir effectuer le test en collectant des traces d'exécution du système, puis de détecter les éventuelles erreurs ou déviations de ces traces vis-à-vis du comportement du système. |
dc:description
|
In the field of networking, testing of communication protocols is an important activity to validate protocol applications before commercialisation. Generally, the services that must be provided by a protocol are described in its specification(s). A specification is generally a standard defined by standards bodies such as ISO (International Standards Organization), IETF (Internet Engineering Task Force), ITU (International Telecommunication Union), etc. The purpose of testing is to verify that the protocol implementations work correctly and guarantee the quality of the services in order to meet customers expectations. To achieve this goal, a variety of testing methods have been developed. Among them, interoperability testing is to verify that several network components cooperate correctly and provide expected services. Conformance testing verifies that a product conforms to its specification. Robustness testing determines the degree to which a system operates correctly in the presence of exceptional inputs or stressful environmental conditions. In this thesis, we focus on interoperability testing. The general architecture of interoperability testing involves a system under test (SUT), which consists of at least two implementations under test (IUT). The objectives of interoperability testing are to ensure that interconnected protocol implementations are able to interact correctly and, during their interaction, provide the services predefined in their specifications. In general, the methods of interoperability testing can be classified into two approaches: active and passive testing. Among them, active test is the most conventionally used technique, which aims to test the implementations (IUT) by injecting a series of test messages (stimuli) and observing the corresponding outputs. However, the intrusive nature of active testing is that the tester has the ability to control IUTS. This implies that the tester interrupts inevitably the normal operations of the system under test. In this sense, active testing is not a suitable technique for interoperability testing, which is often carried out in operational networks. In such context, it is difficult to insert arbitrary testing messages without affecting the normal behavior and the services of the system. On the contrary, passive testing is a technique based only on observation. The tester does not need to interact with the SUT. This allows the test to be carried out without disturbing the normal operations of the system under test. Besides, passive testing also has other advantages such as: for embedded systems to which the tester does not have direct access, test can still be performed by collecting the execution traces of the system and then detect errors by comparing the trace with the behavior of the system described in its specification. In addition, passive testing makes it possible to moniter a system over a long period, and report abnomality at any time. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/700121f0-4161-48b8-9985-3964e14b424f
|
dc:creator
|
Chen, Nanxing |
dc:date
|
2013-06-24 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Viho, César |
|
|
|
dc:title
|
Mécanismes de collaboration entre réseaux et services applicatifs pour l'optimisation des ressources et des services |
dc:title
|
Collaboration mechanisms between overlays and networks for the optimization of ressources and services |
dc:subject
|
Optimisation du trafic, optimisation transport de données CDN, Cloud et P2P |
dc:subject
|
Pair à pair (Internet) |
dc:subject
|
P2P |
dc:subject
|
Cloud Computing |
dc:subject
|
QoS |
dc:description
|
Dans cette nouvelle ère du numérique, l'accès à l'information est entré désormais dans une autre dimension. Nous assistons à la dominance d'un modèle fondé sur les opportunités offertes par un accès mondialisé à l'Internet et à son application phare : le "World Wide Web". Les services se sont multipliés. Les terminaux se sont diversifiés. Les technologies de transport se sont améliorées. Les attentes se sont élevées. Dans cette spirale que nous nous abstenons de qualifier, les opérateurs se trouvent désormais confrontés à une croissance soutenue du trafic dans leurs réseaux, en grande partie due au transport de flux vidéo. Les fournisseurs de services sur Internet se trouvent aussi concernés par la problématique de la qualité de service dont dépend la satisfaction de leurs utilisateurs. Pour l'ensemble des acteurs, ces nouvelles tendances présentent à la fois des défis et des opportunités. Les défis se concentrent dans la problématique de gestion de la demande croissante du trafic tout en maintenant une qualité d'expérience appropriée pour les utilisateurs. Les opportunités proviendront de l'adéquation entre une demande croissante des services Web en termes de qualité de services et des ressources qui devront supporter la distribution de ces services. Il est crucial pour chaque acteur de bien se positionner dans la chaîne de valeur pour gérer cette adéquation. Le rôle que prendra le réseau support, simple ensemble de tuyaux surdimensionnés, ou bien réseau intelligent offrant des fonctions avancées de contrôle illustre parfaitement cet enjeu. Ces deux alternatives sont respectivement connues sous les termes "dumb-pipe" ou "smart network". Dans cette thèse, nous considérons une nouvelle approche, qui se veut simple, efficace et adaptée pour faire face à ces défis. Les opérateurs réseaux et les fournisseurs de services sont mutuellement gagnants dans l'amélioration du transport de données dans les réseaux tout en continuant à opérer leur propre infrastructure. Cette démarche coopérative est le point de départ de nos travaux qui visent à définir un cadre, une architecture et des techniques appropriées qui amèneront ces acteurs à collaborer en vue de gérer conjointement cette problématique. Cette collaboration est nécessaire car chaque acteur quoique prisonnier de ses contraintes peut les transformer en relations contractuelles dans un processus client fournisseur pour l'optimisation de la gestion du trafic. |
dc:description
|
In this new digital world, driven by the dominance of a model based on the opportunities offered by global access to the Internet and its killer app: the World Wide Web, access to information is becoming a matter of a good experience and responsiveness. We are witnessing the Web services are of increasing popularity. New types of terminals are proposed. Communications technologies are improved. Users expectations are becoming higher. In such a context, network operators are facing serious challenges arising from the management of a massive traffic growth, largely driven by the increasing amount of video streams while internet services providers are also concerned by the issue of providing an adequate quality of experience to their end-users. For both actors, these dual trends present both challenges and opportunities. The challenges arise from the issues of managing the growing demand for traffic while maintaining appropriate quality of experience for users. Opportunities come from a smart management of the increasing demands of Web services in terms of quality of services and of the resources that will support the delivery of these services. It is then crucial for each actor to be well-positioned in the value chain to take part in this process. The role that will be played by the networks, as a basic set of oversized pipes, or as an intelligent network providing advanced management facilities, perfectly illustrates this issue. These two alternatives are respectively known as the "dumb-pipe" or "smart networks". In this thesis, we consider a new approach, which is simple, effective and adapted to meet these challenges. Network operators and service providers can mutually benefit from improving the data delivery in the networks while continuing to fully control their infrastructures. This collaborative approach is the starting bloc of our work aiming at defining a framework, an architecture and appropriate procedures to bring these actors to work together to manage this problem. This collaboration is particularly necessary because each actor, though prisoner of its constraints and capacities, can turn them into a contractual relation with the other in a client-supplier process for the optimization of traffic management. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
fr |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/1f2b3769-2641-4608-8002-ed058277a7e5
|
dc:creator
|
Ellouze, Selim |
dc:date
|
2013-07-02 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Rubino, Gerardo |
dc:contributor
|
Lemlouma, Tayeb |
|
|
|
dc:title
|
Analyse numérique de méthodes performantes pour les EDP stochastiques modélisant l'écoulement et le transport en milieux poreux |
dc:title
|
Numerical analysis of performant methods for stochastic PDEs modeling flow and transport in porous media |
dc:subject
|
Quantification des incertitudes |
dc:subject
|
EDP à coefficients aléatoires |
dc:subject
|
Méthode de collocation des grilles clairsemées |
dc:subject
|
Méthode de Monte-Carlo |
dc:subject
|
Équation d'advection-diffusion |
dc:subject
|
Extension et dispersion |
dc:subject
|
marche aléatoire |
dc:subject
|
schéma d'Euler pour les EDS |
dc:subject
|
Uncertainty quantification |
dc:subject
|
PDEs with stochastic coefficients |
dc:subject
|
Stochastic collocation method |
dc:subject
|
Anisotropic sparse grids |
dc:subject
|
Monte-Carlo method |
dc:subject
|
Monte-Carlo method |
dc:subject
|
Advection-diffusion equation |
dc:subject
|
Spread and dispersion |
dc:subject
|
Random walk |
dc:subject
|
Euler scheme for SDE |
dc:description
|
Ce travail présente un développement et une analyse des approches numériques déterministes et probabilistes efficaces pour les équations aux dérivées partielles avec des coefficients et données aléatoires. On s'intéresse au problème d'écoulement stationnaire avec des données aléatoires. Une méthode de projection dans le cas unidimensionnel est présentée, permettant de calculer efficacement la moyenne de la solution. Nous utilisons la méthode de collocation anisotrope des grilles clairsemées. D'abord, un indicateur de l'erreur satisfaisant une borne supérieure de l'erreur est introduit, il permet de calculer les poids d'anisotropie de la méthode. Ensuite, nous démontrons une amélioration de l'erreur a priori de la méthode. Elle confirme l'efficacité de la méthode en comparaison avec Monte-Carlo et elle sera utilisée pour accélérer la méthode par l'extrapolation de Richardson. Nous présentons aussi une analyse numérique d'une méthode probabiliste pour quantifier la migration d'un contaminant dans un milieu aléatoire. Nous considérons le problème d'écoulement couplé avec l'équation d'advection-diffusion, où on s'intéresse à la moyenne de l'extension et de la dispersion du soluté. Le modèle d'écoulement est discrétisée par une méthode des éléments finis mixtes, la concentration du soluté est une densité d'une solution d'une équation différentielle stochastique, qui sera discrétisée par un schéma d'Euler. Enfin, on présente une formule explicite de la dispersion et des estimations de l'erreur a priori optimales. |
dc:description
|
This work presents a development and an analysis of an effective deterministic and probabilistic approaches for partial differential equation with random coefficients and data. We are interesting in the steady flow equation with stochastic input data. A projection method in the one-dimensional case is presented to compute efficiently the average of the solution. An anisotropic sparse grid collocation method is also used to solve the flow problem. First, we introduce an indicator of the error satisfying an upper bound of the error, it allows us to compute the anisotropy weights of the method. We demonstrate an improvement of the error estimation of the method which confirms the efficiency of the method compared with Monte Carlo and will be used to accelerate the method using the Richardson extrapolation technique. We also present a numerical analysis of one probabilistic method to quantify the migration of a contaminant in random media. We consider the previous flow problem coupled with the advection-diffusion equation, where we are interested in the computation of the mean extension and the mean dispersion of the solute. The flow model is discretized by a mixed finite elements method and the concentration of the solute is a density of a solution of the stochastic differential equation, this latter will be discretized by an Euler scheme. We also present an explicit formula of the dispersion and an optimal a priori error estimates. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
fr |
dc:creator
|
Oumouni, Mestapha |
dc:date
|
2013-06-06 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Université Ibn Tofail. Faculté des sciences de Kénitra |
dc:contributor
|
Erhel, Jocelyne |
dc:contributor
|
Mghazli, Zoubida |
|
|
|
dc:title
|
Simulation d'évènements rares par Monte Carlo dans les réseaux hautement fiables |
dc:title
|
Rare event simulation using Monte Carlo in highly reliable networks |
dc:subject
|
Méthode de Monte Carlo |
dc:subject
|
échantillonnage préférentiel |
dc:subject
|
fiabilité des réseaux |
dc:subject
|
événements rares |
dc:subject
|
Monte Carlo method |
dc:subject
|
importance sampling |
dc:subject
|
networks reliability |
dc:subject
|
rare events |
dc:description
|
Le calcul de la fiabilité des réseaux est en général un problème NP-difficile. On peut par exemple s’intéresser à la fiabilité des systèmes de télécommunications où l'on veut évaluer la probabilité qu’un groupe sélectionné de nœuds peuvent communiquer. Dans ce cas, un ensemble de nœuds déconnectés peut avoir des conséquences critiques, que ce soit financières ou au niveau de la sécurité. Une estimation précise de la fiabilité est ainsi nécessaire. Dans le cadre de ce travail, on s'intéresse à l’étude et au calcul de la fiabilité des réseaux hautement fiables. Dans ce cas la défiabilité est très petite, ce qui rend l’approche standard de Monte Carlo inutile, car elle nécessite un grand nombre d’itérations. Pour une bonne estimation de la fiabilité des réseaux au moindre coût, nous avons développé de nouvelles techniques de simulation basées sur la réduction de variance par échantillonnage préférentiel. |
dc:description
|
Network reliability determination, is an NP-hard problem. For instance, in telecommunications, it is desired to evaluate the probability that a selected group of nodes communicate or not. In this case, a set of disconnected nodes can lead to critical financials security consequences. A precise estimation of the reliability is, therefore, needed. In this work, we are interested in the study and the calculation of the reliability of highly reliable networks. In this case the unreliability is very small, which makes the standard Monte Carlo approach useless, because it requires a large number of iterations. For a good estimation of system reliability with minimum cost, we have developed new simulation techniques based on variance reduction using importance sampling. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
fr |
dc:creator
|
Saggadi, Samira |
dc:date
|
2013-07-08 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Tuffin, Bruno |
|
|
|
dc:title
|
Static analysis of numerical properties in the presence of pointers |
dc:title
|
Analyse statique de propriétés numériques en présence de pointeurs |
dc:subject
|
Analyse statique |
dc:subject
|
Propriétés numérique |
dc:subject
|
Interprétation abstraite |
dc:subject
|
Analyse de pointeurs |
dc:subject
|
Must-alias |
dc:subject
|
Bisimulation |
dc:subject
|
Static analysis |
dc:subject
|
Numerical properties |
dc:subject
|
Abstract Interpretation |
dc:subject
|
Analysis of pointers |
dc:subject
|
Must-alias |
dc:subject
|
Bisimulation |
dc:description
|
Si la production de logiciel fiable est depuis longtemps la préoccupation d'ingénieurs, elle devient à ce jour une branche de sujets de recherche riche en applications, dont l'analyse statique. Ce travail a porté sur l'analyse statique de programmes et, plus précisément, sur l'analyse des propriétés numériques. Ces analyses sont traditionnellement basées sur le concept de domaine abstrait. Le problème est que, ce n'est pas évident d'étendre ces domaines dans le contexte de programmes avec pointeurs. Nous avons proposé une approche qui sait systématiquement combiner ces domaines avec l'information de l'analyse de points-to (une sorte d'analyse de pointeurs). L'approche est formalisée en théorie de l'interprétation abstraite, prouvée correct et prototypée avec une modular implémentation qui sait inférer des propriétés numériques des programmes de millions de lignes de codes. La deuxième partie de la thèse vise à améliorer la précision de l'analyse points-to. Nous avons découvert que l'analyse de must-alias (qui analyse si deux variables sont nécessairement égaux) peut servir à raffiner l'analyse points-to. Nous avons formalisé cette combinaison en s'appuyant sur la notion de bisimulation, bien connue en vérification de modèle ou théorie de jeu... Un algorithme de complexité quadruple est proposé et prouvé correct. |
dc:description
|
The fast and furious pace of change in computing technology has become an article of faith for many. The reliability of computer-based systems cru- cially depends on the correctness of its computing. Can man, who created the computer, be capable of preventing machine-made misfortune? The theory of static analysis strives to achieve this ambition. The analysis of numerical properties of programs has been an essential research topic for static analysis. These kinds of properties are commonly modeled and handled by the concept of numerical abstract domains. Unfor- tunately, lifting these domains to heap-manipulating programs is not obvious. On the other hand, points-to analyses have been intensively studied to an- alyze pointer behaviors and some scale to very large programs but without inferring any numerical properties. We propose a framework based on the theory of abstract interpretation that is able to combine existing numerical domains and points-to analyses in a modular way. The static numerical anal- ysis is prototyped using the SOOT framework for pointer analyses and the PPL library for numerical domains. The implementation is able to analyze large Java program within several minutes. The second part of this thesis consists of a theoretical study of the com- bination of the points-to analysis with another pointer analysis providing information called must-alias. Two pointer variables must alias at some pro- gram control point if they hold equal reference whenever the control point is reached. We have developed an algorithm of quadruple complexity that sharpens points-to analysis using must-alias information. The algorithm is proved correct following a semantics-based formalization and the concept of bisimulation borrowed from the game theory, model checking etc. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/25a42ce8-51ea-40ee-856e-4a41e8d51699
|
dc:creator
|
Fu, Zhoulai |
dc:date
|
2013-07-22 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Université Rennes 1 |
dc:contributor
|
Jensen, Thomas |
dc:contributor
|
Pichardie, David |
|
|
|
dc:title
|
Arithmetic recodings for ECC cryptoprocessors with protections against side-channel attacks |
dc:title
|
Unités arithmétiques reconfigurables pour cryptoprocesseurs robustes aux attaques |
dc:subject
|
courbe elliptique |
dc:subject
|
cryptographie |
dc:subject
|
attaque par observation |
dc:subject
|
protection |
dc:subject
|
contre mesure |
dc:subject
|
canaux caché |
dc:subject
|
canaux auxiliaire |
dc:subject
|
recodage arithmétique |
dc:subject
|
FPGA |
dc:subject
|
ASIC |
dc:subject
|
implémentation matérielle. |
dc:subject
|
elliptic curve |
dc:subject
|
cryptography |
dc:subject
|
attack by observation |
dc:subject
|
side channel attack |
dc:subject
|
arithmetic recoding |
dc:subject
|
protection |
dc:subject
|
counter measure |
dc:subject
|
FPGA |
dc:subject
|
ASIC |
dc:subject
|
hardware implementation. |
dc:description
|
Cette thèse porte sur l'étude, la conception matérielle, la validation théorique et pratique, et enfin la comparaison de différents opérateurs arithmétiques pour des cryptosystèmes basés sur les courbes elliptiques (ECC). Les solutions proposées doivent être robustes contre certaines attaques par canaux cachés tout en étant performantes en matériel, tant au niveau de la vitesse d'exécution que de la surface utilisée. Dans ECC, nous cherchons à protéger la clé secrète, un grand entier, utilisé lors de la multiplication scalaire. Pour nous protéger contre des attaques par observation, nous avons utilisé certaines représentations des nombres et des algorithmes de calcul pour rendre difficiles certaines attaques ; comme par exemple rendre aléatoires certaines représentations des nombres manipulés, en recodant certaines valeurs internes, tout en garantissant que les valeurs calculées soient correctes. Ainsi, l'utilisation de la représentation en chiffres signés, du système de base double (DBNS) et multiple (MBNS) ont été étudiés. Toutes les techniques de recodage ont été validées théoriquement, simulées intensivement en logiciel, et enfin implantées en matériel (FPGA et ASIC). Une attaque par canaux cachés de type template a de plus été réalisée pour évaluer la robustesse d'un cryptosystème utilisant certaines de nos solutions. Enfin, une étude au niveau matériel a été menée dans le but de fournir à un cryptosystème ECC un comportement régulier des opérations effectuées lors de la multiplication scalaire afin de se protéger contre certaines attaques par observation. |
dc:description
|
This PhD thesis focuses on the study, the hardware design, the theoretical and practical validation, and eventually the comparison of different arithmetic operators for cryptosystems based on elliptic curves (ECC). Provided solutions must be robust against some side-channel attacks, and efficient at a hardware level (execution speed and area). In the case of ECC, we want to protect the secret key, a large integer, used in the scalar multiplication. Our protection methods use representations of numbers, and behaviour of algorithms to make more difficult some attacks. For instance, we randomly change some representations of manipulated numbers while ensuring that computed values are correct. Redundant representations like signed-digit representation, the double- (DBNS) and multi-base number system (MBNS) have been studied. A proposed method provides an on-the-fly MBNS recoding which operates in parallel to curve-level operations and at very high speed. All recoding techniques have been theoretically validated, simulated extensively in software, and finally implemented in hardware (FPGA and ASIC). A side-channel attack called template attack is also carried out to evaluate the robustness of a cryptosystem using a redundant number representation. Eventually, a study is conducted at the hardware level to provide an ECC cryptosystem with a regular behaviour of computed operations during the scalar multiplication so as to protect against some side-channel attacks. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/99c1b833-980a-4ca8-bb86-8a4a7523f315
|
dc:creator
|
Chabrier, Thomas |
dc:date
|
2013-06-18 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Casseau, Emmanuel |
dc:contributor
|
Tisserand, Arnaud |
|
|
|
dc:title
|
Améliorer la performance séquentielle à l’ère des processeurs massivement multicœurs |
dc:title
|
Increase sequential performance in the manycore era |
dc:subject
|
Architecture des processeurs |
dc:subject
|
prédiction de branchements |
dc:subject
|
reconvergence |
dc:subject
|
indépendance de contrôle |
dc:subject
|
instructions prédiquées |
dc:subject
|
rejeu sélectif |
dc:subject
|
Processor architecture |
dc:subject
|
branch prediction |
dc:subject
|
reconvergence : control independence |
dc:subject
|
predicated instructions |
dc:subject
|
selective replay |
dc:description
|
L'omniprésence des ordinateurs et la demande de toujours plus de puissance poussent les architectes processeur à chercher des moyens d'augmenter les performances de ces processeurs. La tendance actuelle est de répliquer sur une même puce plusieurs cœurs d'exécution pour paralléliser l'exécution. Si elle se poursuit, les processeurs deviendront massivement multicoeurs avec plusieurs centaines voire un millier de cœurs disponibles. Cependant, la loi d'Amdahl nous rappelle que l'augmentation de la performance séquentielle sera toujours nécessaire pour améliorer les performances globales. Une voie essentielle pour accroître la performance séquentielle est de perfectionner le traitement des branchements, ceux-ci limitant le parallélisme d'instructions. La prédiction de branchements est la solution la plus étudiée, dont l'intérêt dépend essentiellement de la précision du prédicteur. Au cours des dernières années, cette précision a été continuellement améliorée et a atteint un seuil qu'il semble difficile de dépasser. Une autre solution est d'éliminer les branchements et de les remplacer par une construction reposant sur des instructions prédiquées. L'exécution des instructions prédiquées pose cependant plusieurs problèmes dans les processeurs à exécution dans le désordre, en particulier celui des définitions multiples. Les travaux présentés dans cette thèse explorent ces deux aspects du traitement des branchements. La première partie s'intéresse à la prédiction de branchements. Une solution pour améliorer celle-ci sans augmenter la précision est de réduire le coût d'une mauvaise prédiction. Cela est possible en exploitant la reconvergence de flot de contrôle et l'indépendance de contrôle pour récupérer une partie du travail fait par le processeur sur le mauvais chemin sur les instructions communes aux deux chemins pour éviter de le refaire sur le bon chemin. La deuxième partie s'intéresse aux instructions prédiquées. Nous proposons une solution au problème des définitions multiples qui passe par la prédiction sélective de la valeur des prédicats. Un mécanisme de rejeu sélectif est utilisé pour réduire le coût d'une mauvaise prédiction de prédicat. |
dc:description
|
Computers are everywhere and the need for always more computation power has pushed the processor architects to find new ways to increase performance. The today's tendency is to replicate execution core on the same die to parallelize the execution. If it goes on, processors will become manycores featuring hundred to a thousand cores. However, Amdahl's law reminds us that increasing the sequential performance will always be vital to increase global performance. A perfect way to increase sequential performance is to improve how branches are executed because they limit instruction level parallelism. The branch prediction is the most studied solution, its interest greatly depending on its accuracy. In the last years, this accuracy has been continuously improved up to reach a hardly exceeding limit. An other solution is to suppress the branches by replacing them with a construct based on predicated instructions. However, the execution of predicated instructions on out-of-order processors comes up with several problems like the multiple definition problem. This study investigates these two aspects of the branch treatment. The first part is about branch prediction. A way to improve it without increasing the accuracy is to reduce the coast of a branch misprediction. This is possible by exploiting control flow reconvergence and control independence. The work done on the wrong path on instructions common to the two paths is saved to be reused on the correct path. The second part is about predicated instructions. We propose a solution to the multiple definition problem by selectively predicting the predicate values. A selective replay mechanism is used to reduce the cost of a predicate misprediction. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
fr |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/17a9e51f-960b-49ed-9b6c-07f44320f1eb
|
dc:creator
|
Prémillieu, Nathanaël |
dc:date
|
2013-12-03 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Seznec, André |
|
|
|
dc:title
|
Virtual camera control using dynamic spatial partitions |
dc:title
|
Contrôle de caméra virtuelle à base de partitions spatiales dynamiques |
dc:subject
|
contrôle de caméra |
dc:subject
|
cinématographie virtuelle |
dc:subject
|
interaction |
dc:subject
|
camera control |
dc:subject
|
virtual cinematography |
dc:subject
|
interaction |
dc:description
|
Le contrôle de caméra virtuelle est aujourd'hui un composant essentiel dans beaucoup d'applications d'infographie. Malgré cette importance, les approches actuelles restent limitées en terme d'expressivité, d'interactivité et de performances. Typiquement, les éléments de style ou de genre cinématographique sont difficiles à modéliser et à simuler dû à l'incapacité des systèmes actuels de calculer simultanément des points de vues, des trajectoires et d'effectuer le montage. Deuxièmement, elles n'explorent pas assez le potentiel créatif offert par le couplage potentiel d'un humain et d'un système intelligent pour assister les utilisateurs dans une tâche complexe de construction de séquences cinématographiques. Enfin, la plupart des approches existantes se basent sur des techniques d'optimisation dans un espace de recherche 6D, qui s'avèrent coûteuses et donc inadaptées à un contexte interactif. Dans cette thèse, nous proposons tout d'abord un cadre unique intégrant les quatre aspects clés de la cinématographie (le calcul de point de vue, la planification de trajectoires, le montage et la visibilité). Ce cadre expressif permet de simuler certaines dimensions de style cinématographique. Nous proposons ensuite une méthodologie permettant de combiner les capacités d'un système automatique avec une interaction utilisateur. Enfin, nous présentons un modèle de contrôle de caméra efficace qui réduit l'espace de recherche de 6D à 3D. Ce modèle a le potentiel pour remplacer un certain nombre de formulations existantes. |
dc:description
|
Virtual camera control is nowadays an essential component in many computer graphics applications. Despite its importance, current approaches remain limited in their expressiveness, interactive nature and performances. Typically, elements of directorial style and genre cannot be easily modeled nor simulated due to the lack of simultaneous control in viewpoint computation, camera path planning and editing. Second, there is a lack in exploring the creative potential behind the coupling of a human with an intelligent system to assist users in the complex task of designing cinematographic sequences. Finally, most techniques are based on computationally expensive optimization techniques performed in a 6D search space, which prevents their application to real-time contexts. In this thesis, we first propose a unifying approach which handles four key aspects of cinematography (viewpoint computation, camera path planning, editing and visibility computation) in an expressive model which accounts for some elements of directorial style. We then propose a workflow allowing to combine automated intelligence with user interaction. We finally present a novel and efficient approach to virtual camera control which reduces the search space from 6D to 3D and has the potential to replace a number of existing formulations. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/dd65e94e-2fba-46c7-a0ca-86c4d499edc2
|
dc:creator
|
Lino, Christophe |
dc:date
|
2013-10-03 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Bouatouch, Kadi |
dc:contributor
|
Christie, Marc |
|
|
|
dc:title
|
Kevoree : Model@Runtime pour le développement continu de systèmes adaptatifs distribués hétérogènes |
dc:title
|
Model@Runtime for continuous development of heterogeneous distributed adaptive systems |
dc:subject
|
Génie du logiciel |
dc:subject
|
Ingénierie du logiciel |
dc:subject
|
Systèmes distribués |
dc:subject
|
Applications distribuées |
dc:subject
|
Architecture dirigée par les modèles |
dc:subject
|
Ingénierie des modèles |
dc:subject
|
Modèle de Composants |
dc:subject
|
Modèle à l'exécution |
dc:subject
|
Model Driven Architecture |
dc:subject
|
Model Driven Engineering |
dc:subject
|
Component Model |
dc:subject
|
Model@Runtime |
dc:subject
|
Software Engineering |
dc:description
|
La complexité croissante des systèmes d'information modernes a motivé l'apparition de nouveaux paradigmes (objets, composants, services, etc), permettant de mieux appréhender et maîtriser la masse critique de leurs fonctionnalités. Ces systèmes sont construits de façon modulaire et adaptable afin de minimiser les temps d'arrêts dus aux évolutions ou à la maintenance de ceux-ci. Afin de garantir des propriétés non fonctionnelles (par ex. maintien du temps de réponse malgré un nombre croissant de requêtes), ces systèmes sont également amenés à être distribués sur différentes ressources de calcul (grilles). Outre l'apport en puissance de calcul, la distribution peut également intervenir pour distribuer une tâche sur des nœuds aux propriétés spécifiques. C'est le cas dans le cas des terminaux mobiles proches des utilisateurs ou encore des objets et capteurs connectés proches physiquement du contexte de mesure. L'adaptation d'un système et de ses ressources nécessite cependant une connaissance de son état courant afin d'adapter son architecture et sa topologie aux nouveaux besoins. Un nouvel état doit ensuite être propagé à l'ensemble des nœuds de calcul. Le maintien de la cohérence et le partage de cet état est rendu particulièrement difficile à cause des connexions sporadiques inhérentes à la distribution, pouvant amener des sous-systèmes à diverger. En réponse à ces défi scientifiques, cette thèse propose une abstraction de conception et de déploiement pour systèmes distribués dynamiquement adaptables, grâce au principe du Model@Runtime. Cette approche propose la construction d'une couche de réflexion distribuée qui permet la manipulation abstraite de systèmes répartis sur des nœuds hétérogènes. En outre, cette contribution introduit dans la modélisation des systèmes adaptables la notion de cohérence variable, permettant ainsi de capturer la divergence des nœuds de calcul dans leur propre conception. Cette couche de réflexion, désormais cohérente "à terme", permet d'envisager la construction de systèmes adaptatifs hétérogènes, regroupant des nœuds mobiles et embarqués dont la connectivité peut être intermittente. Cette contribution a été concrétisée par un projet nommé ''Kevoree'' dont la validation démontre l'applicabilité de l'approche proposée pour des cas d'usages aussi hétérogènes qu'un réseau de capteurs ou une flotte de terminaux mobiles. |
dc:description
|
The growing complexity of modern IT systems has motivated the development of new paradigms (objects, components, services,...) to better cope with the critical size of their functionalities. Such systems are then built as a modular and dynamically adaptable compositions, allowing them to minimise their down-times while performing evolutions or fixes. In order to ensure non-functional properties (i.e. request latency) such systems are distributed across different computation nodes. Besides the added value in term of computational power (cloud), this distribution can also target nodes with dedicated properties such as mobile nodes and sensors (internet of things), physically close to users for interactions. Adapting a system requires knowledge about its current state in order to adapt its architecture to its evolving needs. A new state must be then disseminated to other nodes to synchronise them. Maintaining its consistency and sharing this state is a difficult task especially in case of sporadic connexions which lead to divergent state between sub-systems. To tackle these scientific problems, this thesis proposes an abstraction to design and deploy distributed adaptive systems following the Model@Runtime paradigm. From this abstraction, the proposed approach allows defining a distributed reflexive layer to manipulate heterogeneous distributed nodes. In particular, this contribution introduces variable consistencies in model definition and divergence in system conception. This reflexive layer, eventually consistent allows the construction of distributed adapted systems even on mobile nodes with intermittent connectivity. This work has been realized in an open source project named Kevoree, and validated on various distributed systems ranging from sensor networks to “cloud” computing. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
fr |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/4d98c82a-7806-4eeb-a701-d947a451dc06
|
dc:creator
|
Fouquet, Francois |
dc:date
|
2013-03-06 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Jézéquel, Jean-Marc |
dc:contributor
|
Plouzeau, Noël |
dc:contributor
|
Barais, Olivier |
|
|
|
dc:title
|
INCREMENT : une approche hybride pour modéliser et analyser dans le large les exigences réglementaires de sûreté |
dc:title
|
INCREMENT : an hybrid approach for modeling and analyzing regulatory safety requirements in the large |
dc:subject
|
Ingénierie des exigences |
dc:subject
|
Ingénierie dirigée par les modèles |
dc:subject
|
sûreté de fonctionnement |
dc:subject
|
traçabilité |
dc:description
|
Les systèmes de contrôle-commande importants pour la sûreté de fonctionnement doivent répondre à un certain nombre d’exigences, au premier rang desquelles se trouvent les exigences réglementaires, édictées par les autorités nationales et complétées par un ensemble de recommandations pratiques et de textes normatifs. Les exigences de ce domaine sont peu formalisées, les relations de traçabilité, et par conséquent l'organisation des exigences de ce vaste domaine est souvent implicite. Enfin, les passerelles entre contextes nationaux différents sont très peu développées. Les travaux de cette thèse se situent dans ce contexte industriel en partenariat avec EDF R&D et au sein du projet CONNEXION regroupant les acteurs majeurs du contrôle-commande nucléaire français. Les contributions de la thèse s'articulent autour de l'approche INCREMENT (Intrumentation aNd Control regulatory REquirement Modeling Environment) qui adresse les deux premiers challenges présentés, et en particulier : (1) la formalisation du domaine où nous proposons à la fois une description du domaine et un métamodèle permettant une capitalisation et une vue globale d'un référentiel d'exigences, (2) une base outillée pour l'acquisition automatique de documents, un environnement graphique pour la manipulation de modèles et l'apport de techniques de recherche d'information pour la traçabilité des exigences, (3) une approche originale avec une hybridation entre modélisation et recherche d'information pour une amélioration de la traçabilité des exigences. Le métamodèle proposé et ses outils sont utilisés dans l'industrie dans le projet CONNEXION. Notre approche hybride a permis dans nos expérimentations de réduire, en moyenne, la taille de ces espaces de 65% comparé aux approches standard de recherche d'information, sans en dégrader le contenu. |
dc:description
|
Instrumentation and Control (I&C) Systems important to safety must conform to their requirements, where regulatory requirements are first class entities, written by national safety authorities and completed using a set of national recommendation guides or standards. The global domain knowledge is scattered, not formalized and traceability links and the organization within the domain are implicit. Bridges between different national practices are not developed, whereas the understanding of requirements and practices variability concerns becomes a significant industrial issue. The thesis sets up in an industrial context with EDF R&D and the CONNEXION project that gathered the French nuclear I&C industry. Its contributions are defined around the INCREMENT approach (Instrumentation aNd Control Regulatory Requirement Modeling Environment) that addresses the two first challenges previously introduced. In particular, they consist in: (1) the domain formalization itself by the proposal of a metamodel that allows a high level capitalization of a requirements corpus as well as its organization, (2) a tool-support basis to gather partial knowledge from the textual documents, manipulate such models that conform to the proposed metamodel, and Information retrieval techniques to support better requirements traceability, (3) the proposal of an original hybrid approach, mixing both metamodeling and information retrieval, and combine them in a mutual beneficial joint use. The metamodel and its tool support are used in the industrial context of the CONNEXION project. Where information retrieval techniques for requirements traceability suffer from large sets of false positives limitations, our hybrid approach allowed us to reduce this noise and the size of the candidate links research space by a mean of 65% without decreasing their global quality. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
fr |
dc:identifier
|
https://ecm.univ-rennes1.fr/nuxeo/site/esupversions/29622dad-f2d7-450c-a0f0-70882a0b2357
|
dc:creator
|
Sannier, Nicolas |
dc:date
|
2013-12-12 |
dc:contributor
|
Universite de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Baudry, Benoît |
|
|
|
dc:title
|
Étude expérimentale de la turbulence dans une couche de mélange anisotherme |
dc:title
|
Expérimental study of turbulence in a non-isothermal mixing layer
|
dc:subject
|
Couche de mélange |
dc:subject
|
Anémométrie à fils chauds |
dc:subject
|
Turbulence |
dc:subject
|
mélange de température |
dc:subject
|
Mixing layer |
dc:subject
|
Hot Wire Anemometry |
dc:subject
|
Turbulence |
dc:subject
|
Thermal mixing |
dc:description
|
L'étude porte sur une couche de mélange plane horizontale générée par la rencontre de deux écoulements parallèles à vitesse et température différentes. Le mélange turbulent est analysé pour différentes conditions initiales en termes de gradients de vitesse et de température. On distingue en particulier des configurations en régime de stratification stable et instable sous l'effet des forces de flottabilité. L'analyse des corrélations entre les fluctuations de vitesse et de température s'appuie sur la technique expérimentale d'anémométrie à température de fil variable (PCTA), qui permet la mesure instantanée de la vitesse et de la température en un même point grâce à la variation périodique et par palier du coefficient de surchauffe du fil chaud utilisé. Un premier travail a consisté à étendre la technique PCTA à l'utilisation de fils croisés pour la mesure simultanée de la température et de deux composantes de la vitesse. Dans un premier temps, les statistiques en un point permettent d'identifier les caractéristiques de l'écoulement dans la région de similitude et d'y établir les équations de bilan pour l'énergie cinétique turbulente, l'intensité des fluctuations de température et les flux de quantité de mouvement et de chaleur. Il apparaît, vu les faibles nombres de Richardson en jeu (Rif<0,03), que les forces de flottabilité sont quasi-négligeables devant les moteurs principaux du mouvement. Pourtant, ce forçage thermique peu énergétique est suffisant, en configuration instable, pour augmenter significativement le taux d'expansion et la contrainte de cisaillement, ce qui correspond de fait à une augmentation de la production de turbulence. L'analyse des densités de probabilité jointes permet ensuite de mettre en évidence les mécanismes et évènements qui contribuent significativement aux flux transversaux de quantité de mouvement et de chaleur. Ces différentes contributions sont différenciées et quantifiées par une analyse en quadrants qui fait ressortir la prépondérance des mouvements d'entraînement et d'éjection. On examine enfin les statistiques en deux points associées aux incréments de vitesse et de température. Le comportement de ces incréments est étudié à travers leurs densités de probabilité et leurs coefficients de dissymétrie et d'aplatissement. Les exposants des fonctions de structure confirment l'intermittence plus grande de la température par rapport à celle de la vitesse. Les différents termes des équations de Kolmogorov et de Yaglom sont mesurés. L'équilibre de ces bilans par échelle permet de quantifier le terme qui intègre les différents forçages proposés dans la littérature. |
dc:description
|
The turbulent mixing is studied in a plane mixing layer for a range of initial conditions applied in terms of velocity and temperature gradients between the two parallel inlet flows. A particular attention is paid to the effect of buoyancy forces, especially in the difference between the so-called stable and unstable configurations, in relation to the sign of the vertical temperature gradient applied. In this study, the novel experimental technique called PCTA, for Parameterizable Constant Temperature Anemometry, is used to enable the analysis of correlations between the velocity and temperature fluctuations. In a preliminary work, the PCTA technique, based on the implementation of repetitive multiple-overheat patterns to a hot wire, is extended and adapted for the instantaneous measurement of temperature and two components of velocity with X-wire probes. In a first stage, one point statistics are analysed. They provide a description of the flow features in the similarity region, where the balance equations for turbulent kinetic energy, temperature variance and the momentum and heat fluxes are established. Considering the low Richardson numbers at stake (Rif <0.03), the buoyancy forces appear logically to be quantitatively negligible compared to the main driving forces, but such a low energy forcing mechanism is in fact sufficient, in unstable configuration, to significantly increase the shear stress and the expansion rate of the mixing layer, both phenomena being associated to an enhanced production of turbulence. In a second stage, a joint probability density function analysis highlights the mechanisms and events that significantly contribute to the transverse momentum and heat fluxes. These contributions are differentiated and quantified through a quadrant analysis which emphasizes the dominance of the local movements of entrainment and ejection associated to the Kelvin-Helmholtz structures. Finally, the study focuses on the two points statistics associated with velocity and temperature increments. The behaviour of these increments is studied through their probability densities, examined along with the skewness and kurtosis coefficients. The structure function exponents confirm the stronger intermittency of temperature compared to that of the velocity. The different terms of the Kolmogorov and Yaglom equations are estimated. The balance of these scale budgets allows the quantification of the forcing term that has been introduced in the literature. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
fr |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/3c3df444-7c52-42bf-9086-095090c1cd15
|
dc:creator
|
Sodjavi, Kodjovi |
dc:date
|
2013-03-11 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Mémin, Étienne |
dc:contributor
|
Carlier, Johan |
|
|
|
dc:title
|
Parallelism and distribution for very large scale content-based image retrieval |
dc:title
|
Parallélisme et distribution pour des bases d'images à très grande échelle |
dc:subject
|
Indexation automatique |
dc:subject
|
Parallélisme (informatique) |
dc:subject
|
Automatic indexing |
dc:subject
|
Parallel processing (Electronic computers)
|
dc:description
|
Les volumes de données multimédia ont fortement crus ces dernières années. Facebook stocke plus de 100 milliards d'images, 200 millions sont ajoutées chaque jour. Cela oblige les systèmes de recherche d'images par le contenu à s'adapter pour fonctionner à ces échelles. Les travaux présentés dans ce manuscrit vont dans cette direction. Deux observations essentielles cadrent nos travaux. Premièrement, la taille des collections d'images est telle, plusieurs téraoctets, qu'il nous faut obligatoirement prendre en compte les contraintes du stockage secondaire. Cet aspect est central. Deuxièmement, tous les processeurs sont maintenant multi-cœurs et les grilles de calcul largement disponibles. Du coup, profiter de parallélisme et de distribution semble naturel pour accélérer tant la construction de la base que le débit des recherches par lots. Cette thèse décrit une technique d'indexation multidimensionnelle s'appelant eCP. Sa conception prend en compte les contraintes issues de l'usage de disques et d'architectures parallèles et distribuées. eCP se fonde sur la technique de quantification vectorielle non structurée et non itérative. eCP s'appuie sur une technique de l'état de l'art qui est toutefois orientée mémoire centrale. Notre première contribution se compose d'extensions destinées à permettre de traiter de très larges collections de données en réduisant fortement le coût de l'indexation et en utilisant les disques au mieux. La seconde contribution tire profit des architectures multi-cœurs et détaille comment paralléliser l'indexation et la recherche. Nous évaluons cet apport sur près de 25 millions d'images, soit près de 8 milliards de descripteurs SIFT. La troisième contribution aborde l'aspect distribué. Nous adaptons eCP au paradigme Map-Reduce et nous utilisons Hadoop pour en évaluer les performances. Là, nous montrons la capacité de eCP à traiter de grandes bases en indexant plus de 100 millions d'images, soit 30 milliards de SIFT. Nous montrons aussi la capacité de eCP à utiliser plusieurs centaines de cœurs. |
dc:description
|
The scale of multimedia collections has grown very fast over the last few years. Facebook stores more than 100 billion images, 200 million are added every day. In order to cope with this growth, methods for content-based image retrieval must adapt gracefully. The work presented in this thesis goes in this direction. Two observations drove the design of the high-dimensional indexing technique presented here. Firstly, the collections are so huge, typically several terabytes, that they must be kept on secondary storage. Addressing disk related issues is thus central to our work. Secondly, all CPUs are now multi-core and clusters of machines are a commonplace. Parallelism and distribution are both key for fast indexing and high-throughput batch-oriented searching. We describe in this manuscript a high-dimensional indexing technique called eCP. Its design includes the constraints associated to using disks, parallelism and distribution. At its core is an non-iterative unstructured vectorial quantization scheme. eCP builds on an existing indexing scheme that is main memory oriented. Our first contribution is a set of extensions for processing very large data collections, reducing indexing costs and best using disks. The second contribution proposes multi-threaded algorithms for both building and searching, harnessing the power of multi-core processors. Datasets for evaluation contain about 25 million images or over 8 billion SIFT descriptors. The third contribution addresses distributed computing. We adapt eCP to the MapReduce programming model and use the Hadoop framework and HDFS for our experiments. This time we evaluate eCP's ability to scale-up with a collection of 100 million images, more than 30 billion SIFT descriptors, and its ability to scale-out by running experiments on more than 100 machines. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/8dc12509-f631-4342-993d-b1eec1716215
|
dc:creator
|
Gudmundsson, Gylfi |
dc:date
|
2013-09-12 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Gros, Patrick |
dc:contributor
|
Amsaleg, Laurent |
|
|
|
dc:title
|
Auto-diagnostic actif dans les réseaux de télécommunications
|
dc:title
|
Active self-diagnosis in telecommunication networks |
dc:subject
|
Auto-diagnostic |
dc:subject
|
Auto-modélisation |
dc:subject
|
Corrélation d'alarmes |
dc:subject
|
Localisation de fautes |
dc:subject
|
Réseaux Bayésiens |
dc:subject
|
Réseaux IMS |
dc:subject
|
Self-diagnosis |
dc:subject
|
Self-modeling |
dc:subject
|
Alarm correlation |
dc:subject
|
Fault localization |
dc:subject
|
Bayesian networks |
dc:subject
|
IP Multimedia Subsystem |
dc:description
|
Les réseaux de télécommunications deviennent de plus en plus complexes, notamment de par la multiplicité des technologies mises en œuvre, leur couverture géographique grandissante, la croissance du trafic en quantité et en variété, mais aussi de par l’évolution des services fournis par les opérateurs. Tout ceci contribue à rendre la gestion de ces réseaux de plus en plus lourde, complexe, génératrice d’erreurs et donc coûteuse pour les opérateurs. On place derrière le terme « réseaux autonome » l’ensemble des solutions visant à rendre la gestion de ce réseau plus autonome. L’objectif de cette thèse est de contribuer à la réalisation de certaines fonctions autonomiques dans les réseaux de télécommunications. Nous proposons une stratégie pour automatiser la gestion des pannes tout en couvrant les différents segments du réseau et les services de bout en bout déployés au-dessus. Il s’agit d’une approche basée modèle qui adresse les deux difficultés du diagnostic basé modèle à savoir : a) la façon d'obtenir un tel modèle, adapté à un réseau donné à un moment donné, en particulier si l'on souhaite capturer plusieurs couches réseau et segments et b) comment raisonner sur un modèle potentiellement énorme, si l'on veut gérer un réseau national par exemple. Pour répondre à la première difficulté, nous proposons un nouveau concept : l’auto-modélisation qui consiste d’abord à construire les différentes familles de modèles génériques, puis à identifier à la volée les instances de ces modèles qui sont déployées dans le réseau géré. La seconde difficulté est adressée grâce à un moteur d’auto-diagnostic actif, basé sur le formalisme des réseaux Bayésiens et qui consiste à raisonner sur un fragment du modèle du réseau qui est augmenté progressivement en utilisant la capacité d’auto-modélisation: des observations sont collectées et des tests réalisés jusqu’à ce que les fautes soient localisées avec une certitude suffisante. Cette approche de diagnostic actif a été expérimentée pour réaliser une gestion multi-couches et multi-segments des alarmes dans un réseau IMS. |
dc:description
|
While modern networks and services are continuously growing in scale, complexity and heterogeneity, the management of such systems is reaching the limits of human capabilities. Technically and economically, more automation of the classical management tasks is needed. This has triggered a significant research effort, gathered under the terms self-management and autonomic networking. The aim of this thesis is to contribute to the realization of some self-management properties in telecommunication networks. We propose an approach to automatize the management of faults, covering the different segments of a network, and the end-to-end services deployed over them. This is a model-based approach addressing the two weaknesses of model-based diagnosis namely: a) how to derive such a model, suited to a given network at a given time, in particular if one wishes to capture several network layers and segments and b) how to reason a potentially huge model, if one wishes to manage a nation-wide network for example. To address the first point, we propose a new concept called self-modeling that formulates off-line generic patterns of the model, and identifies on-line the instances of these patterns that are deployed in the managed network. The second point is addressed by an active self-diagnosis engine, based on a Bayesian network formalism, that consists in reasoning on a progressively growing fragment of the network model, relying on the self-modeling ability: more observations are collected and new tests are performed until the faults are localized with sufficient confidence. This active diagnosis approach has been experimented to perform cross-layer and cross-segment alarm management on an IMS network. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/4090ff47-327f-4517-9931-6a4c4b819c6a
|
dc:creator
|
Hounkonnou, Carole |
dc:date
|
2013-07-12 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Fabre, Éric |
|
|
|
dc:title
|
Évaluation expérimentale d'un système statistique de synthèse de la parole, HTS, pour la langue française |
dc:title
|
Experimental evaluation of a statistical speech synthesis system, HTS, for french |
dc:subject
|
Informatique |
dc:subject
|
Traitement automatique de la parole |
dc:subject
|
Synthèse de la parole à partir du texte |
dc:subject
|
HTS |
dc:subject
|
Computer science |
dc:subject
|
Speech processing |
dc:subject
|
Text-to-Speech synthesis |
dc:subject
|
HTS |
dc:description
|
Les travaux présentés dans cette thèse se situent dans le cadre de la synthèse de la parole à partir du texte et, plus précisément, dans le cadre de la synthèse paramétrique utilisant des règles statistiques. Nous nous intéressons à l'influence des descripteurs linguistiques utilisés pour caractériser un signal de parole sur la modélisation effectuée dans le système de synthèse statistique HTS. Pour cela, deux méthodologies d'évaluation objective sont présentées. La première repose sur une modélisation de l'espace acoustique, généré par HTS par des mélanges gaussiens (GMM). En utilisant ensuite un ensemble de signaux de parole de référence, il est possible de comparer les GMM entre eux et ainsi les espaces acoustiques générés par les différentes configurations de HTS. La seconde méthodologie proposée repose sur le calcul de distances entre trames acoustiques appariées pour pouvoir évaluer la modélisation effectuée par HTS de manière plus locale. Cette seconde méthodologie permet de compléter les diverses analyses en contrôlant notamment les ensembles de données générées et évaluées. Les résultats obtenus selon ces deux méthodologies, et confirmés par des évaluations subjectives, indiquent que l'utilisation d'un ensemble complexe de descripteurs linguistiques n'aboutit pas nécessairement à une meilleure modélisation et peut s'avérer contre-productif sur la qualité du signal de synthèse produit. |
dc:description
|
The work presented in this thesis is about TTS speech synthesis and, more particularly, about statistical speech synthesis for French. We present an analysis on the impact of the linguistic contextual factors on the synthesis achieved by the HTS statistical speech synthesis system. To conduct the experiments, two objective evaluation protocols are proposed. The first one uses Gaussian mixture models (GMM) to represent the acoustical space produced by HTS according to a contextual feature set. By using a constant reference set of natural speech stimuli, GMM can be compared between themselves and consequently acoustic spaces generated by HTS. The second objective evaluation that we propose is based on pairwise distances between natural speech and synthetic speech generated by HTS. Results obtained by both protocols, and confirmed by subjective evaluations, show that using a large set of contextual factors does not necessarily improve the modeling and could be counter-productive on the speech quality. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
fr |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/25e151cf-26de-4cc7-b3b7-8d876e5aa8c4
|
dc:creator
|
Le Maguer, Sébastien |
dc:date
|
2013-07-05 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Boeffard, Olivier |
dc:contributor
|
Barbot, Nelly |
|
|
|
dc:title
|
Une méthode fondée sur les modèles pour gérer les propriétés temporelles des systèmes à composants logiciels |
dc:title
|
Design and implementation of a model driven design methodology for trusted realtime component |
dc:subject
|
Ingénierie Dirigée par les Modèles |
dc:subject
|
Prédiction de Performance |
dc:subject
|
Validation à l’exécution. |
dc:subject
|
Model-Driven Engineering |
dc:subject
|
Performance Prediction |
dc:subject
|
Validation at Runtime |
dc:description
|
Cette thèse propose une approche pour intégrer l'utilisation des propriétés temporisées stochastiques dans un processus continu de design fondé sur des modèles à l'exécution. La spécification temporelle de services est un aspect important des architectures à base de composants, par exemple dans des réseaux distribués volatiles de nœuds informatiques. L'approche models@runtime facilite la gestion de ces architectures en maintenant des modèles abstraits des architectures synchronisés avec la structure physique de la plate-forme d'exécution distribuée. Pour les systèmes auto-adaptatifs, la prédiction de délais et de débit d'un assemblage de composants est primordial pour prendre la décision d'adaptation et accepter les évolutions qui sont conformes aux spécifications temporelles. Dans ce but, nous définissons une extension du métamodèle fondée sur les réseaux de Petri stochastiques comme un modèle temporisé interne pour la prédiction. Nous concevons une bibliothèque de patrons pour faciliter la spécification et la prédiction des propriétés temporisées classiques de modèles à l'exécution et rendre la synchronisation des comportements et des changements structurels plus facile. D'autre part, nous appliquons l'approche de la modélisation par aspects pour tisser les modèles temporisés internes dans les modèles temporisés de comportement du composant et du système. Notre moteur de prédiction est suffisamment rapide pour effectuer la prédiction à l'exécution dans un cadre réaliste et valider des modèles à l'exécution. |
dc:description
|
This thesis proposes an approach to integrate the use of time-related stochastic properties in a continuous design process based on models at runtime. Time-related specification of services are an important aspect of component-based architectures, for instance in distributed, volatile networks of computer nodes. The models at runtime approach eases the management of such architectures by maintaining abstract models of architectures synchronized with the physical, distributed execution platform. For self-adapting systems, prediction of delays and throughput of a component assembly is of utmost importance to take adaptation decision and accept evolutions that conform to the specifications. To this aim we define a metamodel extension based on stochastic Petri nets as an internal time model for prediction. We design a library of patterns to ease the specification and prediction of common time properties of models at runtime and make the synchronization of behaviors and structural changes easier. Furthermore, we apply the approach of Aspect-Oriented Modeling to weave the internal time models into timed behavior models of the component and the system. Our prediction engine is fast enough to perform prediction at runtime in a realistic setting and validate models at runtime. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/fa478419-33d8-40f4-976a-1ee1313fdfe2
|
dc:creator
|
Nguyen, Viet Hoa |
dc:date
|
2013-10-15 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Jézéquel, Jean-marc |
dc:contributor
|
Plouzeau, Noël |
|
|
|
dc:title
|
From dataflow-based video coding tools to dedicated embedded multi-core platforms |
dc:title
|
Depuis des outils de codage vidéo basés sur la programmation flux de données vers des plates-formes multi-coeur embarquées et dédiées |
dc:subject
|
Informatique embarquée |
dc:subject
|
Multimédia |
dc:subject
|
Compression vidéo |
dc:subject
|
Programmation parallèle (informatique) |
dc:subject
|
Embedded computing |
dc:subject
|
Multimedia |
dc:subject
|
Video compression |
dc:subject
|
Parallel programming |
dc:description
|
Le développement du multimédia, avec l'émergence des architectures parallèles, a ravivé l'intérêt de la programmation flux de données pour la conception de systèmes embarqués. En effet, la programmation flux de données offre une approche de développement suffisamment flexible pour créer des applications complexes tout en exprimant la concurrence et le parallélisme explicitement. Paradoxalement, la plupart des études portent sur des modèles flux de données statiques, même si un processus de développement pragmatique nécessite l'expressivité et la practicité d'un langage de programmation basé sur un modèle flux de données dynamiques, comme le langage de programmation utilisé dans le cadre de Reconfigurable Video Coding. Dans cette thèse, nous décrivons un environnement de développement pour la programmation flux de données qui facilite le développement multimédia pour des plates-formes multi-coeur embarquées. Cet environnement de développement repose sur une architecture logicielle modulaire qui bénéficie de techniques modernes de génie logiciel telles que la méta modélisation et la programmation orientée aspect. Ensuite, nous développons une implémentation logicielle optimisée des programmes flux de données ciblant aussi bien les ordinateurs de bureau que les plates-formes embarquées. Notre implémentation vise à combler le fossé entre la practicité du langage de programmation et l'efficacité de son exécution. Enfin, nous présentons un ensemble d'algorithmes de projection et d'ordonnancement d'acteurs qui permettent l'exécution de programmes flux de données dynamiques sur des plates-formes multi-coeur avec des performances extensibles. |
dc:description
|
The development of multimedia technology, along with the emergence of parallel architectures, has revived the interest on dataflow programming for designing embedded systems. Indeed, dataflow programming offers a flexible development approach in order to build complex applications while expressing concurrency and parallelism explicitly. Paradoxically, most of the studies focus on static dataflow models of computation, even if a pragmatic development process requires the expressiveness and the practicality of a programming language based on dynamic dataflow models, such as the language included in the Reconfigurable Video Coding framework.
In this thesis, we describe a complete development environment for dataflow programming that eases multimedia development for embedded multi-core platforms. This development environment is built upon a modular software architecture that benefits from modern software engineering techniques such as meta modeling and aspect-oriented programming. Then, we develop an optimized software implementation of dataflow programs targeting desktop and embedded multi-core platforms. Our implementation aims to bridge the gap between the practicality of the programming language and the efficiency of the execution. Finally, we present a set of runtime actors mapping/scheduling algorithms that enable the execution of dynamic dataflow programs over multi-core platforms with scalable performance. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/17ebcce4-26d7-49d4-8d70-f32db5e85369
|
dc:creator
|
Yviquel, Hervé |
dc:date
|
2013-10-25 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Casseau, Emmanuel |
dc:contributor
|
Raulet, Mickaël |
|
|
|
dc:title
|
Behavioral Application-dependent superscalar core modeling |
dc:title
|
Modélisation comportementale dépend de l’application pour cœurs superscalaires |
dc:subject
|
Informatique |
dc:subject
|
Ordinateurs |
dc:subject
|
Multiprocesseurs |
dc:subject
|
Simulation par ordinateur |
dc:subject
|
Modèles approximatifs |
dc:subject
|
Modèles comportementaux |
dc:subject
|
Multiprogrammation |
dc:subject
|
Computer Science |
dc:subject
|
muticore processors |
dc:subject
|
computer simulation |
dc:subject
|
approximate models, behavioral models |
dc:subject
|
multiprogrammed workloads |
dc:description
|
Ces dernières années, l'effort de recherche est passé de la microarchitecture du cœur à la microarchitecture de la hiérarchie mémoire. Les modèles précis au cycle près pour processeurs multi-cœurs avec des centaines de cœurs ne sont pas pratiques pour simuler des charges multitâches réelles du fait de la lenteur de la simulation. Un grand pourcentage du temps de simulation est consacré à la simulation des différents cœurs, et ce pourcentage augmente linéairement avec chaque génération de processeur. Les modèles approximatifs sacrifient de la précision pour une vitesse de simulation accrue, et sont la seule option pour certains types de recherche. Les processeurs multi-cœurs exigent également des méthodes de simulation plus rigoureuses. Il existe plusieurs méthodes couramment utilisées pour simuler les architectures simple cœur. De telles méthodes doivent être adaptées ou même repensées pour la simulation des architectures multi-cœurs. Dans cette thèse, nous avons montré que les modèles comportementaux sont intéressants pour étudier la hiérarchie mémoire des processeurs multi-cœurs. Nous avons démontré que l'utilisation de modèles comportementaux permet d'accélérer les simulations d'un facteur entre un et deux ordres de grandeur avec des erreurs moyennes de moins de 5%. Nous avons démontré également que des modèles comportementaux peuvent aider dans le problème de la sélection des charges de travail multiprogrammées pour évaluer la performance des microarchitectures multi-cœurs. |
dc:description
|
In recent years, the research focus has moved from core microarchitecture to uncore microarchitecture. Cycle-accurate models for many-core processors featuring hundreds or even thousands of cores are out of reach for simulating realistic workloads. A large portion of the simulation time is spend in the cores, and it is this portion that grows linear with every processor generation. Approximate simulation methodologies, which trade off accuracy for simulation speed, are necessary for conducting certain research. Multicore processors also demand for more advanced and rigorous simulation methodologies. Many popular methodologies designed by computer architects for simulation of single core architectures must be adapted or even rethought for simulation of multicore architectures.
In this thesis, we have shown that behavioral core modeling is a competitive option for multicore studies where the research focus is in the uncore microarchitecture and considering independent tasks. We demonstrated that behavioral core models can bring speedups between one and two orders of
magnitude with average CPI errors of less than 5%. We have also demonstrated that behavioral core models can help in the problem of selecting multiprogram workloads for the evaluation of multicore throughput. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/63e37ff9-d836-456a-9825-e2e317235fbf
|
dc:creator
|
Velasquez vélez, Ricardo Andrés |
dc:date
|
2013-04-19 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Seznec, André |
dc:contributor
|
Michaud, Pierre |
|
|
|
dc:title
|
Propriétés et méthodes de calcul de la fiabilité diamètre-bornée des réseaux |
dc:title
|
Diameter-constrained network reliability : properties and computation |
dc:subject
|
Fiabilité de réseaux |
dc:subject
|
Diamètre borné |
dc:subject
|
Complexité |
dc:subject
|
Monte Carlo |
dc:subject
|
Théorie de graphes
|
dc:subject
|
Network reliability |
dc:subject
|
Diameter constraints |
dc:subject
|
Complexity |
dc:subject
|
Monte Carlo |
dc:subject
|
Graph theory
|
dc:description
|
Soit un réseau comprenant des lignes de communication qui échouent indépendamment, dans lequel tous ou certains sites, appelés terminaux, doivent être capables de communiquer entre eux. Dans le modèle stochastique statique classique le réseau est représenté par un graphe probabiliste dont les arêtes sont présentes selon des probabilités connues. La mesure de fiabilité classique (CLR) est la probabilité que les terminaux appartiennent à la même composante connexe. Dans plusieurs contextes il est utile d'imposer la condition plus forte que la distance entre deux terminaux quelconques soit bornée supérieurement par un paramètre d. La probabilité que ça se produise est connue comme la fiabilité diamètre-bornée (DCR). Il s'agit d'une extension de la CLR. Les deux problèmes appartiennent à la classe NP-difficile de complexité; le calcul exact n'est possible que pour les instances de taille limitée ou topologies spécifiques. Dans cette thèse, nous contribuons des résultats concernant le problème du calcul et l'estimation de la DCR. Nous étudions la complexité de calcul de cas particuliers, paramétré par le nombre de terminaux, nœuds et le paramètre d. Nous passons en revue des méthodes pour le calcul exact et étudions des topologies particulières pour lesquelles le calcul de la DCR a une complexité polynomiale. Nous introduisons des résultats de base sur le comportement asymptotique de la DCR lorsque le réseau se développe comme un graphe aléatoire. Nous discutons sur l'impact de la contrainte de diamètre dans l'utilisation des techniques de Monte Carlo, et adaptons et testons une famille de méthodes basées sur le conditionnement de l'espace d'échantillonnage en utilisant des structures nommées d-pathsets et d-cutsets. Nous définissons une famille de mesures de performabilité qui généralise la DCR, développons une méthode de Monte Carlo pour l'estimer, et présentons des résultats expérimentaux sur la performance de ces techniques Monte Carlo par rapport é l'approche naïve. Finalement, nous proposons une nouvelle technique qui combine la simulation Monte Carlo et l'interpolation polynomiale pour les mesures de fiabilité. |
dc:description
|
Consider a communication network whose links fail independently and a set of sites named terminals that must communicate. In the classical stochastic static model the network is represented by a probabilistic graph whose edges occur with known probabilities. The classical reliability (CLR) metric is the probability that the terminals belong to a same connected component. In several contexts it makes sense to impose the stronger condition that the distance between any two terminals does not exceed a parameter d. The probability that this holds is known as the diameter-constrained reliability (DCR). It is an extension of the CLR. Both problems belong to the NP-hard complexity class; they can be solved exactly only for limited-size instances or specific network topologies. In this thesis we contribute a number of results regarding the problem of DCR computation and estimation. We study the computational complexity of particular cases parameterized by the number of terminals, nodes and the parameter d. We survey methods for exact computation and study particular topologies for which computing the DCR has polynomial complexity. We give basic results on the asymptotic behavior of the DCR when the network grows as a random graph. We discuss the impact that the diameter constraint has in the use of Monte Carlo techniques. We adapt and test a family of methods based on conditioning the sampling space using structures named d-pathsets and d-cutsets. We define a family of performability measures that generalizes the DCR, develop a Monte Carlo method for estimating it, and present numerical evidence of how these techniques perform when compared to crude Monte Carlo. Finally we introduce a technique that combines Monte Carlo simulation and polynomial interpolation for reliability metrics. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
https://ecm.univ-rennes1.fr/nuxeo/site/esupversions/b6a9b2fd-e995-4d58-b9b2-cc00fc251159
|
dc:creator
|
Sartor del Giudice, Pablo Enrique |
dc:date
|
2013-12-18 |
dc:contributor
|
Universite de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Universidad de la República (Montevideo) |
dc:contributor
|
Rubino, Gerardo |
dc:contributor
|
Cancela, Héctor |
|
|
|
dc:title
|
Contribution à l'interrogation flexible et personnalisée d'objets complexes modélisés par des graphes |
dc:title
|
Flexible and Personalized Querying of Complex Objects Modeled by Graphs |
dc:subject
|
Interrogation de bases de données |
dc:subject
|
stratégies de recherches dans les bases de données |
dc:subject
|
recherche d’information |
dc:subject
|
théorie des ensembles flous |
dc:subject
|
quantificateurs linguistiques |
dc:subject
|
requêtes |
dc:subject
|
services Web |
dc:subject
|
théorie des graphes |
dc:subject
|
Querying databases |
dc:subject
|
research strategies in databases |
dc:subject
|
information retrieval |
dc:subject
|
fuzzy set theory |
dc:subject
|
linguistic quantifiers |
dc:subject
|
queries |
dc:subject
|
Web services |
dc:subject
|
graph theory |
dc:description
|
Plusieurs domaines d'application traitent des objets et des données complexes dont la structure et la sémantique de leurs composants sont des informations importantes pour leur manipulation et leur exploitation. La structure de graphe a été bien souvent adoptée, comme modèles de représentation, dans ces domaines. Elle permet de véhiculer un maximum d'informations, liées à la structure, la sémantique et au comportement de ces objets, nécessaires pour assurer une meilleure représentation et une manipulation efficace. Ainsi, lors d'une comparaison entre deux objets complexes, l'opération d'appariement est appliquée entre les graphes les modélisant. Nous nous sommes intéressés dans cette thèse à l'appariement approximatif qui permet de sélectionner les graphes les plus similaires au graphe d'une requête. L'objectif de notre travail est de contribuer à l'interrogation flexible et personnalisée d'objets complexes modélisés sous forme de graphes pour identifier les graphes les plus pertinents aux besoins de l'utilisateur, exprimés d'une manière partielle ou imprécise. Dans un premier temps, nous avons proposé un cadre de sélection de services Web modélisés sous forme de graphes qui permet (i) d'améliorer le processus d'appariement en intégrant les préférences des utilisateurs et l'aspect structurel des graphes comparés, et (ii) de retourner les services les plus pertinents. Une deuxième méthode d'évaluation de requêtes de recherche de graphes par similarité a également été présentée pour calculer le skyline de graphes d'une requête utilisateur en tenant compte de plusieurs mesures de distance de graphes. Enfin, des approches de raffinement ont été définies pour réduire la taille, souvent importante, du skyline. Elles ont pour but d'identifier et d'ordonner les points skyline qui répondent le mieux à la requête de l'utilisateur.
|
dc:description
|
Several application domains deal with complex objects whose structure and semantics of their components are crucial for their handling. For this, graph structure has been adopted, as a model of representation, in these areas to capture a maximum of information, related to the structure, semantics and behavior of such objects, necessary for effective representation and processing. Thus, when comparing two complex objects, a matching technique is applied between their graph structures. In this thesis, we are interested in approximate matching techniques which constitute suitable tools to automatically find and select the most similar graphs to user graph query. The aim of our work is to develop methods to personalized and flexible querying of repositories of complex objects modeled thanks to graphs and then to return the graphs results that fit best the users ’needs, often expressed partially and in an imprecise way. In a first time, we propose a flexible approach for Web service retrieval that relies both on preference satisfiability and structural similarity between process model graphs. This approach allows (i) to improve the matching process by integrating user preferences and the graph structural aspect, and (ii) to return the most relevant services. A second method for evaluating graph similarity queries is also presented. It retrieves graph similarity skyline of a user query by considering a vector of several graph distance measures instead of a single measure. Thus, graphs which are maximally similar to graph query are returned in an ordered way. Finally, refinement methods have been developed to reduce the size of the skyline when it is of a significant size. They aim to identify and order skyline points that match best the user query. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
fr |
dc:identifier
|
https://ecm.univ-rennes1.fr/nuxeo/site/esupversions/17c66fd3-26ae-44f5-b025-6e2c078cba30
|
dc:creator
|
Abbaci, Katia |
dc:date
|
2013-12-12 |
dc:contributor
|
Universite de Rennes 1 |
dc:contributor
|
Hadjali, Allel |
dc:contributor
|
Rocacher, Daniel |
|
|
|
dc:title
|
Market-based autonomous and elastic application execution on clouds |
dc:title
|
Gestion autonome des ressources et des applications dans un nuage informatique selon une approche fondée sur un marché |
dc:subject
|
Gestion des ressources |
dc:subject
|
nuage (informatique) |
dc:subject
|
système autonome |
dc:subject
|
cloud computing |
dc:subject
|
resource management |
dc:subject
|
autonomous systems |
dc:subject
|
market-based management |
dc:description
|
Les organisations possédant des infrastructures pour le calcul à haute performance rencontrent des difficultés dans la gestion de leurs ressources. Ces difficultés sont dues au fait que des applications de différents types doivent pouvoir accéder concurremment aux ressources tandis que les utilisateurs peuvent avoir des objectifs de performance variés pour leurs applications. Les nuages informatiques apportent plus de flexibilité et un meilleur contrôle des ressources qui laissent espérer une amélioration de la satisfaction des utilisateurs en terme de qualité de service perçue. Cependant, les solutions de nuage informatique actuelles fournissent un support limité aux utilisateurs pour l'expression ou l'utilisation de politiques de gestion de ressources et elles n'offrent aucun support pour atteindre les objectifs de performance des applications. Dans cette thèse, nous présentons une approche qui aborde ce défi d'une manière unique. Notre approche offre un contrôle des ressources complètement décentralisé en allouant des ressources à travers un marché à pourcentage proportionnel tandis que les applications s'exécutent dans des environnements virtuels autonomes capable d'ajuster la demande de l'application selon les objectifs de performance définis par l'utilisateur. La combinaison de la politique de distribution de la monnaie et de la variation dynamique du prix des ressources assure une utilisation des ressources équitable. Nous avons évalué notre approche en simulation et expérimentalement sur la plate-forme Grid'5000. Nos résultats montrent que notre approche peut permettre la cohabitation des différentes politiques d'utilisation des ressources sur l'infrastructure, tout en améliorant l'utilisation des ressources. |
dc:description
|
Organizations owning HPC infrastructures are facing difficulties in managing their resources.
These difficulties come from the need to provide concurrent resource access to different application types while considering that users might have different performance objectives for their applications.
Cloud computing brings more flexibility and better resource control, promising to improve the user’s satisfaction in terms of perceived Quality of Service. Nevertheless, current cloud solutions provide limited support for users to express or use various resource management policies and they don't provide
any support for application performance objectives.
In this thesis, we present an approach that addresses this challenge in an unique way. Our approach provides a fully decentralized resource control by allocating resources through a proportional-share market, while applications run in autonomous virtual environments capable of scaling the application demand according to user performance objectives.
The combination of currency distribution and dynamic resource pricing ensures fair resource utilization.
We evaluated our approach in simulation and on the Grid'5000 testbed. Our results show that our approach can enable the co-habitation of different resource usage policies on the infrastructure, improving resource utilisation.
|
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/3e28907b-5c74-47cd-b334-78070e80c8ac
|
dc:creator
|
Costache, Stefania |
dc:date
|
2013-07-03 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Morin, Christine |
dc:contributor
|
Kortas, Samuel |
|
|
|
dc:title
|
Bayesian and Quasi-Monte Carlo spherical integration for global illumination |
dc:title
|
Intégration sphérique Bayésien et Quasi-Monte Carlo pour l'illumination globale |
dc:subject
|
Informatique Graphique |
dc:subject
|
Synthèse d'Image |
dc:subject
|
Méthode de Quasi-Monte Carlo (QMC) |
dc:subject
|
Monte Carlo bayésien |
dc:subject
|
Computer Graphics |
dc:subject
|
Image Synthesis |
dc:subject
|
Quasi-Monte Carlo Methods (QMC) |
dc:subject
|
Bayesian Monte Carlo |
dc:description
|
La qualité du résultat des opérations d’échantillonnage pour la synthèse d'images est fortement dépendante du placement et de la pondération des échantillons. C’est pourquoi plusieurs travaux ont porté sur l’amélioration de l’échantillonnage purement aléatoire utilisée dans les techniques classiques de Monte Carlo. Leurs approches consistent à utiliser des séquences déterministes qui améliorent l’uniformité de la distribution des échantillons sur le domaine de l’intégration. L’estimateur résultant est alors appelé un estimateur de quasi-Monte Carlo (QMC).
Dans cette thèse, nous nous focalisons sur le cas de l’échantillonnage pour l’intégration hémisphérique. Nous allons montrer que les approches existantes peuvent être améliorées en exploitant pleinement l’information disponible (par exemple, les propriétés statistiques de la fonction à intégrer) qui est ensuite utilisée pour le placement des échantillons et pour leur pondération.
|
dc:description
|
The spherical sampling of the incident radiance function entails a high computational cost. Therefore the llumination integral must be evaluated using a limited set of samples. Such a restriction raises the question of how to obtain the most accurate approximation possible with such a limited set of samples. In this thesis, we show that existing Monte Carlo-based approaches can be improved by fully exploiting the information available which is later used for careful samples placement and weighting.
The first contribution of this thesis is a strategy for producing high quality Quasi-Monte Carlo (QMC) sampling patterns for spherical integration by resorting to spherical Fibonacci point sets. We show that these patterns, when applied to the rendering integral, are very simple to generate and consistently outperform existing approaches. Furthermore, we introduce theoretical aspects on QMC spherical integration that, to our knowledge, have never been used in the graphics community, such as spherical cap discrepancy and point set spherical energy. These metrics allow assessing the quality of a spherical points set for a QMC estimate of a spherical integral.
In the next part of the thesis, we propose a new heoretical framework for computing the Bayesian Monte Carlo quadrature rule. Our contribution includes a novel method of quadrature computation based on spherical Gaussian functions that can be generalized to a broad class of BRDFs (any BRDF which can be approximated sum of one or more spherical Gaussian functions) and potentially to other rendering applications. We account for the BRDF sharpness by using a new computation method for the prior mean function. Lastly, we propose a fast hyperparameters evaluation method that avoids the learning step.
Our last contribution is the application of BMC with an adaptive approach for evaluating the illumination integral. The idea is to compute a first BMC estimate (using a first sample set) and, if the quality criterion is not met, directly inject the result as prior knowledge on a new estimate (using another sample set). The new estimate refines the previous estimate using a new set of samples, and the process is repeated until a satisfying result is achieved. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/6a2850ff-d0b4-4b1b-bdb1-bf433410e199
|
dc:creator
|
Marques, Ricardo |
dc:date
|
2013-10-22 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Bouatouch, Kadi |
|
|
|
dc:title
|
Fondations logiques des jeux à information imparfaite : stratégies uniformes |
dc:title
|
Logical foundations of games with imperfect information : uniform strategies |
dc:subject
|
Théorie des jeux |
dc:subject
|
Logique |
dc:subject
|
Théorie des automates mathématiques |
dc:subject
|
Game theory |
dc:subject
|
Logic |
dc:subject
|
Machine theory |
dc:description
|
There are in the literature many examples of games where the desired strategies are submitted to ''transversal'' constraints involving sets of plays, related by some semantic relation. The most famous example is strategies for games with imperfect information, and games where the objective involves some epistemic aspect provide many more examples. Nevertheless, to the best of our knowledge, there has been no thorough study on this type of constraints in their generality. This is what this thesis intends to start. Therefore, we define a general notion of uniform strategies. Uniformity properties of strategies are expressed in a logical language that extends CTL∗ with two original quantifiers. These quantifiers are very close to the classic knowledge operators of epistemic logics, and they involve sets of plays related by binary relations. We show how this notion of uniform strategies captures the known examples from the literature, and we study in depth the problem of uniform strategy synthesis, assuming that the binary relations between plays can be recognized by finite automata (rational relations). We establish several decidability and complexity results, relying widely on automata techniques: in particular, we introduce as tools jumping tree automata and information sets automata. Moreover, our results enable us to improve existing results and establish new ones, in the domains of model checking epistemic temporal logics, and epistemic planning. |
dc:description
|
There are in the literature many examples of games where the desired strategies are submit-ted to ''transversal'' constraints involving sets of plays, related by some semantic relation. The most famous example is strategies for games with imperfect information, and games where the objective involves some epistemic aspect provide many more examples. Nevertheless, to the best of our knowledge, there has been no thorough study on this type of constraints in their generality. This is what this thesis intends to start. Therefore, we define a general notion of uniform strategies. Uniformity properties of strategies are expressed in a logical language that extends CTL∗ with two original quantifiers. These quantifiers are very close to the classic knowledge operators of epistemic logics, and they involve sets of plays related by binary relations. We show how this notion of uniform strategies captures the known examples from the literature, and we study in depth the problem of uniform strategy synthesis, assuming that the binary relations between plays can be recognized by finite automata (rational relations). We establish several decidability and complexity results, relying widely on automata techniques: in particular, we introduce as tools jumping tree automata and information sets automata. Moreover, our results enable us to improve existing results and establish new ones, in the domains of model checking epistemic temporal logics, and epistemic planning. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
en |
dc:identifier
|
http://ecm.univ-rennes1.fr/nuxeo/site/esupversions/8a2c0577-4b8d-48d9-95de-900bcee9cb03
|
dc:creator
|
Maubert, Bastien |
dc:date
|
2014-01-17 |
dc:contributor
|
Université de Rennes 1 |
dc:contributor
|
Pinchinat, Sophie |
dc:contributor
|
Aucher, Guillaume |
|
|
|
dc:title
|
Facilités de typage pour l'ingénierie des langages |
dc:title
|
Typing facilities for language engineering |
dc:subject
|
Informatique |
dc:subject
|
Génie logiciel |
dc:subject
|
Ingénierie des langages logiciels |
dc:subject
|
Ingénierie dirigée par les modèles |
dc:subject
|
Computer science |
dc:subject
|
Software engineering |
dc:subject
|
Software language engineering |
dc:subject
|
Model-driven engineering |
dc:description
|
Le nombre et la complexité toujours croissants des préoccupations prises en compte dans les systèmes logiciels complexes (e.g., sécurité, IHM, scalabilité, préoccupations du domaine d'application) poussent les concepteurs de tels systèmes à séparer ces préoccupations afin de les traiter de manière indépendante. L'ingénierie dirigée par les modèles (IDM) prône la séparation des préoccupations au sein de langages de modélisation dédiés. Les langages de modélisation dédiés permettent de capitaliser le savoir et le savoir-faire associés à une préoccupation au travers des constructions du langage et des outils associés. Cependant la définition et l'outillage d'un langage dédié demande un effort de développement important pour un public par définition réduit. Nous proposons dans cette thèse une relation liant les modèles et une interface de modèle permettant de faciliter la mise en place de facilités de typage pour la définition et l'outillage d'un langage dédié. Cette interface expose les éléments de modèle et les transformations de modèles associés à un langage de modélisation dédié. Nous représentons une telle interface par un type de modèles supportant des relations de sous-typage et d'héritage. Dans ce but nous définissons : une relation de typage entre les modèles et les langages de modélisation dédiés permettant de considérer les modèles comme des entités de première classe ; des relations de sous-typage entre langages de modélisation dédiés permettant la réutilisation de la syntaxe abstraite et des transformations de modèles. |
dc:description
|
The ever growing number and complexity of concerns in software intensive systems (e.g., safety, HMI, scalability, business domain concerns, etc.) leads designers of such systems to separate these concerns to deal with them independently. Model-Driven Engineering (MDE) advocates the separation of concerns in Domain-Specific Modeling Languages (DSMLs). DSMLs are used to capitalize the knowledge and know-how associated with a concern through the language constructs and its associated tools. However, both definition and tooling of a DSML require a significant development effort for a limited audience. In this thesis, we propose a relationship between models and model interfaces in order to ease the design of typing facilities for the definition and tooling of a DSML. This interface exposes the model elements and model transformations associated with a DSML. We represent such an interface by a model type supporting subtyping and inheritance relationships. For this purpose we define : a typing relationship between models and DSMLs allowing to consider models as first-class entities; subtyping relationships between DSMLs enabling the reuse of abstract syntax and model transformations. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
fr |
dc:identifier
|
https://ecm.univ-rennes1.fr/nuxeo/site/esupversions/cb0f394a-93c7-4de1-b080-b41d06b3718d
|
dc:creator
|
Guy, Clément |
dc:date
|
2013-12-10 |
dc:contributor
|
Universite de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Jézéquel, Jean-marc |
|
|
|
dc:title
|
Approche à contraintes pour la sélection de Covering Array |
dc:title
|
Covering Array generation using constraint programming |
dc:subject
|
variabilité |
dc:subject
|
Test (informatique) |
dc:subject
|
Pairwise |
dc:subject
|
Contraintes |
dc:description
|
Aujourd'hui, les éditeurs logiciels ne conçoivent, développent et ne maintiennent plus leur offre logicielle avec comme cible un client unique. Au contraire, les offres logicielles sont conçues pour cibler plusieurs entités. Par conséquent, ces applications doivent s'intégrer dans des environnements différents et s'adapter aux besoins des clients. Ainsi, les produits logiciels développés ne sont plus des programmes uniques, mais des familles de produits. Les systèmes configurables facilitent la création de ces familles de produits. Grâce à eux il est possible de créer un produit logiciel en sélectionnant les fonctionnalités qui seront intégrées. Cependant, la validation de ces systèmes est une tâche complexe. Un système configurable peut générer plusieurs millions de configurations possibles. Il ne s'agit donc plus de valider un seul et unique produit, mais un ensemble de produits. Cet important nombre de configurations est un problème pour les personnes chargées de la validation. Nous proposons trois contributions qui visent à mieux répondre aux problématiques liées à la variabilité lors des projets de test : une présentation détaillée de deux projets de test industriels faisant face à des problématiques de variabilité issus de deux entreprises : Cisco et Orange ; une méthode originale basée sur les techniques de programmation par contraintes pour extraire des configurations de test qui respectent le critère Pairwise à partir d'un modèle explicite de la variabilité ; une comparaison de cette approche par rapport aux techniques de l'état de l'art et une étude de l'application de cette technique de test sur deux projets de tests industriels. |
dc:description
|
Nowadays, software companies develop and maintain their software for several clients. Consequently, these applications have to be integrated in heterogenous context and adapt to the user requriements. All these products are sharing commonalities but also differ in certain point due to business specific constraints. Configurable systems facilitate the creation of these product families. With them it is possible to create a software product by selecting the features that will be integrated, thus, the creation of a product is greatly simplified. However, the validation of these systems is a complex task. A configurable system can generate millions of possible configurations. Thus, validation process doesn't consist in validating a single product but in validating a set of products. This large number of configurations is a problem for those responsible of the validation. In this thesis we propose three contributions that aim to solve issues raised by variability during test projects : A detailled presentation of two industrial test projects coping tat variaibility issues; an original methodology based on constraint programming techniques to select test configurations that respect pairwise criteria from a feature model ; an exhaustive comparison of this approach with the existing approches and a detailled study of the application of a such techniques on the two industrials projects. |
dc:type
|
Electronic Thesis or Dissertation |
dc:type
|
Text |
dc:language
|
fr |
dc:identifier
|
https://ecm.univ-rennes1.fr/nuxeo/site/esupversions/009a7cd3-5f5f-4e22-9a4a-6162dcdc4fa5
|
dc:creator
|
Hervieu, Aymeric |
dc:date
|
2013-12-09 |
dc:contributor
|
Universite de Rennes 1 |
dc:contributor
|
Université européenne de Bretagne |
dc:contributor
|
Baudry, Benoit |
dc:contributor
|
Gotlieb, Arnaud |
|
|
resumptionToken
|
1715837943361 |
|