Allocation de bande passante dans les grands réseaux stochastiques

par Mathieu Feuillet

Thèse de doctorat en Mathématiques appliquées

Sous la direction de Philippe Robert.

Soutenue en 2012

à Palaiseau, Ecole polytechnique .


  • Résumé

    L'objectif de cette thèse est de traiter trois problèmes relatifs aux réseaux de grande taille. Les outils utilisés à cette fin sont issus des probabilités et plus spécifiquement de la théorie des files d'attente. En plus d'améliorer la compréhension des systèmes étudiés, les travaux réalisés dans cette thèse ont permis de prouver des résultats théoriques nouveaux ainsi que d'illustrer certains phénomènes probabilistes. Dans le Chapitre II, un modèle de réseau à partage de bande passante est étudié. Contrairement à ce qui avait été étudié dans la littérature, les utilisateurs n'utilisent pas de contrôle de congestion. On suppose qu'ils envoient des données avec un débit maximum et protègent leur transmission à l'aide d'un mécanisme basé sur des codes correcteurs d'erreur. Le modèle obtenu est analysé pour deux topologies de réseaux spécifiques : les réseaux linéaires et les arbres montants. A l'aide de limites fluides, les conditions de stabilité de ces réseaux sont établies. Ces limites fluides donnent lieu à un phénomène intéressant de moyennage stochastique. Ensuite, une autre méthode de renormalisation est utilisée pour prouver que la région de stabilité de ces processus converge vers la région optimale lorsque que les débits maximaux des utilisateurs deviennent infiniment petits par rapport à la taille des liens du réseau. Dans le Chapitre III, on se propose d'étudier CSMA/CA, un algorithme d'accès implémenté dans certains standards de réseaux sans fil. Chaque lien est constitué d'un émetteur et d'un récepteur et un graphe d'interférence modélise les collisions potentielles entre les liens. Les arrivées et les départs de ces derniers sont prises en compte. Une approximation est faite en supposant que la dynamique d'accès au canal est infiniment plus rapide que la dynamique des arrivées et départs de liens. Il est alors établi que le CSMA permet une utilisation optimale des ressources radio dans le cadre des réseaux ad-hoc. Cependant, il est également prouvé que ce même algorithme n'est pas efficace pour les réseaux avec une station de base ; dans ce cas, un biais en faveur des transmissions vers la station de base est observé. A la fin du chapitre, l'hypothèse simplificatrice est discutée. Les deux derniers chapitres de la thèse sont consacrés à l'étude d'un grand système distribué de stockage de données avec pertes. L'objectif est d'estimer la vitesse de perte des fichiers ou la durée de vie d'un fichier donné. Dans le Chapitre IV, c'est le premier point de vue qui est adopté. Le système est considéré de manière globale. Le système est constitué d'un grand nombre de fichiers qui peuvent avoir chacun deux copies au maximum. Chaque copie disparaît au bout d'un temps aléatoire. Un mécanisme centralisé de sauvegarde permet alors de restaurer les copies perdues. Un fichier dont les deux copies ont été détruites est définitivement perdu. Le système est étudié dans le cas limite où le nombre de fichiers tend vers l'infini. Afin de décrire correctement le système, trois échelles de temps différentes sont étudiées. Ralentir le temps permet de comprendre le mécanisme de sauvegarde ; laisser le temps inchangé permet de définir la capacité du système ; accélérer le temps permet d'évaluer la vitesse de perte des fichiers. Le principe de moyennage stochastique est également observé à l'échelle de temps la plus rapide. Dans le chapitre V, le point de vue d'un fichier donné est adopté. Des liens sont établis avec les modèles classiques d'Ehrenfest, issu de la physique statistique, et d'Erlang, issu des télécommunications. Des méthodes basées sur les martingales sont utilisées pour calculer la transformée de Laplace des temps d'atteinte de ces deux processus. Ces transformées permettent alors d'estimer le comportement asymptotique de ces temps d'atteinte et notamment le temps de disparition d'un fichier

  • Titre traduit

    Bandwidth allocation in large stochastic networks


  • Résumé

    The purpose of this thesis is to tackle three problems inspired by large distributed systems. The tools used for that purpose come from probability and more specifically queueing theory. The studies led during this thesis allowed to understand the behavior of the observed systems and algorithms but also to prove some interesting theoretical results and to emphasize some probabilistic phenomena. In Chapter II, a bandwidth sharing network model is analyzed. Contrary to what has been studied in the literature, users do not use a congestion control mechanism; they are assumed to send data at their maximum rate and to protect their transmission against loss thanks to some error code. The obtained model is analyzed for two different topologies: linear networks and upstream trees. Using fluid limits, the stability condition of these networks is obtained. Due to these fluid limits, an interesting stochastic averaging phenomenon arises. Another scaling method is used to prove that the stability condition of these networks tends to the optimal one when the maximal rate of users is infinitely smaller than the links capacity. In Chapter III, CSMA/CA, a classical channel access algorithm for wireless networks, is studied. Each link consists in a sender/receiver pair and an interference graph models potential collisions between links. Link arrivals and departures are taken into account by the model. An approximation is made by assuming that the channel access dynamics is infinitely faster than link arrivals and departures dynamics. It is proved that CSMA results in an optimal use of radio ressources for ad-hoc networks. However, it is also established that this algorithm is not efficient for infrastructure-based networks where a bias in favor of upstream traffic is observed. At the end of the chapter, the time-scale separation assumption is discussed. The last two chapters of this thesis are dedicated to the study of a large distributed storage system with failures. The purpose is to estimate the decay rate of the system or the durability of a given file. In Chapter IV, the first point of view is studied. The system is then considered as a whole. It consists in a large set of files which can have two copies. Each copy is lost after a random time. A centralized back-up mechanism allows to restore lost copies. A file with no copy is definitively lost. The system is analyzed when the number of files grows to infinity. In order to describe correctly its behavior, three different time scales are considered. The slow time-scale allows to describe the back-up mechanism; the normal time scale to define the capacity of the system and the fast time scale to evaluate the decay rate. The stochastic averaging principle is also observed on the fast time scale. In Chapter V, the point of view of a file is taken. Links are established with the classical Ehrenfest and Engset models, from statistical physics and telecommunication. Exponential martingales methods are used to compute the Laplace transform of hitting times. The asymptotic behavior of these hitting times, in particular the durability of a file, is then estimated

Consulter en bibliothèque

La version de soutenance existe sous forme papier

Informations

  • Détails : 1 vol. (147 p.)
  • Annexes : Bibliographie : 153 réf.

Où se trouve cette thèse ?

  • Bibliothèque :
  • Disponible pour le PEB
Voir dans le Sudoc, catalogue collectif des bibliothèques de l'enseignement supérieur et de la recherche.