Lorsque l on traite de façon classique un problème d optimisation sur un graphe, celui-ci est le plus souvent disponible dans sa totalité sur la machine de traitement. Il peut être modifié, mis à jour (les sommets peuvent être marqués, les arêtes supprimées, etc.) et la solution peut être conservée en mémoire. Cependant, de plus en plus d applications produisent des quantités de données qui sont trop importantes et qui ne peuvent pas être stockées ni traitées dans ce modèle. Nous nous sommes intéressés à la résolution d'un problème d'optimisation, le Vertex Cover, sur de grands graphes. Nous avons défini pour cela un modèle de traitement basé sur des contraintes liées principalement à la quantité de mémoire limitée, modèle qui reprenait des propriétés issues de plusieurs modèles existants dans la littérature (online, streaming...). Nous avons étudié plusieurs algorithmes adaptés à ce modèle : nous avons analysé, tout d'abord de façon théorique, la qualité de leurs solutions ainsi que leurs complexités (en pire cas et en moyenne). Nous avons ensuite mené une étude expérimentale sur de très gros graphes.