Une épistémologie des méthodes scientifiques
Face à la diversité et à la complexification des modes de formalisation, une épistémologie des méthodes scientifiques doit confronter directement ses analyses à une pluralité d'études de cas comparatives. C'est l'objectif de cet ouvrage.
Aussi, dans une première partie, propose-t-il d'abord une classification large et raisonnée des différentes fonctions de connaissance des théories, des modèles et des simulations (de fait, cette partie constitue un panorama d'épistémologie générale particulièrement poussé). C'est ensuite à la lumière de cette classification que les deux parties centrales analysent et distinguent les assises conceptuelles et épistémologiques des principaux types de formalisation en géographie avant et après l'ordinateur (théories des localisations, modèles gravitaires, loi rang-taille). En employant toujours la même méthode analytique et comparative, la dernière partie se concentre sur l'explication épistémologique des trois révolutions computationnelles récentes¿: l'analyse des données, la présentation des données et enfin l'analyse par simulation computationnelle.
Au travers de cette enquête approfondie, la géographie apparaît non seulement comme une discipline carrefour, ayant pour cela donné des exemples de presque tous les types de modèles scientifiques, mais aussi comme une science innovante en termes épistémologiques. Car ce qui a d'abord été pour elle un frein à la formalisation - sa sensibilité au caractère multifactoriel comme à la dimension irréductiblement spatiale des phénomènes sociaux - et qui l'obligea longtemps à inféoder ses théories et modèles à des disciplines plus aisément formalisables comme la géomorphologie, l'économie, la sociologie, la démographie, ou bien encore la thermodynamique et la théorie des systèmes, devient aujourd'hui un atout dès lors que, parmi les sciences humaines et sociales, elle peut développer une épistémologie non seulement pluraliste mais aussi combinatoire et intégrative.
Découvrez cette analyse approfondie d'une discipline spécifique : la géographie
EXTRAIT
Berry et Garrison pensent dans un premier temps que le modèle théorique probabiliste, même considéré comme le meilleur du point de vue du canon néopositiviste, est insatisfaisant car il n'est pas réellement explicatif. L'essentiel lui échappe. On voit que, dans ce premier passage, Berry et Garrison l'interprètent comme une représentation négative - par défaut - de l'état de nos connaissances sur les liens causaux qui nous importent : nous ne représenterions pas une cause mais une agrégation non contrôlée de causes, causes en nombre possiblement infini et dont la constante présence ni la constance de la nature ne nous sont nullement assurées.
À PROPOS DE L'AUTEUR
Franck Varenne est maître de conférences en philosophie des sciences à l'Université de Rouen et chercheur au Gemass (UMR 8598 - CNRS/Paris Sorbonne). Ses recherches portent sur l'épistémologie des modèles et des simulations. Il a notamment publié Du modèle à la simulation informatique (Vrin, 2007), Qu'est-ce que l'informatique ? (Vrin, 2009), Formaliser le vivant : lois, théories, modèles ? (Hermann, 2010) et Modéliser le social (Dunod, 2011). Il a également publié dans de nombreuses revues, dont Simulation, Journal of Artificial Societies and Social Simulation, Natures Sciences Sociétés et la Revue d'Histoire des Sciences. Il codirige les collectifs Modéliser & simuler. Épistémologies et pratiques de la modélisation et de la simulation, tome 1 (en 2013) et tome 2 (en 2014) aux Editions Matériologiques.
Face à la diversité et à la complexification des modes de formalisation, une épistémologie des méthodes scientifiques doit confronter directement ses analyses à une pluralité d'études de cas comparatives. C'est l'objectif de cet ouvrage.
Aussi, dans une première partie, propose-t-il d'abord une classification large et raisonnée des différentes fonctions de connaissance des théories, des modèles et des simulations (de fait, cette partie constitue un panorama d'épistémologie générale particulièrement poussé). C'est ensuite à la lumière de cette classification que les deux parties centrales analysent et distinguent les assises conceptuelles et épistémologiques des principaux types de formalisation en géographie avant et après l'ordinateur (théories des localisations, modèles gravitaires, loi rang-taille). En employant toujours la même méthode analytique et comparative, la dernière partie se concentre sur l'explication épistémologique des trois révolutions computationnelles récentes¿: l'analyse des données, la présentation des données et enfin l'analyse par simulation computationnelle.
Au travers de cette enquête approfondie, la géographie apparaît non seulement comme une discipline carrefour, ayant pour cela donné des exemples de presque tous les types de modèles scientifiques, mais aussi comme une science innovante en termes épistémologiques. Car ce qui a d'abord été pour elle un frein à la formalisation - sa sensibilité au caractère multifactoriel comme à la dimension irréductiblement spatiale des phénomènes sociaux - et qui l'obligea longtemps à inféoder ses théories et modèles à des disciplines plus aisément formalisables comme la géomorphologie, l'économie, la sociologie, la démographie, ou bien encore la thermodynamique et la théorie des systèmes, devient aujourd'hui un atout dès lors que, parmi les sciences humaines et sociales, elle peut développer une épistémologie non seulement pluraliste mais aussi combinatoire et intégrative.
Découvrez cette analyse approfondie d'une discipline spécifique : la géographie
EXTRAIT
Berry et Garrison pensent dans un premier temps que le modèle théorique probabiliste, même considéré comme le meilleur du point de vue du canon néopositiviste, est insatisfaisant car il n'est pas réellement explicatif. L'essentiel lui échappe. On voit que, dans ce premier passage, Berry et Garrison l'interprètent comme une représentation négative - par défaut - de l'état de nos connaissances sur les liens causaux qui nous importent : nous ne représenterions pas une cause mais une agrégation non contrôlée de causes, causes en nombre possiblement infini et dont la constante présence ni la constance de la nature ne nous sont nullement assurées.
À PROPOS DE L'AUTEUR
Franck Varenne est maître de conférences en philosophie des sciences à l'Université de Rouen et chercheur au Gemass (UMR 8598 - CNRS/Paris Sorbonne). Ses recherches portent sur l'épistémologie des modèles et des simulations. Il a notamment publié Du modèle à la simulation informatique (Vrin, 2007), Qu'est-ce que l'informatique ? (Vrin, 2009), Formaliser le vivant : lois, théories, modèles ? (Hermann, 2010) et Modéliser le social (Dunod, 2011). Il a également publié dans de nombreuses revues, dont Simulation, Journal of Artificial Societies and Social Simulation, Natures Sciences Sociétés et la Revue d'Histoire des Sciences. Il codirige les collectifs Modéliser & simuler. Épistémologies et pratiques de la modélisation et de la simulation, tome 1 (en 2013) et tome 2 (en 2014) aux Editions Matériologiques.
Dieser Download kann aus rechtlichen Gründen nur mit Rechnungsadresse in A, B, CY, D, EW, E, FIN, F, GR, IRL, I, L, M, NL, P, SLO, SK ausgeliefert werden.