simulation
En première approximation, on peut dire qu’une simulation est un processus imitant partiellement le phénomène que l’on cherche à étudier et rendant ainsi plus aisée son étude. Plus exactement, comme dans le terme bifurcation, le suffixe « -tion » du mot simulation indique qu’il peut désigner tantôt le processus tantôt le résultat du processus. Si on ajoute que son radical « sim- » – via la racine indo-européenne « sem » (un) de laquelle dérive le latin « simulare » – évoque le fait de rendre semblable, on peut dire qu’une simulation évoque toujours au minimum un processus visant à produire quelque chose mais qui réfère aussi à autre chose que lui (le phénomène d’intérêt), et cela, avec la condition d’une certaine ressemblance.
Comme tel, le processus prend toujours la forme générale d’une interaction causale réelle (ou seulement apparente s’il s’agit de symboles mathématiques ou informatiques) entre des éléments individuels. Or, il est crucial de comprendre ici que la condition de ressemblance, au cœur de toute simulation, peut porter tantôt sur le processus lui-même (ses règles, ses mécanismes, son ordonnancement), tantôt sur les éléments obéissant aux règles, tantôt sur le résultat du processus, tantôt sur deux ou trois de ces facteurs à la fois. Et c’est bien cette indécision qui explique les différentes variantes de sens que l’on a pu historiquement donner au mot simulation.
Cette caractérisation générale – référer à autre chose par ressemblance – indique certes un voisinage mais pas une identification complète, comme nous le verrons, avec le terme de modèle. Une simulation est ainsi souvent assimilée à un modèle phénoménologique fidèle à la dynamique temporelle du système cible, mais qui ne le représente qu’en surface, sans l’expliquer. Toutefois, on parle aussi de simulation de modèle et de modèle de simulation. Et l’on dit que certains modèles de simulation sont particulièrement réalistes. Il faut donc expliquer ces glissements voire ces apparentes oppositions de sens.
Usage ancien mais essor récent
Si les simulations jouées par des acteurs humains ont un usage ancien dans les formations en stratégie militaire, économie, gestion ou management (les règles ou composants ressemblant à ceux du réel), le large usage contemporain du terme vient des rapports nouveaux que les ordinateurs instituent entre modèles formels et monde réel.
Dans les années 1930, l’analyseur différentiel qui résolvait de façon approchée au moyen de circuits électriques des équations mathématiques analytiquement non solubles était déjà qualifié de simulateur, mais analogique : il imitait par un processus matériel analogique (au sens de continu) le processus sinon symbolique de résolution par calcul.
C’est par symétrie mais aussi en réaction à cette première extension du terme – dont témoigne la naissance de la revue Simulation en 1952 – que sont apparues les expressions de simulation mathématique puis de simulation numérique. À partir des années 1950, une simulation mathématique est un processus non plus matériel mais mathématique et, en particulier, stochastique (« Monte-Carlo » ) # »note1″ de résolution approchée d’une équation non analytiquement soluble. Les mathématiques se clivent ce-faisant : certains éléments y sont jugés plus concrets et plus interactionnels que d’autres. On parle parfois de mathématiques empiriques.
L’expression de simulation numérique désignera ensuite cette simulation mathématique – délégable opportunément à la machine programmable – plus largement fondée sur toute discrétisation des variables, mais sans nécessaire recours au stochastique. On retrouvera là, systématisées et implémentées dans des machines programmables, les techniques de résolution approchée (à la main et par éléments finis) de calculs de structure déjà présentes dans l’architecture du XIXe siècle.
À partir de cette évolution récente, on comprend mieux que, de façon générique une pratique de simulation tende à remplacer toute conception abstraite d’un processus (dynamique, calcul) par un processus effectif d’interaction pas à pas, quasi-empirique, suivi d’une observation – ou mesure – du résultat.
Simulation de modèle
Si l’on s’accorde à dire qu’un modèle est une représentation analogique (au sens de l’analogie) plus ou moins ressemblante et simplifiée (en réalité, pas toujours simple en soi, mais dont l’abord est plus simple) d’un système cible et qu’un modèle est souvent formel, on en tire l’idée qu’un calcul approché de modèle par discrétisation en est une simulation numérique. Mais attention à la confusion : si le modèle peut ressembler au système cible, sa simulation réfère ici seulement au processus appliqué aux éléments mathématiques fragmentés du modèle. La ressemblance attendue ne siège pas au même niveau selon que l’on considère le modèle ou sa simulation : ce n’est pas parce que la simulation ressemble, dans son processus, aux processus de calcul pas à pas du modèle qu’elle ressemble aussi aux processus matériels affectant le système cible modélisé. C’est pourquoi, dans le cas d’un modèle phénoménologique, on peut avoir une simulation/processus ressemblant au calcul approché du modèle mais pas au processus réel du système cible. En revanche, la simulation/résultat – appelé parfois « simulat » pour le distinguer du processus (Varenne, 2018) – peut continuer, dans ce cas, à être comparée à l’état final du système cible. La confusion est souvent commise dans la littérature.
Dans le même ordre d’idée, on considère souvent qu’une simulation est le processus même d’animation d’un modèle (Gilbert, Conte, 1995). On dit aussi qu’elle est un modèle plongé dans le temps. Si on prend en effet un modèle dynamique au sens fort, c’est-à-dire intégrant non seulement le temps mais aussi les effets du temps sur ses paramètres et règles d’interaction (non-linéarité, etc.), le passage à la simulation devient d’autant plus nécessaire : on ne peut alors s’empêcher de considérer que la temporalité du système est directement imitée par la nécessaire successivité des étapes d’interaction dans le processus de simulation du modèle. Mais c’est là aussi un glissement d’attribution erroné : ce n’est pas parce que les étapes d’une simulation de modèle prennent du temps que cette successivité a toujours à être ressemblante avec la successivité du système cible (Varenne, 2018).
Micro-simulation
C’est dans les travaux de Guy Orcutt et collègues (1961) qu’on a un des premiers usages du terme même de simulation pour désigner des simulations sociales effectuées au moyen d’ordinateurs. Les chercheurs en sciences sociales n’y utilisent plus le terme de simulation pour désigner une simulation numérique approchée d’un modèle mathématique social comme il en existait déjà à l’époque un grand nombre : modèles équationnels, stocks-flux, à compartiments, etc., voir Dauphiné (1987). En effet, les éléments intervenant dans le processus interactionnel sont supposés y être non plus des éléments finis d’une variable mathématique mais directement des représentations individuelles ressemblantes – certes stylisées – d’agents sociaux. Ce type de simulation sociale valorise donc l’échelle micro-sociale en prenant au sérieux une approche de type individualisme méthodologique tout en étant une des premières à s’effectuer automatiquement (sans êtres humains) sur ordinateur, cela à la différence des simulations jouées dans les jeux de stratégie, d’entreprise ou autres. On trouve des analyses comparatives approfondies et critiques de la microsimulation dans (Holm, Sanders, 2001) et (Sanders, 2006).
Modèle de simulation
Par la suite, l’essor des langages de programmation dits orientés-objets favorise cette tendance à rechercher la ressemblance d’abord au niveau micro, c’est-à-dire au niveau même des éléments interagissants. On court-circuite le passage par le modèle mathématique surplombant. On reproduit la variabilité des agents au-delà des premières stylisations grossières. On reproduit les effets de contexte comme aussi ceux de la variabilité du contexte vécu au cours du processus. Cela peut apparaître alors comme une nouvelle voie d’accès majeure pour la géographie. De moyen, la simulation devient fin pour le modèle : c’est bien pourquoi l’on parle dans ce cas de modèle de simulation.
De nombreux écologues, géomorphologues mais aussi géographes ont ainsi recours à ces approches distribuées ou à modèles basés sur des individus (IBM). Ce furent d’abord les automates cellulaires – réseaux inertes sur lequel des cellules sont occupées ou non par des agents interagissant selon des règles de voisinage stables, avec de possibles hiérarchies (Batty 2007)(Elissalde et al., 2009) – mais où l’espace et les relations spatiales restent encore très stylisés. Puis, on vit apparaître les systèmes multi-agents # »note2″ , SMA ou ABM (agent-based models) où les agents possèdent des propriétés d’interactions variables dans un espace qui lui-même peut être rendu variable et réactif. Dans ce type de simulation, le maître mot est l’interaction distribuée (Ferber, 1999). On en a un des premiers essais en géographie des villes dans le travail de (Sanders et al., 1997). Rétrospectivement, on peut dire que le travail sur les modèles de diffusion spatiale de l’innovation de Torsten Hägerstrand (1967) des années 1950 relève de ce type de modèle de simulation (Daudé, 2005)(Varenne, 2017). Quoi de mieux en effet pour une analyse géographique que cette possibilité nouvelle de prendre en compte l’hétérogénéité des mécanismes sociaux, des usages humains et des transformations humaines de l’espace ?
Interrogations méthodologiques et épistémologiques
Cette approche centrée sur les individus et le détail de leurs propriétés rencontre plusieurs contestations. La première consiste à nier l’utilité d’une simulation « fac-simile » : alors que pour certains, ces simulations doivent intégrer une description suffisamment fine des agents (Conte, 2000), pour d’autres, ils doivent rester simples sans quoi ils perdent en généralité, donc en utilité (Axelrod, 1997). La réponse dépend en réalité de la fonction de connaissance – reproduire, expliquer ou comprendre ? – attendue du modèle de simulation (Varenne, 2010).
Un modèle de simulation distribuée peut servir aussi à tester la plausibilité d’une hypothèse mécanistique pour l’explication de phénomènes sociaux émergents, comme la ségrégation spatiale (Schelling, 1971). Mais une nouvelle contestation peut surgir : cette émergence simulée est-elle ponctuelle ou manifeste-t-elle des propriétés structurelles robustes ? Comment être certain de ne pas être biaisé ou piégé par un simple artefact de computation qui n’a de réaliste que l’effet global ? (Forsé, Parodi, 2019)
Certains philosophes ont également contesté le caractère faussement individuel donc faussement causal d’un symbole dans un modèle de simulation individus-centré dès lors qu’il agit en réalité toujours sous un format général car logique (donc pas causal) dans la machine (Grüne-Yanof, 2009). On peut répondre que, dans un processus de simulation particulier, un mécanisme est individuellement et matériellement instancié, certes de manière stylisée, mais, par là, la causalité est bien imitée iconiquement (Elsenbroich, 2012).
Quand bien même cette simulation d’émergence serait robuste, on peut voir poindre aussi, à ce niveau, l’objection de la sous-détermination processus-loi (Varenne, 2016) : ce n’est pas parce qu’un mécanisme d’interaction entre entités réussit à faire émerger une forme ou une loi géographique (un fait stylisé) similaire à celles de la réalité qu’il n’existe pas d’autres mécanismes ou combinaisons de mécanismes qui, tout aussi bien, pourraient produire le même effet macro.
Mais là encore, une piste existe qui relève d’une stratégie globale de simulation. Il s’agit de recourir à des processus massifs de simulations parallèles ou en cascade dans lesquels on se livre à un très grand nombre d’observations (i.e. de mesures) systématiques et comparatives sur les résultats calculés de très nombreux et différents modèles de simulation visant tous à rendre compte au mieux de l’émergence d’un phénomène donné (une loi géographique empirique ou un fait stylisé). Pour fonctionner, cette méthode repose sur l’utilisation de données massives, sur un grand nombre d’itérations de modèles de simulation et sur des algorithmes de comparaisons systématiques et à grande échelle (Cottineau et al., 2015)(Schmitt et al., 2015)(Pumain 2017)(Raimbault, 2021). Elle nécessite donc une grande puissance de calcul. Il s’agit souvent dans un premier temps de tester séparément la performance de chaque mécanisme explicatif plausible, puis, si un seul mécanisme ne suffit pas, d’introduire de façon progressive et minimale, un autre mécanisme ou bien encore chaque type de combinaison de plusieurs mécanismes minimaux l’un après l’autre, cela de façon à éviter le surajustement insignifiant, gage de sous-détermination, et à se conformer à la vertu de la parcimonie attendue de toute construction théorique. Procédant ainsi par une sorte d’abduction (inférence à la meilleure explication) à la fois incrémentale et assistée par ordinateur, grâce à la comparaison systématique de modèles de simulation alternatifs minimaux, de leurs combinaisons (dont le nombre peut très vite devenir considérable car possiblement explosif) et par le calcul massif, on diminue la plausibilité qu’une combinaison alternative de mécanismes explicatifs minimaux existe et nous ait échappé. Allant à rebours des approches de calcul sur données massives purement phénoménologiques (de type IA numérique et à apprentissage machine aveugle), une telle approche de simulation géographique et sociale – à la fois ouverte, diversifiée, combinatoire, systématique mais surtout explicite dans ses ontologies et ses modèles explicatifs – semble ainsi permettre de fournir des arguments nouveaux et des apports théoriques solides.
Franck Varenne
note1 Dans cette méthode, il s’agit d’approximer en imitant pas à pas les effets d’une loi de probabilité complexe. On fait tirer à l’ordinateur une à une et au hasard des valeurs particulières de la variable aléatoire conformément à sa loi de probabilité : ce processus de tirage aléatoire concret et imitatif pas à pas – simulatoire en ce sens – remplace le calcul algébrique qui aurait dû être effectué sinon à échelle macroscopique mais qui, justement, n’est pas toujours faisable. Voir le site de l’INRIA expliquant davantage cette méthode et ses usages : https://interstices.info/la-simulation-de-monte-carlo/
note2 Pour en savoir plus sur les systèmes multi-agents, voir le site de présentation (partielle) de l’INRIA https://interstices.info/la-force-du-collectif/ et, surtout, le livre fondateur de Ferber (1995).