Systèmes complexes en sciences sociales

Année 2019/2020

Henri Berestycki (directeur d’études à l’EHESS)
Jean-Pierre Nadal (directeur d’études à l’EHESS et directeur de recherche au CNRS)

Le séminaire « Systèmes complexes en sciences sociales » se tient (sauf mention contraire) tous les 2ème et 4ème vendredis de cette année 2019-2020, à partir du 22 novembre (voir le site de l’Ehess), à 15h00, en salle 11, 105 bd Raspail, 75006 Paris. Entrée libre dans la limite des places disponibles. Pour la période de confinement (covid-19), séminaires en visio-conférence exclusivement.
Contact : jpnadal@ehess.fr

Présentation générale du Séminaire sur le site de l’EHESS, ici.
Programme des prochaines séances : 24 avril, Sylvain Mignot, « A qui faire confiance ? Une analyse empirique des réseaux sociaux sur un marché de biens » (voir ci-dessous) ; 8 mai : pas de séance ; 22 mai : programme à préciser ; 12 juin, Julien Lefournier sur le « greenwashing » dans la finance (avec I. Ekeland).

  • Vendredi 24 avril, 15h en visio-conférence.

    Sylvain MIGNOT
    Université Catholique de Lille
    A qui faire confiance ? Une analyse empirique des réseaux sociaux sur un marché de biens.

    Résumé : Nous considérons le marché aux poissons de Boulogne-sur-Mer, sur lequel vendeurs (pêcheurs) et acheteurs (grossistes, restaurateurs) peuvent choisir entre un marché centralisé (enchères, la criée) et un marché décentralisé (négociation de gré à gré). À première vue la coexistence stable de deux mécanismes d’échange sur un même lieu pour les mêmes biens peut sembler paradoxale.
    A partir de l’exploitation de données sur les transactions, nous proposons une analyse du rôle de la fidélité dans le fonctionnement de ce double marché de Boulogne-sur-Mer. Nous constatons en effet que certains acheteurs sont ‘fidèles’ en ce qu’ils achètent très souvent à un même vendeur, tandis que d’autres au contraire changent souvent de fournisseur.
    Nous proposons de quantifier le degré de fidélité par une mesure fondée sur la dynamique des échanges bilatéraux. Nous pouvons alors analyser l’influence de la fidélité, ainsi que celle des structures des réseaux d’échanges, afin d’estimer leurs impacts sur le marché. Nous montrons que les liens sur le marché d’enchère reflètent les contraintes économiques des acheteurs et des vendeurs, mais que ceux sur le marché bilatéral dépendent également d’autre chose. L’influence de la fidélité sur les prix apparait clairement supérieure sur le marché bilatéral, ce qui permet d’écarter l’hypothèse d’un simple effet de réputation.
    Nos résultats permettent de comprendre les caractéristiques et fonctionnement distincts de chacun de ces deux sous marchés, et d’apporter notre pierre au débat sur l’efficacité des structures de marchés.
    Travail en collaboration avec Annick Vignes.

    Référence : Mignot, Sylvain and Vignes, Annick, Trust Somebody but Choose Carefully: An Empirical Analysis of Social Relationships on An Exchange Market (September 5, 2018). Available at SSRN: http://dx.doi.org/10.2139/ssrn.3317538

    Pour se connecter : https://webinaire.ehess.fr/b/nad-ttp-mzq
    Information diffusée sur les listes ehess : tlm, cams-infos, humanict.
    Le code d’accès sera diffusé aux abonnés et sur demande (jpnadal ‘AT’ ehess.fr)

  • Vendredi 27 mars, 15h, en visio-conférence

    Pedro Ramaciotti
    MediaLab, SciencesPo, Paris
    La mesure de proportions et d’agrégations dans les réseaux et ses applications à l’analyse de l’espace public numérique
    Résumé : Le calcul d’indices d’agrégation est au cœur de la prise de décision en politiques publiques. Ainsi, par exemple, les indices de biodiversité en écologie, de concentration industrielle en droit de la concurrence, ou l’indice Gini en économie permettent respectivement l’évaluation des écosystèmes, des monopoles et des inégalités. Lorsque les systèmes à analyser se complexifient, un surcroît de difficultés se pose, en particulier dans la conception et le calcul d’indices d’agrégation dotés de sens. Un exemple pressant concerne l’espace public numérique : il s’agit d’un système complexe où les algorithmes sont souvent les médiateurs des interactions entre utilisateurs. Les réseaux sociaux, les marchés en ligne, les plateformes de médias sont de ces exemples qui, parce qu’ils sont liés à la visibilité algorithmique (qui voit quoi ? qui parle avec qui ?), réveillent des préoccupations d’ordre culturel, politique, social et économique, et demandent des indices pour être compris et évalués.

    Il sera question, dans cet exposé, d’explorer la formalisation de méthodes et de concepts émergents en théorie des graphes, liés aux marches aléatoires, et qui permettent l’application d’indices tels que la diversité sur les réseaux. La diversité est une agrégation utilisée notamment en sciences sociales computationnelles dans la recherche de phénomènes tels que les chambres d’écho, les bulles de filtre et l’interaction d’utilisateurs avec les algorithmes de recommandation. Un des intérêts de la formalisation proposée est de pouvoir nommer et calculer les concepts utilisés dans les problématiques de la recherche en systèmes complexes, et en particulier dans l’analyse de l’espace public numérique. Nous proposerons d’appliquer ces concepts et leurs calculs à différentes composantes de l’espace public numérique, comme la consommation d’information en pages web, la visualisation de vidéos sur YouTube, l’utilisation de plateformes de médias, et l’organisation des mouvements sociaux sur Facebook.

    Pour se connecter : information (re)diffusée sur les listes ehess : cams-infos, tlm, humanict, et affichage du lien sur ce site :
    Participer à la réunion Zoom : https://sciencespo.zoom.us/j/420495477
    ID de réunion : 420 495 477

  • Vendredi 13 mars 15h, en visio-conférence exclusivement

    Tiphaine Viard
    LIPN, Université Paris 13 & CNRS
    Quelle place pour les graphes au sein d’une intelligence artificielle transparente et responsable ?
    Résumé : L’intelligence artificielle et l’apprentissage automatique sont communément décrit comme des « boîtes noires », efficaces mais opaques. Bien que parler d’opacité complète soit exagéré, de nombreuses méthodes d’explicabilité reposent sur des formes de rétro-ingénierie : il s’agit d’inférer des informations sur le modèle à partir de ses résultats (partiels, intermédiaires, ou définitifs). Pourtant, la place prégnante de l’intelligence artificielle dans la société font que la transparence et la responsabilité de ces algorithmes ne doit pas être une simple fonctionnalité, mais une nécessité. Les graphes et leurs extensions (temporels, multicouches, attribués…) offrent des formalismes versatiles pour analyser des données relationnelles, même de grande taille. À ce titre, ils ont été utilisés comme outils de modélisation dans de nombreux domaines, incluant la biologie, les sciences humaines et sociales, ou l’informatique. Pourtant, chacune de ces extensions pose de nombreuses questions algorithmiques et liées à la nature des données. Ce sont ces questions, entre autres.
    Dans cet exposé, j’explore précisément la place que peuvent avoir les graphes et leurs extensions pour participer à répondre aux questions informatiques et sociétales soulevées par l’intelligence artificielle et l’apprentissage automatique, à travers deux cas d’étude impliquant les systèmes de recommandation sociaux et la classification automatique de Wikipedia japonaise. J’utilise ces deux cas d’étude pour détailler des perspectives de recherche plus générales concernant l’apport des graphes à l’intelligence artificielle transparente.

    Pour se connecter : lien diffusé 10~15mn avant 15h sur les listes ehess : cams-infos, tlm, humanict. Si vous n’êtes pas destinataire, demandez avant vendredi 12h à être sur la liste cams-infos (mail à jpnadal « at » ehess.fr).

  • Vendredi 28 février, 15h00 salle 11, EHESS, 105 bd Raspail.

    Alain Barrat
    Directeur de recherche au CNRS, Centre de Physique Théorique, Marseille
    Modéliser la contagion sociale: au-delà des réseaux
    Résumé : Les processus de contagion sont à la base de phénomènes d’importance considérable comme la propagation de maladies infectieuses ou celle d’opinions, d’informations et de rumeurs. Les modèles théoriques de contagion simplifient la réalité et considèrent généralement comme élément de base les interactions entre deux personnes, l’ensemble de ces interactions constituant le réseau d’interactions dans la population. La contagion a lieu suivant ces interactions, soit selon des processus « simples » pour lequel une propagation peut se produire lors de chaque interaction, soit selon une contagion « complexe » nécessitant plusieurs interactions.
    Cependant, de nombreuses interactions sociales ont lieu en groupe, et ces interactions de groupe ne sont pas forcément correctement représentées par les réseaux: par exemple, une collaboration entre trois personnes n’est pas équivalente à 3 collaborations deux à deux, mais la représentation « réseau » des deux situations est la même; de même, il n’est pas équivalent de converser successivement avec deux amis ou ensemble avec les deux dans une discussion de groupe, où des effets d’entraînement peuvent jouer. Afin de mieux tenir compte de tels effets de groupe, il est intéressant d’aller au-delà de la représentation en réseau des interactions sociales. Le concept d’hypergraphe ou de complexe simplicial devient alors adéquat, donnant une généralisation naturelle des réseaux qui comprend des interactions aussi bien deux à deux que de groupes plus grands.

    Je présenterai ici deux travaux récents allant dans cette direction. Dans une première partie, je présenterai un modèle simple de complexe simplicial évoluant dans le temps. Je montrerai comment les propriétés de divers processus de contagion sont modifiées dans ce modèle, avec par exemple une dynamique très ralentie pour un modèle de contagion en cascade. Dans une deuxième partie, je discuterai un nouveau modèle de contagion sociale basé sur une représentation des interactions sociales par un complexe simplicial. Dans ce modèle, la contagion d’une idée peut se produire aussi
    bien lors d’une interaction deux à deux que lors d’une interaction de groupe de n personnes dont (n-1) sont déjà convaincues de l’idée, avec des probabilités différentes. On montre alors que la transition entre disparition et adoption large de l’idée change de nature, et qu’il existe une zone de paramètres où sont possibles aussi bien la propagation que la disparition de l’idée, en fonction des conditions initiales : ceci permet d’expliquer la nécessité d’une masse critique initiale de personnes convaincues pour qu’une idée se propage, comme cela a été montré empiriquement récemment.

  • Vendredi 24 janvier – Séance reportée au 13 mars, voir ci-dessus.

    Tiphaine Viard
    LIPN, Université Paris 13 & CNRS
    Quelle place pour les graphes au sein d’une intelligence artificielle transparente et responsable ?

  • Vendredi 10 janvier 2020, 15h00 salle 11, EHESS, 105 bd Raspail.

    Alexis Dubreuil
    Group for Neural Theory (GNT), Département d’études cognitives, ENS, Paris
    Mécanique des processus cognitifs
    Résumé : Les capacités cognitives émergent de l’interaction entre neurones organisés en réseaux structurés. Comprendre cette émergence requière d’établir un premier lien entre les variables comportementales et les propriétés dynamiques des réseaux, et un second lien entre ces propriétés dynamiques et la structures des réseaux. Des études théoriques ont permis de mettre en lumière de tels liens, par exemple grâce à l’étude du modèle de Hopfield qui permet de rendre compte de la mémoire associative en proposant des équations du mouvement décrivant la dynamique macroscopique d’un réseau. Une difficulté première dans ce genre d’approche est de réussir à proposer des structures neuronales pertinentes pour l’implémentation d’un processus cognitif donné. Pour surmonter cette difficulté, les outils d’apprentissage machine peuvent être utilisés pour proposer de telles structures. Cependant, les réseaux entrainés avec ces méthodes sont des systèmes dynamiques non-linéaires de haute dimension, souvent qualifiés de boîtes noires. Je présenterai l’approche que nous avons développée avec Srdjan Ostojic et qui permet, pour des réseaux entrainés, d’établir les liens entre variables comportementales, dynamique et structure. Je présenterai ensuite le fonctionnement de réseaux entrainés à résoudre des taches comportementales utilisées dans des expériences de neurosciences pour étudier des processus cognitifs comme la prise de décision, la mémoire de travail ou le focus attentionnel. Ceci me permettra de discuter les rôles joués par la dimensionalité de l’activité neuronale et les classes neuronales dans l’implémentation des processus cognitifs.

  • Vendredi 13 décembre – Séance reportée au 24 avril 2020.

    Sylvain MIGNOT
    Université Catholique de Lille
    A qui faire confiance ? Une analyse empirique des réseaux sociaux sur un marché de biens.

  • Vendredi 22 novembre, 15h00 salle 11, EHESS, 105 bd Raspail.

    Geneviève ROBIN
    École des Ponts ParisTech, INRIA, Marne la Vallée
    Analyse de réseaux : Prédiction d’arêtes manquantes dans les réseaux en présence de nœuds intrus.

    Résumé: Les réseaux sont fréquemment utilisés pour représenter des connexions (arêtes) entre différents agents (nœuds). Souvent, ces réseaux sont étudiés à travers des modèles stochastiques, où l’on cherche à estimer la probabilité de connexion entre agents. Cependant, dans de nombreux exemples pratiques, les modèles classiques de graphes aléatoires sont mis en défaut par la présence d’un petit nombre de nœuds, dont le comportement est significativement différent de celui de la majorité des agents : ce sont des nœuds « intrus ». Par exemple, dans les réseaux issus de données de sondage, certains individus sont susceptibles de fournir des réponses erronées, voire d’être payés pour le faire afin de déformer l’opinion publique. De plus, de tels réseaux sont souvent incomplets, c’est-à-dire que l’information sur la présence ou l’absence de certaines arrêtes est manquante. Dans ce travail, nous introduisons un nouvel algorithme pour estimer les probabilités de connexions dans un réseaux, de façon robuste à la fois aux intrus et aux données manquantes. Nous analysons les propriétés statistiques et computationnelles de cet algorithme, et présentons une étude qui montre les bonnes propriétés empiriques de la méthodes, en terme de détection des intrus et de prédiction des nœuds manquants. Enfin, nous illustrons la méthode avec l’analyse d’un réseaux de blogs politiques américains.

    Title: Robust link prediction in network models with outliers

    Abstract: Real-life networks, representing connections (edges) between agents (nodes), are often modelled as noisy versions of more structured networks. In this setting, recovering the “noiseless” version of the graph, i.e. estimating the probabilities of interactions between agents, is a key problem. In numerous examples, classical models are put in default by the behaviour of a small number of individuals, which strongly departs from the behaviour of the majority of agents: outliers. For example, in graphs obtained by survey data, some individuals may provide false answers; other individuals may even be paid to provide erroneous answers in order to distort the public opinion on a subject. In addition, graphs constructed from survey data are likely to be incomplete, due to non-response or drop-out of participants. We introduce a new algorithm for estimating the probabilities of connections in a network, which is robust to both outliers and missing observations. We analyse the statistical and computational properties of this algorithm, and present a simulation study, indicating that the proposed method has good empirical properties in terms of outliers detection and link prediction. Finally, we illustrate the method with the analysis of a network of American political blogs.


Archives :