Archives - Systèmes complexes en sciences sociales

Retrouvez ci-dessous les archives du séminaire "Systèmes complexes en sciences sociales" (pour l'année en cours voir ici).

2022-2023
2021-2022
2020-2021
2019-2020
2018-2019
2017/2018
2016/2017
2015/2016
2014/2015
2013/2014
2012/2013
2011/2012
2010/2011
2009/2010
2008/2009

Année 2022-2023

Vendredi 2 décembre 2022

Camille Roth
CNRS, Centre Marc Bloch, Berlin

Titre : La chambre d’écho des chambres d’écho.

Séance à revoir ici.

Résumé : La notion de « chambre d’écho » fait référence à l’existence de groupes cohésifs d’acteurs interagissant principalement avec des personnes similaires. L’étendue de ce phénomène au sein des médias sociaux fait toutefois largement débat. Cet exposé propose un tour d’horizon de nos connaissances empiriques concernant la cohésion socio-sémantique dans une variété de contextes en ligne, à différents niveaux et sous différentes conditions, ainsi que sur les modèles normatifs visant à en expliquer l’émergence. Il s’agira notamment de remettre en question la correspondance couramment établie entre l’homophilie entre acteurs, au niveau individuel, et la fragmentation, au niveau macro. Le rôle de la recommandation algorithmique dans la formation supposée de « bulles de filtre » sera également questionné.

Vendredi 18 novembre 2022

Julien Randon-Furling
Professeur associé, ENS Paris-Saclay, Centre Borelli

Titre : Établir l’existence de discriminations dans un processus historique : le cas de l’épuration du monde du spectacle à la Libération.

Séance à revoir ici.

Résumé : Ce travail s’intéresse au processus d’épuration dans les arts de la scène après la seconde guerre mondiale. Nous nous concentrons tout particulièrement sur la question de l’existence de discriminations, ou à tout le moins de différences de traitement, entre groupes sociaux – artistes femmes, artistes populaires, vedettes, etc.
L’hypothèse de telles discriminations a souvent été avancée, notamment dans le cas des artistes femmes, mais elle n’a jamais été confirmée ou infirmée par une analyse rigoureuse de données extraites des archives. Nous nous sommes donc efforcés de conduire une telle analyse, dont nous présentons ici les résultats. En particulier, nous verrons que des techniques standard telles que l’analyse des correspondances multiples ou la régression ne donnent que des résultats parcellaires. Des techniques plus avancées, comme les réseaux causaux de Suppes-Bayes, nous permettent en revanche de mieux appréhender le processus de l’épuration dans sa complexité — et de mettre en évidence le traitement différent réservé aux artistes femmes.

Travail joint avec Karine Le Bail (CNRS, CRAL EHESS)

Année 2021-2022

Vendredi 1er juillet, 13h30

54 bd Raspail, salle AS1-23 (sous-sol) et en visio-conférence.

Antonin Pottier
Maître de conférences de l’EHESS, Chaire « Economie et soutenabilité : théories et modèles en contexte »,
CIRED, membre de la chaire Energie et prospérité,
Centre Marc Bloch, Berlin

video ici

Tire : Mesurer les inégalités écologiques: questionnements théoriques et problèmes statistiques.

Résumé : Les inégalités écologiques, c’est-à-dire les inégales contributions aux dégradations écologiques, font l’objet d’une attention particulière depuis quelques années. Nous prenons l’exemple des inégalités d’émissions de gaz à effet de serre pour exposer les enjeux théoriques et pratiques que pose une quantification de ces inégalités. Nous montrons comment la mesure des inégalités écologiques suppose la définition d’une perspective sur la responsabilité des agents. Nous détaillons aussi quelques problèmes statistiques rencontrés dans cette mesure, en particulier pour saisir l’ampleur de l’hétérogénéité des émissions de GES.

Lundi 20 juin, 17h30

Le TOTEM, 11 place Nationale, 75013 Paris.

Exposé qui sera donné dans le cadre de la conférence française sur les systèmes complexes, FRCCS2022.

Venkat Venkatasubramian
Columbia University

Titre : How Much Income Inequality is Fair?

Attention : inscription spécifique obligatoire pour cet exposé, inscription au titre du Séminaire Systèmes complexes en sciences sociales : envoyer un courriel à annick.vignes@enpc.fr, avec copie à nathalie.brusseaux@ehess.fr, sujet « inscription 20 juin », en précisant nom, prénom, statut, organisme de rattachement.
Le nombre de places est limité, premiers inscrits premiers servis.
La conférence sera enregistrée.
Remarque : l’inscription ci-dessus, gratuite au titre du Séminaire Systèmes complexes en sciences sociales, ne donne pas accès à l’ensemble de la conférence FRCCS2022 – l’inscription à FRCCS2022 est possible avec frais d’inscription, jusqu’au 11 juin inclus.

Vendredi 10 juin, 10h.

Séance exclusivement en présentiel, salle A4-32 (EHESS 54 bd Raspail, 4ème étage).
La séance a été filmée, l’enregistrement sera très bientôt accessible en ligne.

Pierre-Michel Menger
Professeur au Collège de France, Chaire de Sociologie du Travail Créateur, et Directeur d’études à l’EHESS

Titre : Mathematics: a typical or atypical model of academic excellence? An empirical study of the French case / Les mathématiques : un modèle d’excellence académique typique ou atypique ? Une étude empirique du cas français.
Vidéo à retrouver ici.

Résumé : L’excellence des mathématiques françaises est reconnue de longue date. Parmi les facteurs qui expliquent cette position figurent certains ressorts classiques, telles les épreuves sélectives de formation et de recrutement dont l’action est plus précoce et cumulative que dans les autres sciences. La culture du défi à la fois ludique et compétitif, qui nourrit l’histoire des résolutions de problèmes et conjectures dans cette discipline plus individuelle et détachée du travail empirique, a son versant organisationnel : la compétition pour les emplois y est plus ouverte, anti-localiste et l’avantage procuré initialement par des emplois de pure recherche n’est pas systématiquement exploité pour éloigner les meilleurs mathématiciens de l’enseignement. Ces traits font système, mais agissent-ils aussi pour créer des mécanismes pénalisant les carrières féminines, particulièrement minoritaires ? Notre analyse s’appuie sur un corpus vaste et inédit de données de carrière et de publication, sans équivalent à ce jour.

Vendredi 15 avril, 13h30.

Séance uniquement en visio-conférence.

Jérôme Sackur
Directeur d’études à l’EHESS,
Laboratoire de Sciences Cognitives et Psycholinguistique (LSCP, CNRS – ENS – EHESS)

Titre : Comment aborder la dynamique du flux de conscience ?

Résumé: Depuis quarante ans à peu près, l’étude de la conscience est redevenue un sujet légitime en psychologie et neuroscience cognitive. L’ensemble de ce travail nous a donné une bonne vision de la micro-dynamique (à une échelle inférieure à la seconde) de l’accès à la conscience. La question de la dynamique à plus longue échelle (inférieure à la minute) des états mentaux et de leur contenu reste toutefois entière. Je proposerai une série de pistes expérimentales et théoriques pour aborder cette question, en portant une attention particulière aux contraintes qui nous sont données par la qualité (mauvaise!) des données. Je défendrai notamment l’idée que la succession des états mentaux et de leur contenu est peut-être un processus markovien, autrement dit, sans mémoire.

Title: How could we study the dynamics of the stream of consciousness?

Abstract: For about forty years, the study of consciousness has regained legitimacy in psychology and cognitive neuroscience. Work in this field has given us a good view of the micro-dynamics (at a sub-second scale) of access to consciousness. The question of the longer-scale dynamics (less than a minute) of mental states and their content remains unresolved, however. I will propose a series of experimental and theoretical avenues to address this question, paying particular attention to the constraints given to us by the (poor!) quality of the data. In particular, I will defend the idea that the sequence of mental states and their content is perhaps a Markovian process, in other words, a memoryless process.

Vendredi 1er avril, 13h30.

Damien Challet
CentraleSupélec

Titre : Comportement des investisseurs dans les marchés financiers: échelles de temps et sagesse des foules
Vidéo à retrouver ici.

Résumé: Les marchés financiers révèlent toute leur richesse lorsqu’on analyse des données qui détaillent le comportement de chaque investisseur. Une question générale est la détermination de l’importance de l’hétérogénéité des agents et des conséquences de cette dernière sur ce qu’un marché peut calculer et en quoi un tel système socio-économique est optimal. Cet exposé montrera que les agents ont une certaine notion de la distribution de premier passage de marches aléatoires, ce qui permet de définir un nouveau type d’échelle de temps, qui dépend en partie également de la diversité biologique et historique des agents financiers. Plus généralement, on s’intéressera à la diversité des échelles temporelles des agents et à son influence sur la façon dont l’information se propage. Finalement, les défis actuels de ce domaine seront discutés.

Title: Investor behavior in financial markets: timescales and wisdom of the crowd.

Abstract: Trader-resolved data reveal even more richness of financial markets. One of the most relevant questions is the extent to which the heterogeneity of the agents influences what such a system may compute optimally. This talk will show that traders have a notion of first passage probability of random walks, which yields a new type of timescale, which in turn depends on the biological and historical variety of the investors. More generally, the most complex part of financial markets originates from the investor timescale heterogeneity which modulates how fluctuations measured at various timescales spread. Finally, the current challenges of this research area will be discussed.

Vendredi 18 mars, 13h30.

Isabelle Alvarez
INRAE et ISC-PIF, Paris

Titre : « Médiation scientifique sur la viabilité grâce au jeu vidéo minecraft »
Vidéo à retrouver ici.

Résumé : La théorie mathématique de la viabilité (Aubin, 1991) présente un grand intérêt pour la gestion durable, en particulier pour la gestion des ressources naturelles. Cette théorie mathématique est liée au contrôle optimal et aux correspondances, mais elle implique un changement de perspective dans la définition de l’optimisation qui complique sa présentation aux non-spécialistes. Un projet à l’initiative d’un artiste, Thibault Brunet, a permis d’utiliser le jeu minecraft dans une optique de médiation scientifique pour la viabilité. L’exposé montrera comment présenter les concepts de la théorie, poser des problèmes de viabilité et étudier la mise en œuvre de la théorie dans un environnement complexe est possible dans le jeu dans une durée maîtrisée. Séances passées

jeudi 24 février, 16h.

Attention au jour et heure – Séance supplémentaire en commun avec le séminaire Modélisation en sciences sociales et du vivant. Voir les modalités pratiques sur le site de ce séminaire.

Michel Fansten
Administrateur INSEE

« L’échec électoral est-il une science exacte ? ».

En 2009, Michel Fansten, administrateur de l’INSEE, spécialiste des études d’opinion, publiait dans la revue « Mathématiques et Sciences humaines » une étude sur la formalisation des comportements électoraux, sous le titre « l’échec électoral est une science exacte ». Qu’en est-il 13 ans plus tard, avec en perspective la prochaine élection présidentielle ?

Vendredi 18 février.

Séance double : suite des exposés par les lauréats du Prix de thèse Systèmes Complexes 2021

13h30, José Moran
Mathematical Institute, University of Oxford

Titre : Dynamiques de croissance et réseaux d’entreprises
Vidéo à retrouver ici.

Résumé : Une explication permettant de comprendre l’origine des grandes fluctuations économiques est que les couplages de la supply chain, notamment les relations de type client-fournisseur entre entreprises, permettent d’amplifier des chocs microscopiques à une échelle macroéconomique. D’autre part, la littérature qui étudie la dynamique de croissance d’entreprises s’intéresse à des modèles où l’on modélise cette croissance comme un processus stochastique multiplicatif, mais où les entreprises évoluent de façon indépendante les unes des autres.
Je présenterai dans ce séminaire les résultats d’un travail en cours, où l’on cherche à combiner l’étude de la statistique des taux de croissance d’entreprises avec celle de leurs réseaux d’approvisionnement. Je montrerai en particulier que les couplages dans ce réseau induisent des corrélations entre les taux de croissance des entreprises. Je discuterai plus largement des caractéristiques des corrélations entre entreprises et de comment elles sont influencées par d’autres dynamiques macroéconomiques, en étudiant la matrice de corrélation des taux de croissance des entreprises et la dynamique de leurs modes principaux.

15h, Frédérique Noël
Inria, équipe Commedia (Computational mathematics for bio-medical applications)

Titre : « Influence de l’inflammation sur le transport de gaz respiratoires dans le poumon ».
Vidéo à retrouver ici.

Résumé : Le poumon est un système complexe qui sert d’interface d’échange entre l’air ambiant et le sang. Lors de l’inspiration, l’air frais ambiant, chargé en oxygène et pauvre en dioxyde de carbone, est apporté jusqu’à la zone d’échange avec le sang, les acini, à travers l’arbre bronchique. Cet apport peut cependant être altéré lorsque le poumon est sujet à une infection pulmonaire. Il devient alors nécessaire d’étudier les mécanismes de transport des gaz et d’échanges d’oxygène et de dioxyde de carbone avec le sang pour mieux comprendre comment ce système complexe se comporte et comment la ventilation pulmonaire pourrait être affectée par la réponse du système immunitaire à travers l’inflammation de la paroi bronchique. Dans cet exposé, nous nous intéresserons principalement à la modélisation du transport de gaz respiratoire dans un poumon sain et enflammé et nous étudierons l’influence de la localisation de l’infection sur la quantité d’oxygène échangée avec le sang.

Vendredi 4 février, 13h30.

Séance double : exposés par deux des Prix de thèse Systèmes Complexes 2021

13h30, François Lavallée
ISC-PIF

Titre : « Modélisation, exploration de modèles et théorie de la viabilité pour l’aide à la gestion des espèces végétales invasives : application au cas des renouées asiatiques le long d’un cours d’eau »

vidéo ici (bbb) et sur la chaine YouTube du CAMS.

Résumé : Les renouées asiatiques Fallopia sp sont parmi les espèces exotiques envahissantes les plus menaçantes pour la biodiversité à l’échelle mondiale. Cependant, peu de modèles traitent de l’invasion par les renouées asiatiques et la plupart s’intéressent à leur croissance sans considérer de gestion. L’objectif de ce travail est de modéliser la croissance de renouées asiatiques soumises à de la fauche et dispersées le long d’un cours d’eau afin de comparer l’efficacité de différentes stratégies de gestion. Notre démarche s’appuie sur le développement et l’étude de deux modèles mathématiques appliqués à la gestion des renouées asiatiques. Le premier est stochastique et s’intéresse à la croissance locale de la plante, le second s’inscrit dans le cadre de la théorie de la viabilité et permet d’étudier la croissance et la dispersion de la plante à l’échelle d’un cours d’eau. L’enjeu est de trouver des stratégies de gestion efficaces. Nous identifions d’abord l’influence des paramètres de gestion sur la croissance locale de la plante, puis nous présentons une méthode pour la résolution d’un problème de viabilité général dont celui de la dispersion des renouées le long d’un cours d’eau est une instance. Nous démontrons la faisabilité de cette démarche en l’appliquant au cas d’un cours d’eau fictif.

15h, Samuel Boury
Assistant Professor & Simons Fellow – Joseph B. Keller Fellow
Courant Institute of Mathematical Sciences, New York University, USA

Titre : De l’atmosphère à l’océan : la dynamique des ondes internes axisymétriques

vidéo ici (chaine YouTube du CAMS)

Résumé : Les ondes internes (gravito-inertielles) contribuent au transport mondial d’énergie et d’impulsion dans les océans et jouent un rôle crucial dans le mélange stratifié, en transférant l’énergie d’une échelle à l’autre par le biais de processus non linéaires. Récemment, ces ondes ont attiré beaucoup d’attention en raison de leur rôle potentiel dans les modèles climatiques et dans le mélange des océans hautement stratifiés, notamment l’Océan Arctique. En raison de la fonte croissante de la glace de mer au cours des dernières décennies, la surface de l’Océan Arctique est désormais plus exposée tout au long de l’année aux tempêtes et aux vents atmosphériques, dont le forçage local en surface peut générer des ondes internes. Les couches fortement stratifiées de l’Océan Arctique peuvent être plus facilement perturbées par les événements atmosphériques et, en retour, la dynamique modifiée du transport d’énergie joue un rôle crucial dans les changements climatiques régionaux. Une meilleure compréhension de la manière dont l’énergie des tempêtes peut être transférée à l’océan – et comment elle peut s’y propager – est donc de première importance. Alors que les modèles prédominants d’ondes internes sont basés sur des ondes planes cartésiennes bidimensionnelles, ils ne sont pas adaptés ici car les ondes excitées par les tempêtes suivent une géométrie plus complexe, tridimensionnelle. Sur la base de ces considérations, je discuterai de l’impact de la géométrie des ondes sur leur propagation dans des milieux stratifiés et en rotation. Des applications sont également proposées avec des comparaisons avec les ondes internes dans les stratifications du monde réel.

Vendredi 21 janvier, 13h30.

Emmanuel Lazega
IUF & Sciences Po Paris

Titre : « A quels impossibles sommes-nous tenus? »
Vidéo à retrouver ici.

Réflexion sur les rapports entre sociologie et complexité à partir d’une analyse statistique de la dynamique d’un réseau de conseil entre pairs.

Vendredi 7 janvier, 13h30.

Fernando Peruani
Laboratoire de Physique Théorique et Modélisation, CY Cergy Paris Université

Titre: « Imitation, leadership démocratique et intelligence collective chez les moutons. »
Vidéo à retrouver ici.

Résumé : Nous verrons comment décrire quantitativement le comportement collectif des groupes de moutons et comprendre l’émergence de divers comportements collectifs à partir de simples règles d’imitation qui permettent au groupe de parvenir à un consensus, de développer des stratégies collectives telles que le leadership démocratique, et de faire preuve d’intelligence collective. Les idées développées peuvent s’avérer utiles pour décrire des groupes humains.

Title: Imitation, democratic leadership, and collective intelligence in groups of sheep.

Abstract: We will see how we can quantitatively describe the collective behavior of sheep groups and understand the emergence of various collective behaviors from simple imitation rules that allow the group to reach consensus, develop collective strategies such as democratic leadership, and display collective intelligence. The developed ideas may prove useful to describe human groups.

Vendredi 17 décembre, 13h30.

Antoine Mandel
Professeur de Mathématiques Appliquées, Directeur adjoint de l’UFR Mathématiques et Informatique, Université Paris 1 Panthéon-Sorbonne – Centre d’économie de la Sorbonne

Title: « Strong diversity and public debate in social networks »

Abstract: We propose a model of the joint evolution of opinions and social relationships in a setting where social influence decays over time. The dynamics are based on bounded confidence: social connections between individuals with distant opinons are severed while new connections are formed between individuals with similar opinions. Our model naturally gives raise to strong diversity, i.e. the persistence of heterogeneous opinions in connected societies, a phenomenon that most existing models fail to capture. The intensity of social interactions is the key parameter that governs the dynamics. First, it determines the asymptotic distribution of opinions. In particular, increasing the intensity of social interactions brings society closer to consensus. Second, it determines the risk of polarization, which is shown to increase with the intensity of social interactions. Our results allow to frame the problem of the design of public debates in a formal setting. We hence characterise the optimal strategy for a social planner who controls the intensity of the public debate and thus faces a trade-off between the pursuit of social consensus and the risk of polarization. We also consider applications to political campaigning and show that both minority and majority candidates can have incentives to lead society towards polarization.

Vendredi 3 décembre.

Esteban Bautista Ruiz & Matthieu Latapy
LIP6, CNRS – SU

Title: « A frequency-structure decomposition for link streams »

Slides: Part 1, Part 2

Abstract: A link stream is a set of triplets (t, u, v) modeling interactions over time, such as person u calling v at time t, or bank account u transferring to v at time t. Effectively analyzing link streams is thus key for numerous applications. In practice, it is common to study link streams as a collection of time series or as a sequence of graphs, allowing to use time filters and graph filters to process the time and structural dimensions, respectively. However, time and structure are nested in link streams, meaning that time-domain operations can affect structure, and vice-versa. This calls for a frequency-structure representation that allows to characterize processing operations in both frequency and structure. Yet, it is hard to combine existing signal and graph decompositions as they do not interact well.

To address this limitation, this work proposes a novel frequency-structure decomposition for link streams. Our decomposition allows us to analyze time via existing signal decompositions (Fourier, Wavelets, etc) and to analyze structure via a novel decomposition for graphs that is tailor-made to interact well with signal decompositions. This novel graph decomposition operates by partitioning the edge-space of graphs into regions and measuring the activity of regions, resulting in a set of coefficients that have several interesting properties to characterize the structural properties of graphs and that can be used to compare them. We show that the combination of our graph decomposition with signal decompositions leads to a set of coefficients that effectively encode the dynamical and structural properties of link streams in a simple matrix format. Then, we show that the properties of our decomposition make it easy to define time and graph filters in the frequency-structure domain and finish by showing how we can use filters to recover the backbone of a link stream.

Vendredi 19 novembre.

Jean-Pierre Nadal
CNRS & EHESS – CAMS & LPENS
Présentation du Séminaire de cette année universitaire 2021-2022, et exposé :
« Perception catégorielle, entre cognition naturelle et cognition artificielle ».

Résumé: La catégorisation, ou classification, est une capacité cognitive fondamentale. La catégorisation est également l’une des principales tâches auxquelles l’apprentissage machine (apprentissage profond en intelligence artificielle), s’attaque avec succès.
Une conséquence perceptive bien connue de la catégorisation chez l’homme et les autres animaux, la perception catégorielle, est notamment caractérisée par une compression intra-catégorielle et une séparation inter-catégorielle : deux éléments, proches dans l’espace des stimulis, sont perçus plus proches s’ils appartiennent à la même catégorie que s’ils appartiennent à des catégories différentes.
Cet exposé présentera un ensemble de résultats sur la modélisation des bases neurales de la perception catégorielle, avec ses implications sur, d’une part, la modélisation de la prise de décision chez l’homme et l’animal dans des tâches simples, et, d’autre part, l’analyse de l’apprentissage dans les réseaux de neurones artificiels.
L’exposé s’appuiera sur des travaux effectués en collaboration avec Kevin Berlemont (NYU), Laurent Bonnasse-Gahot (EHESS, CAMS), Jean-Rémy Martin (ULB), et Jérôme Sackur (EHESS, LSCP).


Année 2020-2021

Vendredi 25 juin 2021, 15h

en visio-conférence.

Aurélien Hazan
UPEC – Université Paris-Est Créteil, IUTSF-GEII

Titre: Applications d’un modèle de réseaux renormalisable

Résumé : Les systèmes complexes sont souvent organisés à une multitude de niveaux différents, ce qui nécessite des descriptions distinctes, et parfois de nature hiérarchique. De nombreuses travaux modélisent ces systèmes comme des réseaux, et s’intéressent à la stabilité de leur propriétés lorsque le niveau d’observation est de plus en plus agrégé, en s’inspirant des outils et concepts tirés de la physique (fractales, auto-similarité).

Dans cet exposé nous évoquerons un modèle récent tiré de la littérature des réseaux aléatoires, capable de représenter un système à plusieurs échelles simultanément. En nous appuyant sur l’analyse de données empiriques de plusieurs domaine applicatifs (échanges commerciaux internationaux), nous discuterons de ses atouts et de ses limites et envisagerons son application à d’autres domaines (réseaux trophiques, mouvements de populations, etc…).

Enfin en nous appuyant sur des approches connexes (apprentissage non-supervisé, structure hiérarchique) nous présenterons des pistes d’applications concrètes originales (par exemple pour les réseaux spatialisés).

Vendredi 28 mai 2021, 15h

en visio-conférence.

David Martimort
EHESS, Ecole d’Economie de Paris (PSE)

Titre: PRECAUTION AND INFORMATION IN A WORLD OF DEEP UNCERTAINTY: ON THE (NEGATIVE) VALUE OF THE PRECAUTIONARY PRINCIPLE

Abstract. The Precautionary Principle is a controversial policy instrument, often criticized for stifling innovation and growth. To give an economic perspective on the consequences of adopting this Principle, we consider a dynamic decision-making problem under irreversibility and uncertainty. Examples include, consumption/production decisions in view of their consequences for global warming, or consumption/production of GMOs and their consequences on the biotope.
The basic elements of the model are as follows. A decision-maker enjoys surplus from his current actions but faces the possibility of an irreversible catastrophe, an event that follows a non-homogeneous Poisson process with a rate that depends on the stock of past actions. To model irreversibility, we assume that, passed a tipping point, the probability that a disaster arises increases once for all.

For such a context, the Precautionary Principle has repeatedly been invoked as a means to regulate risk. We ask whether such an institutional commitment to prudent actions, in a world where regulation are incomplete social contracts, has any value. We answer negatively.

To do so, we proceed we first describe optimal trajectories under two informarmational scenarios that reflect the degree of knowledge on the physical process under scrutiny.

In the first scenario, that serves as a benchmark, the tipping point is known for sure. The optimal action plan goes through a first precautionary phase before jumping to a myopic optimum. In the first phase, actions are low and decrease over time because of the irreversibility problem. The Precautionary Principle is here irrelevant. There is no need to regulate a behavior that already is prudent enough.

Under a scenario of Deep Uncertainty, only the distribution of possible tipping points is now known. The optimal feedback rule should a priori determine the current action in terms of two state variables that summarize the system: First the stock of past actions and second, the beliefs on whether the tipping point has been passed or not. We first characterize the dynamics under such circumstances by means of an Hamilton-Jacobi equation with a two-dimensional value function and the associated feedback rule. We then notice that beliefs are highly manipulable in a world where experts and interest groups may have their own incentives. This argument serves to motivate our focus on incomplete feedback rules which are based only on the stock of past actions.

We define and analyze so called Stock-Markov Equilibria, which are sustained with such feedback rules. In those equilibria, the decision-maker can only commit to actions for infinitesimally short periods of time and stick to the equilibrium feedback rule because he expects to continue to do so in the future. We characterize such equilibria by means of a pseudo-value function. This function satisfies a functional equation that generalizes a Hamilton-Jacobi equation but is also forward-looking. We demonstrate that the decision-maker adopts a prudent behavior because of a pseudo-information learning effect. Indeed, as long as no disaster is encountered acting makes it now more likely that the tipping point has been passed anyway.

Yet, we show that the optimal trajectory can be implemented with such a Stock-Markov Equilibrium. Intuitively, the infinitesimally short periods of commitment allow the decision-maker to encapsulate the evolution of beliefs in his decision at any point in time. Even incomplete feedback rules are enough to reconstruct an optimal path of actions with infinitesimal commitments. A contrario, committing to such an incomplete feedback rule once for all, as requested by the Precautionary Principle, is definitvely suboptimal. The pseudo-information learning effect is then exacerbated and actions end up being too cautious. This points at the negative value of the Precautionary Principle.

Vendredi 23 avril 2021, 15h

en visio-conférence.

Quentin Feltgen
Clesthia, Université Sorbonne Nouvelle (Paris 3)

Titre: Émergence de lois d’échelle au niveau des constructions langagières individuelles : loi de Zipf en diachronie et loi de Heaps-Herdan comme outil prédictif.

Résumé : Les mots d’une langue obéissent collectivement, une fois rangés par ordre de fréquence, à la loi de Zipf, une loi d’échelle qui lie leur fréquence et leur rang, connue depuis 1935 au moins. De même, il existe une relation entre la taille du lexique (en termes de nombres de mots différents) et la taille d’un texte, la loi de Heaps-Herdan, là encore une loi d’échelle entre les quantités concernées. Au cours de la dernière décade, il est également apparu que la loi de Zipf se retrouvait à des niveaux plus spécifiques de l’organisation langagière, en particulier en relation avec les constructions schématiques, c’est-à-dire présentant un paradigme de variations interne, comme par exemple l’expression « de manière ADJ » (de manière analogue, de manière certaine, etc.) ou la construction verbale « venir de Vinf » (venir de manger, venir de finir, etc.). Les arguments de ce schéma libre obéissent en effet, de par leur fréquence de collocation avec la construction, à une loi de Zipf « locale », spécifique de la construction.

Dans cette présentation, je confirmerai cette observation et la complémenterai par une autre, à savoir que les arguments du schéma constructionnel suivent également une loi de Heaps-Herdan (le nombre d’arguments différents trouvés dans un corpus dérive du nombre d’occurrences de la construction). Je montrerai par ailleurs, sur l’exemple de la construction en anglais « way too ADJ », que la loi de Heaps-Herdan, une fois calibrée sur une fenêtre temporelle donnée, permet de prédire le nombre d’arguments à partir de la fréquence d’occurrences sur l’ensemble de la période. J’illustrerai également la manière dont la loi de Zipf vient à se stabiliser au cours de l’émergence de la construction schématique.

Vendredi 9 avril 2021, 15h

en visio-conférence.

David Chavalarias
CNRS, CAMS & ISC-PIF.

Titre: Personnifier les réseaux sociaux à l’ère de la désinformation.

Résumé : Les espaces numériques sont de plus en plus présents et influents lorsque l’on s’intéresse au fonctionnement de nos sociétés, au point que ce qui s’y passe ne peut plus être ignoré lorsqu’il s’agit de comprendre leur évolution. De la politique aux débats sur le réchauffement climatique, en passant par les débats sur la vaccination, ce qui se passe en ligne, et en particulier sur les réseaux sociaux, a de plus en plus d’influence sur ce qui se passe hors ligne.

Cette virtualisation des interactions sociale apporte autant de nouvelles questions de recherches qu’elle constitue des enjeux majeurs pour nos démocraties. D’un côté, nous n’avons jamais eu autant de données sur les systèmes sociaux, ce qui devrait être propice à une meilleure maîtrise conceptuelle et coordination collective plus efficace. De l’autre, l’accélération de l’information, l’amplification des phénomènes de désinformation et mésinformation, ainsi que la multiplication des ingérences numériques entre pays concurrents nous donne l’impression d’un dérèglement de nos démocraties, victimes de fragmentation et de polarisation.

Nous illustrerons ces phénomènes sur des cas concrets tels que l’ingérence étrangère lors de l’élection présidentielle de 2017, l’apparente polarisation du débat autour du réchauffement climatique ou la polémique autour de l’usage du terme « islamo-gauchisme ».

Nous montrerons ensuite comment le développement de macroscopes sociaux peut apporter la réflexivité sociale nécessaire à la ré-identification de formes d’expression collectives. La re-contextualisation des échanges par ces formes d’expression collectives permet de redonner un sens aux interactions sociales virtuelles et pose des repères pour des débats démocratiques plus informés et plus sereins.

Ressources : http://chavalarias.org & http://politoscope.org

Vendredi 26 mars 2021, 15h

en visio-conférence.

Luc BEHAGHEL
PSE – Ecole d’économie de Paris, INRAE.

Title: Directing job search: large scale experiments.

Abstract: We analyze the employment effects of directing job seekers’ applications towards establishments likely to recruit, building upon an existing Internet platform developed by the French public employment service. Our two-sided randomization design, with about 1.2 million job seekers and 100,000 establishments, allows to precisely estimate supply- and demand-side effects. We find a 2% increase in job finding rates among women, while establishments advertised on the website increase their hirings on indefinite duration contracts by 3%.

Travail joint avec M. Gurgand, Y. Hazard, S. Dromundo, T. Zuber.

Vendredi 19 février 2021, 15h

en visio-conférence.

Gaël GIRAUD
Directeur de recherche au CNRS
Professor, Director of Environmental Justice Program, Georgetown University, USA.

Titre : Impacts économiques d’une période glaciaire: une réflexion visant à évaluer la déconnexion entre économétrie et sciences du climat.

Résumé : Le changement climatique anthropique soulève des inquiétudes croissantes quant à ses effets potentiels catastrophiques sur les écosystèmes et les sociétés humaines. Pourtant, plusieurs études portant sur les dommages causés par le réchauffement climatique sur l’économie ont proposé une image beaucoup moins inquiétante de l’avenir, avec seulement quelques points de baisse du produit intérieur brut (PIB) mondial par habitant d’ici la fin du siècle et ce, même pour un réchauffement climatique supérieur à 4°C.
Nous considérons deux fonctions différentes estimées empiriquement, liant la croissance du PIB ou le niveau du PIB à la température, au niveau national, et nous les appliquons à un refroidissement global de 4°C en 2100 – ce qui correspond à un retour aux conditions glaciaires. Nous montrons que l’impact sur le PIB moyen mondial par habitant va de −1,8% – si la température affecte le niveau du PIB – à +36% – si l’impact porte plutôt sur la croissance du PIB. Ces résultats sont ensuite comparés aux conditions environnementales auxquelles l’humanité pourrait être confrontée, en prenant pour référence le dernier maximum glaciaire (LGM). Les impacts modélisés sur le PIB mondial semblent fortement sous-estimés compte tenu de l’ampleur des changements climatiques et écologiques enregistrés pour cette période.
Après avoir discuté des faiblesses de l’approche statistique agrégée pour estimer les dommages économiques, nous concluons que, si ces fonctions ne sont pas raisonnablement fiables pour un refroidissement aussi important, elles ne devraient pas être considérées comme fournissant des informations pertinentes sur les dommages potentiels en cas de réchauffement d’une ampleur similaire – comme prévu en cas d’émissions de gaz à effet de serre non maîtrisées.

Vendredi 12 février 2021, 15h

en visio-conférence.

Pedro RAMACIOTTI
Medialab, SciencesPo

Titre : Attitudes à l’égard des questions du débat public : Analyse par plongement des utilisateurs de réseaux sociaux dans des espaces idéologiques latents aux structures des réseaux.

(Title and abstract in English below).

Résumé : Traditionnellement, l’attitude des citoyens à l’égard des questions du débat public (par exemple, l’immigration, l’intégration européenne, la fiscalité) a été mesurée à l’aide de sondages et d’enquêtes. Plus récemment, l’examen de la structure des réseaux sociaux en ligne a permis d’estimer les attitudes des citoyens. En supposant une certaine forme d’homophilie – des personnes ayant des attitudes similaires se suivent ou se lient d’amitié – l’inférence bayésienne permet d’extraire des paramètres latents qui pourraient être à l’origine de la connexion entre les utilisateurs. Notre étude a révélé que certains de ces paramètres latents étaient corrélés avec des attitudes idéologiques : en témoigne l’exemple de l’inférence de la préférence pour les groupes politiques dans des systèmes bipartites comme celui des États-Unis. Néanmoins, l’interprétation a posteriori de ces paramètres latents en tant qu’indicateurs d’attitudes reste délicate, plus encore dans les systèmes sociaux et politiques multipartites et multi-problématiques, ce qui est le cas de la plupart des pays européens.
Il sera question, dans cette présentation, d’exposer une méthode pour plonger les acteurs des réseaux sociaux dans des espaces idéologiques, où les dimensions servent d’indicateurs d’attitudes vis-à-vis des différentes problématiques du débat public. Nous l’illustrerons par le cas du réseau Twitter français, où les mesures du système national des partis fourniront des moyens quantitatifs pour l’identification des enjeux liés aux dimensions latentes de ces espaces idéologiques. Cet ancrage idéologique permettra d’enquêter sur l’importance relative des différentes questions dans la structuration des interactions dans le débat public. Par ailleurs, cet ancrage sera mobilisé dans l’étude de la dynamique idéologique des acteurs en ligne, ce qui sera illustré par l’étude de la trajectoire idéologique des groupes Facebook sympathisants du mouvement des Gilets Jaunes.

Title : Attitudes towards questions of public debate: Embedding social networks users and entities into ideological spaces latent in network structures.

Abstract: Traditionally, people’s attitudes towards issues of the public debate (e.g., immigration, European integration, taxation) have been measured using polls and surveys. More recently, different attitudes have been mined from the structure of online social networks. Assuming some form of homophilic behavior (people with similar attitudes follow or befriend each other), Bayesian inference allows for the retrieval of latent parameters that might be driving connection between users. Some of these latent parameters have been successfully related to ideological attitudes: an illustrative example is the inference of preference for political groups in two-party systems such as that of the US. The a posteriori interpretation of these latent parameters as indicators of attitudes remains challenging, more so in multi-party, multi-issue social and political systems, which is the case of most European countries.
In this presentation, I will present a method for embedding social network actors in ideological spaces, where dimensions serve as indicators of attitudes towards different issues of the public debate. This will be illustrated by the case of French Twitter network, where measurements of the national party system will provide quantitative means for the identification of the issues associated with the latent dimensions of these ideological spaces. This ideological embedding will allow for investigations about the relative importance of different issues in structuring interactions in the public debate. Additionally, this embedding will be mobilized in the study of the ideological dynamics of actors, which will be illustrated by the study of the Facebook groups affiliated with the Yellow Vest movement.

Vendredi 22 janvier 2021, 15h

en visio-conférence.

Imke MAYER
EHESS, CAMS

Inférence causale pour données observationnelles et analyses jointes de données expérimentales et observationnelles
(English below)

Résumé : Dans le domaine de l’apprentissage machine, de grands progrès ont été réalisés dans l’obtention de modèles prédictifs puissants, mais ces modèles reposent sur des corrélations entre variables et ne permettent pas de comprendre les mécanismes sous-jacents ou la manière d’intervenir sur le système pour atteindre un certain objectif. Les concepts de causalité sont fondamentaux pour disposer de leviers d’action, pour formuler des recommandations et pour répondre aux questions suivantes : « que se passerait-il si nous avions agi différemment? » L’idée est de rechercher une “human-like AI », de prendre des décisions raisonnables et solides dans des situations jamais vécues. Dans cet exposé, je présenterai le cadre de réponses potentielles pour l’inférence causale afin de répondre à des questions telles que « quel est l’effet d’une formation professionnelle sur l’insertion professionnelle ? » Je présenterai des techniques pour estimer l’effet moyen de traitement à partir de données observationnelles telles que les dossiers médicaux électroniques. Je montrerai ensuite comment ces méthodes peuvent tirer parti des outils puissants de l’apprentissage machine pour l’inférence statistique. Enfin, je me concentrerai sur le problème de la fusion des données qui consiste à combiner des données observationnelles et des données d’essais contrôlés randomisés.

Causal inference for observational data and joint experimental and observational data

Abstract: In machine learning, there has been great progress in obtaining powerful predictive models, but these models rely on correlations between variables and do not allow for an understanding of the underlying mechanisms or how to intervene on the system for achieve a certain goal. The concepts of causality are fundamental to have levers for action, to formulate recommendations and to answer the following questions: « what would happen if we had acted differently? » The idea is to search for “Human-like AI », to take reasonable, robust decisions in never experienced situations. In this talk, I will introduce the potential outcomes framework for causal inference to answer questions such as « what is the effect of a job training on employment integration? » I will present techniques to estimate the average treatment effect from observational data such as electronic health records. Then I will show how these methods can leverage powerful machine learning tools for statistical inference. Finally I will focus on the data fusion problem that consists in combining observational and randomized controlled trial data.

L’exposé sera en français ou anglais en fonction de l’auditoire. Talk in French or English depending on the audience.

Vendredi 8 janvier 2021, 15h

en visio-conférence.

Odile PLATTARD
Architecte diplômée d’Etat, spécialisation Prévention des risques majeurs
ATER à l’Institut d’Urbanisme et de Géographie Alpine, Université Grenoble-Alpes
Chercheuse associée – UMR 8504 Géographie-cités & UMR 5194 Pacte

Exposé sur des modèles multi-agents pour améliorer les plans d’évacuation de ville du littoral en cas de séisme combiné à un tsunami (Prix de thèse Systèmes complexes 2020).

Repenser l’évacuation d’une population littorale en milieu urbain dans un contexte multi-risques

Résumé : Cet exposé questionne l’évacuation piétonne d’une population littorale en milieu urbain en cas de tsunami et séisme à travers l’implémentation d’un modèle multi-agents spécifié pour deux communes du littoral.
L’aléa tsunami, premièrement considéré dans ce travail, est engendré par un évènement précurseur qui est, dans la majorité des cas, un séisme, aléa deuxièmement pris en compte. Deux sites d’études ont été considérés : Saint-Laurent-du-Var et Syracuse, car ils présentent des configurations d’exposition de leur espace urbain et de stratégies d’évacuation de la population différentes.
L’espace urbain est au cœur du questionnement de ce travail. Premièrement, à travers l’influence que la lisibilité du milieu urbain peut avoir sur une évacuation piétonne. Deuxièmement, à travers la prise en compte du contexte multi-risques et des dommages d’un séisme précurseur sur les constructions, en questionnant la praticabilité des itinéraires d’évacuation en milieu urbain.
J’introduirai le modèle STEP (Seisme Tsunami Evacuation Population), un modèle hybride alliant le multi-agents et les automates cellulaires et implémenté sur la commune de Saint-Laurent-du-Var. Son environnement est construit à partir des données géographiques de terrain (topographie, bâtiments). Le tsunami est implémenté à partir des données issues de simulation d’évènements de référence. La lisibilité de l’espace urbain est construite à travers la mise en place de zones de non-visibilité des zones refuge générée en fonction de leur hauteur et de celle des bâtiments. La praticabilité de l’espace urbain se traduit par la mise en place d’une probabilité d’effondrement des constructions en fonction de l’intensité sismique ; les débris peuvent obstruer les rues, obligeant les individus à trouver un autre itinéraire jusqu’aux zones refuge. Trois scénarios principaux ont été mis en place, se basant sur des évènements de références et explorés par variation des paramètres liés aux agents et zones refuge ; ces trois scénarios principaux font varier la lisibilité (hauteur des zones refuge) et la praticabilité (effondrement lié au séisme) de manière indépendante afin de mieux en percevoir les effets sur les résultats.

Vendredi 18 décembre, 13h-15h

en visio-conférence – Séance organisée par le labex SMS, Toulouse.

Séance organisée par nos partenaires toulousains,
thème de la séance : « des outils innovants pour la modélisation interdisciplinaire ».

* 13h-14h : Adrien BARTON (Chercheur CNRS, IRIT, Toulouse) « Comment articuler des données de domaines différents ? L’apport de l’ontologie appliquée »

* 14h-15h : Benoit CHEVALLIER (Enseignant-Chercheur, IMT, Toulouse) « Dimensions sensibles, dimensions intelligibles »

programme détaillé ici.

Le lien de connexion a été diffusé sur les listes vie-scientifique (EHESS), cams-infos, humanict, et la liste de diffusion du labex SMS.
Pour cette séance, contact : Bertrand Jouve, jouve@univ-tlse2.fr

Vendredi 27 novembre, 15h

en visio-conférence – Séance coorganisée avec l’ISC-PIF.

Vincent VERBAVATZ
Institut de Physique Théorique, CEA & résident à l’ISC-PIF

L’équation de la croissance urbaine

L’exposé sera en Français (contrairement à ce qui avait été annoncé initialement).
Résumé : La modélisation de la dynamique de population des villes est au cœur de toutes les études urbaines. L’une des questions les plus débattues est celle de l’origine de la différence du nombre d’habitants d’une ville à l’autre et de l’occurrence statistique des mégalopoles. Jusqu’ici, la distribution des populations semblait pouvoir être décrite par un principe universel connu sous le nom de loi de Zipf. Philosophiquement, ce principe revenait à supposer que le hasard des chocs de naissances ou de migrations entraînait l’inévitable inégalité des villes : certaines villes réussissent et d’autres non.

Pourtant, ce modèle a été empiriquement remis en cause depuis quelques années. Il n’est notamment pas capable d’expliquer les variations relativement fréquentes des rangs des villes et des civilisations. Dans cette présentation, j’introduirai une nouvelle équation stochastique pour modéliser la croissance de la population dans les villes. Ce modèle révèle que ce sont les chocs migratoires interurbains, rares mais majeurs, qui dominent la croissance des villes. Cette équation prédit une forme complexe pour la distribution des populations des villes et montre que, en raison d’effets de temps fini, la loi de Zipf ne tient pas en général, ce qui implique une organisation plus complexe de la hiérarchie des villes. Elle prédit également l’existence de multiples variations temporelles dans le rang des villes, en accord avec les observations. En particulier, la réussite des villes s’explique davantage par des chocs extérieurs, éventuellement induits et maîtrisables (politiques publiques de planification urbaine ou de développement) que par l’accumulation d’effets strictement aléatoires.

English version:
The growth equation of cities

Abstract: Modelling the population evolution of cities is at the core of all urban studies. Quantitatively, the most fundamental problem is to understand the hierarchical organization of city population and the statistical occurrence of megacities. This was first thought to be described by a universal principle known as Zipf’s law; however, the validity of this model has been challenged by recent empirical studies. A theoretical model must also be able to explain the relatively frequent rises and falls of cities and civilizations.
In this talk I will introduce a new stochastic equation for modelling population growth in cities, constructed from an empirical analysis of recent datasets (for Canada, France, the UK and the USA). This model reveals how rare, but large, interurban migratory shocks dominate city growth. This equation predicts a complex shape for the distribution of city populations and shows that, owing to finite-time effects, Zipf’s law does not hold in general, implying a more complex organization of cities. It also predicts the existence of multiple temporal variations in the city hierarchy, in agreement with observations.

Ref.: Verbavatz, V., & Barthelemy, M. (2020). The growth equation of cities. Nature, 587, 397–401.

Pour cette séance la logistique est assurée par l’ISC-PIF. Le lien de connexion sera : :
https://iscpif.fr/evenements/online-seminar-the-growth-equation-of-cities-verbavatz-barthelemy
La participation est libre. Cependant, pour nous permettre de disposer de la liste des participants, merci de vous inscrire sur Listsem https://listsem.ehess.fr/

Vendredi 13 novembre, 15h

en visio-conférence.

Michèle SEBAG
Directrice de recherche au CNRS, Laboratoire de Recherche en Informatique, Université Paris Saclay

Observational causal modeling. Analyzing the relationship between quality of life at work and firm profitability.

Abstract: The increasing pressure toward transparent, explainable and accountable reasoning in Artificial Intelligence has caused renewed attention to be given to causal models.
While the royal road toward establishing causal relationships is based on randomized controlled experiments, these might be subject to severe ethic or feasibility restrictions, or too costly in some domains.
Observational causal modeling aims to exploit existing data (usually gathered for other purposes) to investigate the presence of causal relationships among variables.
We will present a new approach based on adversarial generative models – a class of machine learning models in which learning is done through the competion between two neural networks. We will illustrate this approach on a use case, exploiting data provided by SECAFI (a society approved by the French Ministry of Labour for occupational health missions).

Joint work: Diviyan Kalainathan, Olivier Goudet, David Lopez-Paz, Isabelle Guyon.


Année 2019-2020

Présentation générale du Séminaire sur le site de l’EHESS, ici.

Vendredi 12 juin, 15h

en visio-conférence.

Julien LEFOURNIER

L’obligation verte ne peut pas fournir un signal-prix pour la transition écologique. Résumé : Le marché obligataire primaire est un lieu virtuel sur lequel les vendeurs (les émetteurs d’obligations) placent leur offre de dette auprès des acheteurs (investisseurs).
Ce marché a accueilli depuis quelques années une nouvelle forme d’obligation: l’obligation « verte », à laquelle on prête des vertus importantes en matière de réallocation de l’épargne et de promotion du financement de la transition écologique et énergétique. J’expliquerai comment fonctionne ce marché, et comment les préférences des investisseurs et le mécanisme de formation du prix primaire empêchent qu’une obligation émise sous l’étiquette verte soit autre chose qu’une obligation tout à fait ordinaire (avec des mots autour).
En collaboration avec Ivar Ekeland, article ici. Pour se connecter : changement de lien de connexion,
https://us02web.zoom.us/j/87339191830?pwd=TjhpbW5XNmFSbEZac0RQUUkzZEcwZz09
Le code d’accès a été diffusé sur les listes ehess : tlm, cams-infos, humanict.
Sur demande : jpnadal@ehess.fr

Vendredi 24 avril, 15h

en visio-conférence.

Sylvain MIGNOT
Université Catholique de Lille

A qui faire confiance ? Une analyse empirique des réseaux sociaux sur un marché de biens. Résumé : Nous considérons le marché aux poissons de Boulogne-sur-Mer, sur lequel vendeurs (pêcheurs) et acheteurs (grossistes, restaurateurs) peuvent choisir entre un marché centralisé (enchères, la criée) et un marché décentralisé (négociation de gré à gré). À première vue la coexistence stable de deux mécanismes d’échange sur un même lieu pour les mêmes biens peut sembler paradoxale.
A partir de l’exploitation de données sur les transactions, nous proposons une analyse du rôle de la fidélité dans le fonctionnement de ce double marché de Boulogne-sur-Mer. Nous constatons en effet que certains acheteurs sont ‘fidèles’ en ce qu’ils achètent très souvent à un même vendeur, tandis que d’autres au contraire changent souvent de fournisseur.
Nous proposons de quantifier le degré de fidélité par une mesure fondée sur la dynamique des échanges bilatéraux. Nous pouvons alors analyser l’influence de la fidélité, ainsi que celle des structures des réseaux d’échanges, afin d’estimer leurs impacts sur le marché. Nous montrons que les liens sur le marché d’enchère reflètent les contraintes économiques des acheteurs et des vendeurs, mais que ceux sur le marché bilatéral dépendent également d’autre chose. L’influence de la fidélité sur les prix apparait clairement supérieure sur le marché bilatéral, ce qui permet d’écarter l’hypothèse d’un simple effet de réputation.
Nos résultats permettent de comprendre les caractéristiques et fonctionnement distincts de chacun de ces deux sous marchés, et d’apporter notre pierre au débat sur l’efficacité des structures de marchés.
Travail en collaboration avec Annick Vignes. Référence : Mignot, Sylvain and Vignes, Annick, Trust Somebody but Choose Carefully: An Empirical Analysis of Social Relationships on An Exchange Market (September 5, 2018). Available at SSRN: http://dx.doi.org/10.2139/ssrn.3317538

Pour se connecter : https://webinaire.ehess.fr/b/nad-ttp-mzq
Information diffusée sur les listes ehess : tlm, cams-infos, humanict.
Le code d’accès sera diffusé aux abonnés et sur demande (jpnadal ‘AT’ ehess.fr)

Vendredi 27 mars, 15h

en visio-conférence

Pedro Ramaciotti
MediaLab, SciencesPo, Paris

La mesure de proportions et d’agrégations dans les réseaux et ses applications à l’analyse de l’espace public numérique
Résumé : Le calcul d’indices d’agrégation est au cœur de la prise de décision en politiques publiques. Ainsi, par exemple, les indices de biodiversité en écologie, de concentration industrielle en droit de la concurrence, ou l’indice Gini en économie permettent respectivement l’évaluation des écosystèmes, des monopoles et des inégalités. Lorsque les systèmes à analyser se complexifient, un surcroît de difficultés se pose, en particulier dans la conception et le calcul d’indices d’agrégation dotés de sens. Un exemple pressant concerne l’espace public numérique : il s’agit d’un système complexe où les algorithmes sont souvent les médiateurs des interactions entre utilisateurs. Les réseaux sociaux, les marchés en ligne, les plateformes de médias sont de ces exemples qui, parce qu’ils sont liés à la visibilité algorithmique (qui voit quoi ? qui parle avec qui ?), réveillent des préoccupations d’ordre culturel, politique, social et économique, et demandent des indices pour être compris et évalués. Il sera question, dans cet exposé, d’explorer la formalisation de méthodes et de concepts émergents en théorie des graphes, liés aux marches aléatoires, et qui permettent l’application d’indices tels que la diversité sur les réseaux. La diversité est une agrégation utilisée notamment en sciences sociales computationnelles dans la recherche de phénomènes tels que les chambres d’écho, les bulles de filtre et l’interaction d’utilisateurs avec les algorithmes de recommandation. Un des intérêts de la formalisation proposée est de pouvoir nommer et calculer les concepts utilisés dans les problématiques de la recherche en systèmes complexes, et en particulier dans l’analyse de l’espace public numérique. Nous proposerons d’appliquer ces concepts et leurs calculs à différentes composantes de l’espace public numérique, comme la consommation d’information en pages web, la visualisation de vidéos sur YouTube, l’utilisation de plateformes de médias, et l’organisation des mouvements sociaux sur Facebook.

Pour se connecter : information (re)diffusée sur les listes ehess : cams-infos, tlm, humanict, et affichage du lien sur ce site :
Participer à la réunion Zoom : https://sciencespo.zoom.us/j/420495477
ID de réunion : 420 495 477

Vendredi 13 mars, 15h

en visio-conférence exclusivement

Tiphaine Viard
LIPN, Université Paris 13 & CNRS

Quelle place pour les graphes au sein d’une intelligence artificielle transparente et responsable ?
Résumé : L’intelligence artificielle et l’apprentissage automatique sont communément décrit comme des « boîtes noires », efficaces mais opaques. Bien que parler d’opacité complète soit exagéré, de nombreuses méthodes d’explicabilité reposent sur des formes de rétro-ingénierie : il s’agit d’inférer des informations sur le modèle à partir de ses résultats (partiels, intermédiaires, ou définitifs). Pourtant, la place prégnante de l’intelligence artificielle dans la société font que la transparence et la responsabilité de ces algorithmes ne doit pas être une simple fonctionnalité, mais une nécessité. Les graphes et leurs extensions (temporels, multicouches, attribués…) offrent des formalismes versatiles pour analyser des données relationnelles, même de grande taille. À ce titre, ils ont été utilisés comme outils de modélisation dans de nombreux domaines, incluant la biologie, les sciences humaines et sociales, ou l’informatique. Pourtant, chacune de ces extensions pose de nombreuses questions algorithmiques et liées à la nature des données. Ce sont ces questions, entre autres.
Dans cet exposé, j’explore précisément la place que peuvent avoir les graphes et leurs extensions pour participer à répondre aux questions informatiques et sociétales soulevées par l’intelligence artificielle et l’apprentissage automatique, à travers deux cas d’étude impliquant les systèmes de recommandation sociaux et la classification automatique de Wikipedia japonaise. J’utilise ces deux cas d’étude pour détailler des perspectives de recherche plus générales concernant l’apport des graphes à l’intelligence artificielle transparente.

Pour se connecter : lien diffusé 10~15mn avant 15h sur les listes ehess : cams-infos, tlm, humanict. Si vous n’êtes pas destinataire, demandez avant vendredi 12h à être sur la liste cams-infos (mail à jpnadal « at » ehess.fr).

Vendredi 28 février, 15h

salle 11, EHESS, 105 bd Raspail.

Alain Barrat
Directeur de recherche au CNRS, Centre de Physique Théorique, Marseille

Modéliser la contagion sociale: au-delà des réseaux
Résumé : Les processus de contagion sont à la base de phénomènes d’importance considérable comme la propagation de maladies infectieuses ou celle d’opinions, d’informations et de rumeurs. Les modèles théoriques de contagion simplifient la réalité et considèrent généralement comme élément de base les interactions entre deux personnes, l’ensemble de ces interactions constituant le réseau d’interactions dans la population. La contagion a lieu suivant ces interactions, soit selon des processus « simples » pour lequel une propagation peut se produire lors de chaque interaction, soit selon une contagion « complexe » nécessitant plusieurs interactions.
Cependant, de nombreuses interactions sociales ont lieu en groupe, et ces interactions de groupe ne sont pas forcément correctement représentées par les réseaux: par exemple, une collaboration entre trois personnes n’est pas équivalente à 3 collaborations deux à deux, mais la représentation « réseau » des deux situations est la même; de même, il n’est pas équivalent de converser successivement avec deux amis ou ensemble avec les deux dans une discussion de groupe, où des effets d’entraînement peuvent jouer. Afin de mieux tenir compte de tels effets de groupe, il est intéressant d’aller au-delà de la représentation en réseau des interactions sociales. Le concept d’hypergraphe ou de complexe simplicial devient alors adéquat, donnant une généralisation naturelle des réseaux qui comprend des interactions aussi bien deux à deux que de groupes plus grands. Je présenterai ici deux travaux récents allant dans cette direction. Dans une première partie, je présenterai un modèle simple de complexe simplicial évoluant dans le temps. Je montrerai comment les propriétés de divers processus de contagion sont modifiées dans ce modèle, avec par exemple une dynamique très ralentie pour un modèle de contagion en cascade. Dans une deuxième partie, je discuterai un nouveau modèle de contagion sociale basé sur une représentation des interactions sociales par un complexe simplicial. Dans ce modèle, la contagion d’une idée peut se produire aussi
bien lors d’une interaction deux à deux que lors d’une interaction de groupe de n personnes dont (n-1) sont déjà convaincues de l’idée, avec des probabilités différentes. On montre alors que la transition entre disparition et adoption large de l’idée change de nature, et qu’il existe une zone de paramètres où sont possibles aussi bien la propagation que la disparition de l’idée, en fonction des conditions initiales : ceci permet d’expliquer la nécessité d’une masse critique initiale de personnes convaincues pour qu’une idée se propage, comme cela a été montré empiriquement récemment.

Vendredi 24 janvier – Séance reportée au 13 mars, voir ci-dessus.

Tiphaine Viard
LIPN, Université Paris 13 & CNRS

Quelle place pour les graphes au sein d’une intelligence artificielle transparente et responsable ?

Vendredi 10 janvier 2020, 15h

salle 11, EHESS, 105 bd Raspail.

Alexis Dubreuil
Group for Neural Theory (GNT), Département d’études cognitives, ENS, Paris

Mécanique des processus cognitifs
Résumé : Les capacités cognitives émergent de l’interaction entre neurones organisés en réseaux structurés. Comprendre cette émergence requière d’établir un premier lien entre les variables comportementales et les propriétés dynamiques des réseaux, et un second lien entre ces propriétés dynamiques et la structures des réseaux. Des études théoriques ont permis de mettre en lumière de tels liens, par exemple grâce à l’étude du modèle de Hopfield qui permet de rendre compte de la mémoire associative en proposant des équations du mouvement décrivant la dynamique macroscopique d’un réseau. Une difficulté première dans ce genre d’approche est de réussir à proposer des structures neuronales pertinentes pour l’implémentation d’un processus cognitif donné. Pour surmonter cette difficulté, les outils d’apprentissage machine peuvent être utilisés pour proposer de telles structures. Cependant, les réseaux entrainés avec ces méthodes sont des systèmes dynamiques non-linéaires de haute dimension, souvent qualifiés de boîtes noires. Je présenterai l’approche que nous avons développée avec Srdjan Ostojic et qui permet, pour des réseaux entrainés, d’établir les liens entre variables comportementales, dynamique et structure. Je présenterai ensuite le fonctionnement de réseaux entrainés à résoudre des taches comportementales utilisées dans des expériences de neurosciences pour étudier des processus cognitifs comme la prise de décision, la mémoire de travail ou le focus attentionnel. Ceci me permettra de discuter les rôles joués par la dimensionalité de l’activité neuronale et les classes neuronales dans l’implémentation des processus cognitifs.

Vendredi 13 décembre – Séance reportée au 24 avril 2020.

Sylvain MIGNOT
Université Catholique de Lille

A qui faire confiance ? Une analyse empirique des réseaux sociaux sur un marché de biens

Vendredi 22 novembre, 15h

salle 11, EHESS, 105 bd Raspail.

Geneviève ROBIN
École des Ponts ParisTech, INRIA, Marne la Vallée

Analyse de réseaux : Prédiction d’arêtes manquantes dans les réseaux en présence de nœuds intrus. Résumé: Les réseaux sont fréquemment utilisés pour représenter des connexions (arêtes) entre différents agents (nœuds). Souvent, ces réseaux sont étudiés à travers des modèles stochastiques, où l’on cherche à estimer la probabilité de connexion entre agents. Cependant, dans de nombreux exemples pratiques, les modèles classiques de graphes aléatoires sont mis en défaut par la présence d’un petit nombre de nœuds, dont le comportement est significativement différent de celui de la majorité des agents : ce sont des nœuds « intrus ». Par exemple, dans les réseaux issus de données de sondage, certains individus sont susceptibles de fournir des réponses erronées, voire d’être payés pour le faire afin de déformer l’opinion publique. De plus, de tels réseaux sont souvent incomplets, c’est-à-dire que l’information sur la présence ou l’absence de certaines arrêtes est manquante. Dans ce travail, nous introduisons un nouvel algorithme pour estimer les probabilités de connexions dans un réseaux, de façon robuste à la fois aux intrus et aux données manquantes. Nous analysons les propriétés statistiques et computationnelles de cet algorithme, et présentons une étude qui montre les bonnes propriétés empiriques de la méthodes, en terme de détection des intrus et de prédiction des nœuds manquants. Enfin, nous illustrons la méthode avec l’analyse d’un réseaux de blogs politiques américains. Title: Robust link prediction in network models with outliers Abstract: Real-life networks, representing connections (edges) between agents (nodes), are often modelled as noisy versions of more structured networks. In this setting, recovering the “noiseless” version of the graph, i.e. estimating the probabilities of interactions between agents, is a key problem. In numerous examples, classical models are put in default by the behaviour of a small number of individuals, which strongly departs from the behaviour of the majority of agents: outliers. For example, in graphs obtained by survey data, some individuals may provide false answers; other individuals may even be paid to provide erroneous answers in order to distort the public opinion on a subject. In addition, graphs constructed from survey data are likely to be incomplete, due to non-response or drop-out of participants. We introduce a new algorithm for estimating the probabilities of connections in a network, which is robust to both outliers and missing observations. We analyse the statistical and computational properties of this algorithm, and present a simulation study, indicating that the proposed method has good empirical properties in terms of outliers detection and link prediction. Finally, we illustrate the method with the analysis of a network of American political blogs.


Année 2018-2019

Vendredi 14 juin, 14h30

salle A4-47, à l’EHESS, 54 bd Raspail.

Imke Mayer
EHESS – CAMS

Inférence causale et données manquantes : illustration sur l’analyse de données médicales
Résumé. Dans la recherche en santé et en sciences sociales, les études observationnelles prospectives sont fréquentes, relativement faciles à mettre en place (contrairement aux études expérimentales d’essais randomisés qui sont parfois même impossible à réaliser), et peuvent permettre différents types d’analyses postérieures telles que des analyses causales – comme par exemple estimer l’effet statistique d’un traitement sur l’état futur du patient.
L’estimation de l’effet moyen du traitement (en anglais average treatment effect, ATE), par exemple, est possible grâce à l’utilisation de scores de propension, c’est-à-dire des pondérations des observations qui permettent de corriger les biais d’affectation du traitement dus à de la confusion, i.e. la présence de facteurs dits confondants car liés à la fois à l’affectation du traitement et à la variable d’intérêt. Cependant, un problème majeur avec de grandes études observationnelles est leur complexité et leur caractère souvent incomplet : les variables renseignées dans la base peuvent correspondent à des mesures ou observations prises à différents niveaux et stades, elles peuvent être hétérogènes – catégorielles et quantitatives -, et contiennent presque inévitablement des valeurs manquantes.
Le problème des valeurs manquantes dans l’inférence causale a longtemps été ignoré et n’a regagné l’attention que récemment en raison des impacts non négligeables en termes de puissance et de biais statistiques induits par des méthodes d’analyse validées sur des cas complets, et des modèles d’imputation (affectation de valeurs aux données manquantes) mal spécifiés. Nous discutons des conditions dans lesquelles une inférence causale peut être possible malgré la présence de valeurs manquantes dans les facteurs confondants, et comparons différentes méthodes proposées dans le passé pour traiter les valeurs confondantes manquantes.
Nous proposons deux nouveaux estimateurs ATE double robustes (notion qui sera explicitée) qui rendent directement compte des valeurs manquantes. Nous évaluons la performance de nos estimateurs sur une grande base de données contenant des informations détaillées sur environ 20 000 patients poly-traumatisés graves en France. À l’aide des estimateurs proposés et de cette base de données, nous étudions l’effet sur la mortalité de l’administration de l’acide tranexamique aux patients présentant un choc hemorragique. Travail en collaboration avec Julie Josse (Ecole Polytechnique), Jean-Pierre Nadal (CNRS & EHESS), Stefan Wager (Stanford University), Tobias Gauss et Jean-Denis Moyer (Hôpital Beaujon, APHP), dans le cadre du programme Traumabase de l’APHP.

Jeudi 23 mai, 14h30

salle A5-51, à l’EHESS, 54 bd Raspail (attention, jour de semaine et salle inhabituels)

Thorsten Emig
CNRS – LPTMS, Université Paris Sud & MIT

A minimal power model for human running performance
Abstract: Low level of aerobic fitness is an inevitable consequence of physical inactivity and sedentary lifestyle that is believed to be one of the most important public health problem of the 21st century. Physical inactivity and poor physical fitness are associated with several health problems. Positively, improvements in aerobic fitness have been shown to reduce all-cause mortality. Hence, it is important to be able to asses physiological profiles which are associated with exercise. I shall present a model that can be used to measure physiological parameters without laboratory testing, using commonly available performance data from recreational (and also professional) runners.
Models for human running performances of various complexities and underlying principles can be found in the literature, often combining data from world record performances and bio-energetic facts of human physiology. I shall present a model that is based on a self-consistency relation for the time dependent maximal power output. Our analytic approach is the first to derive the previously observed logarithmic scaling relation between world (and other) record running speeds and times from basic principles of metabolic power supply. I shall demonstrate that various female and male record performances (world, national) and also personal best performances of individual runners for distances from 800m to the marathon are excellently described by this model. Observed mean errors for race times are (often much) less than 1%. The model defines endurance in a way that demonstrates symmetry between long and short racing events that are separated by a characteristic time scale comparable to the time over which a runner can sustain maximal oxygen uptake. The model is applied to running performance data for more than 30.000 marathon runs, including a total of a few million training runs.

Vendredi 10 mai, 14h30

salle A4-47, à l’EHESS, 54 bd Raspail.

Sabine Ploux
CNRS – CAMS

Les mots du Grand Débat National : méthodes, et analyse des résultats préliminaires
Dans cet exposé je présenterai la méthode d’analyse des réseaux lexicaux des Atlas sémantiques appliquée au corpus descontributions ouvertes du Grand débat national, et des contributions soumises sur les plateformes le « Vrai débat » et « Entendre la France ». Il s’agira d’expliquer les choix de l’analyse, des grandes tendances observées, une comparaison entre les différents corpus. Cette étape du travail est préliminaire et demande à être poursuivie et complétée. Je présenterai quelques pistes pour la suite.

Vendredi 22 mars, 14h30

salle A4-47, à l’EHESS, 54 bd Raspail.

José Moran
EHESS, CAMS & CFM

Les systèmes économiques diversifiés sont-ils stables ?
De manière très naïve, on pourrait s’attendre à ce que les fluctuations de quantités économiques s’annulent rapidement lors de l’agrégation d’un grand nombre d’entités. Or on constate empiriquement qu’il n’en est rien. Plusieurs explications ont été avancées, dont des effets de réseaux, des perturbations affectant toute l’économie ou des effets granulaires, mais aucune ne semble suffisante.
Dans les années 90, Bak, Chen, Scheinkman et Woodford ont proposé un scénario dit de « criticalité auto-organisée » (SOC de par son acronyme en anglais), mais leur modèle n’a pas été jugé suffisamment général et donc crédible par la communauté académique.
Nous proposons ici un cadre général où la SOC émerge naturellement et avec des hypothèses très faibles. Nous étudions un modèle de firmes interconnectées, où les perturbations se propagent le long du réseau. Dans ce contexte, l’ajout d’entreprises au réseau, l’accroissement des interdépendances entre elles, la maximisation de leurs profits ou une faible élasticité de substitution entre les biens qu’elles produisent sont tous des facteurs qui poussent l’économie vers un régime susceptible d’engendrer des grandes fluctuations. Ce modèle permet également de proposer une classification des différentes crises et/ou fluctuations en fonction des propriétés des espaces propres d’une matrice décrivant les entreprises et leurs interconnexions.
(avec Jean-Philippe Bouchaud, CFM. Preprint sur SSRN).

Vendredi 8 mars, 14h30

EHESS, 54 bd Raspail. Changement de salle : cette séance se tiendra salle BS1-28 (1er sous-sol au 54 bd Raspail, salle de plus grande capacité que la salle habituelle, A4-47).

Quelles que soient nos opinions sur la pertinence du Grand Débat National, et les critiques sur la manière dont il est organisé, c’est un fait que cette opération est en train de générer une grande quantité de données dont l’exploitation ne sera pas simple a priori, qu’il s’agisse d’extraire des indications pour orienter des choix politiques ou de saisir une opportunité d’étudier des faits de société.
Cette séance du Séminaire Systèmes complexes sera consacrée à la présentation et discussion de projets d’analyse des données qui sont collectées dans le cadre du Grand Débat National. Nous accueillerons David Chavalarias (CNRS, CAMS & ISC-PIF) qui exposera le projet qu’il pilote à l’Institut des Systèmes Complexes de Paris-Ile-de-France, et Jean-Daniel Fekete (INRIA Saclay) et Philippe Caillou (LRI, UPSud) pour le projet « cartolabe » (INRIA-CNRS-UPSud).
Les exposés seront suivis d’une discussion-débat. Nous encourageons notamment les collègues qui seraient impliqués dans d’autres initiatives à contribuer à cette discussion. A propos de Cartolabe : Cartolabe est un système destiné à explorer de grands corpus textuels (plusieurs millions de documents) en présentant une carte de densité où chaque point est un item du corpus (article, personne, concept, etc.). La position des points est calculée par une projection multi-dimensionnelle qui assure que des items similaires soient proches sur la carte. Grâce à une interface web réactive et multi-échelle, Cartolabe permet l’exploration de corpus comme le Grand débat (2 millions de contributions en ligne et plusieurs millions de contributions supplémentaires saisies lors des réunions). L’exposé de Jean-Daniel Fekete et Philippe Caillou exposera quelques unes des nouvelles possibilités d’analyses offertes par Cartolabe pour la prise en main d’un corpus aussi atypique que le Grand débat.

Vendredi 22 février, 14h30

salle A4-47 à l’EHESS, 54 bd Raspail.

Jérôme Sackur
Directeur d’études à l’EHESS,
Laboratoire de Sciences Cognitives et Psycholinguistique (ENS/CNRS/EHESS)

Quels outils expérimentaux et formels pour l’étude de la dynamique du flux de conscience?
Résumé : En psychologie cognitive, nous nous donnons pour objet les structures mentales et leurs propriétés computationnelles. Classiquement, au niveau global nous nous intéressons à l’architecture cognitive, et au niveau modulaire nous étudions les représentations et les mécanismes de traitement associés. Curieusement, cet accent structurel se retrouve dans la psychologie cognitive de la conscience, alors même que la conscience se manifeste apparemment comme un flux, avec sa dynamique propre. Je voudrais montrer ici comment la recherche sur la « rêverie éveillée » (mind-wandering) entre-ouvre une porte expérimentale et formelle sur cette question. Dans une première partie, je présenterai des résultats suggérant que l’on peut, dans le cas d’une tâche comportementale simple reconstruire la dynamique des états mentaux, au moyen d’un modèle de Markov caché exploitant la variabilité des réponses des participants. Je montrerai les limites intrinsèques de cette approche et je défendrai l’idée que si on veut étudier la dynamique du flux de conscience, il est sans doute difficile de se passer de données langagières (depuis de simples tâches d’associations d’idées jusqu’à de la parole libre). Je présenterai quelques résultats préliminaires d’une tâche de fluence sémantique, dans laquelle il s’agit de nommer le plus grand nombre d’animaux en trois minutes. On peut concevoir cette tâche comme un parcours dans un espace multi-dimensionnel, et je proposerai l’hypothèse que les propriétés de ces parcours reflètent la dynamique sous-jacente de la pensée.

Pas de séance le vendredi 8 février 2019.

Vendredi 25 janvier, 14h30

salle A4-47 à l’EHESS, 54 bd Raspail.

Séance co-organisée avec Julien Randon-Furling (SAMM, Paris 1-Panthéon Sorbonne)
Cycle en hommage à Thomas Schelling.

William A.V. Clark
University of California, Los Angeles, USA

Does income based sorting modify patterns of ethnic segregation?
Re-evaluating Schelling outcomes in neighborhoods in Sweden

Joint work with Bo Malmberg, Stockhom University, Sweden
Abstract: The majority of segregation studies focus on ethnic concentration but there is growing recognition that ethnic concentrations are complexly related to economic segregation. The large scale foreign born flows into Swedish cities have created migrant (ethnic) concentrations which are also areas of concentrated poverty. However, seemingly in contrast with intersections of poverty and ethnicity in US cities, we suggest that all individuals with low income, irrespective of ethnic status (including Swedish born), are strongly sorted into these neighborhoods. We show that economic status is a factor in migrant concentration, and that ethnic concentration can be a by-product of economic segregation. Thus, residential sorting by income in large cities in Sweden is a factor in ethnic concentration but for non-migrant and migrant populations. While this finding does not negate the general finding that ethnic preferences create ethnic clustering, non-immigrant choices play important roles in making ethnic segregation less severe, but can, at the same time, lead to increasing socio-economic segregation.

Pas de séance le vendredi 11 janvier 2019.

Séance supplémentaire, en partenariat avec le SAMM, Université Paris 1 – Panthéon Sorbonne (contact : Julien Radon-Furling). Cycle en Hommage à Thomas Schelling :

Vendredi 21 décembre 2018, 14h30

Institut des Systèmes Complexes (113 rue Nationale, Paris 13ème, premier étage)

Stefanie Stantcheva
Professor of Economics, Harvard University

Dancing with the stars: Innovation through interactions
Abstract: An inventor’s own knowledge is a key input in the innovation process. This knowledge can be built by interacting with and learning from others. This paper uses a new large-scale panel dataset on European inventors matched to their employers and patents. We document key empirical facts on inventors’ productivity over the life cycle, inventors’ research teams, and interactions with other inventors. Among others, most patents are the result of collaborative work. Interactions with better inventors are very strongly correlated with higher subsequent productivity. These facts motivate the main ingredients of our new innovation-led endogenous growth model, in which innovations are produced by heterogeneous research teams of inventors using inventor knowledge. The evolution of an inventor’s knowledge is explained through the lens of a diffusion model in which inventors can learn in two ways: By interacting with others at an endogenously chosen rate; and from an external, age-dependent source that captures alternative learning channels, such as learning-by-doing. Thus, our knowledge diffusion model nests inside the innovation-based endogenous growth model. We estimate the model, which fits the data very closely, and use it to perform several policy exercises, such as quantifying the large importance of interactions for growth, studying the effects of reducing interaction costs (e.g., through IT or infrastructure), and comparing the learning and innovation processes of different countries.

Vendredi 14 décembre, 14h30

salle A4-47 à l’EHESS, 54 bd Raspail.

Camille Roth
CNRS, Centre Marc Bloch, Berlin

Fragmentation des espaces publics numériques – un point de vue socio-sémantique
Résumé : La possible « balkanisation » des espaces publics numériques a fait l’objet d’une attention croissante au cours de la dernière décennie, au sein d’un débat plus large sur la contribution d’internet aux processus de délibération collective. Suivant cette hypothèse introduite dès la fin des années 90, les espaces de conversation en ligne seraient fragmentés, organisés en communautés voire en « chambres d’écho » plus ou moins reliées entre elles et plus ou moins cohésives, aussi bien d’un point de vue interactionnel (par exemple, liens de conversation, de citation, d’affiliation) que sémantique (par exemple, orientation politique des acteurs, vocabulaire mobilisé, sujets abordés). Nous procéderons en premier lieu à une revue de la littérature récente sur le sujet, notamment au prisme d’études qui s’attachent à lier interaction et information et qui portent généralement sur la plateforme de micro-blogging Twitter. Nous présenterons ensuite une série de résultats nouveaux concernant l’existence d’un espace public européen sur Twitter (fragmentation en termes linguistiques et internationaux), la visibilité des discours climato-sceptiques au sein des conversations autour des publications de l’IPCC (fragmentation en termes de positions et de vocabulaires) et, enfin, la dynamique de formation des réseaux égo-centrés de Facebook (fragmentation des cercles sociaux sous-jacents).

Vendredi 23 novembre, 14h30

salle A4-47 à l’EHESS, 54 bd Raspail.

Amandine Aftalion
Directrice de recherche au CNRS, CAMS

La course à pied en équations
Résumé : Il est en général admis par les coureurs que, dans un stade, les lignes les plus favorables sont celles du milieu. En effet, à l’extérieur, on court en aveugle, tandis que les lignes intérieures présentent le désavantage d’une grande force centrifuge. Le but de cet exposé est de mettre ces effets en équations pour déterminer la performance optimale d’un coureur : la physique de la force centrifuge, l’effet motivation à avoir quelqu’un devant, le retard à réagir quand on est doublé. On expliquera le modèle et l’effet sur la performance des différentes formes de stade ; on présentera des simulations numériques à un et deux coureurs, ainsi que les perspectives ou améliorations possibles.

Vendredi 9 novembre, 14h30

salle A4-47 à l’EHESS, 54 bd Raspail.

Nous inaugurons le Séminaire de l’année 2018-2019 par une séance de notre série autour des travaux de Thomas Schelling :

Madalina Olteanu & Julien Randon-Furling
Université Paris 1 Panthéon-Sorbonne

Ségrégation urbaine: distances focales et effets de distorsion
Résumé : Nous proposons une méthode d’analyse des dissimilarités spatiales d’une ville fondée sur la représentation de celle-ci par un faisceau de trajectoires, obtenues en explorant la ville à partir de chacun de ses points. L’échelle à partir de laquelle une trajectoire converge vers la ville entière constitue en quelque sorte une distance focale : le rayon du disque qu’il faut parcourir, en partant de tel point, pour « voir » la ville telle qu’elle est en réalité, dans son ensemble. Cette distance dépend de la variable (ou de la distribution) considérée, ainsi que du seuil de convergence choisi. Une intégrale permet à la fois de s’affranchir de l’arbitraire dans le choix du seuil et d’identifier les points pour lesquels la convergence est presque toujours lente, y compris pour des seuils relativement élevés. Nous définissons ainsi un coefficient de distorsion, qui mesure à quel point l’image de la ville, perçue en tel ou tel point, est différente de son image globale réelle.
Référence : J. Randon-Furling, M. Olteanu, W. Clark, A. Lucquiaud, From urban segregation to spatial pattern detection, Environment & Planning B: Urban Analytics & City Science (2018) https://doi.org/10.1177/2399808318797129


Année 2017-2018

Vendredi 22 juin, 14h (attention, pas 14h30)

salle A4-47 à l’EHESS, 54 bd Raspail. Séance coorganisée avec le SAMM, Université Paris 1 – Panthéon Sorbonne (contact : Julien Radon-Furling).

Mark S. Handcock
Professor and Chair of Statistics, UCLA

Some Impacts of Social Research on Statistical Methodology
Abstract: In 1992, Clifford C. Clogg published a paper on « the influence of sociological methodology, or methodology for social research more generally, on modern statistics. » In it he emphasized the contributions of the social sciences to the development of statistical methodology. Since that time the social sciences has continued to produce, motivate and demand new statistical methodology.
This presentation will review some of these recent contributions, including causality, networks, and the reproducibility of science itself.

Vendredi 8 juin, 14h30

salle A4-47 à l’EHESS, 54 bd Raspail.

Francis Gross
Senior Adviser, Directorate General Statistics – European Central Bank

Sens artificiels. Mesurer l’économie et la finance à l’échelle mondiale et en temps réel : Nous en avons besoin – est-ce possible?
Résumé : Nos sens naturels ne perçoivent ni l’économie ni la finance : nous avons besoin de sens artificiels. Un sens n’est utile que s’il fonctionne à l’échelle et à la vitesse pertinents au système mesuré et à l’objectif de l’observateur. Après l’ouverture de la boîte de Pandore technologique, nous découvrons que l’échelle pertinente est devenue mondiale, que la vitesse pertinente est le temps réel, et que le système peut devenir violemment turbulent. Les méthodes des statistiques classiques ne pourront délivrer cette performance. Nous devons donc rendre l’économie et la finance plus mesurable.
Il devient urgent de développer :
– Une vision de la substance mesurée
– un concept de la mesure dans un système socio-technique complexe et rapide, loin au-delà de la performance du cerveau humain, individuel ou collectif
– l’architecture d’une infrastructure digitale pour l’économie moderne
L’auteur passe en revue ces thèmes et présente les récents progrès une première réalisation à l’échelle mondiale ainsi que les prochaines étapes possibles.
Présentation (format pdf) ici.

Vendredi 25 mai, 14h30

salle A4-47 à l’EHESS, 54 bd Raspail.

Nous accueillerons Julie Josse (Ecole Polytechnique) pour un exposé sur l’exploitation de données médicales pour une meilleure efficacité de la prise en charge par les hôpitaux, un travail en partie mené en collaboration avec l’APHP.

Julie Josse
CMAP, Ecole Polytechnique

Distributed Multi-Level Matrix Completion for Medical Databases
Abstract: Gathering the information contained in the databases of several hospitals is a step toward personalized medical care as it increases the chances of finding similar patient profiles and therefore provinding them better treatment. However, there are technical (computations and storage issues) and social barriers (privacy concerns) to the aggregation of medical data. Both obstacles can be overcome by turning to distributed computations so that hospitals only share some intermediate results instead of the raw data. As it is often the case, the medical databases are incomplete. One aim of the project is to impute the data of one hospital using the data of the other hospitals. This could also be an incentive to encourage the hospitals to participate in the project. In this talk, we will describe a single imputation method for multi-level (hierarchical) data that can be used to impute both quantitative, categorical and mixed data. This method is based on multi-level simultaneous component analysis (MLSCA) which basically decomposes the variability in both a between and within (hospitals) variability and performs a SVD on each part. The imputation method can be seen as an extension of matrix completion methods. The methods and their distributed versions are implemented in an R package.

Vendredi 13 avril, 10h30 (attention, heure inhabituelle)

salle A4-47, EHESS, 54 boulevard Raspail, 75006 Paris

Second séminaire d’une série autour des travaux de Thomas Schelling, décédé en décembre 2016. Coorganisation avec le SAMM, Université Paris 1 – Panthéon Sorbonne.

Ingela Alger
Directrice de recherche au CNRS, Toulouse School of Economics

Uninvadable social behaviors and preferences in group-structured populations
Humans evolved in populations structured in groups that extended beyond the nuclear family. Individuals interacted with each other within these groups and there was limited migration and sometimes conflicts between these groups. Suppose that during this evolution, individuals transmitted their behaviors or preferences to their (genetic or cultural) offspring, and that material outcomes resulting from the interaction determined which parents were more successful than others in producing (genetic or cultural) offspring. Should one then expect pure material self-interest to prevail? Some degree of altruism, spite, inequity aversion or morality? By building on models in population biology we analyze the role that di¤erent aspects of population structure — such as group size, migration rates, probability of group conflicts, cultural loyalty towards parents — play in shaping behaviors and preferences which, once established, cannot be displaced by any other preference. In particular, we show that uninvadable preferences under limited migration between groups will consist of a materially self-interested, a moral, and an other-regarding component, and we show how the strength of each component depends on population structure.
Slides of the talk here.

Vendredi 23 mars, 14h30

salle A4-47, EHESS, 54 boulevard Raspail, 75006 Paris

José Morán
CFM & CAMS

Un nouveau mécanisme pour la loi de Zipf
De nombreux modèles tentent d’expliquer les distributions à queues épaisses que l’on observe dans la distribution de la taille d’entreprises ou de la taille des villes. Nous proposons ici un modèle épuré : un agent initialement dans une entité A choisit de partir vers B si B est « meilleur » que A dans M critères parmi un total de K. Dans le cas MK/2 elle tend asymptotiquement vers une distribution en loi de puissance d’exposant -2, fournissant ainsi un nouveau mécanisme simple pour la loi de Zipf.
Référence : J. Morán, J.-Ph. Bouchaud, « Greedy algorithms and Zipf laws », preprint arXiv:1801.05279

Vendredi 9 mars, 14h30

salle A4-47, EHESS, 54 boulevard Raspail, 75006 Paris

Gérard Weisbuch
Directeur de recherche au CNRS, LPS, ENS

Partage du gâteau et émergence de classes ?
Le « partage du gâteau » proposé par Nash en 1950 est l’un des jeux classiques en théorie des jeux, formalisation simple de la question du partage d’un profit de telle sorte que tous les participants estiment en avoir reçu une part « satisfaisante ». L’itération du jeu dans un cadre multi-agents a été proposée par Axtell, Epstein et Peyton Young en 2001 qui en déduisent un processus d’émergence des classes sociales. En modélisant différemment les processus d’apprentissage et de choix des agents on abouti à des conclusions différentes mais non moins intéressantes.
Référence : G. Weisbuch, « Persistence of discrimination: revisiting Axtell, Epstein and Young », preprint arXiv:1706.02573

Vendredi 23 février, 14h30

salle A4-47, EHESS, 54 boulevard Raspail, 75006 Paris.

Matthieu Latapy
Directeur de recherche au CNRS, LIP6, UPMC

Analyser des interactions temporelles avec les flots de liens
Des transferts d’argent ou de données, des contacts entre individus, ou des achats de produits, toutes ces activités sont assimilables à des interactions temporelles. Étudier la structure et la dynamique de ces interactions revêt un caractère crucial pour la compréhension de nombreux phénomènes et pour de nombreuses applications (détection d’événements dans du trafic, détection de fraudes, recommandation de produits, optimisation de réseaux, construction de relations pérennes à partir d’interactions ponctuelles, etc). La structure de telles interactions est étudiée en utilisant des graphes ou des réseaux (ensembles de nœuds et de liens) ; leur dynamique est étudiée en utilisant des signaux ou des séries temporelles (variations d’une propriété au cours du temps) ; pour étudier la dynamique de leur structure, on utilise des séquences de graphes. Toutefois, ces approches ne capturent que de façon très limitée la nature à la fois structurelle et temporelle des interactions, qui nécessite un cadre spécifique.
Nous présentons ici une généralisation des graphes, que nous appelons des flots de liens, permettant un traitement cohérent des deux aspects. Nous obtenons un langage pour l’étude directe des séquences d’interactions, similaire à celui des graphes pour l’étude des relations.
Référence : M. Latapy, T. Viard & C. Magnien, « Stream Graphs and Link Streams for the Modeling of Interactions over Time », preprint arXiv:1710.04073

Lundi 15 janvier, 14h30

salle S1-23 (1er sous-sol), EHESS, 54 boulevard Raspail, 75006 Paris.

Janet Pierrehumbert
Professor of Language Modelling, Dept. of Engineering Science, University of Oxford, UK

Remembering and generalizing from examples of words.
People learn words from experienced examples of them. The words in turn provide the statistical foundation for learning word-formation patterns. What information about words is encoded and remembered? How are generalisations formed from stored examples? When people encounter variable input, do they simply remember and reproduce this variation, or do they systematise it in their own outputs?
In this talk, I will present results from corpus analyses and online game-like experiments that address these questions. These indicate that mental representations of words include much detail, including contextual detail such as social-indexical associations. At the same time, there is a great amount of individual variation in what information is encoded and the way abstract generalizations are formed from remembered examples. The basic mechanism for learning word formation is not probability-matching, as assumed in recent Bayesian models. People have a propensity to systematise the input, but differ in what contextual associations they notice, how open they are to unexpected input, and how aggressively they systematise. These results support claims that heterogeneity in the speech community plays a strong role in language variation and change.

Vendredi 22 décembre, 14h30

salle A4-47, EHESS, 54 boulevard Raspail, 75006 Paris.

Julien Perret
Chargé de recherche du Ministère de la Transition écologique et solidaire (MTES)
LaSTIG (Laboratoire des Sciences et Technologies de l’Information Géographique)
IGN (Institut National de l’Information Géographique et Forestière)

Simplu3D : un modèle de simulation des droits à bâtir
Simplu3D est un modèle de simulation des droits à bâtir permettant de générer des configurations bâties qui respectent les règles locales du droit de l’urbanisme (PLU/POS/RNU). Il s’agit de résoudre un problème d’optimisation d’une fonction objectif (le volume totale de la configuration bâtie par exemple) avec des contraintes géométriques (hauteur de construction, distances aux limites séparatives, etc.). La méthode de résolution choisie utilise un recuit simulé et un échantillonnage stochastique par Reversible-jump Markov chain Monte Carlo (RJMCMC).
Dans cette présentation, nous présentons le fonctionnement du modèle, son utilisation, mais aussi sa validation et les perspectives qu’ouvrent un tel modèle pour une meilleure compréhension des réglementations d’urbanisme, la concertation autour des projets d’urbanisme et, plus généralement, une meilleure prise de décision en matière d’urbanisme et d’aménagement du territoire.

Vendredi 8 décembre, 14h30

salle A4-47, EHESS, 54 boulevard Raspail, 75006 Paris.

Paul Pezanis-Christou
School of Economics, The University of Adelaide, Australia

Exploration vs Exploitation, Impulse Balance Equilibrium, and the El Farol bar problem
Many social and economic activities require some degree of coordination in people’s actions to be enjoyed. Congestion games, in which a group of individuals contemplates participating in an event that is enjoyed only if a few participate, characterize well such situations. Such games have been widely investigated in the social sciences, and laboratory experiments suggest that despite the existence of multiple equilibria in pure strategies, participants somehow manage to behave almost optimally: overall, their behaviour is found to converge to the game’s (unique) symmetric Nash mixed-strategy equilibrium. This pattern was first coined as ‘magic’, and has subsequently been explained in terms of reinforcement learning processes, probability distortions or overconfidence. Yet, some investigations report persistent deviations which can be rationalised in terms of Quantal Response Equilibrium: a stochastic version of the Nash equilibrium which is remarkably successful in organizing the behaviour observed in numerous economic experiments.
The paper provides two new rationales of behaviour in a class of congestion games that is widely used in economics to study market-entry decisions and often referred to as the El Farol bar problem (Arthur, AmEconRev, 1994). The first model, EvE, uses an ‘Exploration vs Exploitation’ argument and happens to be structurally equivalent to that of the Quantal Response Equilibrium (McKelvey and Palfrey, GamesEconBehav, 1996). The second model, IBE, uses an Impulse Balance Equilibrium argument inspired from Selten et al. (ExpEcon, 2005) that makes a heuristic prediction as to how agents play games and assumes no best-responding behaviour: agents only balance the foregone payoffs associated to the options available.
Both EvE and IBE are parsimonious stationary models that involve only one parameter. To assess their explanatory power, we conduct market-entry experiments that manipulate both payoff structures and payoff levels, and that involve groups of ten participants playing for 150 rounds. The data indicate that these two models explain equally well the data in terms of goodness-of-fit whenever the observed probability of entry is less than the Nash equilibrium prediction; otherwise IBE marginally outperforms EvE. The estimates are also constant throughout the experiments which suggests no obvious learning pattern in participants’ behaviour. When assuming symmetric agents (as is usually done in the experimental economics literature) and when estimating the models with group rather than pooled data, IBE yields more consistent estimates than EvE. However, the opposite occurs when the symmetry assumption is relaxed, and the conduct of a specification test overwhelmingly rejects the null of consistency of the data with either model. The pros and cons of modelling heterogeneity in such games is briefly reviewed.
Overall, our study indicates that the conclusions drawn from the usual approach of assuming symmetric agents when estimating such models crucially depends on whether ones uses pooled or group data and that in the latter case, these models have in fact little empirical support.
Work in collaboration with Alan Kirman and François Laisney.

Séance double :

Mercredi 22 novembre à 14h30

Institut Henri Poincaré, Amphithéâtre Hermite, 11 rue Pierre et Marie Curie, 75005 Paris.

Cette séance spéciale est organisée dans le cadre de la conférence de clôture de l’ERC ReaDi (« Reaction-Diffusion Equations, Propagation and Modelling »), qui se tient du 20 au 23 novembre à l’IHP. Elle remplace les deux séances du séminaire, initialement prévues pour les 10 et 24 novembre.

14h30 :
José Scheinkman
Columbia University

Supply and Shorting in Speculative Markets
This is joint work with Marcel Nutz (Columbia University). We propose a continuous-time model of trading among risk-neutral agents with heterogeneous beliefs. Agents face quadratic costsof-carry on their positions and as a consequence, their marginal valuation of the asset decreases when the magnitude of their position increases, as it would be the case for risk-averse agents. In the equilibrium models of investors with heterogeneous beliefs that followed the original work by Harrison and Kreps, investors are risk-neutral, short-selling is prohibited and agents face a constant marginal cost of carrying positions. The resulting resale option guarantees that the equilibrium price exceeds the price of the asset in a static buy-and-hold model where speculation is ruled out. Our model features three main novelties. First, increasing marginal costs entail that the price depends on the exogenous supply. Second, in addition to the resale option, agents may also value an option to delay, and this may cause the market to equilibrate below the static buy-and-hold price. Third, we introduce the possibility of short-selling; then the resale option for agents with short positions partly compensates the resale option for long agents. We characterize the unique equilibrium of our model through a Hamilton–Jacobi–Bellman equation of a novel form and use it to derive several comparative statics results.

15h30 :
Jean-Pierre Nadal
CNRS et EHESS

The 2005 French riots: a data-driven epidemiological modeling reveals a spreading wave of contagious violence
During autumn 2005, after two youth died while trying to escape a police control, riots started in a poor suburb of Paris, spread around and then in all France, hitting more than 800 municipalities and lasting about 3 weeks. Thanks to an access to a detailed, day by day, account of these events, we analyzed the dynamics of these riots. In this talk I will show that a parsimonious data-driven epidemic like model, taking into account both local (within city) and non-local (through geographic proximity or media) contagion, allows to reproduce the full time course of the riots at the scale of the country. I will make explicit the specificity of the model as compared to the modeling of the spread of infectious diseases. I will also discuss the methodology in the broader context of modeling social phenomena, showing in particular how modeling provides a kind of regularization of the data. In the case of the 2005 French riots, it allows to visualize the wave propagation around Paris in a way not described before.
Ref: Laurent Bonnasse-Gahot, Henri Berestycki, Marie-Aude Depuiset, Mirta B. Gordon, Sebastian Roché, Nancy Rodrez and Jean-Pierre Nadal, « Epidemiological modeling of the 2005 French riots: a spreading wave and the role of contagion « , submitted, arXiv:1701.07479

Deux séances exceptionnelles, les 6 et 10 octobre 2017, se tiendront à l’Institut des Systèmes Complexes (ISC-PIF, 113 rue Nationale 75013 Paris, M° Olympiades/Nationale, 1er étage), co-organisées avec le laboratoire SAMM (Université Paris 1 Panthéon Sorbonne) :

Vendredi 6 octobre 2017, à 10 h 30

Modeling Archeological Interactions in Space, avec Barbara Mills (Univ. Arizona) et Oliver Nakoinz (Univ. Kiel).

Plus d’informations ici.

Il s’agit aussi d’une demi-journée satellite du colloque Interactions du SAMM, et qui sera (pour)suivie par une table-ronde aux 20e Rendez-vous de l’Histoire de Blois le lendemain (voir ici).

Mardi 10 octobre 2017, 14h30.

Première séance d’une série autour des travaux de Thomas Schelling, décédé en décembre dernier, avec une conférence de William Clark (UCLA, professeur invité à Paris 1).

William A. V. Clark

Selection, sorting and social distance : the tegacy and continuing relevance of Thomas Schelling.
Although Thomas Schelling was awarded the Nobel prize for “having enhanced our understanding of conflict and cooperation though game theory analysis”, for most social scientists his legacy is his work on the “tipping point” and how small differences in preferences can have macro effects on spatial organization. That thinking has been the basis for popular works like the Big Sort. The central contribution of Micromotives and Macrobehavior was to show how behavioral actions at the individual level create aggregate outcomes across social structures. A combination of agent based and mathematical modelling, and survey analyses of mobility behavior, continues to inform our understanding of how social distance creates residential patterns. Because most residential mobility involves short distances the process of initial selection and continuing adjustment creates clustering by social distance. Sorting by race, ethnicity, income and education is likely to continue despite social intervention. At the same time there is some survey evidence of changing preferences in US contexts which may alter ethnic but not economic sorting.

Plus d’informations ici.


Année 2016-2017

Vendredi 9 juin 2017, 14h30

105 bd Raspail, salle 1.

Baptiste Coulmont
Maître de Conférence, Université Paris 8

Physique (sociale) des particules : sociographie de la noblesse d’apparence.
En 1816, 100% des ambassadeurs français avaient un nom à particule, ils ne sont plus que 3% aujourd’hui. La présence d’une particule dans le nom de famille n’a jamais impliqué l’appartenance à la noblesse… et pourtant ces noms, au XIXe siècle, étaient surreprésentés au sommet de l’échelle sociale : la noblesse d’apparence avait l’apparence de la noblesse. A partir de l’analyse de listes nominatives variées (concernant le personnel politique, les anciens élèves de grandes écoles, les bacheliers, les électeurs…) cette communication étudie la lente disparition des positions sociales héritées de l’Ancien Régime, mais aussi leur rémanence (résidentielle, culturelle et politique) encore aujourd’hui. Car en 2017, Dupont (prénom Olivier) n’est toujours pas du Pont (prénoms Aymard, Sixte, Marie).

Vendredi 28 avril 2017, 14h30

105 bd Raspail, salle 1.

Yannick L’Horty
Professeur d’Economie, Université Paris-Est Marne-la-Vallée
Directeur de la Fédération Travail Emploi et Politiques Publiques (TEPP)

Les discriminations dans l’accès à l’emploi public
S’il est a priori difficile de mesurer les discriminations dans l’accès à l’emploi, cela paraît hors de portée dans le cas de l’emploi public où le principe du recrutement par concours semble faire obstacle à la mise en œuvre d’opérations-piège tels que les tests de discrimination. Ce rapport surmonte cet obstacle et évalue pour la première fois le risque discriminatoire dans l’accès à l’emploi public en France, en s’appuyant sur un ensemble coordonné de travaux de recherche de nature expérimentale et quasi-expérimentale.
Il a été remis au Premier ministre le 12 juillet 2016, après que son principe ait été décidé lors du Comité interministériel à l’égalité et à la citoyenneté du 6 mars 2015.

Vendredi 24 mars 2017, 14h30

105 bd Raspail, salle 1.

Quentin Feltgen
Laboratoire de Physique Statistique, ENS, Paris

Modélisation du changement linguistique : Compétition et diffusion sur le réseau sémantique
Lorsqu’on considère l’évolution de la fréquence d’usage d’un terme de la langue sur des échelles de temps longues, on observe de brusques variations, qui peuvent facilement décupler la fréquence d’usage de ce terme en l’espace d’environ un siècle, entrecoupées de phases plus stables. Ces augmentations soudaines sont quelquefois éclairées par le contexte culturel et historique de la langue à un moment donné, mais elles surviennent le plus souvent d’une manière qui semble arbitraire. Partant d’une étude statistique sur un grand ensemble de mots dits fonctionnels (c’est-à-dire servant à articuler la phrase ou le discours), nous montrons que ces augmentations obéissent majoritairement à un même schéma : une phase de latence d’abord, puis une courbe de croissance « en S », qui suit de manière remarquable une fonction sigmoïde.
Pour analyser ce phénomène, nous proposons un modèle de compétition entre l’usage de deux mots, représentés chacun par une population qui tente de dominer un « site sémantique » donné. Ce modèle met en place une dynamique représentant les caractères fondamentaux de la communication linguistique et de la mise en mémoire de ces expériences. Il donne lieu à une marche aléatoire dans l’espace des fréquences d’usage. Nous mettons en évidence un comportement critique lié à la structure particulière du réseau cognitif, et dont la phase de latence est la signature.
Le modèle prédit ainsi la cooccurrence des deux phases, celle de latence et celle en « S ». Cette modélisation permet notamment de comprendre la difficulté posée par les explications historiques ou sociologiques des augmentations de fréquence d’usage, qui ne tiennent pas compte du décalage temporel, induit par la phase de latence, entre l’initiation du changement et sa réalisation effective. Le modèle ouvre enfin à des perspectives de recherche intéressantes en ce qu’il fait le lien entre l’évolution observable des fréquences d’usage et la structure sous-jacente de l’organisation sémantique du langage.

Travail en collaboration avec Benjamin Fagard & Jean-Pierre Nadal
Réf. : arXiv preprint https://arxiv.org/abs/1703.00203

Vendredi 24 février 2017, 14h30

105 bd Raspail, salle 4.

Laura Hernandez
Université de Cergy-Pontoise
&
Annick Vignes
ENPC & CAMS

La confiance façonne-t-elle la structure des marchés ? Un approche écologique à l’étude des interactions dans les marchés centralisés et décentralisés
Le rôle de la confiance dans les propriétés des marchés décentralises a été signalé par plusieurs auteurs. Malgré les différences dans la définition de confiance entre les disciplines,  il est assez consensuel de considérer que une relation de confiance entre deux agents permet à chacun de prévoir le comportement de l’autre.
En nous basant sur une étude empirique du Marché au Poissons de Boulogne-sur-Mer (où chaque jour, tant les acheteurs que les vendeurs peuvent choisir de participer soit à un sous-marché aux enchères ou à un marché négocié, qui fonctionnent en parallèle), nous mesurons la fidélité des interactions entre les acteurs dans les  deux marchés coexistants.

Does trust influence markets’ structure? An ecological approach to market organisation
The influence of trust on the outcome of decentralised markets has been underlined by many authors, although the definition of trust differs from one discipline to another.  Despite these differences, we can agree that trust is a measure of the confidence that an agent or agents will behave in an expected manner.
Starting from an empirical analysis of the distinctive Boulogne-sur-Mer fish market (where both buyers and sellers can choose to trade by either bidding or bargaining), we  measure the existence of trust on the two market structures. We study both sub-markets as ecosystems, where agents of two different kinds (buyers and sellers) hold  mutualistic interactions which,  in addition to the natural benefits they bring for those directly involved, also contribute to the stability of the market.

Vendredi 27 janvier 2017, 14h30

105 Bd Raspail 75006 Paris, salle 4.

David Chavalarias
CAMS & Institut des systèmes complexes de Paris-Ile-de-France (ISC-PIF)

Dans quelle science vivons nous ? Ce que la fouille de données et la modélisation nous enseignent sur l’évolution des sciences
Les critères de productivité se standardisent dans le milieu de la recherche et  ceux qui veulent faire une carrière universitaire sont soumis à une pression croissante pour assurer un certain rythme de publication. Gouvernements et organismes de financement sont friands d’indicateurs basés sur la productivité pour mesurer l’efficacité de leurs politiques scientifiques.
Mais que savons-nous exactement sur les facteurs qui influencent l’évolution des sciences et la qualité de leurs productions ? A travers différentes approches (fouille de données, modélisation et simulation), nous présenterons quelques caractéristiques des dynamiques scientifiques en insistant sur l’influence des dynamiques sociales collectives sur les dynamiques de la connaissance (qualité et vitesse de découverte).

Vendredi 13 janvier 2017, 15h

105 Bd Raspail 75006 Paris, salle 1.

Roberto Casati
Institut Jean Nicod

La topologie cachée de Venise
Nous étudions la structure spatiale de Venise du point de vue du piéton, en distinguant et classifiant différents types d’îlots, ici contrastés avec les îles. La Venise du piéton a une forme qui diffère de manière intéressante de celle de la Venise pour le marin. La dualité des îles et des îlots est présentée et discutée. Un «avantage représentationnel pour les îles» peut biaiser la représentation spatiale de la structure de la ville. Nous fournissons ainsi une carte des îlots à grande échelle du centre-ville de Venise qui pointe vers certains avantages déductifs d’une représentation par îlots.
We investigate the spatial structure of Venice from the viewpoint of the pedestrian, distinguishing and taxonomizing various types of blocks, and contrasting blocks with islands. Pedestrians’ Venice has a shape that differs in interesting ways from that of Venice for the sailor. The duality of islands and blocks is introduced and discussed. An “island advantage” may bias the spatial representation of the structure of the city. We provide a tentative large scale block map of downtown Venice that points to some inferential advantages of a block representation.

ATTENTION : cette séance est reportée au vendredi 24 février 2017
(en raison de la 4ème journée MAGECO)

Vendredi 9 décembre, 15h

105 bd Raspail, salle 1.

Laura Hernandez
Université de Cergy-Pontoise
&
Annick Vignes
ENPC & CAMS

La confiance façonne-t-elle la structure des marchés ? Un approche écologique à l’étude des interactions dans les marchés centralisés et décentralisés
Le rôle de la confiance dans les propriétés des marchés décentralises a été signalé par plusieurs auteurs. Malgré les différences dans la définition de confiance entre les disciplines,  il est assez consensuel de considérer que une relation de confiance entre deux agents permet à chacun de prévoir le comportement de l’autre.
En nous basant sur une étude empirique du Marché au Poissons de Boulogne-sur-Mer (où chaque jour, tant les acheteurs que les vendeurs peuvent choisir de participer soit à un sous-marché aux enchères ou à un marché négocié, qui fonctionnent en parallèle), nous mesurons la fidélité des interactions entre les acteurs dans les  deux marchés coexistants.
Does trust influence markets’ structure? An ecological approach to market organisation
The influence of trust on the outcome of decentralised markets has been underlined by many authors, although the definition of trust differs from one discipline to another.  Despite these differences, we can agree that trust is a measure of the confidence that an agent or agents will behave in an expected manner.
Starting from an empirical analysis of the distinctive Boulogne-sur-Mer fish market (where both buyers and sellers can choose to trade by either bidding or bargaining), we  measure the existence of trust on the two market structures. We study both sub-markets as ecosystems, where agents of two different kinds (buyers and sellers) hold  mutualistic interactions which,  in addition to the natural benefits they bring for those directly involved, also contribute to the stability of the market.

Vendredi 25 novembre à 15h

105 Bd Raspail 75006 Paris, salle 1.

Amine Ouazad
Ecole Polytechnique
&
Romain Rancière
FMI

Modélisation des villes et de leurs dynamiques en économie urbaine: Récents développements.
L’économie théorique et empirique a bénéficié du développement des microdonnées géocodées de transactions immobilières, de démographie des logements, de l’évolution des revenus, criminalité et statistique scolaires à l’échelle de métropoles entières. Nous pouvons désormais produire des prédictions raisonnables de l’évolution de quartiers à partir de modèles de choix de localisations de quartiers. Ces modèles permettent de comprendre les niveaux élevés de ségrégation entre quartiers, pourquoi la qualité des écoles est capitalisée dans les prix du logement, et permet de simuler l’impact des transports sur les choix de localisation.

Roberto Casati
CNRS, Institut Jean Nicod

La topologie cachée de Venise
Nous étudions la structure spatiale de Venise du point de vue du piéton, en distinguant et classifiant différents types d’îlots, ici contrastés avec les îles. La Venise du piéton a une forme qui diffère de manière intéressante de celle de la Venise pour le marin. La dualité des îles et des îlots est présentée et discutée. Un «avantage représentationnel pour les îles» peut biaiser la représentation spatiale de la structure de la ville. Nous fournissons ainsi une carte des îlots à grande échelle du centre-ville de Venise qui pointe vers certains avantages déductifs d’une représentation par îlots.

We investigate the spatial structure of Venice from the viewpoint of the pedestrian, distinguishing and taxonomizing various types of blocks, and contrasting blocks with islands. Pedestrians’ Venice has a shape that differs in interesting ways from that of Venice for the sailor. The duality of islands and blocks is introduced and discussed. An “island advantage” may bias the spatial representation of the structure of the city. We provide a tentative large scale block map of downtown Venice that points to some inferential advantages of a block representation.

Vendredi 26-27 mai 2016

lieu inhabituel : Institut des Systèmes Complexes Paris Ile-de France (ISC-PIF, 113 rue Nationale, 75013 Paris, http://iscpif.fr)

Colloque : « Approches systèmes complexes des processus de déstructuration et de résilience sociale. »

Vendredi 20 mai 2016 à 15h

EHESS, 105 bd Raspail, salle 5

Jean-Jacques Terrin
Architecte, Dr. en architecture, Prof. ém. ENSA Versailles, Prof. associé Université de Montréal, Prof. ass. Uni. Tirana, Lab’Urba, Université Paris Est.

Stratégies de villes face au phénomène d’îlot de chaleur
Face au réchauffement global, la ville, qui se caractérise le plus souvent par un milieu dense, est soumise à des effets d’îlot de chaleur urbains, facteurs de dysfonctionnements et d’inconfort. Ce phénomène est provoqué par l’accumulation d’un grand nombre de facteurs : urbanisme dense, circulation automobile intense, minéralisation excessive et déficit de végétal et d’eau dans les espaces publics, etc. Parallèlement, divers phénomènes météorologiques tels que les événements pluvieux sont à prendre en considération, tout comme les épisodes de sécheresse et l’incertitude sur les régimes des vents. Les différentes stratégies élaborées par les métropoles pour lutter contre le réchauffement climatique sont partielles et restent largement empiriques. Elles conduisent néanmoins à une remise en cause de l’élaboration de projets architecturaux, urbains et paysagers à différentes échelles.

Vous pouvez retrouver l’affiche de cette séance ici

Vendredi 8 avril 2016 à 15h

EHESS, 105 bd Raspail, salle 1

André de Palma
ENS de Cachan, Université Paris-Saclay

Structures urbaines non linéaires : de la théorie au modèle de simulation du Grand Paris Express
Les structures urbaines sont le résultat de forces centripètes et centrifuges. Les villes sont des systèmes ouverts hautement non-linéaires, structurés par ces deux types de processus. Ils s’expriment dans un contexte individuel (le citoyen), familial (prise en compte des interactions avec d’autres membres de sa famille), social (externalités positives et négatives) et professionnel  (par les effets d’agglomération, la productivité du travail dépend de la densité des emplois et des interactions effectives et potentielles).
Au travers d’exemples, nous mettrons en place quelques pièces d’un puzzle qui possède comme objectif ultime la compréhension et la prédiction de la dynamique urbaine. Pour conclure, nous présenterons une application dans le cadre du Grand Paris.

Vous pouvez retrouver l’affiche de cette séance ici

Vendredi 25 mars 2016 à 15h

EHESS, 105 bd Raspail, salle 1

Laura Hernandez
Université de Cergy Pontoise, Laboratoire de Physique Théorique et Modélisation
&
Annick Vignes
ENPS & CAMS, EHESS

La confiance influence-t-elle la structure d’un marché ? Une approche écologique de l’organisation des marchés
Does trust influence markets structure? An ecological approach to market organization
The influence of trust on the outcome of decentralised markets has been underlined by many authors, although the definition of trust differs from one discipline to another.  Despite these differences, we can agree that trust is a measure of the confidence that an agent or agents will behave in an expected manner. Starting from an empirical analysis of the distinctive Boulogne-sur-Mer fish market (where both buyers and sellers can choose to trade by either bidding or bargaining), we measure the existence of trust on the two market structures. We study both sub-markets as ecosystems, where agents of two different kinds (buyers and sellers) hold  mutualistic interactions which,  in addition to the natural benefits they bring for those directly involved, also contribute to the stability of the market.

Vous pouvez retrouver l’affiche de cette séance ici

Vendredi 18 mars 2016 à 15h

EHESS, 105 bd Raspail, salle 4

Richard Brooks
Yale Law School

Correlated Equilibria through Spoken Address: Language and Political Organization
The talk focuses on the use of verbal address to coordinate behavior and support particular political organization. Basic game theoretical models are presented and are supported with empirical evidence based on the genocide in Darfur.

Vous pouvez retrouver l’affiche de cette séance ici

Vendredi 4 mars 2016 à 15h à 17h

EHESS, 105 bd Raspail, salle 5

Gérard Weisbuch
CNRS, Laboratoire de Physique Statistique, ENS, Paris

Développement d’opinions extrêmes en démocratie : une approche par la simulation numérique.Une des questions fondamentales posées par Robert Axelrod, est la suivante : “If people tend to become more alike in their beliefs, attitudes and behaviour when they interact, why do not such differences eventually disappear?”. On peut y rajouter : « et comment se fait-il que les opinions les plus extrêmes se développent et se maintiennent dans les sociétés démocratiques ? ».
Je tenterais d’étudier à partir de simulations numériques les conditions du développement et de l’extension des opinions extrêmes.

Vous pouvez retrouver l’affiche de cette séance ici

Vendredi 22 janvier 2016 à 15h à 19h

EHESS, 105 bd Raspail, salle 1

Attention : Double séance

– 15h :
Alan Kirman
Professeur émérite à l’Université d’Aix-Marseille III & Directeur d’Etudes à l’Ecole des Hautes Etudes en Sciences Sociales,Marseille

Counter intuitive learning: an exploratory experiment
Joint work with Nobuyuki Hanaki and Paul Pezanis-Christou.Most of the emphasis in the learning literature is on reinforcing actions which produce positive results. But, in some cases, the success of an endeavor depends on shifting from a currently successful action to others. Think of crop rotating for example. Thus, a question remains as to how people learn to discover whether there is an inter-temporal dependency in the successful choices. We report results of a very simple experiment where subjects repeatedly choose one of four options among three of which a hidden deterministic cycle existed in the way payoffs are generated. We investigate how quickly subjects, who are not informed of such a deterministic payoff generating mechanism, discover the hidden mechanism correctly. Some of our subjects were surprisingly fast to find it and behaved accordingly. Observing the choices, the resulting payoffs, or both made by another subject after each choice in addition to the outcome of own choice significantly facilitated the discovery of the correct pattern only when the other had already discovered the pattern, but not when the other had not. We develop a simple model to show how subjects could switch their exploring behaviour as they learn. Such a switch is often referred to in the psychology and neuroscience literature as an « aha » moment.

– 16h15 :
Stefano Demichelis
Full Professor, Università di Pavia, Dipartimento di mathematica, Pavia
Political strategy in candidating for the Presidency in Italy –The role of symmetry and symmetry breaking in communication gamesIt is intuitive and obvious to the layman that communication in games where players get better payoffs by coordinating should improve efficiency with respect to games in which agent make their choices in isolation and have to guess what the other partner will do. However, giving a convincing proof of this elementary fact has turned out to be non-trivial. In fact usual techniques from the so-called rationalistic theory, in which agents are assumed to have infinite ability to calculate and remember, are unable to prove the result. I’ll explain why.
On the other side, assuming that agents are only rational to a certain point but able to evolve tends to give more realistic predictions, in several cases. Many author have applied similar techniques to the case above but, to avoid technical difficulties, have introduced ad hoc assumptions of asymmetry between players. Essentially, it is assumed that there is a group of player that can only send messages and another group that can only receive them. This is a strong an unrealistic assumption.
I will illustrate some of the problems with it using a concrete example. Namely the strategies used by two Italian politicians (Andreotti and Forlani) who candidated for the italian presidency in 1992. The episode is well known in Italy and has been the subject of a famous movie (« Il divo Giulio”).  I will then show how a less superficial analysis, apart from leading to the correct result, gives interesting insights in the origins of conversational and behavioural maxims.

Vous pouvez retrouver l’affiche de cette séance ici

Vendredi 15 janvier 2016 à 15h

EHESS, 190-198 avenue de France, 75013 Paris, 4ème étage, salle 466A/466B (salle de l’ERC ReaDi)

K. Y. Michael Wong
Department of Physics, The Hong Kong University of Science and Technology, Hong Kong

What Drives Commodity Price to Rise Sharply at Turning Points ?
To understand the main drivers behind sharp rise in commodity prices with respect to resource availability, we introduce an agent-based model in which agents set their prices to maximize profit. At steady state, the market self-organizes into three groups: excess producers, consumers, and balanced agents. When resources are scarce, prices rise sharply at a turning point due to the disappearance of excess producers. By introducing an elasticity parameter, noises in market data of commodities are significantly reduced and provide evidence of turning points for essential commodities, as well as a yield point for non-essential ones.

Vous pouvez retrouver l’affiche de cette séance ici

Vendredi 8 janvier 2016 à 15h

EHESS, 105 bd Raspail, 75006 Paris, salle 1

Guillaume Obozinski
Laboratoire d’Informatique Gaspard Monge, Ecole des Ponts – ParisTech

Sélection de variables en grande dimension, modèles parcimonieux et apprentissage de dictionnaires
Le principe de parcimonie, souvent associé au moine franciscain anglais Guillaume d’Ockham affirme qu’il convient, dans la comparaison de théories, de privilégier les explications et modèles qui s’appuient sur le moins possible de causes, facteurs et hypothèses. Ce principe trouve un fondement mathématique en théorie statistique et dans la théorie moderne de l’apprentissage automatique qui démontrent qu’à une quantité de donnée fixée les modèles plus simples notamment les modèles linéaires avec peu de variables sont mieux estimés alors que les modèles trop complexes ou avec trop de variables peuvent souffrir d’un phénomène dit de surapprentissage, correspondant par exemple à de fausses corrélations ou des coïncidences. L’introduction de la méthode Lasso par Robert Tibshirani en 1996 a déclenché en statistiques et en apprentissage statistique un renouveau d’intérêt et un engouement considérable pour les modèles parcimonieux et les méthodes de sélection de variables. En particulier, le fait que la méthode de calcul de l’estimateur corresponde à un problème d’optimisation convexe a permis de développer à la fois une théorie statistique riche et de susciter des développement en optimisation structurée qui ont conduit à des algorithmes très efficaces.
La théorie statistique a permis de montrer que sous certaines conditions, il était possible, pour peu que le nombre de variables effectivement pertinentes soit faible, de déterminer automatiquement lesquelles choisir, même lorsque le nombre de variables candidates a priori est quasi-exponentiel dans le nombre de vecteurs de données disponibles et sans expertise humaine !
Dans mon exposé, je présenterai les approches principales pour la construction automatique de modèle parcimonieux et les concepts de parcimonie structurée. Je présenterai ensuite les méthodes d’apprentissage de dictionnaires qui permettent d’apprendre automatiquement des représentation parcimonieuses ainsi que leurs applications en imagerie cérébrale, à la modélisation des séries multivariées, à la modélisation de corpus de texte, etc.

Vous pouvez retrouver l’affiche de cette séance ici

Vendredi 18 décembre 2015 à 15h

EHESS, 105 bd Raspail, 75006 Paris, salle 8

Thomas Louail
Research Associate, Institute for Cross-Disciplinary Physics and Complex Systems, University of the Balearic Islands

Crowdsourcing the Robin Hood effect in the city
Large cities suffer from strong inequalities in wealth distribution among their neighborhoods. Income inequalities are amplified by the fact that individuals show some limited exploration of the city space when they perform their shopping trips, which gives rise to money flows that reinforce the spatial inequities resulting from residential patterns. Starting from the hypothesis that individuals might be inclined to change the destination of a limited fraction of their shopping trips in order to foster spatial equity, we investigate the consequences of such a bottom-up process at the city scale. To do so we rely on a credit card transactions database that provides geotagged information on the entire set of transactions performed in 2011 by hundreds of thousands of customers living and working in the metropolitan areas of Madrid and Barcelona. Using a simple network rewiring method that preserves the individuals’ purchases and reassigns them to businesses located elsewhere in the city, we demonstrate that wealth distribution, spatial mixing and distance traveled can be simultaneously improved in reasonable scenarios that preserve the statistical and spatial properties of human mobility.
These results suggest that such ICT datasets might support mobile apps that would help citizens to shape more sustainable cities, without depending on any central planning policy.

Vendredi 27 novembre 2015

EHESS, 96 et 105 bd Raspail, 75006 Paris

3ème journée MAGECO – Modèles basés agents en Economie

Organisateurs : Antoine Mandel (Paris 1/ PSE) et Annick Vignes (ENPC/ CAMS-EHESS)

Année 2014-2015

Vendredi 12 juin 2015 à 15h

EHESS, 105 bd Raspail, 75006 Paris, salle 2

Mathieu Arnoux & José Halloy
Mathieu Arnoux (Directeur d’études à l’EHESS) et José Halloy (Professeur de Physique, Université Paris-Diderot), travaillent tous deux au Laboratoire Interdisciplinaire des Énergies de Demain (LIED, Université Paris-Diderot).

Approche historique et modélisation mathématique des transitions techniques sur la longue durée.
La question essentielle est celle du caractère scientifique et quantitatif, ou non, de la connaissance historique. Si c’est le cas, il est possible d’en produire des modélisations. Quelles méthodes permettent d’arriver à ce résultat? L’exposé portera sur une recherche en cours consacrée aux transitions techniques. Les deux intervenants ne s’interdiront pas de se contredire mutuellement.

Vous pouvez retrouver l’affiche de cette séance ici

Vendredi 19 juin 2015 à 15h

EHESS

En guise et place de dernière séance, les organisateurs du Séminaire Systèmes complexes vous convient à une journée sur le thème des Réseaux en sciences sociales qui se tiendra ce vendredi 19 juin dans le cadre des manifestations organisées pour fêter les 40 ans de l’EHESS (http://40ans.ehess.fr/).

Page du colloque avec poster ici

Vendredi 22 mai 2015 : PAS DE SEANCE

Vendredi 17 avril 2015 à 13h

Séance co-organisée avec le laboratoire SAMM (Université Paris 1- Panthéon Sorbonne)

– 13h, salle C20.13, Centre Pierre Mendès-France, Université Paris-1 Panthéon-Sorbonne, 90 rue de Tolbiac – 75013 Paris
Tim Evans
Imperial College, Department of Physics
Archeology and Networks

– 15h, Salle 7, EHESS, 105 boulevard Raspail – 75006 Paris
Ray Rivers
Imperial College, Department of Physics

Was Thebes Necessary? Contingency in Archaeological Network Modelling

Vendredi 3 avril 2015 à 15h

EHESS, 105 bd Raspail, 75006 Paris, salle 5

Jerôme Nika & Marc Chemillier
CAMS, EHESS & IRCAM

Modèle pour l’improvisation musicale homme-machine guidée par un scénario
En partant du constat que de nombreux répertoires de musiques improvisées s’appuient sur une structure formelle définie avant la performance, l’exposé présentera un modèle d’improvisation musicale homme-machine guidée par un scénario temporel. Le modèle et l’architecture d’ordonnancement décrits dans cet exposé sont implémentés dans le système d’improvisation ImproteK, utilisé à plusieurs reprises avec des musiciens experts.
Le processus d’improvisation est modélisé comme le parcours d’une mémoire musicale structurée et annotée en suivant un chemin satisfaisant le scénario guidant l’improvisation. Nous exposerons les techniques informatiques employées dans une première partie, et particulièrement comment l’introduction d’un scénario permet d’exploiter les connaissances a priori sur la structure temporelle de l’improvisation afin d’intégrer une anticipation dans le processus de génération musicale.
Le modèle de génération est autonome et peut être utilisé pour la création de matériau musical dans un processus compositionnel hors-temps. Dans un contexte de performance improvisée, il est intégré dans une architecture permettant la mobilisation dynamique de ces processus prédéfinis. En envisageant la réactivité en tant que révision des anticipations, nous montrerons dans une deuxième partie comment l’ordonnancement des appels au modèle allie l’anticipation permise par la connaissance a priori d’un scénario et la réactivité nécessaire à l’improvisation.
La généricité de l’association « scénario / mémoire », la possibilité de définir des scénarios dynamiques, et la récente prise en charge de l’audio incitent à explorer d’autres directions que l’improvisation jazz pour laquelle le système a été initialement conçu. Nous présenterons enfin comment des scénarios décrits avec un alphabet spécifique à un vocabulaire musical donné ou en termes de descripteurs musicaux adaptés (par exemple des profils de densité ou d’énergie) peuvent permettre d’aborder de nouveaux modes de guidage de l’improvisation musicale.

Vendredi 27 mars 2015 à 15h

EHESS, 105 bd Raspail, 75006 Paris, salle 2

Vittorio Loreto
Sapienza University of Rome, Physics Dept., & Institute for Scientific Interchange (ISI), Torino, Italy

Triggering novelties and innovation in human activities
One new thing often leads to another. Such correlated novelties are a familiar part of daily life. They are also thought to be fundamental to the evolution of biological systems, human society, and technology. By opening new possibilities, one novelty can pave the way for others in a process that Kauffman has called « expanding the adjacent possible ». The dynamics of correlated novelties, however, have yet to be quantified empirically or modeled mathematically. Nowadays, thanks to the availability of extensive longitudinal records of human activity online, it has become possible to test whether everyday novelties crop up by chance alone, or whether one truly does pave the way for another. In this talk I will propose a simple mathematical framework that mimics the process of exploring a physical, biological or conceptual space that enlarges whenever a novelty occurs. The model predicts statistical laws for the rate at which novelties happen (analogous to Heaps’ law) and for the probability distribution on the space explored (analogous to Zipf’s law), as well as signatures of the hypothesized process by which one novelty sets the stage for another.  These predictions have been tested on four data sets of human activity: the edit events of Wikipedia pages, the emergence of tags in annotation systems, the sequence of words in texts, and listening to new songs in online music catalogues. By quantifying the dynamics of correlated novelties, these results provide a starting point for a deeper understanding of the ever-expanding adjacent possible and its role in triggering innovations in biological, linguistic, cultural, and technological systems. I will highlight several interesting directions ahead, e.g.: the interplay between individual and collective effects, the different mechanisms supposedly leading to innovation as well as the relevant time-scales involved.

Vous pouvez retrouver l’affiche de cette séance ici

Vendredi 13 mars 2015 à 15h

EHESS, 105 bd Raspail, 75006 Paris, salle 2

Eric Goles
Facultad de Ingeniería y Ciencias, Universidad Adolfo Ibanez, Santiago, Chili, et Le Studium, La Loire Institute for Advances Studies, Orléans

Dynamics and complexity of majority decisions: application to discrete segregation social models
We present some computational complexity results related to the prediction problem in some classes of majority networks. That is, one considers the spreading of an infection on a graph, with a deterministic infection rule specifying under which conditions a vertex becomes infected given the state of its neighbours. The prediction problem is that of computing the stable configuration (fixed point) starting from a given initial configuration.
We first consider the « majority bootstrap percolation » model : if at least half of the neighbours of a vertex are already infected, then this vertex is also infected, and infected vertices remain infected forever. For this rule, we prove that, given an arbitrary connected graph, the prediction of a state of a vertex is P-Complete (difficult problem) if the family of networks admits maximum degree ≥ 5, and it is in NC (easy problem)  when the maximum degree is  ≤ 4.
Next, for the infection rule given by the majority function, we prove that the prediction for planar networks remains difficult (P-complete).
Also we will present the  the pioneer discrete social model proposed in the 40’s by J.M.Sakoda. The social space where interactions occur is a checkerboard lattice with empty sites and two  groups of individuals which moves following positive, neutral or negative attitudes. There are 45 attitudes interactions matrices. We will characterize the dynamical behavior associated to each one.  As a particular case we recover the well known Schelling’s segregation model.

Vous pouvez retrouver l’affiche de cette séance ici

Vendredi 27 février 2015 à 15h

EHESS, 105 bd Raspail, 75006 Paris, salle 2

Pierluigi Contucci
Dip. di Matematica, Universita di Bologna

The concept of ‘social action’ (Max Weber) from the point of view of the hard sciences
The seminar will review the concept of « social action » introduced by Max Weber. A quantitative framework based on statistical physics ideas will be introduced with the purpose to identify social action from rich databases on human behaviour of large groups. The relation with the Mc Fadden discrete choice theory, widely used in economics, will be discussed. Two case studies will be illustrated on immigration data and integration quantifiers in Spain and Italy. Some consequences on the social network of trust will be derived.

Vous pouvez retrouver l’affiche de cette séance ici

Vendredi 20 février 2015 à 15h

Lieu inhabituel : Institut des Systèmes Complexes Paris Ile-de France (ISC-PIF, 113 rue Nationale, 75013 Paris http://iscpif.fr)

Isabelle Guyon
ChaLearn & ClopiNet, Berkeley, USA

La reconstruction de réseaux : la contribution des Défis en Machine Learning
Les réseaux d’influence se retrouvent à tous les niveaux des systèmes physiques, biologiques et sociaux: réseaux climatiques, réseaux de gènes, réseaux de neurones, et réseaux sociaux en sont quelques exemples. Ces réseaux ne sont pas seulement descriptifs d’un «état de la nature», ils nous permettent de faire des prédictions telles que la prévision des conditions météorologiques, l’évaluation de l’effet possible d’un médicament, la localisation d’un foyer épileptique, et la prévision de la propagation des épidémies. Ceci nous permet alors d’intervenir pour obtenir les résultats souhaités: évacuer les populations d’une région avant qu’elle soit frappée par un ouragan, administrer un traitement, vacciner, etc. Mais la connaissance de la structure du réseau est une condition préalable à l’application de ces méthodes, et cette structure peut être très difficile et coûteuse à obtenir avec des moyens traditionnels. Par exemple, la communauté médicale s’appuie sur les essais cliniques, qui coûtent des millions de dollars; la communauté des neurosciences analyse des images de microscopie électronique, ce qui prend des années avant d’établir la connectivité de 100 neurones (alors que le cerveau en contient des milliards).
Cette présentation examinera les avancées qui ont été faits dans les méthodes de reconstruction de réseaux fondées uniquement sur des données d’observation. De grands progrès ont été récemment réalisés grâce à l’apprentissage des machines (machine learning). Nous analyserons les résultats de plusieurs défis que nous avons organisés, qui pointent vers de nouvelles méthodes simples et pratiques.

Vous pouvez retrouver l’affiche de cette séance ici

Vendredi 13 février 2015 à 15h

EHESS, 105 bd Raspail, 75006 Paris, salle 3

Bertrand Jouve
Directeur de Recherche CNRS, FRAMESPA/IMT – Toulouse

Utilisation de la théorie des graphes pour l’étude de données d’histoire médiévale et plus…
Nous montrons comment des outils classiques ou nouveaux de la théorie des graphes pour l’analyse de réseaux peuvent être utilisés pour étudier des sources médiévales. Le traitement à grande échelle d’informations contenus dans des contrats agraires ou des registres fiscaux (compoix) dès 1250 permet de proposer des formes d’organisations sociales qui apportent de nouveaux points de vue à quelques grandes questions posés par les historiens.

Vous pouvez retrouver l’affiche de cette séance ici

Vendredi 9 janvier 2015 à 15h

EHESS, 105 bd Raspail, 75006 Paris, salle 3

Etienne Côme
IFSTTAR, Paris
Fouille de données billettiques, quelques applications pour l’analyse des mobilités urbaines
Les traces numériques générées lors de nos déplacements urbains sont multiples, nous nous intéresserons dans cet exposé aux données récoltées par les systèmes de billettiques, en particulier dans le contexte des systèmes de vélos en libre service (VLS) et d’un réseau de transport urbain (concernant l’agglomération Rennaise). La première partie de l’exposé présentera le contexte et les enjeux liés aux questions de respect de la vie privée et de l’ouverture de certaines données en open-data. Nous présenterons ensuite différents travaux d’analyse exploratoire de ces données billettiques à l’aide d’algorithmes de clustering automatique, en nous plaçant dans le cadre des modèles à variables latentes. Nous analyserons ensuite les résultats obtenus et tenterons de montrer comment ces données et méthodes peuvent offrir un éclairage intéressant sur la dynamique des mobilités urbaines.

Vous pouvez retrouver l’affiche de cette séance ici

Vendredi 12 décembre 2014 à 15h

EHESS, 105 bd Raspail, 75006 Paris, salle 3

Dominique Cardon
Orange Labs

Topologie de la visibilité dans les communautés du web
Cet exposé propose une analyse, conduite avec Camille Roth, des différentes formes de communautés de l’Internet et des trajectoires permettant d’y acquérir de la visibilité. Notre approche s’appuie sur un corpus de sites et blogs français étiquetés dans une communauté en fonction de leur thématique principale (technologie, maison, cuisine, politique, etc.). A partir d’un modèle proposant une caractérisation des sites en fonction des liens entrants et sortants à l’intérieur ou à l’extérieur de leur communauté, nous proposons une cartographie des différentes positions structurales au sein des communautés et une approche dynamique des trajectoires des sites au sein de cette carte au cours des 15 derniers mois. Cette recherche permet de mettre en évidence l’opposition entre deux manières de capitaliser de l’autorité sur Internet : soit par la construction d’échanges numériques au sein de sa communauté, soit en exploitant au sein de sa communauté une notoriété construite à l’extérieur d’Internet. Ce modèle descriptif permet de conduire une analyse sociologique de la variété des ressources (autorité relationnelle, prestige, soutien institutionnel ou marchand, médiatisation, etc.) mobilisées pour construire la réputation d’un site sur le web. Derrière le terme unifiant de « communauté », il est ainsi possible de dégager des structures topologiques différentes en fonction du thème qui rassemble les sites ou blogs dans le même ensemble. Une analyse compréhensive des communautés Politique, Cuisine et Technologie permet d’illustrer cette variété et de donner des exemples de trajectoires conduisant à la célébrité.

Vous pouvez retrouver l’affiche de cette séance ici

Vendredi 28 novembre 2014

15h, à l’EHESS, 105 bd Raspail, 75006 Paris, salle 3

Christian Borghesi
Laboratoire de physique théorique et modélisation – Université de Cergy-Pontoise

Effets de taille quasi universels dans les groupes : élections locales et nombre de représentants
L’étude quantitative dans dix pays de la participation électorale dans les élections locales, lorsque l’élection ne concerne que le groupe de votants, a montré une statistique quasi universelle en fonction de la taille de la population. Ces résultats s’accordent avec une distribution hiérarchique des groupes en sous-groupes, dans laquelle un groupe de N agents serait constitué d’environ Nδ(avec δ ≈ 1/3) sous-groupes. Curieusement, cette forme de répartition des groupes en sous-groupes se retrouve dans le nombre de représentants démocratiques que se dote une population donnée, et ce aux échelles municipale, régionale et nationale. Ce séminaire pourra susciter une discussion sur l’origine possible de cette loi de décomposition des groupes en sous-groupes.

Vous pouvez retrouver l’affiche de cette séance ici

Année 2013-2014

Jeudi 17 juillet 2014 à 14h30

EHESS, 105 bd Raspail, 75006 Paris, salle 8

Mini-symposium « Some examples of networks in economics »
(Talks: 30mn + 15mn discussion)

– 2:30 pm :
Sanjeev Goyal
Professor of Economics, University of Cambridge, Visiting Professor at University Paris 2 Panthéon-Assas
Competing chance
Supply, servive and trading chains are a defining feature of the modern economy. We develop a model of pricing in chains. Our analysis provides a mapping of the network structure of chains to market power and helps us understand pricing, profits and the patterns of trade.

– 3:15pm :
Jihan Ghrairi
CRED, Université Paris 2 Panthéon Sorbonne
&
Annick Vignes
ENPC & CAMS
« Youth, how did you find your job? »
This article aims to study youth employability. We focus on the way young people found their job, analyzing the determinants of job access channels. We use the youth sample of the French Labor Force Survey (« Enquête Emploi », INSEE): analyzing two samples, one before the crisis (2007) and the second one during the crisis (2010), we find that the successful ways of getting a job changed. We observe a reinforcement of the social networks role: when young graduates often access to their current jobs through direct applications and professional networks, less qualified job seekers get their job thanks to their personal network. Using a multinomial logit model and controlling for selection, we find that when people get older, the effect of personal social networks decrease when the effect of professional network gets reinforced. This result goes a little bit further the ones of Granovetter or Van der Leij and Goyal concerning the links between social networks and job market.

– 4:00 pm : Break

– 4:30 pm :
Sandro Sapio
Professor of Economics, Università degli Studi di Napoli ‘Parthenope’
Do collaborations enhance the high-quality output of scientific institutions? Evidence from the Italian Research Assessment Exercise
In this paper, we analyze the effects of research collaborations on the scientific output of academic institutions, drawing on data from the first official Italian research assessment exercise. We measure the scientific performance of a research unit as the number of publications that received an excellent grade in the evaluation process. Different aspects of scientific collaboration are taken into account, such as the degree of openness of a research team towards other institutions and/or countries, the frequency of co-authorships, and the average size of co-authoring teams. Using econometric models for count data, we find that greater and more frequent knowledge exchange resulting from collaboration with external or foreign colleagues increase researchers’ productivity.

– 5:15pm : End of the mini symposium

Vendredi 13 juin 2014

15h, à l’EHESS, 105 bd Raspail, 75006 Paris, salle 7

Masayasu Mimura
Special appointment professor, Meiji University
Self-organization in ecosystems:  Vegetation patterns in water-limited systems
The term of self-organizing was originally introduced by Ross Ashby[1] in 1947, who was an English psychiatrist and also a pioneer in cybernetics. Nowadays, self-organizing behavior has been observed in many disciplines in not only natural sciences but also social sciences such as social information[3] and economics[4].
Turning to biology, especially to developmental biology, our understanding of  regulated but complex patterns in biological systems has been deepened over the past ten years. Especially, collaborative research of experimental and theoretical works has gradually discovered the mechanism how self-organized complex patterns are generated in far from equilibrium systems. It has been reported that genetics does not always reveal the occurrence of such patterns and even simple systems may generate regular as well as chaotic irregular patterns in a self-organized way. Particularly,  self-organized patterns” are observed in biological systems.In this talk, I will talk on, localized patterns in dryland vegetation arising in ecosystems.

REFERENCES
[1] Ashby R.: Journal of General Psychology 37, pp.125~128, 1947
[2] Nicolis G. and Prigogine I.: Self-Organization in Non-Equilibrium Systems, Wiley (1977).
[3] Haken. H.: Information and Self-organzation, Springer (1988)
[4] Krugman P. R.: Self-organizing Economy, Cambridge, Mass., and Oxford: Blackwell Publ. (1996)

  • Vendredi 23 mai 2014 à 15h, à l’EHESS, 105 bd Raspail, 75006 Paris, salle 4

Alexandre Delanoë
CAMS, ISC-PIF
Structure et dynamique des discussions en ligne : le cas des listes de discussions électroniques d’un projet de système d’exploitation libre (Debian).
Les listes de discussions électroniques du projet Debian rassemblent près de 20 ans d’archives. Que ce soient l’entraide entre utilisateurs ou l’organisation du projet par les développeurs, au niveau international ou langue par langue, les listes enregistrent les échanges de messages électroniques entre experts informatiques sur des discussions plus ou moins courtes.
L’étude du format spécifique aux listes de discussions publiques permet de faire état de la structure et de la dynamique des discussions en ligne que nous présenterons en trois temps.
Tout d’abord, nous rendrons compte des pratiques des contributeurs: la forme des fils de discussions constitue une ressource pour les participants. Ils l’utilisent pour interpréter les séries d’interventions et se coordonner dans les flux de messages.
Ensuite, nous montrerons comment mesurer la structure des fils de discussions. Le fil est compris comme une séquence de messages reliés en réseau d’interactions.
Enfin, en réalisant une étude statistique descriptive, exhaustive et diachronique de l’ensemble des données disponibles des archives, nous verrons dans quelle mesure la structure des discussions en ligne permet de caractériser les contributions au projet aussi bien au niveau individuel que collectif.

Vendredi 11 avril 2014 à 15h

EHESS, 105 bd Raspail, 75006 Paris, salle 7

Maël Montévil
IHPST, CNRS

La notion de mesure : de la physique à la biologie
Dans chaque théorie physique, la mesure, en tant que lien entre modèle et l’empirie, a un sens précis et adapté au cadre théorique. En biologie, cette question n’a que peu été étudiée, ce qui contraste avec la richesse et la spécificité méthodologique des approches expérimentales. Nous proposons ici, dans le cadre d’une caractérisation des spécificités de l’objet biologique, d’appréhender la mesure biologique comme co-constituant l’objet observé au sens où le résultat de la mesure dépend de, et parfois agit sur, les régularités et en particulier l’histoire de l’objet en un sens précis que nous développerons.

Vendredi 14 mars 2014 à 15h

EHESS, 105 bd Raspail, 75006 Paris, salle 4

Emmanuel Faure
Ecole Polytechnique

Reconstruction des dynamiques multi-échelles de la morphogenèse animale
La reconstruction des dynamiques multi-échelles de la morphogenèse des organismes vivants est devenue un enjeu majeur pour la bio-médecine. Le développement d’un organisme multi-cellulaire est le résultat de phénomènes biomécaniques multi-échelles complexes. L’échelle cellulaire est un niveau d’intégration fondamental aussi bien pour l’étude de la biomécanique que pour les processus de réactions-diffusions. La plateforme BioEmergences vise à reconstruire les dynamiques multi-échelles de la morphogenèse des organismes et à mesurer les différences et les similitudes entre les individus, aux différentes échelles, tout au long de leurs individuations. Depuis les données d’imagerie obtenues par acquisition en microscopie multi-photons, jusqu’à la modélisation des comportements cellulaires par l’approche des systèmes complexes, nos travaux se situent dans un cadre intrinsèque d’interdisciplinarité. Mon approche théorique propose la thèse que la reconstruction du lignage cellulaire vue comme un processus de branchement spatio-temporel fournit l’ensemble des morphodynamiques cellulaires. J’aborderais notamment lors de cette présentation une stratégie de reconstruction phénoménologique du lignage cellulaire fondée sur des méthodes probabilistes. De plus, à partir de différentes analyses de comportements cellulaires, je montrerais un modèle computationnel du développement du poisson zèbre au cours des phases précoces de l’embryogenèse, fondé sur l’ensemble des caractéristiques mesurées.

SÉANCE ANNULEE Vendredi 28 février 2014 à 15h, à l’EHESS, 105 bd Raspail, 75006 Paris, salle 7

SÉANCE ANNULEE Vendredi 31 janvier 2014 à 15h, à l’EHESS, 105 bd Raspail, 75006 Paris, salle 8

Plusieurs d’entre nous seront aux « Journées de physique statistique » (ESPCI, 75005 Paris), http://comphys.ethz.ch:8080/jstat/home

Vendredi 17 janvier 2014 à 15h

EHESS, 105 bd Raspail, 75006 Paris, salle 3

Y. Michael Wong
The Hong Kong University of Science and Technology, China

Polymers, Message Passing, and London Underground Routes
Route planning is important in many applications, ranging from subway traffic to Internet communication. The challenge is to optimize the path choices of all subscribers taking into account that they are competing for the same pool of resources. From the statistical physics point of view, there is an analogy between interacting polymers and route planning. Polymers that repel each other are similar to path choices that avoid each other. Thus, understanding the behavior of repelling polymers gives us insights on how to reduce congestions in traffic networks. Conversely, polymers that attract each other are similar to concentrating path choices, and give us insights on how to consolidate traffic during off-peak hours. We use this analogy to analyze properties of optimized traffic networks and derive routing algorithms. The routing algorithm operates by having nodes in the network exchanging messages among themselves. We apply the algorithm to traffic data obtained from Oyster cards of the London Underground network, and found that it outperforms state-of-the-art algorithms in terms of congestion reduction.

Sebastián Gonçalves
Instituto de Física, Universidade Federal do Rio Grande do Sul, Porto Alegre, Brésil
Optional Public Good Games: the role of group size on cycles
Optional Public Good Game can be a useful model of many human social dilemmas, as can be found in the use of public services in general, or environmental related or society related activities. In this talk I will present a thorough analysis, by means of simulation, of the conditions for the emergence of spontaneous cooperation, being as coexistence in steady equilibrium states or as alternate dominance of each strategies in a paper-rock-scissors (R-P-S) fashion. Such analysis states clearly each of the possible scenarios in terms of the multiplication factor of the public good, which is the key parameter, and the group size. Other factors as the role of topology and memory  in the appearance of R-P-S cycles will be addressed.

Vendredi 6 décembre 2013

EHESS, 105 bd Raspail, 75006 Paris (13h30 – 16h: amphithéâtre François Furet ; 16h30 – 18h30: salle 08)

Séance spéciale : Social and economic propagation in complex systems

This one day (or, rather, long afternoon) workshop will discuss issues related to diffusion of crime, and to propagation of opinions, especially in economics context.
Program:

– 1:30 pm :Andromachi Tseloni
Loughborough University
Changes in security devices effectiveness and burglary trends in England and Wales

– 2:20 pm :Guillaume Deffuant
Irstea
The Leviathan model: mixing gossips and vanity in opinion dynamics

– 3:10 pm :Richard Brooks
Columbia University
Connectivity and urban crime

– 4-4:30pm :
Coffee breack (Room 08)

– 4:30pm :Nancy Rodriguez
Stanford University
The effect of social preference, mobility, and the environment on segregation and crime

– 5:20pm :
Serge Galam
CNRS
The pitfalls of market efficiency from a sociophysics viewpoint

– 7pm :
Coktail reception (Université Paris-II Panthéon-Sorbonne, 12 place du Panthéon, 75005 Paris,Room Goulencourt)

This workshop is organized thanks to financial support from:
PEPS CNRS Modélisation cinétique pour la dynamique des marchés et de l’opinion (Kindymo)
PEPS CNRS Propagation d’actes incivils (Paix)
CAMS (EHESS & CNRS)
CRED (Univ. Paris-II)
LJLL (UPMC & CNRS)
RNSC, network HumanICT
ERC Advanced Grant ReaDi
Participation is free of charge,
but please register here : http://sepcos13.sciencesconf.org/
(click on « create account » and follow instructions – this does not really create an account: it just adds your name to the list of registered participants).
The evening coktail is open to all registered participants.

Vendredi 22 novembre à 15h

EHESS, 105 bd Raspail 75006 Paris, salle 3

Annick Vignes
Directeur de recherche, IRSTEA

Qualité espérée, coût de recherche et signaux de qualité
L’analyse de marchés avec biens hétérogènes en qualité est une des questions importantes de l’économie industrielle. Quand les produits sont différenciés, il peut exister une situation d’information asymétrique, avec des consommateurs n’étant pas en mesure de bien estimer le niveau de qualité ou les caractéristiques des biens mis en vente. De nombreux modèles expliquent comment les consommateurs améliorent leur information, à travers un processus de recherche ou en se fiant aux différents signaux de qualité. Après un bref survol de ces modèles, je m’attarderai, dans ce séminaire, sur les résultats de Wiggins et Lane (AER, 1983) qui montrent en quoi le risque, généré par l’imperfection des marchés, affecte les décisions de consommateurs riscophobes. Une discussion des hypothèses suivra.

Vendredi 15 novembre à 15h

EHESS, 105 bd Raspail 75006 Paris, salle 3

Daniel Bennequin
Institut de Mathématiques de Jussieu, Paris 7, et LPPA

Invariance et adaptation
L’adaptation est une propriété essentielle des systèmes vivants. L’exposé se propose de définir un cadre mathématique (issu des systèmes dynamiques) pour décrire ce qu’est cette adaptation. Les notions centrales sont celles d’homologie et de déploiement. Dans ce cadre la notion d’invariance apparait naturellement. Le but est de mieux comprendre le fonctionnement des systèmes sensoriels et moteurs des animaux, et la nature du code neuronal adapté. Des exemples seront présentés, dans le système visuel (comme la couleur), le système vestibulaire, le système auditif ou le contrôle moteur, mais la notion d’objet (multisensorielle et motrice) sera aussi discutée.

Année 2012-2013

Vendredi 12 juillet 2013, à 15h

EHESS – au France, 190 avenue de France, 75013, salle 1.

Séminaire coorganisé par le CAMS (EHESS-CNRS) et l’ERMES (Univ. Paris II).

Richard Brooks
Charles Keller Beekman Professor of Law, Columbia University

Titles and address: a legal and economic analysis
This talk explores the ways in which law regulates behavior by influencing how we address one another. This simple, often mundane, act of civility, deference, insolence or contempt is an essential aspect of social order. Titles and forms of address are common in cultures throughout the world. There is a reason for this. They are elemental features of society. Titles and address coordinate behavior from the ground up, subtly yet forcefully guiding individuals through everyday encounters. Recognizing the prevalence and salience of this guidance, particularly in the context of authority, legal and political actors have and continue to exploit titles and address for various ends. I discuss the failure of contemporary human rights law to appreciate the effects of address in coordinated acts of violence.

Ce séminaire tiendra lieu de séance supplémentaire, et de clôture, du
Séminaire « Systèmes complexes en sciences sociales » du CAMS.

Vendredi 14 juin, 15h30-17h

EHESS – 105 bd Raspail 75006, salle 1.

Jean-Louis Dessalles
Telecom ParisTech, CNRS UMR 5141

La stabilité évolutionnaire de la conversation humaine
(ou Comment la communication d’informations futiles peut se révéler essentielle)
Les humains conversent à propos de situations futiles, dès lors qu’ils peuvent les voir comme inattendues. Une telle stratégie demeure encore inexpliquée en termes de théorie des jeux, car le bénéfice qu’en retire le locuteur reste difficile à déterminer. Je montre que dans le contexte bien spécifique qui est celui de notre espèce, la propension à communiquer des informations futiles peut être une stratégie stable pour tous les locuteurs. Ce résultat reste valide même lorsque l’acquisition de cette information présente un coût significatif et que le fait de la communiquer ne procure aucun bénéfice matériel, ni au locuteur, ni au destinataire. Dans le modèle, le fait d’émettre des messages pertinents permet au locuteur de vanter sa capacité à produire cette information.

Vendredi 24 mai à 15h30

EHESS – 105 bd Raspail 75006, salle 3.

Jean-Baptiste André
Laboratoire Ecologie & Evolution, CNRS-ENS

La coopération réciproque : pourquoi elle est rare et comment elle peut (parfois) évoluer
A paradox in social evolution theory concerns the gap between theoretical and empirical results regarding reciprocal cooperation. On one hand, models show reciprocity should evolve easily in a wide range of circumstances. On the other hand, empirically, few clear instances of reciprocity (even in a broad sense) have been found in non-human animals. In the first part of this talk, I will propose and evaluate a novel hypothesis to resolve this paradox. I propose that it is difficult for reciprocity to evolve because it raises an evolutionary problem of bootstrapping: it requires that two complementary functions, (i) the ability to cooperate and (ii) the ability to respond conditionally to the cooperation of others, arise together and reach a significant frequency, whereas neither of them can be favored in the absence of the other. I will present a multi-locus model showing that, for this reason, the evolutionary emergence of reciprocal cooperation is highly unlikely. The second part of the talk will then be devoted to resolving the opposite paradox. If a boostrapping problem shall prevent the evolution of reciprocal cooperation, then we need to explain how reciprocal cooperation has been able to evolve in a few instances outside humans and, at the very least, in the human species. On the basis of mathematical modeling, I will show that reciprocal cooperation can play an autocatalytic role, a very little amount of reciprocity yielding the eventual emergence of full-fledged reciprocity. I will show how this simple principle, and the strong constraints that it entails, explain very well the specific nature of the few instances of reciprocity that we find outside humans, and how it applies, in a generalist manner, to the human species.

Vendredi 26 avril à 14h30-17h30

EHESS – 105 bd Raspail 75006, salle 1.

– 14h30 :
Olivier MORIN
Département de Sciences Cognitives, Université d’Europe Centrale, Budapest

Questions de démographie culturelleLa succession des générations humaines a servi de base aux toutes premières tentatives visant à construire des modèles plus ou moins mathématisés de l’évolution culturelle (de Machiavel à Augustin Cournot). Les raisons qui firent échouer ces modèles sont trop nombreuses pour qu’on les détaille, mais leur échec n’épuise pas la question des générations culturelles. Après un bref panorama de l’état de la question en modélisation et en sciences cognitives, on présentera un outil statistique simple permettant d’évaluer la part du changement générationnel dans un changement culturel donné. Cet outil sera appliqué à la pose des modèles dans les portraits de la Renaissance. Elle subit, au cours du seizième siècle, un certain nombre de changements, qui ne se révèlent que sur une longue durée, et qui sont soit passés relativement inaperçus, soit restés inexpliqués. Par exemple, le regard des portraits se dirige, avec le temps, vers le spectateur, et les portraits d’hommes cessent de montrer le profil gauche plutôt que leur profil droit. Le premier de ces changements est entièrement dû au renouvellement des générations de peintres : connaître l’année de naissance d’un peintre permet mieux que toute autre variable, de prédire la pose de ses modèles. Cet outil peut corroborer des hypothèses psychologiques avancées pour expliquer ces changements.

– 16h :
Sanjeev GOYAL
Professor of Economics, University of Cambridge, invité par l’Université Paris 2

Trading in Networks: Theory and Experiment
Intermediation is a prominent feature of economic production and exchange. Two features of intermediation are salient: coordination among traders between the ‘source’ and the ‘destination’ and competition between alternative combinations of intermediaries. We develop a simple model to study these forces and we test the theoretical predictions in experiments. Our theoretical analysis yields a complete characterization of pricing equilibrium in networks. There exist both efficient and inefficient equilibria, suggesting a key role of coordination among intermediaries. Strategic interaction leads to either buyer and seller retaining all surplus or intermediaries extracting all surplus. We develop conditions on network structure under which these different extremal outcomes arise, respectively. Laboratory experiments show that efficiency prevails in almost all cases: so traders are successful in coordination. Subjects coordinate on extreme surplus division. Finally, experiments highlight the role of network structure in determining pricing and the division of surplus among intermediaries.

Vendredi 12 avril à 15h30

en salle de séminaire du Laboratoire Jacques-Louis Lions (salle 15.16.309), campus Jussieu (UPMC – Paris 6).

Groupe de travail « Humaniste » commun au LJL (UPMC), au MAPMO (Univ. d’Orléans) et au CAMS.

Annick VIGNES
Univ. Paris 2

One market, two designs: much ado about nothing?
The case of the Boulogne-sur-Mer fish market
After a long period of functioning as an auction market, the Boulogne-sur-Mer fish market has been reorganized into two different sub-markets – one negotiated, the other an auction – and people can freely choose where to sell their merchandise. First empirical results show that sellers strategically choose which market to go on. They confirm that for better-informed sellers, pairwise transactions can be more interesting. They also show that the goods of better quality are sold at a higher price on the negotiated market. Looking at the period of  reorganization, it appears that, after a short transition phase, the market has stabilized in terms of the distribution of quantities. An econometric fixed-effects model suggests that after a certain time, there is price convergence between the two sub-markets.

Vendredi 8 mars 2013, 15h30

EHESS – 105 bd Raspail 75006, salle 1.

Richard G. MORRIS
IPhT, CEA, Saclay

Transport on coupled spatial networks
Transport processes on spatial networks are representative of a broad class of real world systems which, rather than being independent, are typically interdependent: from so-called smart power grids – which couple electrical distribution networks with ICT control networks -, to critical infrastructure networks, such as food and water supply, transport, fuel, and financial transactions systems. We are interested in characterizing the structure of such coupled networks in relationship with their efficiency and robustness properties. We propose a measure of utility to capture key features that arise when networks are coupled together. The coupling is here defined in a way that is not solely topological, relying on both the distribution of sources and sinks, and the method of route assignment.
Using a simple model, we explore relevant cases by simulation. For certain parameter values, a picture emerges of two regimes. The first occurs when the flows go from many sources to a small number of sinks. In this case, network utility is largest when the coupling is at its maximum and the average shortest path is minimized. The second regime arises when many sources correspond to many sinks. Here, the optimal coupling no longer corresponds to the minimum average shortest path, as the congestion of traffic must also be taken into account. More generally, results indicate that coupled spatial systems can give rise to behavior that relies subtly on the interplay between the coupling and randomness in the source-sink distribution.
Joint work with M. Barthélémy (IPhT, CEA & CAMS, EHESS)

Vendredi 22 février 2013 à 15h30

EHESS – 105 bd Raspail 75006, salle 1.

Stefano Demichelis
Dipartimento di matematica, Universita di Pavia
Quelques applications de la théorie de jeux a la pragmatique linguistique
Dans ce séminaire j’exposerai quelques modèles pour la communication linguistique. Je montrerai comment, à partir de considérations évolutives, on peut déduire une partie des maximes de Grice (qui expriment que tout échange conversationnel exige un minimum de coopération linguistique),  et je discuterai les extensions possibles de ces résultats.

Vendredi 15 février 2013 à 15h30

EHESS – 105 bd Raspail 75006, salle 2.

Hiroshi Yoshikawa
Faculty of Economics, University of Tokyo

Stochastic Macro-equilibrium and Microfoundations for the Keynesian Economics
In place of the standard search equilibrium, this paper presents an alternative concept of stochastic macro-equilibrium based on the principle of statistical physics. This concept of equilibrium is motivated by unspecifiable differences of economic agents and the presence of all kinds of micro shocks in the macroeconomy. Our model mimics the empirically observed distribution of labor productivity. The distribution of productivity resulting from the matching of workers and firms depends crucially on aggregate demand. When aggregate demand rises, more workers are employed by firms with higher productivity while at the same time, the unemployment rate declines. The model provides correct micro-foundation for Keynes’ principle of effective demand.

Vendredi 25 janvier 2013 à 16h

EHESS – 105 bd Raspail 75006, salle 1.

Aurélien Hazan
LISSI, Univ. Paris-Est Créteil
&
Julien Randon-Furling

SAMM, Univ. Paris-1 Panthéon-Sorbonne

Ségrégation urbaine : un modèle de Schelling avec mobilité sociale et spatiale
Nous rappellerons les principales caractéristiques du modèle de ségrégation urbaine conçu par T.C. Schelling, dans lequel des agents de deux types (A et B) se déplacent sur un échiquier suivant leurs préférences en termes de voisinage.  Nous examinerons ensuite le comportement d’un système stochastique inspiré de ce modèle, mais évoluant selon une dynamique mixte : l’une de type Schelling et l’autre dans laquelle une certaine proportion des agents présents dans le système sont susceptibles de changer de type au cours du temps (un tel changement peut par exemple correspondre à une forme de mobilité sociale). Nous trouvons notamment qu’une faible proportion de tels agents peut suffire à empêcher la ségrégation.
L’exposé sera en anglais
.

Vendredi 11 janvier 2013 à 15h30

EHESS – 105 bd Raspail 75006, salle 1.

Yukio Koriyama
Département d’économie, Ecole Polytechnique

Optimal apportionment
Ce papier fournit une base théorique qui soutient le principe de proportionnalité dégressive des problèmes de répartition, e.g. la répartition des sièges dans un parlement fédéral. L’utilité attribuée par un individu à une règle constitutionnelle est une fonction de la fréquence avec laquelle chaque décision collective correspond à la préférence de l’individu. Le cœur de l’argument est que, si la fonction est concave, alors l’utilitarisme classique sur le plan social recommande des règles de décision qui présentent une proportionnalité dégressive par rapport à la taille de la population.L’exposé sera en anglais.

Vendredi 14 décembre 2012 à 15h30

175, rue du Chevaleret 75013, Université Paris 7, salle 0D04

Cette séance  sera commune avec celle du  groupe de travail Humanist  commun au LJLL, (UPMC), au MAPMO (Orléans) et au CAMS.

Alfred Galichon
Professeur d’économie à Sciences-Po Paris

« Matching » : Becker rencontre ShrodingerCet exposé porte sur la théorie du mariage de Gary Becker, qui a une formulation mathématique en terme de théorie du transport optimal. Dans ce cadre, le problème de l’estimation économétrique des gains résultant du mariage peut être abordé en utilisant l’équation de Bersntein-Schrödinger introduite par Schrödinger en 1930, et qui peut être vue comme un équivalent euclidien de l’équation de Schrödinger en mécanique quantique.

Jeudi 8 novembre 2012, séance spéciale à Orléans

Le séminaire « Systèmes complexes » du CAMS vous convie à une séance co-organisée avec les laboratoires LJLL (UPMC, Paris) et  MAPMO (Université d’Orléans, groupe de travail Humaniste) à l’occasion d’une demi-journée sur la modélisation en économie par des approches issues de la physique.
Les exposés se dérouleront en salle de séminaire du MAPMO.
P.S. : pour venir au MAPMO depuis les gares d’Orléans (Orléans centre ou les Aubrais) vous pouvez suivre les indications sur la page du laboratoire :
http://www.univ-orleans.fr/mapmo/arr.php.

Programme :
– 14h00 :
Giuseppe Toscani
Univ. degli studi di Pavia
Wealth distribution in multi-agent systems
– 15h30 :
Stefano Demichelis
Univ. degli studi di Pavia et Prof. invité à Paris 2
An application of kinetik models to general equilibrium theory

Année 2011-2012

Vendredi 20 juillet 2012 à 14 h

EHESS 105 bd Raspail 75006 Paris, salle 1

Pour cette séance (supplémentaire et dernière de l’année 2011-2012), nous accueillons J. Roberto Iglesias, invité au CAMS à l’EHESS dans le cadre d’un projet financé par le CAPES-COFECUB.

José Roberto Iglesias
UFRGS, Porto Alegre, Brasil

Diffusion d’innovations : rôle de l’influence sociale
Lorsque la totalité du stock d’un nouveau produit est rapidement vendu, on a l’impression qu’une nouvelle technologie se répend très  facilement. Mais quels sont les facteurs qui déterminent l’adoption par la société d’une nouvelle technologie ? La diffusion de la technologie est un  problème ancien. Une approche classique est celle d’Everett Rogers [1] et, selon lui, la distribution des adoptions d’une nouveauté dans le temps suis une loi gaussienne. Nous nous proposons de simuler un modèle simple [2] pour l’adoption d’une innovation qui dépend principalement de trois éléments : l’attrait pour la nouveauté, l’inertie ou la résistance à l’adopter, et  l’interaction avec d’autres agents. Les interactions sociales sont prises en compte de deux façons : par l’imitation et par la différenciation, c’est à dire, certains agents seront enclins à adopter une innovation si beaucoup d’autres le font, mais d’autres vont agir en direction opposée, en essayant de se distinguer du troupeau. Nous discutons les conditions pour lesquelles une nouvelle technologie peut être totalement ou partiellement adoptée. D’un autre côté nous regardons la concentration critique d’agents anti-innovation qui peut bloquer l’adoption d’un nouveau produit. Nous montrons que les résultats du modèle  sont en bon accord qualitatif avec des données empiriques sur l’adoption d’innovations.
[1] EM Rogers, « Diffusion of Innovations », 5è édition, Free Press (2003)
[2] S. Gonçalves, M.F. Laguna and J.R. Iglesias, Eur. Phys. J. B  85 6 (2012) 192

Vendredi 8 juin à 14h

EHESS 105 bd Raspail 75006 Paris, salle 1

Juliette Stehlé
Centre de Physique Théorique (CPT), Marseille

Homophilie de genre dans une école primaire : une étude sociométrique utilisant la détection des interactions face à face avec des badges RFID
Nous analysons les interactions face à face entre enfants (entre 6 et 12 ans) dans une école primaire française grâce à la collecte deux jours durant d’informations sur les interactions par des badges RFID (sociopatterns.org). En particulier, l’analyse de ces interactions mises en relation avec le genre des enfants permet d’étudier statistiquement l’homophilie de genre. Pour les liens forts (c’est-à-dire les paires d’enfants qui ont interagit plus longtemps qu’une durée seuil), la préférence pour les enfants du même sexe est statistiquement significative et tend à augmenter avec l’âge. En revanche pour les liens faibles, l’homophilie est négativement corrélée avec l’âge pour les filles alors qu’elle l’est positivement pour les garçons. Cette évolution différente pour les liens forts et faibles donne une vision plus nuancée de l’homophilie de genre.

Vendredi 1er juin à 15h45

175, rue du Chevaleret 75013 Paris, salle 0D04 (heure et lieu inhabituels)

Séance commune avec le groupe de travail  « Humaniste » organisé par Simona Mancini (MAPMO, Orléans), Laurent Boudin  et Olivier Guéant (LJLL, UPMC)

Adrien Blanchet
GREMAQ, Toulouse

Cournot-Nash equilibria and optimal transport
For a class of non-atomic games, we prove, by optimal transport techniques, various existence and uniqueness results and give a variational characterization for Cournot-Nash equilibria. For a wide class of payoffs, minimizers of some cost are Cournot-Nash equilibria. This cost is not convex in the usual sense in general but it turns out to have hidden strict convexity properties in many relevant cases.
Les exposés de ce groupe de travail sont ouverts aux non spécialistes, car une bonne partie de la présentation concerne la description du problème abordé.
http://www.ljll.math.upmc.fr/groupes/gth/

Vendredi 13 avril 2012, 15h30

Université UPMC, campus de Jussieu, salle 15.25.321.

À titre exceptionnel ce séminaire sera commun avec celui du groupe de travail « Humaniste » (Laboratoire Jacques-Louis-Lions, UPMC, et MAPMO,  Université d’Orléans)

Athanasios Batakis
MAPMO, Université d’Orléans

Une approche probabiliste de la simulation de la croissance des villes
Inspirés d’un article de Andrade & al., nous avons cherché à confronter des modèles de croissance aléatoire (de type « Diffusion-Limited Aggregation ») à la croissance des villes. Nous nous sommes concentrés sur la ville de Montargis en passe de préparer son Shéma de cohérence territorial (SCOT). Nous avons reçu l’appui de la Direction départementale des territoires du Loiret (DDT 45), ce qui nous a permis d’avoir accès à des données complémentaires que l’on a réussi à implanter dans nos simulations. Cette tentative est financée par la région Centre. Collaborateurs: Nga Nguyen, Michel Zinsmeister et J.M Zaninetti, A. Mas (laboratoire de géographie d’Orléans) et K. Serrhini, S. Thibault, D. Andrieu (laboratoire de l’aménagement du territoire de Tours).
De même que le  séminaire du CAMS, les exposés de ce groupe de travail sont aussi ouverts aux non spécialistes, car une bonne partie de la présentation concerne la description du problème abordé.

Vendredi 23 mars, 14h

105 bd Raspail 75006 Paris, salle 1

Stéphane Cordier
Laboratoire MAPMO (Mathématiques- Analyse, Probabilités, Modélisation-Orléans, Université d’Orléans)

Modèles microscopiques et cinétiques des marchés financiers
On présente dans cet exposé une description du comportement d’un marché financier très simplifié  où les agents gèrent un portefeuille en ayant le choix entre placement à taux garantie et un marché d’actions. On dérive une équation de type Boltzmann linéaire dont l’inconnue est la distribution  des biens couplée à une équation donnant le cours de l’action.

Vendredi 16 mars, 14h

105 bd Raspail 75006 Paris, (attention, salle inhabituelle) salle 5

Rida Laraki
Ecole Polytechnique, CNRS
&
Michel Balinski
Ecole Polytechnique, CNRS

Jugement majoritaire : une nouvelle théorie du vote
Le problème fondamental de la théorie du choix social est d’agréger les «opinions» de plusieurs «juges» ou «électeurs» pour arriver à une «opinion» du jury ou de l’électorat. Le modèle traditionnel demande à chaque juge ou électeur de réaliser une «liste de préférence», sur  laquelle il inscrit, en première place, son candidat (ou son alternative) préféré, en seconde place, celui qui vient ensuite, …
Le mode de scrutin à deux tours utilisé en France relève plus d’une tradition que d’une vérité universelle. En Australie ou en Irlande, les électeurs sont obligés de ranger tous les candidats du meilleur au pire (comme dans le modèle traditionnel). Le gagnant est trouvé en suivant une procédure appelée vote alternatif: on élimine (à chaque itération) le candidat ayant le moins de fois été premier, on transfère les voix des électeurs qui le classe premier au candidat suivant sur la liste et on recommence la procédure jusqu’à aboutir à une majorité pour un candidat.
L’étude formelle des modes de scrutins est une tradition Française qui a commencé un peu avant la révolution Française par Condorcet, Laplace et Borda. Condorcet a montré qu’il est possible que la société préfère à la majorité le candidat A à B, B à C et C à A. C’est son célèbre paradoxe. Ignorant cela, Arrow a réintroduit en 1951 le modèle de Borda et Condorcet. Il a montré qu’il n’existe aucun mécanisme qui désigne toujours un gagnant (évite le paradoxe de Condorcet) et où le retrait d’un perdant ne change pas le gagnant (il évite le paradoxe d’Arrow). L’élection présidentielle de 2002 est une parfaite illustration du paradoxe d’Arrow. Le retrait de Jean-Pierre Chévènement ou de Christiane Taubirat aurait pu permettre l’élection de Lionel Jospin.
D’autres théorèmes d’impossibilités ont été établis par la suite, peut être le plus important est-il celui de Gibbard & Satterthwaite. Ce théorème dit qu’il n’existe pas de mode de scrutin où la stratégie dominante de chaque votant consiste à voter sincèrement. L’élection présidentielle de 2007 est une parfaite illustration: en réaction au séisme de 2002, plusieurs électeurs ont voté utile.
D’autres approches, non couvertes par le modèle traditionnelle, existent en pratique. Dans le vin par exemple, un juge doit typiquement juger une dizaine de caractéristiques (goût, couleur, odeur, …), chacune dans l’échelle (Excellent, Très Bon, Bon, Moyen, Médiocre et Mauvais).
Inspiré et motivé par la pratique (vin, patinage, musique, …), le nouveau paradigme, suppose l’existence d’un ingrédient supplémentaire qui permet de mesurer les mérites des candidats: une échelle commune d’évaluations des mérites (comme les T dans Télérama ou les étoiles de Michelin). Nous l’appelons un «langage commun». Par opposition, classer comme dans le modèle d’Arrow et Condorcet est une mesure relative. Le rang d’un candidat change si on rajoute ou supprime un autre.
Cela nous a amené à élaborer une nouvelle théorie du choix social : le jugement-majoritaire. Cette modélisation du problème permet de se débarrasser des impossibilités et incompatibilités de la théorie classique. Nous montrons que le jugement majoritaire est l’unique règle qui évite les paradoxes de Condorcet et d’Arrow et qui résiste le mieux aux diverses manipulations stratégiques.
Le jugement majoritaire a été testé au premier tour de l’élection présidentielle de 2007 dans trois bureaux de vote d’Orsay et dans bien d’autres instances, comme les primaires socialistes en 2011.

Vendredi 10 février à 14 h

François Bourguignon
Directeur d’études EHESS et Directeur de PSE-Ecole d’économie de Paris
Dix ans de réflexion sur le thème de l’inégalité : et après ?

à 15h30 :
Yoshiyasu Ono
Fellow, Osaka University

On Persistent Demand Shortages: A Behavioral Approach
We incorporate two sets of behavioral assumptions (fairness concerns for nominal wages and insatiable desire for money) into a dynamic model of a monetary economy to illuminate how these sets of assumptions can generate persistent aggregate demand shortages. We obtain the  condition for persistent unemployment, and that for temporary unemployment, to occur. Policy implications significantly differ between the two cases. A monetary expansion raises private consumption under temporary unemployment but not under persistent nemployment. A fiscal expansion may or may not increase short-run private consumption but crowds out long-run consumption under temporary unemployment. Under persistent unemployment, however, it always increases private consumption.

About Yoshiyasu Ono:
1979 : Doctor of Economics, the University of Tokyo.
1990-1996 & 1999-2010 : Professor, ISER (Institute of Social and Economic Research), Osaka University.
1996-1999 : Professor, Tokyo Institute of Technology
2011-Present : Fellow, Osaka University

Vendredi  20 janvier, 13h30-14h30

105 bd Raspail 75006 Paris, salle 4 (attention, salle non habituelle)

Camille Roth
CAMS, EHESS, Paris

Dynamique des réseaux de transport et dynamique sur les réseaux de transport
Nous présenterons deux études complémentaires des processus dynamiques qui animent et structurent les réseaux de transport urbains.  Ces réseaux définissent en effet à la fois l’organisation des mouvements des individus au sein d’une ville et sont, en retour, définis par la distribution de ces mêmes individus dans l’espace urbain.
La première analyse porte sur le réseau du métro de Londres (1). La seconde concerne l’évolution temporelle des principaux réseaux de métros dans le monde au cours du dernier siècle. Le principal résultat est que ces réseaux tendent à converger vers des formes partageant les mêmes caractéristiques génériques, ceci malgré la grande diversité des conditions économiques et géographiques.

Dynamics on and of subway networks
Subway networks shape, to some extent, the structure of movements of individuals across a city; similarly, they are being partially shaped by the presence of these individuals in the city.  This talk will present two complementary studies describing the dynamic processes which subway networks both host and undergo.
The first analysis focuses on dynamics processes occurring on the subway network of a large city (London) in terms of its commuting patterns.  It uses the large scale, real-time electronic ticketing data from the Oyster Card system, introduced less than a decade ago, to reveal a part of the structure and organization of the city.  More precisely, this study shows that patterns of intraurban movement are strongly heterogeneous in terms of volume, but not in terms of distance travelled, and that there is a polycentric structure composed of large flows organized around a limited number of activity centers. For smaller flows, the pattern of connections becomes richer and more complex and is not strictly hierarchical since it mixes different levels consisting of different orders of magnitude.
The second study investigates the temporal evolution of the major subway networks in the world over the last century.  The main result is that most of these networks tend to converge to a shape which shares some generic features, despite their geographical and economical differences. These features include a core with branches radiating from it to cover about twice the average radial extension of the core.    The core generally includes about 60% of the network stations and exhibits an average degree of order 2.5.  Interestingly, core and branches define two distinct and universal regimes in terms of the number of stations at a given distance from the barycenter.  This result which was difficult to interpret in the framework of fractal geometry finds here a natural explanation.
More broadly, these two types of studies open the way to more integrated analyses of the coevolution between the dynamics on and of subway networks.

C. Roth, S. M. Kang, M. Batty and M. Barthélemy (2011) « Structure of  Urban Movements: Polycentric Activity and Entangled Hierarchical Flows », PLoS ONE 6(1): e15923 (http://dx.plos.org/10.1371/journal.pone.0015923).

Vendredi 9 décembre 2011

Anirban Chakraborti
Laboratoire de Mathématiques Appliquées aux Systèmes, Ecole Centrale Paris, http://fiquant.mas.ecp.fr/chakraboa

Kinetic exchange models in studying socio-economic phenomenaIn this talk I will first review a kinetic wealth-exchange model introduced by Angle in 1986 [1] and further developed since then [1,2,3,4]. The main model outcome is the prediction of the wealth distribution in the society. Comparison with empirical data, and the analytical fitting forms for such wealth distributions will be discussed. The micro-economic formulation of such models will be also mentioned [5], which establishes the link between the principles of maximum entropy in physics and utility maximization in economics.
Then I will also briefly review a minimal multi-agent model [6] for the collective dynamics of opinion formation  (based on the similar kinetic exchange dynamics studied in the above context of wealth distribution), and its simple variants and extensions that have been proposed recently by others [7,8]. These models have an intriguing spontaneous symmetry breaking transition to polarized opinion state starting from non-polarized opinion state, and are very simple models to study critical phenomena of statistical physics. We provide mean field estimates for the critical points, which are numerically supported with reasonable accuracy.
[1] J. Angle, Social Forces 65, 293 (1986); J. Math. Sociol. 26, 217 (2002)
[2] E. Bennati, Rivista Internazionale di Scienze Economiche e Commerciali 35, 735 (1988)
[3] A. Chakraborti, B. K. Chakrabarti, Eur. Phys. J. B 17, 167 (2000)
[4] A. Dragulescu, V.M. Yakovenko, Eur. Phys. J. B 17, 723 (2000)
[5] A. S. Chakrabarti, B. K. Chakrabarti, Economics: The Open-Access,
Open-Assessment E-Journal, Vol. 4, 2010-4 (2010)
[6] M. Lallouache, A. S. Chakrabarti, A. Chakraborti & B. K. Chakrabarti, Phys. Rev. E 82, 056112 (2010)
[7] P. Sen, Phys. Rev. E 83, 016108 (2011)
[8] S. Biswas et al J. Phys.: Conf. Ser. 297, 012004 (2011)


Année 2010-2011

Lundi 23 mai, 15h

Institut des Systèmes Complexes Paris-Ile de France (ISC-PIF), 57-59 rue Lhomond – 75005, Paris

Séance co-organisée avec l’Equipe de Recherche sur les Marchés, l’Emploi et la Simulation (ERMES, CNRS-Panthéon-Assas Paris II)

Sorin Solomon
Racah of Physics, Hebrew University, Jerusalem, Israel

Mathematical Paradoxes, Real Dangers and Future Promises in a Random Multiplicative WorldMany scientific disciplines exploited for a long while a paradigm where the real world assemblies of discrete agents were represented and studied by spatio-temporal averages (/density functions, representative agents) whose dynamics was assumed to have « nice » continuity and (space and / or time) differentiability properties.
However, in a very wide class of systems (biology, ecology, climate, social science, economics), dominated by very rare events, it was found that the continuity assumption was too limiting and one had to fall back on a more faithful representation of the agent structure of the real system.
In the absence of traditional tools to deal with such systems, in some disciplines, « agent based models » became identified with « numerical simulation « . Moreover due to the dependence of the dynamics on very rare events, the Popperianity (predictive capability) demands from such studies was diminished and often plainly forfeited.
As it turns out, identifying the mechanisms that amplify microscopic noise to systemic changes, allows one to apply rigorous analytical treatment to many-agent systems, predict unexpected emergent phenomena and systemic changes and make successful Popperian contact with a vast amount the empirical data.
I will illustrate the impact of these methods on crises and recovery in various real systems.

Vendredi 8 avril 2011 à 13h30

Igor Lugo
UMR Géographie-Cités, Université Paris 1

Applying Complex Networks to Identify Maintenance and Repair Priorities of Road Pavements
The analysis presents an application of complex networks to road management systems to identify and prioritize large-scale road pavement. In order to help private and public agencies to study road infrastructures, a Pavement Management System (PMS) is complemented by computing and describing complex road structures. The Mexican road system is used to exemplify this application, where the PMS includes an analysis of statistical measures related to topology, connectivity, and heterogeneity of road segments. The results show an effective way to include complex network measures to the PMS, and, then, identify Maintenance and Repair (M&R) priorities of road pavement.

Vendredi 11 mars 2011 de 13h30

salle 2 (105, bd Raspail 75006 Paris,salle 2)

Franck Raynaud
Post Doctoral Research Associate in Econophysics, DRM-Finance, University Paris-Dauphine

When minimality describes complexity: the case of starling flocksSystems composed of a large number of interacting agents often display complex macroscopic properties that cannot be deduced in a simple way by studying the behavior of the single agent.  Recently, great attention has been devoted to collective behavior in biological systems (where collective phenomena occur at many different scales) as well as in social and economic systems. In many cases individuals, who interact only with neighbors, self-organize into groups exhibiting coherent behavior at the global scale.
In this seminar I will present minimal models of collective motions in three dimensions. In a first part I will describe the onset of collective motion in systems of active particles as well as the properties of the ordered state. In the second part, I will show how to enrich a minimal model in order to capture the essential features of the flocking behavior of starlings and compare our results with empirical observations. Quand la minimalité décrit la complexité: le cas des nuées d’étourneauxLes systèmes composés d’un grand nombre d’agents en interaction exhibent souvent des propriétés macroscopiques qui ne peuvent être déduites du comportement individuel des individus. Récemment, de nombreuses études se sont intéressées aux comportements collectifs dans les systèmes biologiques (où des comportements collectifs apparaissent à différentes échelles), économiques et sociaux. Dans la plupart des cas, les interactions locales entre agents sont à l’origine d’un consensus qui s’étend à l’intégralité du système.
Au cours de ce séminaire je présenterai des modèles de comportements collectifs dans un espace tri-dimensionnel. Dans la première partie je caractériserai la transition de mise en mouvement ainsi que les propriétés de la phase ordonnée. Ensuite je montrerai de quelle façon enrichir un modèle minimal afin de comprendre les formes particulières des nuées d’étourneaux.

Vendredi 25 février 2011 de 13h30 à 14h30

105, bd Raspail 75006 Paris, salle 9

Pascal Seppecher
Centre d’études en macroéconomie et finance internationale, Université de Nice Sophia Antipolis

Stratégies évolutionnaires dans un modèle macroéconomique « stock flux cohérent », peuplé d’agents hétérogènes, autonomes et concurrents
On présente un modèle macroéconomique qui associe étroitement théorie de la monnaie endogène et approche multi-agents. C’est un modèle décentralisé, peuplé d’agents hétérogènes, autonomes et concurrents qui interagissent simultanément dans les sphères réelle et monétaire. Les propriétés macroéconomiques du modèle ne sont pas postulées, ce sont des propriétés émergentes du système complexe formé par les interactions entre les agents. On dote les entreprises de capacité d’adaptation, alliant imitation et innovation, pour déterminer les prix sur le marché des biens.
Par une série de simulations, on observe l’évolution des comportements des entreprises et leur impact sur la dynamique macroéconomique, en particulier sur le partage du revenu entre salaires et profits.

Vendredi 28 janvier 2011 de 13h30 à 14h30

105, bd Raspail 75006 Paris, salle 3

André C. R. Martins
GRIFE – EACH, Universidade de São Paulo, Brasil, CREA – École Polytechnique (visiting)

What are you talking about? Incorporating issues and communication details in Opinion Dynamics models
Opinion Dynamics models have, so far, dealt mostly with generic opinions about unstated problems. But different subjects can be dealt differently by people. Knowing something about how a specific issue is debated, what choices are available, and if there are any observations of data other than the communication can help us create better models. Here, I will review a framework that makes it possible for introducing more details easily, so that the generated models will be closer to reality. Examples of applications of the framework to different situations, such as political problem, diffusion of innovations, and even the acceptance of scientific hypothesis will be discussed.


Année 2009-2010

Mercredi 7 juillet 2010 de 9h à 16h

MSH (54, bd Raspail 75006 Paris), salle 214 (2è étage)

Journée « Systèmes complexes en environnement urbain »

Il s’agira de présenter à la fois des travaux empiriques et des travaux de modélisation sur les dynamiques sociales en environnement urbain (ségrégation, délinquance,…).
Programme : voir ici.

Cette journée est organisée dans le cadre du projet Dynamiques Citadines Collectives : Hétérogénéités Spatiales et Individuelles (DyXi) financé par l’ANR (programme SYSCOMM), et de l’action de coordination européenne « Global System Dynamics & Policies » (GSD).

Jeudi 17 juin 2010 de 9h30 à 12h

MSH (54, bd Raspail 75006 Paris) salle 206 (2è étage) : attention séance double

 – 9h30-10h30 :
Fabiana Laguna
Centro Atómico Bariloche, Argentina

Do the Right Thing
We study a model of opinion formation where the opinions in conflict are not equivalent. This is the case when the subject of the decision is to respect a norm or a law. In such scenarios, one of the possible behaviors is to abide by the norm and the other to ignore it. The evolution of the dynamics is implemented through an imitation mechanism, in which agents can change their opinions based on the opinions of a set of partners and their own state. We determine, for different social situations, the minimum percentage of supporters of the law necessary to arrive at a state of consensus of law abiders [1].
[1] M F Laguna, G Abramson , S Risau-Gusman and J R Iglesias J. Stat. Mech. (2010) P03028

– 11h-12h :
Nicolas Schabanel
LIAFA, Paris 7 et IXXI, Lyon

Auto assemblage algorithmique
À la fin des années 1990, Erik Winfree (Caltech) a proposé un nouveau paradigme pour réaliser des objets nanoscopiques. Il propose de construire de petites tuiles avec des « colles » (des séquences d’ADN ne demandant qu’à se joindre à sa séquence complémentaire) sur les bords de façon qu’une fois mises ensemble en solution, ces tuiles s’assemblent spontanément dans la forme désirée. Avec son équipe constituée d’informaticiens, de chimistes et de biologistes, il a obtenu avec succès ces agrégats en bécher en réalisant ces tuiles avec des bouts courts d’ADN. Les tuiles sont obtenues par des processus classiques (en biologie) et automatisés de polymérisation en chaîne. Outre les difficultés expérimentales, le choix des colles pose de nombreux problèmes de type algorithmique pour s’assurer de l’assemblage correct des tuiles selon la forme désirée (et uniquement celle-là). Nous vous présenterons notre approche de ce problème qui consiste en une analyse géométrique de contraintes imposées par l’auto assemblage sur les flux d’information au sein de la forme à assembler,d’où nous déduisons un ordre d’assemblage, duquel nous extrayons enfin le jeu de tuiles.
[Collaboration avec Florent Becker (LIFO, Orléans) et Eric Rémila (LIP, ENS Lyon; IXXI, Lyon)]
http://www.liafa.jussieu.fr/~nschaban/

Jeudi 27 mai 2010 : séance reportée

Jeudi 20 mai 2010 de 10h30 à 12h

MSH (54, bd Raspail 75006 Paris) salle 206 (2è étage)

Igor Lugo
Géographie-Cités, UMR CNRS – Paris 1 – Paris 7
Firm Size and Distance in the Spatial Organization at Mexico CityThe spatial organization of firms in urban areas is based on local mechanisms related to competitive and cooperative behaviors between different sizes, number of workers, of firms and their proximity. The dynamic interaction between these mechanisms affects the localization decision of firms. Textile firms related to the manufacture sector at Mexico City exhibit a spatial patter of localization that form clusters, where big sizes are far from each other, and small and medium sizes are close to each other. Firm size and distance are applied as local rules in a geographical two-dimensional cellular automaton in order to simulate the localization process of firms.

29 avril 2010

Séance exceptionnelle atelier « Decision Making and Risks in Complex Environments »

Programme et informations pratiques

Jeudi 8 avril 2010 de 10h30 à 12h

MSH (54, bd Raspail 75006 Paris) salle 206 (2è étage)

Émilie Tanimura
Université Paris 1 Panthéon-Sorbonne, Centre d’Économie de la Sorbonne

Diffusion des innovations dans les réseaux « Petit Monde » – le rôle de la structure de communauté
Quels types de réseaux favorisent la diffusion des innovations dans le sens qu’ils permettent à une innovation utilisée initialement par une minorité mais  intrinsèquement meilleure que la norme antérieure de se substituer à celle-ci ?  Pour les réseaux déterministes et réguliers il existe des critères qui donnent un élément de réponse. Nous nous intéressons à cette question mais pour une classe des graphes aléatoires et irréguliers, les graphes « Petit Monde » qui sont intéressants en tant que modèles plus réalistes des réseaux sociaux. Nous considérons un modèle de Petit Monde paramétrique et basé sur une structure de communauté. En fonction d’un paramètre, ce modèle permet d’obtenir différents types de graphes Petit Monde. Nous mettons en évidence que ce paramètre qui représente le niveau de corrélation entre les différents communautés auxquels les individus participent a une influence importante sur la diffusion des innovations. En particulier, notre modèle permet d’interpréter le réseau Petit Monde de Duncan Watts comme un réseau où il y a une forte corrélation entre les communautés et qui favorise l’innovation. Dans d’autres Petits Mondes où les communautés ne sont pas corrélées il est plus difficile pour une innovation de s’établir.

Diffusion of innovations in Small World networks-the role of community structure
Which types of networks favor the diffusion of innovations  in the sense that an innovation that has higher intrinsic benefits than an established choice will be able to replace the latter in a large population when it is initially used by a small part of the population?  For deterministic and regular networks there are characterizations, based on a coordination game model of the diffusion of innovations. Here we analyze this question for a class of irregular random networks, « Small World » networks, which are of interest as more realistic models of social networks. We consider a parametric community based model which covers as particular cases several well known models such as Watts’ Small world. We show that there are different types of Small World graphs some which favor diffusion others that do not. Our study suggests that the kinds of ties that exist between different communities of an individual play an important role. We interpret Watts’ Small World as one with high correlation between social spheres of individuals and favorable to diffusion. In other Small Worlds where the communities of individuals are uncorrelated diffusion succeeds only for very large payoff benefits in favor of the innovation.

Jeudi 18 mars (attention à l’horaire) : de 14h à 15h30

MSH (54, bd Raspail 75006 Paris), salle 206 (2è étage)

Chih-Chun Chen
CAMS

Validating and inferring inter-level associations with Agent-based simulations
Agent-based modelling is a computational approach to studying complex systems and has been applied in several domains such as Social Systems modelling, Systems Biology and Economics. It is often referred to as a « bottom-up » approach because rules are specified at the individual (agent) level, while dynamics are observed at the global system level. In this talk, I will describe how we can extand this approach to formally specify observations at internediate levels e.g. group level behavioural motifs, agent histories. Building on these formal descriptions, we can computationally test richer sets of hypotheses about relationships between states and behaviours at different levels. Furthermore, we can use simulations as training data to infer models linking one set of observations with another set or with some global systemic phenomenon.

Jeudi 11 mars, de 10h30 à 12h

MSH (54, bd Raspail 75006 Paris), salle 445b (4è étage)

Christian Borghesi
CEA

Élections françaises : régularités spatiotemporelles et modélisation
Nous étudions les régularités spatiotemporelles présentes dans les résultats électoraux et les taux de participation des communes (ou des bureaux de vote) des élections françaises entre 1992 et 2007.
Nous essayons ensuite d’élaborer des modèles, basés sur une imitation simple des agents d’un même voisinage géographique, et en adéquation avec les données. Il s’avère que les modèles basés sur l’imitation directe deschoix ou des convictions des agents, ici, ne conviennent pas. En revanche, un très bon accord avec les données empiriques est obtenu avec un modèle de type diffusif, lié à une interaction indirecte entre agents via leur lieu de résidence.

Jeudi 4 mars 2010 de 10h30 à 12h, salle 215

Ashley Pitcher
post-doctorante au CAMS

An evaluation of a work-release treatment program for drug abuse using a mathematical model
A new mathematical model for the dynamics of illicit drug use, incarceration and work-release treatment is presented and analyzed.  The cost effectiveness of a work-release treatment program is determined.  It is found that work-release treatment is cost-effective compared to no work-release treatment, and the higher the proportion of released prisoners treated, the better.  However, work-release treatment is not enough to stop the illicit drug use epidemic. Helping drug users quit before incarceration or minimizing contagion through awareness campaigns may prove more effective.


Année 2008-2009

Séance exceptionnelle :

Mardi 23 juin de 9h à 13h / Tuesday June 23rd, 2009

« Neuroéconomie, systèmes complexes et l’émergence de comportements économiques » – « Neuroeconomics, complex systems and the emergence of economic behaviors »

à l’Institut des systèmes complexes ISC-PIF, 57-59 rue Lhomond – 75005 Paris
Joint event of the « PPF Systèmes Complexes en SHS », EHESS,
and of the Atelier PIRSTEC « emergence of economic behaviors »
Organization: Sacha Bourgeois-Gironde (Institut Jean-Nicod, ENS-EHESS) [sbgironde@gmail.com], Jean-Pierre Nadal  (CAMS, EHESS et LPS, ENS) [nadal@lps.ens.fr]
Programme :

– 9 am:  Welcome and coffee

– 9:30 am – 10:30 am:
Stefan Scherbaum & Maja Dshemuchadse
Department of Psychology, Technische Universität Dresden
Tracing decisions of a continuous mind
Neuroeconomics is a rapidly expanding field at the interfaces of the human sciences. The interdisciplinary nature of this field results in several challenges when trying to solve the puzzling questions in human decision-making. We argue that an empirical approach based on Dynamic Systems Theory (DST) could inspire and advance the neuroeconomic investigation of decision-making processes, by enriching the mental model and by extending the empirical toolset. The talk will address three issues. First, it will introduce into a DST-informed mental model of decision making. Second, on the basis of this mental model, it will illustrate how DST-informed empirical methods can be applied in basal decision-making paradigms, i.e. forced-choice conflict paradigms. Third, we will show, how these methods can be applied to higher level decision-making paradigms, i.e. intertemporal choice.

– 10:30 am – 11:30 am :
Olivier Oullier
Laboratoire de Neurobiologie Humaine (UMR 6149), Université de Provence
Social coordination dynamics: Spontaneous interpersonal synchronizationSpontaneous social coordination has been extensively described in natural settings but so far very few controlled methodological approaches have been employed that systematically advance investigations into the possible self-organized nature of bond formation and dissolution between humans. We hypothesized that, under certain contexts, spontaneous synchrony -a well-described phenomenon in biological and physical settings- could emerge spontaneously between humans as a result of information exchange. Here, a new way to quantify interpersonal interactions in real time is proposed. In a simple experimental paradigm, pairs of participants facing each other are required to actively produce actions, while provided (or not) with the vision of similar actions being performed by someone else. New indices of interpersonal coordination, inspired by the theoretical framework of coordination dynamics (based on relative phase and frequency overlap between movements of individuals forming a pair) were developed and used. Results revealed that spontaneous phase synchrony (i.e., unintentional in-phase coordinated behavior) between two people emerges as soon as they exchange visual information, even if they are not explicitly instructed to coordinate with each other. Using the same tools, we also quantified the degree to which the behavior of each individual remained influenced by the social encounter even after information exchange had been removed, apparently a kind of « motor social memory ». We will also discuss ongoing experiments where dynamics of attention load, emotional responses and decisions in economic games are investigated in light of the degree of spontaneous synchronization between individuals.

– 11:30 am : Coffee break

– 12 am – 1pm :
Catherine Tallon-Baudry
Université Pierre et Marie Curie – Paris 6 (UPMC), CNRS UMR 7225, INSERM UMR_S 975, Centre de Recherche de l’Institut Cerveau-Moelle (CRICM)
A fast and automatic neural categorization of money in the human ventral visual pathway
How and when does the brain identify a valid coin, i.e. a disc of metal endowed with economic properties? We took advantage of the changes in the Euro area in 2002 to show that coins with or without purchasing power are discriminated surprisingly early, within ~150 ms, in regions of the visual system previously thought to categorize objects based on visual features rather than on conceptual attributes such as economic validity. In addition, coin categorization in the ventral pathway is automatic and not different for familiar and non familiar coins. This suggests the existence of a generic, all-purpose neural representation of money independent from daily experience. The ease with which the category « money » is processed by the brain probably fostered its cultural emergence and success.
This program is posted also on the web site of Institut des Systèmes Complexes Paris-Île-de-France (ISC PIF).

Free entrance.

Event location : ISC-PIF, 57-59 rue Lhomond – 75005 Paris

Séance exceptionnelle :

Jeudi 14 mai 2009 de 9h30 à17h

Journée « Nature, Mind and Computation » à l’Institut des Systèmes Complexes Paris Île-de-France (ISC-PIF), 57-59 rue Lhomond, 75005 Paris

Journée co-organisée avec Sacha Bourgeois-Gironde (IJN, ENS-EHESS),

« Groupe de Philosophie Expérimentale », Institut Jean-Nicod, ENS.

Programme:

– 9h30 : Welcome & coffee

– 10h00-11h00 :
Oron Shagrir
Hebrew University, Philosophy and Cognitive Sciences, Jerusalem

– 11h00-12h00 :
Christopher David Viger
University of Western Ontario, Dpt of Philosophy, invited professor at ENS
Computation and the Vehicles of Thought

– 14h30-15h30 :
François Graner
Institut Curie (http://www.graner.net/francois/)
Optimal shapes, efficient processes?

– 15h30-16h30 :
Thierry Paul
CNRS & Département de mathématiques et applications (DMA), ENS
Computing between Mathematics and Physics

Mardi 24 mars 2009

David Chavalarias
CREA, Ecole Polytechnique et Institut des systèmes complexes, Paris-Ile-de-France

Les processus d’élaboration collective et distribuée de connaissances : approche analytique, expérimentale et multi-agents avec le jeu Nobel Quels sont les facteurs qui influencent les processus d’élaboration collective et distribuée de connaissances, tels que l’élaboration de théories scientifiques, wikipedia ou le développement d’un logiciel libre ? Quelle est la part du jeu social dans ces dynamiques ? En partant de l’épistémologie de Popper, nous proposerons un modèle susceptible de capturer certains phénomènes collectifs liés aux processus d’élaboration distribuée de connaissances, qui se traduisent par l’émergence de régularités au niveau des pratiques individuelles de recherche et de dynamiques collectives caractéristiques. Cela nous amènera à exposer des résultats originaux ou contre intuitifs liant, par exemple, la taille d’une communauté et la vitesse.

Mardi 10 mars 2009

Sonia Moulet
GREQAM, Marseille & the Hebrew University of Jerusalem

Impact de l’organisation du marché : comparaison de la négociation de gré à gré et des enchères descendantes
Nous comparons à l’aide d’un modèle multi-agents deux types d’organisations fréquemment rencontrées dans les marchés de biens périssables: les enchères simultanées descendantes ou enchères hollandaises, et la négociation de gré à gré sans prix affichés ; Notre approche consiste à étudier des populations d’agents artificiels -acheteurs et vendeurs- qui, par le biais de leurs expériences, vont apprendre à utiliser certaines règles de comportement ou « stratégies ». Nous considérons deux types d’apprentissage: l’apprentissage de l’information pendant la journée et l’apprentissage des règles à travers les expériences dans le temps. Nous étudions le résultat d’un apprentissage (à base d’heuristiques) bien spécifié et nous déterminons si les allocations obtenues correspondent à certains critères d’efficacité.
Ref.: A.P. Kirman et S. Moulet, GREQAM document de travail n°2008-56, à paraître dans « Systèmes Complexes et Sciences Sociales », Vuibert.

Jeudi 26 février 2009

Stefano Demichelis
Departments of Mathematics, University  of Pavia

Language, meaning and games: a model of communication, coordination  and evolution
L’expérience de tous les jours nous montre que le langage est un  moyen de coordination très puissant. Cependant la question de comment  cette coordination découle du fait d’avoir un langage commun n’est  pas tout a fait banale. En fait, même si les deux locuteurs se comprennent  parfaitement, il y a toujours la possibilité de mentir…
Dans un article devenu célèbre Aumann a montré comme,  même en présence d’ un langage très riche, il n’y a aucune  raison logique pour qu’un agent qui se méfie de l’autre change d’avis  et lui fasse confiance ou le simple fait d’avoir reçu un message, pour convaincant qu’il puisse être. Pourtant, la plupart des interactions  entre êtres humains est basée sur une certaine forme de confiance:  si on fixe un rendez vous dans un café, je fais des  efforts raisonnables pour y être et je suppose que l’autre personne en fait autant, spécialement si, avant, on a échangé des mots comme: « je te promets » , « je jure » etc…
Dans le travail que je présenterai on donne un modèle de contraintes  sur ce que la compréhension de la signification d’un message et le  fait de savoir que le message sera compris imposent sur les actions suivantes.  On montre que, dans le cas ou il y a un but commun, les agents finissent par utiliser leur messages pour se coordonner sur l’alternative plus avantageuse  pour tous les deux, comme notre intuition suggère.
Ref. : Stefano Demichelis & Jörge n W. Weibull,  American Economic Review, 2008
L’exposé sera en français.

Mardi 10 février 2009

Camille Roth
CAMS

Motifs et processus dans les réseaux de savoirs
Les scientifiques, les développeurs de logiciels libres, les auteurs de blogs politiques sont des exemples, parmi d’autres, de communautés de savoirs où individus collaborent et interagissent afin de manipuler, produire et échanger des connaissances. De tels systèmes de production de savoirs décentralisés constituent, en tant que tels, des systèmes complexes socio-sémantiques. Il s’agit alors de comprendre comment ces communautés se forment, évoluent, quelle est leur structure et, plus largement, quels types de processus les animent. À cet égard, les formalismes des réseaux d’une part, et des systèmes dynamiques d’autres part, sont apparus comme un cadre incontournable pour capturer des faits stylisés concernant ces communautés.
L’objectif de cet exposé est de souligner, dans le contexte des communautés de savoirs, l’entrelacement entre réseaux sociaux et sémantiques, à la fois de manière théorique et empirique: je commencerai ainsi par proposer des caractérisations (ou motifs) propres à ces communautés, à l’aide d’un formalisme étendu aux réseaux socio-sémantiques. Je montrerai ensuite comment ce type d’approche modifie la modélisation de la dynamique et des processus sous-jacents, en illustrant empiriquement mon propos par des études de cas ayant trait, notamment, aux réseaux de blogs et aux réseaux de collaboration scientifique.

Patterns and Processes in Knowledge Networks
Communities of agents manipulating, producing and exchanging knowledge are forming as a whole a socio-semantic complex system achieving widespread social cognition ?- with concepts being introduced and manipulated in a rather decentralized fashion. Scientists, software developers, political webloggers are examples, among others, of such distributed knowledge construction systems.  Questions traditionally arise as to how these communities are forming, evolving, interacting, and, more broadly, what kind of processes are at work within them -? particularly as regards knowledge diffusion.  Networks, in particular, have emerged as an unavoidable formal framework to capture essential stylized facts of the structure of these knowledge communities, addressing issues pertaining to social epistemology, knowledge economics and cultural anthropology, along with new toolboxes borrowing extensively to graph theory and systems dynamics. Often, though, knowledge networks are treated like any other real network, while our goal is to emphasize the intertwining of social and semantic networks, both theoretically and empirically: I first suggest that binding these networks yields new kinds of patterns, showing notably how community structure may subsequently be appraised.  I will then present some implications on how structural dynamics and processes could be considered and modeled.  At the same time, I will sketch out and describe empirical applications on various social systems.