Edit : Un article d’introduction à l’analyse de réseau a été rédigé ultérieurement. Vous devriez commencer par là avant de plonger dans cet article technique !

L’analyse de réseaux sociaux (Social Network Analysis) est une méthode sociologique permettant de contextualiser le comportement des acteurs d’un système de manière dynamique. J’en parle aujourd’hui, car je compte utiliser cette méthode dans ma thèse pour cartographier les influences du rapport au savoir en tant qu’attitude (la fameuse « Apprenance ») dans une organisation. En effet, pour White (2011, p. 79), « l’information, le soutien et les attitudes sont certaines des « substances » considérées comme « circulant » à travers un réseau ».

La plupart des points traités ici sont issus d’une formation que j’ai suivie la semaine dernière à Sciences Po et conduite par Julien Brailly. Nous traiterons d’abord des analyses descriptives puis des analyses stochastiques (issues de la théorie des probabilités).

 

Analyses descriptives

Analyse descriptive des acteurs

L’analyse descriptive des acteurs permet principalement d’obtenir une idée de l’importance de l’acteur dans le réseau au travers de sa centralité. Celle-ci peut être mesurée de nombreuses manières différentes. Pour un réseau de n acteurs, on peut par exemple utiliser :

  • Le degré (degree) : Mesure le nombre de liens qu’un acteur possède. Dans un réseau avec des liens dirigés, on peut différencier les mesures de indegree (popularité, lorsqu’il est choisi par d’autres membres) et de outdegree (sociabilité, lorsqu’il s’engage dans des relations). Son minimum est de 0 et son maximum de n-1.
  • La proximité (closeness) : Mesure l’inverse de la somme des distances d’un acteur à tous les autres acteurs. Son minimum est de 0 lorsque l’acteur est isolé et son maximum est de 1 lorsque l’acteur est adjacent à tous les autres.
  • L’intermédiarité (betweenness) : Mesure le nombre de fois qu’un nœud (ou acteur) est utilisé dans le chemin le plus court entre deux autres nœuds. De ce fait, cette mesure dénote un certain pouvoir dans la mise en relation de deux acteurs. Son minimum est de 0 lorsque l’acteur ne se trouve sur aucun géodésique (chemin le plus court) et son maximum est de (n-1)(n-2)/2 lorsque l’acteur se trouve sur tous les géodésiques.

Ces synthèses individuelles de centralité pour chaque acteur peuvent à leur tour être synthétisées par :

  • La densité: Mesure le nombre de liens dans le réseau sur le nombre de liens total possible. Son minimum est de 0 et son maximum de 1.
  • La centralisation: Mesure la centralité du nœud le plus central en relation avec la centralité de l’ensemble des autres nœuds. Son minimum est de 0 et son maximum de 1. Ainsi, toutes les mesures de centralité (degré, proximité, intermédiarité, etc.) peuvent avoir une mesure de centralisation.
  • La géodésie: Mesure le nombre de chemins géodésiques et leur répartition entre les acteurs. Cette mesure prend la forme d’une matrice de taille n.

 

Analyse descriptive des structures

De même que pour les acteurs, et sans entrer dans l’utilisation de modèles, on peut produire des mesures descriptives de la structure comme :

  • La répartition dyadique: Mesure le nombre de dyades mutuelles, asymétriques et nulles dans le réseau.
  • La répartition triadique: Mesure le nombre de triades selon la classification de Davis et Leinhardt (1972) dans le réseau.
Triad Census - Davis & Leinhardt (1972)

Triad Census – Davis & Leinhardt (1972)

 

Le modèle de blocs (ou blockmodeling) cherche à faire émerger la structure simplifiée d’un réseau sans aprioris basés sur des attributs ou des groupes.  Ce modèle repose sur la logique d’équivalence. Il en existe plusieurs types dont les plus utilisées sont :

  • l’équivalence structurale (Lorrain & White, 1971) qui stipule que des nœuds sont structurellement équivalents quand ils ont des liens et des non-liens avec les mêmes nœuds ;
  • l’équivalence relationnelle qui regroupe les acteurs ayant le même type de lien avec les mêmes types d’acteurs. Dans un graphe orienté on trouvera par exemple des isolés (isolats), des émetteurs (sycophants), des récepteurs (primaries) et des intermédiaires (brockers) (Burt, 1976; Marsden, 1990).
Logique d'équivalence

Logique d’équivalence

 

Le blockmodeling va donc simplifier la structure initiale en suivant plusieurs étapes :

  1. On réalise une Classification Ascendante Hiérarchique pour obtenir le nombre idéal de blocs favorisant l’émergence du meilleur modèle possible d’équivalence.
  2. On regroupe en blocs (matrice bloquée) les acteurs par logique d’équivalence en intervertissant les lignes et colonnes de la matrice d’adjacence (Doreian, Batagelj, & Ferligoj, 2005).
  3. A partir de la matrice image, on crée un graph réduit de la matrice bloquée obtenue.
  4. On interprète les rôles sociaux identifiés par la :
    1. Description des attributs des acteurs (âge, sexe, ancienneté, etc.)
    2. Description des blocs (isolés, émetteurs, récepteurs, intermédiaires, etc.)
    3. Description de l’ensemble du blockmodel (basé sur des matrices image types d’amitié, de conseil, de hiérarchie, de transitivité, etc.)
Etapes du blockmodeling

Etapes du blockmodeling

 

Analyses stochastiques

Corrélations entre réseaux et entre réseaux et attributs

Les tests QAP

En statistique, on retrouve souvent deux éléments : la corrélation et la significativité. Les tests QAP (Quadratic Assignment Procedure) permettent de tester la significativité de la corrélation entre deux réseaux ou entre un réseau et les attributs des acteurs. Ils sont nés de la nécessité de s’adapter aux spécificités des réseaux qui ont des données très corrélées (le lien AB et le lien AC sont dépendants, car ils concernent tous les deux l’individu A) et ne relèvent que d’une seule observation. Pour contourner le problème, Krackardt (1987) propose d’évacuer les caractéristiques structurales du réseau sans nier l’existence de corrélations entre les observations. Ainsi, pour mesurer la corrélation entre deux réseaux :

  1. On transforme deux matrices d’adjacence en vecteurs et on mesure leur corrélation.
  2. On permute n fois l’assignement des labels (120 possibilités pour une matrice de 5 acteurs, 900 pour une matrice de 10 acteurs, etc.) de chaque matrice puis on recalcule la corrélation.
  3. Si la corrélation obtenue à l’étape 1 se situe à l’extérieur de la distribution des corrélations liées aux permutations, les deux matrices sont significativement corrélées.

Si on voulait mesurer la corrélation entre un réseau et un attribut, on ne transformerait que la matrice, l’attribut étant déjà sous forme de vecteur.

Cette méthode est intéressante dans la mesure où elle utilise une permutation des données observées et non une génération aléatoire de données. De même, lorsque Krackardt la développe, il s’assure que la significativité exprimée est toujours d’au moins p=.05. Une des limites qui y est associée est qu’on ne peut pas savoir si la significativité est en réalité plus basse que ça (et mérite plus d’étoiles !). D’autres limites signalées pour être assuré de la stabilité de la mesure de la significativité sont l’utilisation d’un minimum de 10 acteurs et de distributions normales.

Les modèles QAP

Il existe différents types de modèles QAP, le plus intéressant étant les MRQAP (Multiple Regression – Quadratic Assignment Procedure) qui permettent de rendre compte de la multicolinéarité des variables (Dekker, Krackhardt, & Snijders, 2007; Krackhardt, 1988). Autrement dit, ils permettent de tester simultanément plusieurs effets, les résultats de significativité obtenus tenant compte des paramètres utilisés.

Ainsi, dans le graph ci-dessous basé sur un réseau de conseil, on peut voir une corrélation significative avec le réseau d’amitié, de travail, le status1, les spécialités 1 et 2 et le bureau 1 et 2, car la corrélation entre ces réseaux et attributs (ligne rouge) est en dehors de la distribution des corrélations issues des permutations.

MRQAP

MRQAP

Une limite des modèles QAP est que l’on commence à être gourmand en ressources de calcul. Sur un nombre moyen d’acteurs (50-100), si l’on teste plus d’une dizaine de variables avec un grand nombre de permutations, on arrive à des temps de calcul de 10 à 30 minutes.

 

Analyse de la structure macro par les micro-structures

Les ERGM (Exponential Random Graph Models) cherchent à mettre en évidence des régularités illustrant un processus social à l’échelle de la structure relationnelle. Le mécanisme relationnel central des ERGM est la triade. On retrouve souvent dans la littérature sociologique la nécessité d’un tiers (Simmel, 2013) pour obtenir des processus sociaux : « Le groupe commence avec la présence d’un tiers dans une paire et avec les phénomènes consécutifs de coalition, de rejet, de majorité, de minorité » (Anzieu & Martin, 2013, p. 28). Une autre raison est que contrairement à la dyade, l’ensemble formé des relations entre trois individus perdure si un de ces membres disparait. Toutefois, les ERGM n’excluent pas l’analyse d’autres structures comme les dyades réciproques ou les phénomènes d’homophilie. L’utilisation d’un ERGM s’effectue de la manière suivante :

  1. On génère plusieurs milliers de modèles aléatoires
  2. On modifie les éléments de structure et attributs générant les modèles aléatoires pour se rapprocher de notre modèle observé selon la hiérarchie des effets :
    1. Effets dyadiques
    2. Effets de centralité
    3. Effets triadiques
    4. Effets de connectivité
  3. On réalise une interprétation sociologique des éléments de structure et attributs qui permettent de se rapprocher au plus près du modèle observé.
Hiérarchie des effets dans un ERGM

Hiérarchie des effets dans un ERGM

Les ERGM possèdent des limites importantes. Tout d’abord, on ne peut pas comparer les résultats d’ERGM ; ils ne s’appliquent qu’à un seul modèle. Vu la puissance de calcul nécessaire, on ne peut traiter des réseaux valués (le temps de traitement des modèles QAP se compte en minutes alors que celui des ERGM se compte en heures, et ce, en traitant uniquement des réseaux binaires !). Enfin, une limite subjective que j’entretiens est que l’on peut comprendre la théorie des ERGM sans pouvoir les utiliser si l’on n’a pas une connaissance approfondie des différents types de structure nécessaires au paramétrage du modèle.

 

Références

Anzieu, D., & Martin, J.-Y. (2013). La dynamique des groupes restreints (2e éd.). Paris: Presses Universitaires de France.

Burt, R. (1976). Positions in Networks. Social Forces, 55(1), 93‑122.

Davis, J., & Leinhardt, S. (1972). The Structure of Positive Interpersonal Relations in Small Groups. In J. Berger (éd.), Sociological Theories in Progress, Volume 2 (1re éd., p. 218‑251). Boston: Houghton Mifflin.

Dekker, D., Krackhardt, D., & Snijders, T. (2007). Sensitivity of MRQAP tests to Collinearity and autocorellation conditions. Psychometrika, 72(4), 563‑581.

Doreian, P., Batagelj, V., & Ferligoj, A. (2005). Generalized Block-modeling (1re éd.). New York: Cambridge University Press.

Krackhardt, D. (1987). QAP Partialing as a Test of Spuriousness. Social Networks, 9, 171‑186.

Krackhardt, D. (1988). Predicting with networks: Nonparamatric multiple regression analysis of dyadic data. Social Networks, 10, 359‑381.

Lazega, E. (2014). Réseaux sociaux et structures relationnelles (3e éd.). Paris: Que sais-je ?

Lorrain, F., & White, H. (1971). Structural Equivalence of Individuals in Social Networks. Journal of Mathematical Sociology, 1(1), 49‑80.

Marsden, P. (1990). Network Data And Measurement. Annual Review of Sociology, 16, 435‑463.

Simmel, G. (2013). Sociologie. Études sur les formes de la socialisation (2e éd.). Paris: Presses Universitaires de France.

White, H. (2011). Identité et contrôle. Une théorie de l’émergence des formations sociales. Paris: EHESS.

 

 Crédits

Couverture : Martin Grandjean => Un site à consulter !

Articles associés

Les différents types de collectifs Apprendre n’est pas seulement une affaire individuelle. D’ailleurs comme le dit Carré, « on apprend toujours seul mais jamais sans les autres ». Afin ...
Évaluer ses réseaux de savoirs On apprend toujours seul, mais jamais sans les autres. Cette phrase résume bien une idée que je souhaite développer ici : nous appartenons tous à de m...
Évaluer ses réseaux de savoirs – CNFPT 2017... Ayant récemment été invité à intervenir à l'université d'été du Centre National de la Formation Publique Territoriale, j'ai pu partager mes idées sur ...

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *