Depuis 2018 et à Paris majoritairement, à l’initiative de l’éditorialiste Thomas Legrand, un nouveau comptage des manifestant·e·s est venu agrémenter ceux de la préfecture et des syndicats, dans le but de donner des chiffres « indépendants ». Ces chiffres sont donc donnés par le cabinet Occurrence, qui a vite été soupçonné d’être une officine de LREM, ce que les fact-checkeurs se sont empressé de vérifier. Mais peu importe, ce qui nous intéresse ici, c’est que les chiffres donnés sont souvent très faibles, voire aberrants : ils sont souvent plus faibles que les chiffres de la pref, c’est dire. Par exemple, Occurrence a compté 40 500 manifestant·e·s à Paris le 5 décembre dernier (un peu moins que la capacité du Parc des Princes), contre 65 000 selon la pref et 250 000 selon la CGT. Ce cabinet qui fleure bon la start-up nation et l’innovation, et qui vante des méthodes scientifiques de comptage, sert finalement la soupe au gouvernement.
Or, il se trouve que, d’un point de vue scientifique, les méthodes employées souffrent de plusieurs tares. Cet article est un résumé de séries de tweets d’un chercheur en milieux granulaires(autant dire qu’il touche sa bille en comptage de points), qui a pu observer les méthodes du cabinet suite à une invitation de Thomas Legrand. Il en a tiré des observations que l’on détaille en partie ici, et des recommandations, non suivies d’effet selon ses dires.
Le but ici n’est pas de réclamer de meilleures estimations, au fond on n’a que faire du nombre exact de personnes dans la rue. Mais comme la propagande gouvernementale et médiatique d’essoufflement du mouvement repose en partie sur ces chiffres soi-disant fiables et scientifiques, il est bon de pouvoir les démonter point par point sur leur propre terrain.
Le dispositif de mesure
Comment Occurrence s’y prend-il pour donner les chiffres ? Une caméra filmant la rue est disposée sur un balcon à un point de l’itinéraire de la manifestation, et un logiciel de traitement d’images compte les personnes passant dans le sens de la manifestation, et celles passant dans le sens inverse, comme ça arrive souvent lorsqu’on se prend des charges et/ou des lacrymos : c’est pour éviter de compter la même personne plusieurs fois.
L’auteur du fil Twitter soulève trois gros types de problèmes dans les méthodes du cabinet :
Des problèmes de mesure
Et elles sont nombreuses. Pour utiliser un appareil de mesure, il faut que les conditions pour lesquelles il a été conçu soient réunies. Le dispositif de mesure a été conçu à l’origine pour compter des foules dans des conditions de type couloir d’aéroport :
- la luminosité est constante et bonne ;
- la foule n’est pas dense (sur les images, on voit le sol entre chaque personne) ;
- globalement, les gens vont dans un sens, et ont peu le goût de remonter les couloirs d’aéroport pour aller repasser la douane ;
- toutes les personnes à compter passent dans le champ de la caméra.
Or, il est fréquent qu’aucune de ces conditions ne soit réunie en manif :
- les conditions météo ou les nuages de lacrymos affectent la visibilité de la caméra, donc on peut manquer des gens ;
- les foules des dernières manifs sont denses, et alors les logiciels de comptage deviennent très mauvais comme l’explique le chercheur, et les chiffres sont alors largement sous-évalués : un exemple est donné avec la manif de jeudi 9 janvier, ou à l’endroit du point de comptage à un moment donné, l’auteur du fil Twitter a observé trois à quatre fois plus de personnes au mètre carré que le logiciel.
- Dans une avenue, surtout quand les flics se déchaînent, les mouvements ne sont pas forcément rectilignes, on peut se retrouver à traverser la rue plutôt que de la longer, ou bien à reculer. Pour ça, le logiciel tient compte du sens de déplacement des personnes. L’efficacité du truc laisse songeur·euse : les flèches rouges sur la vidéo suivante sont censées compter les gens qui vont à contresens.
MDR @enlOccurrence qui nous sort sa vidéo de propagande censée nous montrer son comptage ultra fiable... je vs laisse apprécier le logiciel qui voit des gens à contre sens en plein cœur d’un cortège 👍😂 #reformedesretraites #greve11janvier #greve #manif #comptage #startupnation pic.twitter.com/giOU7SIA5h
— À La Sauvette (@A_La_Sauvette) January 11, 2020
- Enfin, beaucoup de monde ne passe tout simplement pas sous le point de comptage… Prenons le 5 décembre par exemple : une énorme proportion des manifestant·e·s a contourné la place de la République par le quai de Valmy pour éviter la souricière que la préfecture y avait mise en place. Sans compter les gens qui rentrent ou sortent en cours de manif : pour éviter les fouilles, pour échapper à des charges, pour d’autres bonnes raisons. Autre exemple : peu de monde est arrivé à Saint-Augustin jeudi 9 janvier, car le gang le plus dangereux de la ville — aka les flics — a massivement attaqué l’avant de la manif. Avec un point de comptage, il y a donc peu de chance qu’on puisse voir tou·te·s les manifestant·e·s.
Dans tous les cas, le logiciel de comptage semble sous-évaluer fortement le nombre de personnes.
Des problèmes de présentation des résultats
Alors certes, nos adeptes du cabinet sont conscient·e·s que les chiffres sont sous-évalués, et les corrigent : il·elle·s comptent manuellement les personnes sur certaines séquences de la manifestation pour voir par quel facteur il faut multiplier les chiffres pondus par le logiciel. Sans rentrer dans les détails, il se trouve aussi que notre chercheur a quelques problèmes avec le choix de ces facteurs. Soit.
Une fois les chiffres corrigés, il faut évaluer l’erreur des mesures : c’est la base de toutes les expériences scientifiques. Sans ça, le résultat ne vaut rien. En effet, on a vu que le nombre de personnes était sous-évalué : on ne sait donc pas précisément, même après correction, quel est le nombre de personnes présentes ce jour-là. Par conséquent, il faut évaluer de combien on se trompe : il est probable selon le chercheur que l’incertitude est de plus de 50% pour les foules denses. Cela signifie que si l’on estime qu’il y avait 40 500 personnes avec 50% de marge d’erreur, alors on estime qu’il y avait entre 20 000 et 60 000 personnes. Or le cabinet Occurrence ne publie pas de marges d’erreur, et donc pas non plus la manière dont elles sont évaluées.
Pire, les résultats qu’il·elle·s publient sont précisés à la centaine près : le 5 décembre, le nombre de manifestant·e·s était évalué à 40 500. Cela veut dire que sur une foule telle que celle-là, il·elle·s ont « compté » les gens à la centaine près. Lol. Le nombre de chiffres que l’on donne dans le résultat final est important : si l’on dit qu’il y avait 23 000 personnes comme il·elle·s l’ont affirmé samedi 11, c’est qu’on est à peu près sûr qu’il y en avait entre 22 000 et 24 000, et non 28 000.
Ce genre d’erreur dans la présentation des résultats est considéré comme une fraude scientifique.
Enfin, samedi, le chiffre de 23 000 manifestant·e·s à Paris a été annoncé par Occurrence (contre 150 000 pour la CGT), chiffre qu’il « sait sous-évalué » : il·elle·s savent que les chiffres ne sont pas bons, mais si c’est l’occasion de faire de la propagande antigréviste, il·elle·s y vont gaiement.
Des problèmes d’étalonnage et de tests
Enfin, quand un résultat scientifique est publié, il faut donner accès de manière publique aux méthodes de mesures, d’étalonnage et de correction, et à certaines données brutes : cela permet à d’autres personnes de vérifier que les méthodes employées sont viables. Cela n’est toujours pas fait…
Nous sommes désolé·e·s pour Occurrence : aux chiottes le cabinet. De toute façon, les meilleures estimations sont sur MIA. Racontez plutôt votre grève !