Est-ce que P = NP ?

La vidéo du jour s’attaque à un des 7 problèmes « à 1 million de $ »…enfin « s’attaque »… façon de parler !

Les classes de complexité

Il y aurait des dizaines de chose à ajouter à ce que j’ai dit au sujet des classes de complexité. Je voudrais commencer par une qui n’est pas a priori évidente ou très connue : stricto sensu, la définition des classes P et NP (et la question P=NP qui va avec) ne concernent que les problèmes de décision.

Un problème de décision, c’est un problème dont la réponse est « oui » ou « non ». Par exemple : est-il possible de satisfaire telle formule booléenne ? est-il possible de remplir le sac-à-dos en respectant les contraintes de place et de butin minimal ? Lire la suite

Les politiques d’austérité, à cause d’une erreur sous Excel ?

En ces temps troublés, j’ai eu bien du mal à trouver un sujet à traiter qui me motive, et qui nous sorte des réflexions sur le COVID-19. Le salut est finalement venu d’un sujet un peu en dehors de ma zone habituelle…et qui n’est pas sans résonance avec l’actualité !

Tout d’abord, je voudrais remercier celui par qui ce sujet est arrivé à mes neurones : Cyrille Rossant dont l’excellent livre sur le calcul interactif en Python mentionnait l’article de Reinhart et Rogoff comme une bonne raison de s’intéresser de près à la reproductibilité des expériences numériques.

Je crois que j’en avais déjà entendu parler (probablement dans cette tribune), mais l’histoire était sortie de ma mémoire… Lire la suite

Épidémie, nuage radioactif et distanciation sociale

Le but de ce billet (un peu inhabituel) est d’illustrer de façon simple l’incroyable efficacité potentielle des mesures de distanciation sociale (limiter les rencontres, hygiène, télétravail, fermeture des écoles…) lorsque l’on est face à une épidémie qui vire à la pandémie.

Une épidémie est une réaction en chaîne, et cela change tout sur l’impact potentiel de mesures de ce type, par rapport à d’autres sources de danger.

Pour bien le comprendre, imaginons une autre situation : supposons que l’on ne soit pas face à une épidémie, mais à un danger d’un autre type, disons un nuage radioactif (ou chimique). Du fait de la présence du nuage, imaginons qu’il devienne risqué de sortir, que cela puisse nous rendre malade, voire à terme nous tuer. (Et supposons qu’enfermés  chez soi on ne craigne rien).

Le gouvernement décide de prendre des mesures pour confiner les gens chez eux : fermer certaines écoles, encourager le télétravail, inviter les gens à reporter leurs déplacements, les réunions etc.

Dans ce cas, on peut légitimement imaginer que les vies sauvées seront proportionnées à l’intensité des efforts :

  • Si 10% des gens restent chez eux, on évitera 10% des morts;
  • Si 50% des gens restent chez eux, on évitera 50% des morts;
  • Si 95% des gens restent chez eux, on évitera 95% des morts.

L’effet est linéaire.

Une épidémie, ça n’est pas du tout ça. Une épidémie est une réaction en chaîne, cela implique qu’il y a un effet de seuil sur l’efficacité des mesures, et cet effet de seuil est très fortement non-linéaire.

Même quand on est familier avec les mathématiques associées, il est assez difficile de se représenter cet effet de seuil, alors prenons un exemple concret à partir d’un modèle épidémiologique.

Le modèle que je vais utiliser s’appelle le modèle SIR. C’est un des modèles les plus simples, et l’usage que je vais en faire n’est pas prédictif. Je ne cherche pas à prédire réellement le nombre de morts ou d’infectés : Le modèle est trop simple, les paramètres seront trop imprécis.

Je vais en faire un usage pédagogique, pour illustrer cette notion de seuil, et comment les mesures de distanciation sociales peuvent avoir un effet incroyablement efficace, pas du tout proportionné à l’effort comme dans le cas du nuage radioactif.

Dans ce modèle, on considère que l’on a 3 populations : les sains, les infectés, et les remis (ceux qui ont eu le virus et ont guéri). Et on va modéliser deux phénomènes simples :

  • Les gens infectés vont infecter les gens sains.
  • Les gens infectés vont progressivement guérir.

Pour cela, on a besoin de 3 paramètres :

  • La durée D de la maladie, pendant laquelle on est contagieux.
  • Le nombre moyen C de contacts que l’on a chaque jour avec d’autres gens.
  • La probabilité P qu’un contact entre un infecté et un sain conduise à une transmission du virus.

Bien souvent, on ne connait pas avec précision ces paramètres, qui d’ailleurs vont dépendre de la définition précise de ce qu’on appelle « un contact ». Mais vous allez voir que ça n’est pas très important.

Prenons un infecté : chaque jour il va croiser C personnes, qu’il contaminera avec une probabilité P. Et cela se produira pendant chacun des D jours que durera sa maladie.

Le nombre total de personne qu’il contaminera sera donc le produit de ces trois termes, que l’on note traditionnellement R0

R_0 = C \times P \times D .

On appelle ce paramètre le taux de reproduction, et même sans faire tourner le modèle mathématique, il n’est pas très compliqué de se convaincre qu’il a une influence déterminante sur le devenir de l’épidémie.

S’il vaut disons 2 : chaque infecté contaminera 2 personnes, qui elles-même contamineront 2 personnes, qui elles-même contamineront 2 personnes etc. On a une réaction en chaîne, le nombre de malades augmente de façon exponentielle, l’épidémie explose.

Maintenant si ce coefficient est inférieur à 1 : chaque infecté refilera la maladie à moins d’une personne, donc le nombre net de malade diminuera et progressivement l’épidémie s’éteindra.

Il y a un effet de seuil monstrueux. Pour éteindre une épidémie de façon « naturelle », il faut que le R0 soit sous le seuil fatidique de 1. Alors combien vaut le R0 dans le cas du Covid-19 ? On n’en sait rien exactement. Probablement entre 2 et 4.

Mais comme vous le voyez, cette valeur n’est pas intrinsèque à la maladie, elle dépend de facteurs comportementaux : combien de contacts quotidiens, quelle probabilité qu’une transmission ait lieu.

En adoptant des mesures de distanciation sociale (moins de contacts, se tenir plus loin, hygiène, suppressions des rassemblements et réunions inutiles, fermeture des établissements scolaires, télétravail, etc.), on peut très facilement faire baisser le R0.

Et le point clé ici, est que le bénéfice ne sera pas du tout proportionné à l’effort. Si on en fait suffisamment pour passer rapidement sous le seuil, c’est gagné. 

Imaginons que le R0 soit initialement de 2,5. C’est une hypothèse raisonnable pour le Covid-19. Si on arrive à le diviser par 4 on bloque très très vite la propagation de l’épidémie.

Diviser le R0 par 4 est loin d’être inaccessible : cela peut vouloir dire par exemple avoir 2 fois moins de contacts, et faire en sorte que la probabilité de transmission soit divisée par 2 (par une distance plus importante et une attention particulière à l’hygiène.)

Pour bien illustrer ce point, je me suis amusé à mettre un modèle de type SIR dans Excel (TELECHARGEABLE ICI, sinon voir la fin du billet) , en prenant comme point de départ la situation approximative en France au 11/03/2020.

Encore une fois, le but n’est pas de faire de la prédiction, c’est que vous puissiez voir par vous-même, par l’expérimentation « numérique », que cet effet de seuil du R0 est monstrueux. Ceci est donc un « modèle-jouet ».

Prenons un R0 de 2,5. On peut l’obtenir en disant que la maladie dure 10 jours, et que chaque jour on a 50 contacts avec une probabilité de transmission de 0,5%. Ces deux derniers chiffres ne sont pas important, c’est le produit des deux qui compte.

Le graphique ci-dessous représente le nombre cumulé de cas en fonction du temps (en jours à partir d’aujourd’hui) en France, si on reste à un R0 de 2,5. (Ca n’est pas une prédiction, c’est un « modèle-jouet » !)

On voit qu’en 6 mois, quasi tout le monde aura chopé la maladie. Avec un taux de mortalité de 3%, on est quasi 2 millions de morts (Ca n’est pas une prédiction, c’est un « modèle-jouet » !)

Maintenant imaginons que l’on arrive tout de suite maintenant à diviser par 4 le R0 : deux fois moins de contacts, et des contacts plus distants qui divisent par 2 la probabilité de transmission. Ca parait pas inatteignable, non ? Le R0 sera alors de 0,62. Et voici le résultat

On plafonne à 6000 cas cumulés, et donc 180 morts avec un taux de mortalité de 3% (Ca n’est pas une prédiction, c’est un « modèle-jouet » !)

Une différence monstrueuse, énorme. Totalement disproportionnée par rapport au changement initial qu’on a fait (des « simples » divisions par 2 des contacts et des transmissions).

Une épidémie est une réaction en chaîne. Les mesures de distanciation sociale peuvent avoir un effet totalement disproportionné. C’est très très très différent du cas du nuage radioactif, où les mesures de confinement auraient un effet essentiellement linéaire.

Et c’est évidemment lié au fait que dans le cas du nuage, en faisant attention on ne protège que soi. Ici on protège tout le monde.

C’est tout ce que je voulais illustrer. Prenez le modèle Excel, jouez avec. Ca n’est qu’un modèle, le plus simple de tous en épidémiologie. Il n’a AUCUNE valeur prédictive sur les détails des chiffres. Il est là pour illustrer le principe de réaction en chaîne, qui est au coeur de la notion d’épidémie. Les détails du modèle ne sont pas important, cet effet de réaction en chaine existe dans tous les modèles.

Faire baisser rapidement le R0 est très accessible, sans forcément tomber dans une situation de « pays mort » ou de « loi martiale ». Je pense que fermer les écoles et les établissement d’enseignement pourrait créer le signal nécessaire pour que tout le monde y mette du sien. Et en quelques semaines ce serait plié.

Téléchargez le modèle-jouet.

Edit du 13/03/2020 : Pas mal de gens ont fait des petites applis qui illustrent le modèle de façon interactive :

https://jflorian.shinyapps.io/SIRmodel/

https://sciencetonnante-epidemie.netlify.com

https://epidemic.phoenix-it-services.com

 

Parcoursup, et les algorithmes de mariage stable

La vidéo du jour est un peu particulière. Je ne pensais pas avoir grand chose à dire sur le sujet…et pourtant elle fait 39 minutes !

On y parle de Parcoursup et plus généralement des procédures d’appariement qui existent notamment pour l’attribution des places dans l’enseignement supérieur, et ce dans de nombreux pays.

Tout d’abord, il me faut remercier 3 personnes avec qui j’ai eu le plaisir de discuter pour me documenter : Marc De Falco, Judicaël Courant et Julien Grenet.

D’ailleurs avant d’aborder quelques compléments sur les aspects scientifiques, voici quelques références sur les questions des procédures existantes, notamment en France avec APB et Parcoursup. Lire la suite

L’hypothèse de Riemann

La vidéo du jour parle de l’Hypothèse de Riemann !

J’ai essayé comme toujours de rendre ça accessible, mais je suis conscient que ça n’est pas évident car cela demande au minimum de connaître les nombres complexes.

J’ai pris soin toutefois d’éviter la notation \Sigma pour désigner les séries. Il me semble que sur un épisode court ça n’apporte pas grand chose à part demander au lecteur un effort de décryptage supplémentaire. Lire la suite

Théorie du chaos et effet papillon

Le sujet du jour est un grand classique, l’une des découvertes majeures du XXe siècle : la théorie du chaos.

On pourrait écrire tout un bouquin sur le sujet — et d’ailleurs il y en a, cf J.Gleick ou I.Stewart — alors je ne vais pas chercher dans ce billet à compléter tout ce que je n’ai pas dit dans la vidéo, mais au moins à pointer vers quelques pistes ou résultats intéressants.

Edit : tous les codes Python des simulations sont là : https://github.com/scienceetonnante/Chaos Lire la suite

Les mathématiques de la musique

Aujourd’hui un sujet qui me tient à coeur : la musique ! … et ses relations avec les mathématiques et la physique.

La vidéo est déjà bien assez longue, alors peu de compléments aujourd’hui, si ce n’est insister à nouveau sur le fait qu’il existe encore plein d’autres manières d’accorder les instruments, suivant le nombre de notes et la manière dont on choisit les intervalles. Il existe même des façons d’accorder où les octaves ne sont pas parfaites !

Un point pour les guitaristes : on peut sentir assez bien le fait qu’il y a un souci d’accordage sur les guitares en regardant les harmoniques naturelles des cordes. La seconde harmonique (l’octave) se situe pile sur la 12e frette, la troisième harmonique (la quinte) pile sur la 7e frette, la quatrième harmonique (deux octaves) pile sur la 5e frette. Il est d’ailleurs de coutume d’accorder sa guitare en comparant la 4e harmonique d’une corde et la troisième harmonique de la suivante (ce qui produit un accordage en quintes parfaites)

Mais pour la 5e harmonique (la tierce majeure), vous avez peut-être déjà remarqué qu’elle ne se situe pas exactement pile sur la 4e frette, mais un chouilla plus vers la tête du manche. Cette 4e harmonique donne une tierce majeure parfaite, mais si vous jouez normalement une note sur la 4e case, vous obtenez une tierce légèrement fausse, un chouilla plus haute que la tierce majeure parfaite.

Question ouverte : je me demande si c’est ça qui explique que sur une guitare avec un son très saturé (donc très riche en harmoniques), les accords majeurs ou mineurs sonnent dégueu, et qu’on recommande donc d’utiliser uniquement fondamentale et quinte pour faire des power chords.

Si vous voulez creuser, vous pouvez aller voir la notion de comma (que j’ai décidé de ne pas traiter) et notamment le concept intéressant de « dérive du comma » qui fait que si on joue en intonation juste (« des physiciens ») on peut se retrouver à avoir sur certains morceaux un accordage qui dérive !

Retour sur le jugement majoritaire (et l’élection présidentielle)

Alors ça y est, cette fameuse élection présidentielle est enfin terminée !

Je n’ai pas l’habitude de parler politique sur ce blog, mais comme vous le savez peut-être, j’ai publié il y a quelques mois une vidéo sur les différents modes de scrutin envisageables pour élire un(e) président(e). Cette vidéo n’est pas loin d’être la plus vue de la chaîne (plus de 500 000 vues à l’heure où j’écris ces lignes), et je me suis donc dit que c’était intéressant de revenir sur son contenu.

Autre raison d’écrire aujourd’hui : dans cette vidéo, je faisais notamment la promotion de la méthode dite « du jugement majoritaire », or les deux créateurs de la méthode, Rida Laraki et Michel Balinski, m’ont fait la gentillesse de me communiquer les résultats de l’expérience qu’ils ont mené sur le site jugementmajoritaire2017.com.

Si vous connaissez le jugement majoritaire, passez directement à la suite, pour les autres, je vous la remets :

Le vainqueur de Condorcet

Avant de commenter ces résultats, quelques préliminaires. Tout d’abord à cette élection, il s’est passé un truc inhabituel : pour la première fois depuis de nombreuses années, nous avons élu le vainqueur de Condorcet. Petit rappel : on appelle « vainqueur de Condorcet » le candidat qui aurait gagné selon la méthode proposée par le marquis de Condorcet, et qui consiste à opposer tous les candidats en duel (électoral), et à désigner comme vainqueur celui qui gagnerait tous ses duels.

L’histoire est connue, un tel vainqueur n’existe pas toujours en théorie, mais il existe souvent en pratique. Dans notre cas, le vainqueur de Condorcet est celui qui aurait gagné au second tour face à n’importe lequel des 10 autres candidats. Si l’on en croit les sondages (et j’y mettrai un bémol plus loin), Emmanuel Macron aurait battu n’importe quel adversaire au second tour, et est donc le vainqueur de Condorcet. Et ça c’est nouveau car les élections présidentielles précédentes nous avaient habitué à une bizarrerie : il existait un vainqueur de Condorcet (par exemple François Bayrou en 2007), mais celui-ci était incapable de se hisser au second tour.

Cette situation est vraiment étrange : par exemple en 2007, Nicolas Sarkozy a été désigné vainqueur, mais il aurait perdu au second tour contre Bayrou. Ce qui signifie que si le soir de l’élection on avait organisé un référendum pour savoir si les Français étaient d’accord pour remplacer immédiatement Sarkozy par Bayrou, une majorité d’électeurs auraient dit « oui ». Étrange, non ? Eh bien c’est ce qu’il se passe quand on a un système qui désigne un vainqueur qui n’est pas le vainqueur de Condorcet.

Et donc pour cette fois-ci, le système a fonctionné à peu près correctement, puisque nous avons désigné comme président celui qui aurait gagné avec la méthode de Condorcet. On lit çà et là qu’Emmanuel Macron est « mal élu », mais du point de vue des mathématiques du vote, il est « mieux élu » que ce que nous avons pu connaître lors des scrutins précédents.

Le jugement majoritaire

Passons maintenant au cas du jugement majoritaire. La vidéo que j’ai réalisée sur le sujet faisait explicitement la promotion de ce mode d’élection, et certains m’ont reproché de masquer ses défauts, ou d’exagérer ceux des autres scrutins possibles.  Le but premier de ma vidéo était surtout d’alerter les consciences sur les défauts du système actuel, et sur le fait que des alternatives existent. C’est vrai que ma vidéo sonnait peut-être un peu trop « unilatérale », et ça tient principalement au fait que pour des raisons de scénarisation (de « storytelling »), je l’avais construite comme une convergence vers cette méthode.

Donc mettons les choses au clair : en effet le jugement majoritaire (JM) possède des défauts.

On peut citer notamment l’existence de « contre-exemples » dans lesquels le JM désigne un candidat contre-intuitif, mais les cas de ce type ont en général été fabriqués de manière ad hoc, et font appel à des répartitions de mentions totalement irréalistes (du genre beaucoup de « très bien », beaucoup de « insuffisant » et aucun « bien » ou « assez bien ».) En bref je pense que ces exemples théoriques ne sont pas bien gênants.

On m’a ensuite souvent fait remarquer dans les commentaires de la vidéo que le JM est tout autant manipulable, et que les gens sont des bourrins machiavéliques, qui mettront tous « excellent » à leur candidat préféré et « à rejeter » à tous les autres. Eh bien nous verrons que ça n’est pas du tout ce que les gens font en pratique ! Ils utilisent bien toute l’échelle des mentions disponibles. Certes le JM est « théoriquement » manipulable, mais en pratique il est plus robuste que d’autres méthodes.

Le JM a d’autres défauts, certains très théoriques, d’autres assez pratiques (le dépouillement), je pense malgré tout que cela reste la moins mauvaise méthode disponible. Pour moi son défaut numéro 1 reste sa relative difficulté à expliquer…et c’est pour ça que j’ai essayé d’aider la cause !

Les résultats de l’expérience

Passons maintenant aux résultats de l’expérience, et commençons par les bonnes nouvelles. Plus de 52000 personnes ont participé, ce qui n’est pas mal du tout ! Ensuite à l’issue du scrutin, une question leur était posée pour savoir s’ils trouvaient que cette méthode exprimait mieux ou moins bien leur opinion que le scrutin usuel : 95% des répondants ont déclaré préférer cette méthode ! Cela montre que le JM est (au moment du vote) une méthode naturelle et simple pour les électeurs de donner leur opinion.

Et les résultats alors ? Eh bien avant de les révéler, on ne va pas se mentir, il y a un hic : la représentativité de l’expérience ! Celle-ci reposait sur la participation libre, via un site internet, et cela crée un biais de sélection. Comme nous le verrons, les gens ayant voté ne peuvent pas être considérés comme « représentatifs » de la population française. Vous êtes prévenus !

Voici la répartition des mentions obtenues par chacun(e) des candidat(e)s :

Je vous rappelle comment on procède ensuite : on calcule la mention majoritaire de chaque candidat en tirant un trait à « 50% ». C’est la mention que au moins 50% de l’électorat serait prêt à lui attribuer.

En tirant un trait à 50%, on peut lire ici que JL Mélenchon aurait obtenu la mention « Bien », B Hamon « Assez bien », E. Macron « Passable », tous les suivants « Insuffisant », sauf F.Fillon et M.Le Pen « A rejeter ».

Pas besoin de vous faire un dessin : visiblement ce vote est très biaisé à gauche, pas à cause du système de vote mais du fait de l’échantillon des personnes ayant voté. Cela se voit bien si on « simule » un scrutin classique à partir de ces données, en partant du principe que chaque électeur aurait donné sa voix au candidat qu’il a le mieux jugé, on aurait eu un premier tour avec les résultats suivants :

On voit que c’est franchement loin de ce qu’on a vu au premier tour de l’élection, ce qui confirme le biais de sélection. On peut certainement trouver plein d’explications pour cela : les électeurs intéressés au JM étaient plus souvent « à gauche », ou bien l’information concernant ce mode de scrutin a plus facilement tourné dans les cercles « de gauche » des réseaux sociaux (on notera aussi F. Asselineau dont les partisans doivent aimer le JM), etc.

Je me suis demandé s’il fallait parler ou pas de ces résultats, dans le sens où en première lecture, ce biais pourrait donner une mauvaise image de la méthode. Heureusement un deuxième jeu de données, plus représentatif, peut nous permettre d’enrichir l’analyse.

Un sondage représentatif

Un sondage a été mené les 11 et 12 avril par l’IFOP pour la Fabrique Spinoza, auprès d’un échantillon de 1000 personnes représentatives de la population française, agée de 18 ans et plus, comme le veut l’usage.

Bien que réalisé à deux semaines du scrutin définitif, ce sondage nous donne quand même une vue plus représentative que l’expérience précédente. Dans ce sondage, il était question de mettre des notes (entre 0 et 10), et il est possible de les interpréter comme des mentions : TB pour 10 et 9, B pour 8 et 7, … Insuffisant pour 2 et 1, et « A rejeter » pour 0.

Les résultats obtenus ont alors été les suivants :

A partir de ces résultats, on peut faire plein de choses intéressantes : calculer les mentions majoritaires, mais aussi calculer la moyenne des notes (résultat que l’on aurait avec un scrutin « vote par notes »), mais aussi « simuler » un premier tour en conservant pour chaque électeur son candidat préféré. Les résultats se trouvent dans le tableau suivant

(je vous épargne la résolution des ex-aequos au JM)

Premièrement, on constate que le scrutin classique « simulé » reproduit assez bien les résultats que l’on a eu finalement. On est donc bien sur un échantillon représentatif (modulo les barres d’erreur, le fait qu’on n’est pas le jour du scrutin, etc.)

Ensuite, on voit que le classement par jugement majoritaire produit un classement différent du classement par scrutin classique. Je note deux choses :

  • Deux candidats se trouvent significativement moins bien classés par le JM : M. Le Pen et F. Fillon
  • Deux candidats se trouvent significativement mieux classés : B. Hamon et N.Dupont-Aignan.

Pour les premiers, il s’agit de candidats qui polarisent beaucoup : une part significative de la population les a noté « à rejeter », tandis qu’ils se classent respectivement 1ère et 4eme si l’on regarde juste les pourcentages de mentions TB !

Concernant les seconds, je trouve cela particulièrement intéressant : il s’agit de deux candidats qui dans le scrutin traditionnel ont manifestement été pénalisés par le « vote utile ». Beaucoup d’électeurs potentiels de B.Hamon ont voté « utile » pour Macron ou Mélenchon, mais le jugement majoritaire permet de révéler que B.Hamon était bien considéré par une partie des électeurs de ces deux camps.

Le cas de N. Dupont-Aignan est à mon sens encore plus intéressant, et je vais me risquer à faire un peu d’analyse politique. J’imagine qu’idéologiquement parlant, beaucoup de sympathisants de François Fillon auraient pu se retrouver dans les idées de N.Dupont-Aignan (en tout cas du point de vue du premier tour, avant que ce dernier passe une alliance pour le second tour.) On peut penser qu’après les affaires qui ont plombé la campagne de F.Fillon, Dupont-Aignan aurait pu être une solution de repli pour certains de ses électeurs. Sauf que…NDA était un « petit candidat », sans chance visible d’accéder au second tour. Donc j’imagine que beaucoup d’électeurs de droite n’ont pas pris au sérieux la candidature de NDA, préférant « voter utile » pour F.Fillon. Tout comme B.Hamon, NDA a donc certainement aussi été une victime du vote utile et de son statut de « petit candidat ».

Le problème des notions de « vote utile » et de « petit candidat », c’est qu’elles sont extrêmement influencées par les sondages, et qu’en plus les effets sont auto-amplificateurs. Plus un candidat est donné « petit », plus il va le rester. Inversement dès qu’un candidat devient crédible, et que les sondages le démontrent, un effet de rétroaction positif se met en route et peut les faire sortir soudainement de leur statut. Encore une fois je vais sortir de mon champ de compétence, mais je pense que c’est ce qui s’est produit avec F. Fillon lors de la primaire de la droite. Il a longtemps été considéré comme un « petit candidat » face au « vote utile » en faveur de Juppé, mais quelques sondages favorables ont entraîné une boucle de rétroaction positive qui l’ont propulsé en quelques semaines.

Faisons un peu de politique-fiction : imaginons que courant mars on ait publié un (faux) sondage donnant N. Dupont-Aignan à 12%, cela aurait entraîné le même genre de rétroaction positive, et le vote NDA serait devenu le « vote utile » de la droite. A ce train là il aurait même pu gagner cette élection réputée « imperdable » pour la droite il y a encore quelques mois.

Bref, pourquoi je vous raconte tout ça : pour illustrer que le jugement majoritaire est bien plus robuste aux sondages que le scrutin traditionnel ! Il évite les boucles de rétroaction qui condamnent les petits candidats à rester petits, ou au contraire qui peuvent, sur une fluctuation, propulser un candidat comme « le » candidat du vote utile.

Avec le jugement majoritaire, la notion de « petit candidat » disparaît, celle de « vote utile » aussi.

Et le vote par note ?

Quelques mots pour finir sur le vote par note, qui a été testé dans le sondage IFOP que je mentionne ci-dessus. Tout d’abord, on voit qu’il donne un résultat peu éloigné du jugement majoritaire, et pour cause il possède la même vertu de pouvoir permettre à chaque électeur de donner son opinion sur chaque candidat, et ce de manière indépendante.

Par rapport au JM, le vote par note a un avantage clair, et un défaut.

L’avantage est évident : le vainqueur est désigné par une moyenne, un concept que tout le monde comprend. Pourquoi X a-t-il gagné ? Il a eu la meilleure moyenne. Clair, net, précis, pas de contestation possible. Avec le JM, reconnaissons-le, ça n’est pas si simple. La notion de « médiane » (même s’il ne faut pas le présenter comme ça) est beaucoup moins intuitive pour 95% de la population, et le départage des ex-aequos n’est pas si aisé à expliquer.

En revanche, je suis absolument convaincu par le caractère plus « naturel » du vote utilisant des mentions que des notes. Cela parle plus aux électeurs, et même s’il peut subsister des différences d’échelle et d’interprétation d’un électeur à l’autre, je pense qu’elles sont beaucoup moins importantes qu’avec des notes. A l’appui de cette hypothèse : lors du sondage IFOP, moins de la moitié des sondés ont trouvé que le vote par note représentait mieux leur opinion que le scrutin classique, contre 95% qui préféraient la méthode du jugement majoritaire. Un résultat analogue a été constaté et publié dans la revue Nature :

Soyons optimiste, peut-être la présidentielle 2022 sera-t-elle celle de la réforme du mode de scrutin ?

Edit du 20/05 : les résultats publiés et analysés par les auteurs sur le site de laprimaire.org.