L’expérience des gâteaux quantiques

La vidéo du jour parle d’une expérience de mécanique quantique totalement troublante, époustouflante…et bizarrement très peu connue !

Evidemment, bien qu’elle fasse tout de même 20 minutes, cette vidéo ne fait qu’effleurer le fondement de l’affaire : les inégalités de Bell. Il y aura une vidéo plus détaillée là-dessus, et je pense que le résultat est tellement important et beau que je ferai aussi une série de billets de blog pour comprendre ce qui se cache derrière ce théorème aussi important, au sujet duquel le physicien Henry Stapp déclarait

« Bell’s theorem is the most profound discovery of science. »

Rien que ça ! Lire la suite

Le carbone 14

La vidéo du jour est un sujet que j’aime bien, qui permet de parler de physique, de chimie, de bio, d’archéologie et même de religions !

J’ai hésité à en dire plus sur la radioactivité, et puis je me suis dit que je ferai un épisode spécial sur le sujet. Notons tout de même que le carbone 14 est la deuxième plus grosse source de radioactivité de nos organismes, juste derrière le potassium 40. Ce dernier représente 0.01% du potassium naturel, et sa demi-vie est de 1,24 milliards d’années. C’est ce potassium qui rend la banane radioactive, et qui est à l’origine de cette unité appelée la « dose équivalente banane ». Mais la banane n’est pas la denrée alimentaire la plus radioactive (au kg), il s’agirait de la noix du Brésil ! Lire la suite

Les politiques d’austérité, à cause d’une erreur sous Excel ?

En ces temps troublés, j’ai eu bien du mal à trouver un sujet à traiter qui me motive, et qui nous sorte des réflexions sur le COVID-19. Le salut est finalement venu d’un sujet un peu en dehors de ma zone habituelle…et qui n’est pas sans résonance avec l’actualité !

Tout d’abord, je voudrais remercier celui par qui ce sujet est arrivé à mes neurones : Cyrille Rossant dont l’excellent livre sur le calcul interactif en Python mentionnait l’article de Reinhart et Rogoff comme une bonne raison de s’intéresser de près à la reproductibilité des expériences numériques.

Je crois que j’en avais déjà entendu parler (probablement dans cette tribune), mais l’histoire était sortie de ma mémoire… Lire la suite

Épidémie, nuage radioactif et distanciation sociale

Le but de ce billet (un peu inhabituel) est d’illustrer de façon simple l’incroyable efficacité potentielle des mesures de distanciation sociale (limiter les rencontres, hygiène, télétravail, fermeture des écoles…) lorsque l’on est face à une épidémie qui vire à la pandémie.

Une épidémie est une réaction en chaîne, et cela change tout sur l’impact potentiel de mesures de ce type, par rapport à d’autres sources de danger.

Pour bien le comprendre, imaginons une autre situation : supposons que l’on ne soit pas face à une épidémie, mais à un danger d’un autre type, disons un nuage radioactif (ou chimique). Du fait de la présence du nuage, imaginons qu’il devienne risqué de sortir, que cela puisse nous rendre malade, voire à terme nous tuer. (Et supposons qu’enfermés  chez soi on ne craigne rien).

Le gouvernement décide de prendre des mesures pour confiner les gens chez eux : fermer certaines écoles, encourager le télétravail, inviter les gens à reporter leurs déplacements, les réunions etc.

Dans ce cas, on peut légitimement imaginer que les vies sauvées seront proportionnées à l’intensité des efforts :

  • Si 10% des gens restent chez eux, on évitera 10% des morts;
  • Si 50% des gens restent chez eux, on évitera 50% des morts;
  • Si 95% des gens restent chez eux, on évitera 95% des morts.

L’effet est linéaire.

Une épidémie, ça n’est pas du tout ça. Une épidémie est une réaction en chaîne, cela implique qu’il y a un effet de seuil sur l’efficacité des mesures, et cet effet de seuil est très fortement non-linéaire.

Même quand on est familier avec les mathématiques associées, il est assez difficile de se représenter cet effet de seuil, alors prenons un exemple concret à partir d’un modèle épidémiologique.

Le modèle que je vais utiliser s’appelle le modèle SIR. C’est un des modèles les plus simples, et l’usage que je vais en faire n’est pas prédictif. Je ne cherche pas à prédire réellement le nombre de morts ou d’infectés : Le modèle est trop simple, les paramètres seront trop imprécis.

Je vais en faire un usage pédagogique, pour illustrer cette notion de seuil, et comment les mesures de distanciation sociales peuvent avoir un effet incroyablement efficace, pas du tout proportionné à l’effort comme dans le cas du nuage radioactif.

Dans ce modèle, on considère que l’on a 3 populations : les sains, les infectés, et les remis (ceux qui ont eu le virus et ont guéri). Et on va modéliser deux phénomènes simples :

  • Les gens infectés vont infecter les gens sains.
  • Les gens infectés vont progressivement guérir.

Pour cela, on a besoin de 3 paramètres :

  • La durée D de la maladie, pendant laquelle on est contagieux.
  • Le nombre moyen C de contacts que l’on a chaque jour avec d’autres gens.
  • La probabilité P qu’un contact entre un infecté et un sain conduise à une transmission du virus.

Bien souvent, on ne connait pas avec précision ces paramètres, qui d’ailleurs vont dépendre de la définition précise de ce qu’on appelle « un contact ». Mais vous allez voir que ça n’est pas très important.

Prenons un infecté : chaque jour il va croiser C personnes, qu’il contaminera avec une probabilité P. Et cela se produira pendant chacun des D jours que durera sa maladie.

Le nombre total de personne qu’il contaminera sera donc le produit de ces trois termes, que l’on note traditionnellement R0

R_0 = C \times P \times D .

On appelle ce paramètre le taux de reproduction, et même sans faire tourner le modèle mathématique, il n’est pas très compliqué de se convaincre qu’il a une influence déterminante sur le devenir de l’épidémie.

S’il vaut disons 2 : chaque infecté contaminera 2 personnes, qui elles-même contamineront 2 personnes, qui elles-même contamineront 2 personnes etc. On a une réaction en chaîne, le nombre de malades augmente de façon exponentielle, l’épidémie explose.

Maintenant si ce coefficient est inférieur à 1 : chaque infecté refilera la maladie à moins d’une personne, donc le nombre net de malade diminuera et progressivement l’épidémie s’éteindra.

Il y a un effet de seuil monstrueux. Pour éteindre une épidémie de façon « naturelle », il faut que le R0 soit sous le seuil fatidique de 1. Alors combien vaut le R0 dans le cas du Covid-19 ? On n’en sait rien exactement. Probablement entre 2 et 4.

Mais comme vous le voyez, cette valeur n’est pas intrinsèque à la maladie, elle dépend de facteurs comportementaux : combien de contacts quotidiens, quelle probabilité qu’une transmission ait lieu.

En adoptant des mesures de distanciation sociale (moins de contacts, se tenir plus loin, hygiène, suppressions des rassemblements et réunions inutiles, fermeture des établissements scolaires, télétravail, etc.), on peut très facilement faire baisser le R0.

Et le point clé ici, est que le bénéfice ne sera pas du tout proportionné à l’effort. Si on en fait suffisamment pour passer rapidement sous le seuil, c’est gagné. 

Imaginons que le R0 soit initialement de 2,5. C’est une hypothèse raisonnable pour le Covid-19. Si on arrive à le diviser par 4 on bloque très très vite la propagation de l’épidémie.

Diviser le R0 par 4 est loin d’être inaccessible : cela peut vouloir dire par exemple avoir 2 fois moins de contacts, et faire en sorte que la probabilité de transmission soit divisée par 2 (par une distance plus importante et une attention particulière à l’hygiène.)

Pour bien illustrer ce point, je me suis amusé à mettre un modèle de type SIR dans Excel (TELECHARGEABLE ICI, sinon voir la fin du billet) , en prenant comme point de départ la situation approximative en France au 11/03/2020.

Encore une fois, le but n’est pas de faire de la prédiction, c’est que vous puissiez voir par vous-même, par l’expérimentation « numérique », que cet effet de seuil du R0 est monstrueux. Ceci est donc un « modèle-jouet ».

Prenons un R0 de 2,5. On peut l’obtenir en disant que la maladie dure 10 jours, et que chaque jour on a 50 contacts avec une probabilité de transmission de 0,5%. Ces deux derniers chiffres ne sont pas important, c’est le produit des deux qui compte.

Le graphique ci-dessous représente le nombre cumulé de cas en fonction du temps (en jours à partir d’aujourd’hui) en France, si on reste à un R0 de 2,5. (Ca n’est pas une prédiction, c’est un « modèle-jouet » !)

On voit qu’en 6 mois, quasi tout le monde aura chopé la maladie. Avec un taux de mortalité de 3%, on est quasi 2 millions de morts (Ca n’est pas une prédiction, c’est un « modèle-jouet » !)

Maintenant imaginons que l’on arrive tout de suite maintenant à diviser par 4 le R0 : deux fois moins de contacts, et des contacts plus distants qui divisent par 2 la probabilité de transmission. Ca parait pas inatteignable, non ? Le R0 sera alors de 0,62. Et voici le résultat

On plafonne à 6000 cas cumulés, et donc 180 morts avec un taux de mortalité de 3% (Ca n’est pas une prédiction, c’est un « modèle-jouet » !)

Une différence monstrueuse, énorme. Totalement disproportionnée par rapport au changement initial qu’on a fait (des « simples » divisions par 2 des contacts et des transmissions).

Une épidémie est une réaction en chaîne. Les mesures de distanciation sociale peuvent avoir un effet totalement disproportionné. C’est très très très différent du cas du nuage radioactif, où les mesures de confinement auraient un effet essentiellement linéaire.

Et c’est évidemment lié au fait que dans le cas du nuage, en faisant attention on ne protège que soi. Ici on protège tout le monde.

C’est tout ce que je voulais illustrer. Prenez le modèle Excel, jouez avec. Ca n’est qu’un modèle, le plus simple de tous en épidémiologie. Il n’a AUCUNE valeur prédictive sur les détails des chiffres. Il est là pour illustrer le principe de réaction en chaîne, qui est au coeur de la notion d’épidémie. Les détails du modèle ne sont pas important, cet effet de réaction en chaine existe dans tous les modèles.

Faire baisser rapidement le R0 est très accessible, sans forcément tomber dans une situation de « pays mort » ou de « loi martiale ». Je pense que fermer les écoles et les établissement d’enseignement pourrait créer le signal nécessaire pour que tout le monde y mette du sien. Et en quelques semaines ce serait plié.

Téléchargez le modèle-jouet.

Edit du 13/03/2020 : Pas mal de gens ont fait des petites applis qui illustrent le modèle de façon interactive :

https://jflorian.shinyapps.io/SIRmodel/

https://sciencetonnante-epidemie.netlify.com

https://epidemic.phoenix-it-services.com

 

Le paradoxe des jumeaux

La vidéo du jour parle d’un sujet que j’avais brièvement évoqué dans mon épisode sur la relativité restreinte, mais qui méritait bien un traitement spécifique : le paradoxe des jumeaux de Langevin.

Et si les jumeaux communiquent ?

(Edit 08/03/20) Je n’avais pas anticipé que tant de gens poseraient la question de ce qu’il se passe si les deux jumeaux communiquent « par téléphone » (ou autre) pour comparer leurs âges en permanence.

Eh bien ça ne marche pas de façon si simple, car la communication ne peut pas aller plus vite que la lumière ! Voici un schéma qui montre à quoi pourrait ressembler la conversation. Au bout d’un an dans son référentiel, le jumeau terrestre envoie un message pour donner son âge (1 an donc). L’autre le reçoit au bout de 2 ans et quelques (dans son référentiel), et décide de répondre. Le jumeau terrestre n’aura la réponse qu’à 5 ans (dans son référentiel).

Temps propre et temps des coordonnées

Il y a un point essentiel à bien comprendre pour saisir toute la saveur du paradoxe des jumeaux, et j’espère avoir réussi à le faire passer dans la vidéo : la différence entre la notion de temps propre, et celle de « temps des coordonnées ». Lire la suite

La température ressentie

La vidéo du jour parle d’un sujet que j’avais déjà traité par écrit il y a quelques années : la température ressentie.

Ce que je raconte dans la vidéo correspond à de la thermique assez classique. Un point qui mérite commentaire, c’est mon traitement un peu particulier du rôle du vent.

En général, les flux de convection sont présentés à l’aide d’un coefficient de transfert, de sorte que

\Phi = h(T_2 - T_1) Lire la suite

Parcoursup, et les algorithmes de mariage stable

La vidéo du jour est un peu particulière. Je ne pensais pas avoir grand chose à dire sur le sujet…et pourtant elle fait 39 minutes !

On y parle de Parcoursup et plus généralement des procédures d’appariement qui existent notamment pour l’attribution des places dans l’enseignement supérieur, et ce dans de nombreux pays.

Tout d’abord, il me faut remercier 3 personnes avec qui j’ai eu le plaisir de discuter pour me documenter : Marc De Falco, Judicaël Courant et Julien Grenet.

D’ailleurs avant d’aborder quelques compléments sur les aspects scientifiques, voici quelques références sur les questions des procédures existantes, notamment en France avec APB et Parcoursup. Lire la suite

Le LHC : j’ai visité le plus grand accélérateur de particules du monde !

Aujourd’hui une vidéo « un petit peu spéciale », puisque je me suis rendu au CERN pour la tourner !

Je sais que la vidéo est déjà bien assez longue, mais pour ceux qui voudraient encore plus de détails, ou se poseraient quelques questions, voici un peu de compléments.

Un point tout d’abord : je suis passé assez vite sur « ce que fait » le boson de Higgs, puisque c’est un sujet que j’ai déjà traité dans une autre vidéo où j’explique notamment le lien entre le boson et la formule E=mc2. Lire la suite

La suprématie quantique

La nouvelle est tombée il y a déjà plus de deux semaines, je m’attaque enfin à la suprématie quantique de Google !

Alors que puis-je dire pour compléter cette exposé ?

D’une part les « pros » de la mécanique quantique se seront probablement étranglés devant ma notation des états superposés. Je fais comme si les coefficients devant chaque état propre étaient des pourcentages, ce n’est pas le cas, il s’agit en réalité de coefficients complexes, et ce qui compte c’est le module carré. Mais bon, ceux qui le savaient déjà le savaient déjà. Les autres n’en auront probablement jamais l’usage. Ou alors ils auront droit à un « vrai » cours de mécanique quantique !

Pareil pour mon désormais habituel « à la fois » pour le principe de superposition. J’ai déjà fait une vidéo spécifique sur le sujet !

Concernant les portes quantiques, j’ai dit qu’il y en avait « beaucoup », en fait il y en a une infinité ! Mais disons que si on se limite aux portes usuelles, il y en a vite une bonne série à mémoriser. Petit détail amusant : contrairement aux portes classiques, les portes logiques quantiques sont réversibles ! On peut toujours revenir en arrière. Alors que si je vous dit que le bit de sortie d’une porte ET est 0, ça ne vous dit pas d’où on partait exactement.

Tiens d’ailleurs j’ai dit qu’on pouvait appliquer un circuit « de son choix », ce qui faisait de Sycamore un vrai processeur programmable. Techniquement chaque qbit n’est pas directement connecté avec tous les autres. Il y a une sorte de disposition des qbits et des coupleurs, qui font qu’il y a une notion de voisinage.

figure1

Les fins calculateurs auront peut-être remarqué un truc bizarre sur l’échantillonnage fait par Sycamore. On prend typiquement 10^6 échantillons alors que l’espace des états est de taille 10^{16} ! Eh bien oui, en fait on est très loin d’avoir ne serait-ce qu’un échantillon par état propre, et donc l' »histogramme » est surtout plein de 0, avec des 1 de temps en temps.

Mais ce type d’échantillon suffit pour calculer ce que les chercheurs de Google ont utilisé comme mesure de la fidélité de leur processeur : la cross-entropy qui représente en gros la probabilité qu’aucune erreur ne soit survenue lors de l’application d’un circuit. Sur les graphiques publiés, on voit que pour les cas les plus extrêmes, les valeurs sont quand même très faibles (moins d’1% !)

figure4

Ce qui signifie que dans ces régimes (et donc celui de la suprématie), le processeur passe son temps à faire des erreurs, et le résultat de la mesure est donc souvent une chaine random.

Tiens au passage signalons que toutes les chaines produites par Sycamore ont été stockées et sont disponibles, donc de futurs calculs classiques seront en mesure d’invalider le cas échéant le résultat.

J’ai été évasif sur la notion de circuit « simplifiable », il faut dire que sur ce coup je fais confiance à ce qui est écrit dans l’article. En gros un cycle consiste en l’application d’un groupe de 8 portes, et si on les choisit selon un schéma donné (par exemple ABCDABCD) il en résulte un circuit « difficile » alors qu’avec un autre schéma (EFGHGHEF) le calcul classique s’en trouve grandement facilité (circuits « patch » dans leur nomenclature)

Sur le calcul de la RAM nécessaire à stocker l’état de Sycamore, 10^16 coefficients (qui sont complexes je le rappelle !) demande disons deux fois 32 bits si on code avec des float, donc 640 millions de Go. Après on doit pouvoir gagner en faisant module et phase. IBM a une estimation un peu moins gourmande puisqu’ils annoncent 128 millions de Go pour 54 qbits. Mais je n’ai pas creusé pour comprendre la différence, on est dans le même ordre de grandeur.

Enfin sur l’estimation du nombre de qbits nécessaires pour faire du Shor en suprématie quantique, c’est tiré de l’article que je cite dans la vidéo. Une notion importante (que je n’ai pas voulu introduire) est celle de qbit « logique » vs qbit « physique ». Un qbit logique c’est en supposant que tout marche sans erreur. Et en pratique on « réalise » un qbit logique à partir d’un certain nombre de qbits physiques, le tout sous la supervision d’un code correcteur. Dans le cas dont je parle et qui est discuté dans le papier, il faudrait donc 500 000 qbits physique pour réaliser un seul qbit logique suffisamment robuste.

Si vous voulez aller plus loin :

La papier de Google dans Nature, en accès libre, et notamment les 60 et quelques pages de « Supplementary Material« 

Le blog de Scott Aaronson, qui était notamment « reviewer » de l’article de Google.

Pour la distinction qbit logique et physique et les codes correcteurs : Fowler, A. G., Mariantoni, M., Martinis, J. M., & Cleland, A. N. (2012). Surface codes: Towards practical large-scale quantum computation. Physical Review A, 86(3), 032324.

La « contre-attaque » d’IBM

L’hypothèse de Riemann

La vidéo du jour parle de l’Hypothèse de Riemann !

J’ai essayé comme toujours de rendre ça accessible, mais je suis conscient que ça n’est pas évident car cela demande au minimum de connaître les nombres complexes.

J’ai pris soin toutefois d’éviter la notation \Sigma pour désigner les séries. Il me semble que sur un épisode court ça n’apporte pas grand chose à part demander au lecteur un effort de décryptage supplémentaire. Lire la suite