Crise énergétique ou crise entropique ?

La vidéo du jour parle de thermodynamique !

Les anciens auront remarqué qu’il s’agit d’une reprise un peu arrangée d’un vieux billet de ce blog que je vous invite à aller lire si vous voulez quelques compléments.

La présentation que j’ai faite des grands principes de la thermo est évidemment un peu « à la hâche », mais ça permettra j’espère de donner quelques idées à ceux qui ne connaissaient pas le sujet. (Oui car comme certains semblent trop souvent l’oublier dans les commentaires, mes vidéos sont par principe destinées à ceux qui ne connaissent pas déjà le sujet !)

Parmi les petites choses sur lesquelles je n’ai pas insisté, il y a l’idée que l’énergie peut en pratique se définir à une constante près. C’est particulièrement vrai pour l’énergie potentielle, pour laquelle le zéro de l’altitude est arbitraire, mais aussi ici pour l’énergie thermique. J’ai pris arbitrairement comme zéro la température initial de mes objets (genre mon skieur) mais évidemment il faudrait compter tout ça à partir du zéro absolu !

Comment lire une étude scientifique ?

Dans cette nouvelle vidéo, je m’attaque à ces fameuses « études américaines » auxquelles ont fait dire tout et son contraire…

Détail amusant : quand j’ai écrit le script, j’ai imaginé au hasard un sujet d' »étude américaine » : le heavy metal et la dépression. Or après j’ai vérifié, il existe bien des publications ayant étudié cette association ! D’ailleurs les résultats ont l’air subtils car en non-randomisé, il semblerait que l’écoute du metal soit plutôt corrélée avec les symptômes dépressifs, mais qu’en traitement randomisé il ait un effet bénéfique. Paradoxal, non ? Mais bon j’avoue que je n’ai pas creusé.

Quelques petits compléments d’usage, pour ceux qui voudraient aller plus loin…

Processus de publication et a-priori bayésien

Je n’ai pas passé trop de temps sur le processus de relecture par les pairs. J’ai notamment passé sous silence les habituels allers/retours qui se font entre les auteurs et les relecteurs, ces derniers pouvant demander des précisions ou corrections dans le texte. Je n’ai pas non plus évoqué tous les problèmes que posent le processus actuel de l’édition scientifique, ça n’était pas le propos de la vidéo, mais l’ami DirtyBiology a fait une vidéo sur le sujet !

Parlons vite-fait des impacts factors. Je l’ai présenté comme un élément intéressant à verser au dossier quand on analyse une étude. Je suis sûr que ça va en faire hurler quelques uns. Il est vrai que cette métrique a plein de problèmes, et qu’en plus les journaux à très haut facteur d’impact peuvent poser le problème additionnel de la fraude scientifique pure et simple. On sait qu’une publication dans une revue très prestigieuse peut être un élément très important pour la carrière d’un chercheur, il y a donc une pression a essayer de publier ses papiers dans ces revues, ce qui peut pousser certains à carrément falsifier leurs résultats pour décrocher la timbale. Donc oui, sur un gros résultat spectaculaire dans une revue « star », il faut aussi accueillir les choses avec prudence. D’autant plus que ça n’est pas un relecteur non-spécialisé qui pourra détecter ces fraudes.

A contrario une étude publiée dans un « petit » journal n’est pas forcément mauvaise. Disons que mon algorithme est plutôt « Si le résultat annoncé est spectaculaire, et que ça vient d’une petite revue, redoublons de prudence. » Car en principe avec un résultat canon, on essaye de soumettre aux grosses revues. Ce genre de vérification préliminaire sert juste à savoir quels sont nos a prioris sur la plausibilité de l’article, avant de le lire, dans une logique toute bayésienne que ne renierai pas l’ami Science4All !

Un mot sur les expériences et leurs analyses

Parlons pour commencer de ce qu’on appelle les « modèles animaux ». Quand j’ai évoqué les expériences sur les animaux, certains ont peut être tiqué en m’entendant parler de la dépression chez les souris. Eh bien figurez vous que pour un grand nombre de maladies humaines, il existe des équivalents chez différents animaux, c’est ce qu’on appelle des « modèles animaux ». Et il en existe notamment un certain nombre pour la dépression. Donc oui, étudier la dépression chez la souris, ça a du sens.

Sur ce qu’on observe et ce qu’on fait varier, j’ai schématisé en ne présentant qu’un cas simple (mais fréquent) : celui où on a deux groupes et on étudie l’impact sur une variable continue (par exemple un score sur une échelle de dépression.) Mais il existe plein d’autres situations : parfois on a plus de deux groupes, parfois on fait varier plusieurs facteurs. On peut également regarder l’impact d’une variable continue (disons le nombre de chanson de métal écoutées chaque mois) sur une autre (le score de dépression). Dans ce cas, on se trouve face à un cas de tentative « corrélation » entre deux variables continues.

Dans tous ces cas on peut réaliser des tests statistiques auxquels on attribue des « valeurs p ». Mais il y a parfois des subtilités difficiles à démêler sans quelques connaissances en statistiques. Tout test statistique repose sur des hypothèses données, et un modèle sous-jacent dont il faut en principe s’assurer qu’il est raisonnablement valide. Et il n’est pas rare que des publications scientifiques présentent juste le bon test statistique qui permet de passer sous la barre fatidique des p=0,05. C’est parfois ce qu’on appelle du « hacking » de valeur p.  (Pour ceux qui veulent en savoir plus sur cette notion, je vous renvoie à un vieux billet sur le sujet : Comment être sûrs qu’un résultat scientifique est vrai ?)

Petite précision aussi : pour les besoins de la simplicité de l’exposé, je n’ai pas insisté sur la notion de « barre d’erreur » ou de façon plus générale de variabilité. Elle joue bien entendu un rôle dans les estimations statistiques. Une bonne manière de « mesurer » une taille d’effet, c’est de la compter en « barres d’erreur ». Est-ce que l’effet est égal à 2 fois la barre d’erreur ? Plus ? Moins ? C’est en quelque sorte ce ratio, et le nombre de sujets dans les groupes, qui va gouverner la valeur p.

Concernant les facteurs de confusion, il faut bien réaliser qu’il existe des méthodes statistiques permettant de les maitriser. Mais ces méthodes reposent sur des hypothèses qui ne sont pas toujours vérifiées, il ne s’agit donc pas d’un coup de baguette magique qui résout tous les problèmes. Et surtout cela ne marche que si le facteur a été préalablement identifié, et que les données correspondantes ont été collectées. On ne peut pas contrôler pour un facteur pour lequel on n’a pas de données. Donc en théorie on n’est jamais certains d’avoir tout bien contrôlé. Cela montre d’ailleurs que pour ce genre d’analyse, les statistiques ne suffisent pas : il faut un expert du sujet, quelqu’un qui sait bien de quoi on parle, et qui est à même d’identifier les bons facteurs de confusion.

Enfin j’ai sous-entendu qu’une étude était soit non-randomisée (et donc sujette à facteur de confusion), soit randomisée auquel cas les tailles de groupes étaient souvent faible. Il y a bien sûr un cas où on essaye d’avoir des études randomisées sur de grands groupes, ce sont bien sûr les « essais cliniques » des médicaments, notamment dans les phases II et III où l’on va avoir typiquement de plusieurs centaines à plusieurs milliers de patients. Autant que possible les études sont en « double aveugle », c’est-à-dire que ni le patient, ni son médecin traitant, ne savent à quel groupe le patient est attribué. Dans ce cas là les groupes de contrôle sont soit des groupes placebos, soit des groupes recevant un traitement usuel.

 

 

La superposition quantique : un électron peut-il être à 2 endroits à la fois

Aujourd’hui, on s’attaque enfin à la fameuse question de la superposition quantique, et de la manière dont on l’interprète avec nos conceptions intuitives.

Comme d’habitude dans ce billet, je vais ajouter quelques compléments techniques et détailler certains points sur lesquels j’ai simplifié, voire carrément dit des trucs faux ! Mais avant cela, je voudrais revenir sur la motivation initiale.

Mais pourquoi parler de tout ça ?

Il y a en physique quantique comme ailleurs des débats entre les spécialistes sur la bonne manière de vulgariser certains concepts. L’idée de superposition quantique est une de celle qui fait couler beaucoup d’encre chez les physiciens.

Vous l’aurez compris, je fais partie de ceux qui sont totalement à l’aise avec cette idée d’ « être à plusieurs endroits à la fois » ou bien « être à la fois mort et vivant » (dans le cas du chat de Schrödinger). Mais les chercheurs qui vulgarisent cette discipline ne partagent pas tout cette vision. Je me souviens par exemple d’une discussion avec un chercheur en physique qui estimait lui que cette formulation était intolérable, même dans une optique de vulgarisation grand public.

Comme je l’explique dans la vidéo, je sais pertinemment que cette formulation est fallacieuse, puisqu’elle revient à plaquer des concepts « classiques » (l’idée de position bien définie par exemple) là où ceux-ci ne s’appliquent pas. Très clairement, la formulation « être à plusieurs endroits à la fois » est une formulation en langue de tous les jours, d’un formalisme mathématique difficile à communiquer sans commencer à parler de diagonalisation d’opérateurs, d’états propres et d’espace de Hilbert, ce qui n’est évidemment pas le but dans une œuvre de vulgarisation.

Je suis ainsi persuadé que dire « être à plusieurs endroits à la fois » reste une excellente formulation vulgarisée de « être décrit par un vecteur de l’espace de Hilbert qui n’est pas un état propre de l’opérateur de position ». Et pour vous dire, j’ai retrouvé mon poly de cours de DEA, et même mon prof de décohérence quantique ne s’offusquait pas de dire que le chat de Schrödinger était à la fois mort et vivant !

Un des avantages que je vois à cette formulation, c’est de bien faire ressortir que si on associe pas une valeur bien déterminée à la position (ou à une autre observable), ça n’est pas un effet « d’ignorance probabiliste classique ». Comme je l’explique dans la vidéo, il est tentant de s’imaginer que si on décrit par exemple un ensemble de photons comme étant tous dans le même état superposé, cela peut signifier que « en vrai dans la réalité» certains sont « gauche » et d’autres « droite ». Or ça n’est pas le cas : en mécanique quantique un état superposé n’est pas un effet de notre ignorance, pas une description statistique comme on peut en trouver justement en physique statistique.

La description mathématique des états

Un petit complément sur la manière dont on décrit et décompose les états en mécanique quantique. (Le paragraphe qui va suivre est d’ailleurs probablement inutile car ceux qui savent déjà auront très bien vu les simplifications de la vidéo, et ceux qui n’ont jamais touché ce formalisme vont trouver que c’est du chinois…)

Bref, dans le formalisme de la mécanique quantique, en réalité on ne décrit pas les états comme des vecteurs d’un espace vectoriel réel, mais comme des vecteurs d’un espace de Hilbert complexe. Et dans une décomposition, les coefficients ne donnent pas directement les probabilités mais ce sont les modules carrés qui interviennent.

Ainsi si l’état quantique d’un système à deux états est décrit par une décomposition en vecteur propre comme celle-ci

\Psi = \alpha_1 \Psi_1 + \alpha_2 \Psi_2

La probabilité d’une mesure dans l’état 1 est égale à

p_1 = \frac{|\alpha_1|^2}{|\alpha_1|^2 + |\alpha_2|^2}

On peut notamment voir que du fait de la normalisation, on va s’intéresser uniquement à des états quantiques de norme 1 (on parle parfois de rayons dans l’espace de Hilbert, ou d’espace de Hilbert projectif).

Bref, mes « formules » de décomposition/projection présentées dans la vidéo ne reflètent pas le véritable formalisme de la mécanique quantique.

Et la suite !?!?

Deux points reliés à l’idée de superposition, et que j’ai fait exprès d’occulter dans ma vidéo : le principe d’incertitude de Heisenberg et le chat de Schrödinger.

Dans la fin de la vidéo, je parle des états propres de la position mais pas de ceux de la vitesse. On aurait envie de penser qu’un objet puisse se trouver dans un état qui soit à la fois un état propre de la position et de la vitesse. Mais c’est impossible, et c’est notamment de cela que découle le principe d’incertitude (plutôt mal nommé puisque ce phrasé renforce l’idée que les états superposés encodent une ignorance sur l’état exact, alors que ça n’est pas le cas !). Mais le principe d’incertitude, ce sera pour une autre fois !

Concernant le chat de Schrödinger, la question est de savoir pourquoi les objets macroscopiques ne se trouvent apparemment pas dans des états superposés. Et pour aborder cela correctement, il faut que je parle de decoherence quantique, mais ça nous emmènerait un peu loin, alors là aussi ce sera pour une prochaine fois !

La physique théorique et « La vraie nature profonde de la Réalité »

Il y a quelques jours, l’ami MrPhi a publié une vidéo sur la notion de réalisme scientifique. Il y précise notamment ce qu’est l’«anti-réalisme » en science, et j’y figure en bonne position en tant que porte-étendard de cette vision. Il faut dire que je l’ai bien cherché, puisque comme vous pouvez le voir dans sa vidéo, j’ai plusieurs fois tweeté à ce sujet !

Comme je n’arrivais pas à faire un commentaire de taille raisonnable sous sa vidéo afin de préciser ma pensée, je me suis dit que je pouvais tout aussi bien en faire un billet de blog, car c’était un sujet que je voulais traiter depuis longtemps !

Pour ceux qui le souhaiteraient, voici le lien vers sa vidéo et son billet de blog, même si je vais faire en sorte que ce que je raconte ici soit compréhensible sans l’avoir vue.

Ma petite histoire

Tout d’abord, laissez moi vous raconter un bout de mon cheminement personnel. Quand j’étais ado, j’étais comme beaucoup fasciné par l’idée de comprendre comment le monde marche, et toutes les questions métaphysiques associées. Et je nourrissais secrètement l’espoir que faire de la physique fondamentale me permettrait moi aussi de mieux comprendre « la vraie nature profonde de la Réalité ». J’ai eu beaucoup de chance, car j’ai pu faire des études de physique, et aller jusqu’à un doctorat en physique théorique dans le domaine de la gravité quantique, c’est-à-dire probablement ce qui se fait de plus « fondamental » : il s’agit du domaine où l’on cherche une théorie pour unifier la mécanique quantique et la relativité générale, ce qu’on appelle parfois pompeusement une « théorie du tout ».

D’une certaine manière, j’ai donc été au plus profond du trou, et j’ai étudié et côtoyé les théories ayant pour ambition d’être les plus fondamentales possibles, et donc a priori les plus profondes et les plus proches de « la vraie nature de la Réalité ». Et pourtant…je n’ai pas l’impression d’en savoir plus sur « la Réalité » que quand j’étais adolescent !

Plus j’ai avancé dans les études de physique, plus j’ai réalisé que dans le fond, tous ces concepts que nous révèlent les théories de physique fondamentale — espace-temps, particules, ondes, cordes… — ne sont que des outils mathématiques, simplement des constructions pour essayer de capturer la réalité, mais ils ne sont pas la réalité.

J’espérais que faire de la physique théorique me permettrait de mieux comprendre la nature profonde de l’Univers : eh bien je suis allé au fond du trou et je n’y ai rien vu.

La carte n’est pas le territoire

Il y a une analogie facile à ma façon de voir les choses : la carte et le territoire. De même que la carte n’est pas le territoire, aussi précise et aussi correcte qu’elle soit, les théories physiques ne sont pas la réalité. Ce sont des cartes, des constructions humaines qui permettent de la représenter, de l’analyser. Mais de même qu’une carte (même à l’échelle 1) ne sera jamais le territoire, je pense qu’une théorie de physique fondamentale, aussi confirmée expérimentalement soit-elle, ne nous dit rien sur « la vraie nature profonde de la réalité ».

Et je suis toujours un peu agacé quand on vient nous vendre le contraire, à grand renfort d’utilisation du verbe « être » : du genre « la gravité EST <ceci>, et pas <cela> » ou « un électron c’EST <ceci> et pas <cela> ». J’ai l’impression que c’est souvent le fait de personnes qui ne comprennent pas fondamentalement ces théories, ou bien parfois de physiciens théoriciens qui cherchent à sur-vendre la portée de leur discipline et de leurs travaux (cf la théorie des cordes).

Maintenant quand j’entends parler de « nature de la réalité », je sors mon révolver.

Précisons et formalisons

Mais formalisons un peu tout ça pour préciser ma pensée. Tout d’abord, qu’est-ce que la Réalité ? J’en ai ma petite définition.

La Réalité, c’est l’ensemble des expériences possibles et leurs résultats associés.

Si on note x une expérience réalisable, et y le résultat qui en sortira, alors l’ensemble des couples (x,y) forment, pour moi, « la réalité ». Il n’y a de réalité que les résultats des expériences.

Poussons un peu le bouchon du formalisme : imaginons qu’il existe un espace \cal E des expériences possibles, et qu’on appelle \cal F la fonction qui a toute condition x \in {\cal E} associe son résultat expérimental y

y = {\cal F} (x)

 alors je considère que la fonction \cal F peut raisonnablement être qualifiée de « la réalité ».

Maintenant, quel est l’objectif d’une théorie physique ? C’est d’essayer d’approximer la fonction \cal F, du moins sur un sous-domaine de l’espace des conditions expérimentales possibles. L’objectif ultime d’une théorie physique, aussi abstraite soit-elle, c’est de proposer une réponse à la question : qu’est-ce qui se passe si je fais l’expérience x. Une théorie physique, c’est donc en définitive une fonction {\cal T}(x) dont on espère qu’elle coïncide pas trop mal avec \cal F. Et c’est d’ailleurs la principale manière qu’on ait de juger une théorie : sur sa capacité à reproduire (et à prédire) les résultats des expériences.

Sauf qu’en pratique, une théorie ne se présente pas à nous comme une simple fonction \cal T de l’espace des expériences dans l’espace des résultats. Elle possède toute une structure interne, qui permet de la décrire et de l’appréhender. Et elle fait appel à tout un tas d’objets mathématiques intermédiaires, comme par exemple la notion de force, ou celle de courbure de l’espace-temps. Mais ces objets sont des constructions humaines, liées à notre langage mathématique.

Dans la réalité (au sens « les résultats des expériences »), la force n’existe pas plus que la courbure de l’espace-temps. Ce sont des objets conventionnels, fort pratiques il est vrai, utilisés pour décrire la fonction \cal T. Mais on pourrait très bien par exemple réécrire tous les résultats expérimentaux possibles de la gravité newtonienne sans avoir à utiliser le concept intermédiaire de force. Même si ça ne serait peut-être pas fort lisible.

Il peut toujours exister plein de façons équivalentes d’écrire la fonction \cal T, faisant appel à des objets mathématiques intermédiaires différents. Ce qui signifie qu’on peut imaginer plusieurs théories en apparence très différentes, et qui seraient strictement équivalentes sur le plan de leurs prédictions expérimentales.

Pour rester sur le cas de la gravité, on peut prendre comme exemple la gravité de Newton et la relativité générale en régime newtonien non-relativiste. Les concepts et les objets mathématiques intermédiaires sont différents, les prédictions sont identiques. Et donc (pour revenir sur l’usage abusif du verbe « être »), la gravité n’EST pas plus une force qu’une courbure de l’espace-temps.

Et si on trouve une théorie du tout ?

Evidemment, tout ce que je raconte ici à propos d’une quelconque théorie physique \cal T serait tout aussi valide avec la « fonction de réalité » \cal F elle-même ! Même si vous trouvez une Théorie du Tout parfaitement exacte, c’est-à-dire dont les prédictions expérimentales soient rigoureusement égales à \cal F, ça ne rend pas pour autant « réels » les concepts et objets intermédiaires que vous aurez utilisé. On pourrait toujours imaginer des formulations complètement différentes mais qui auraient les mêmes prédictions expérimentales.

Prenons un exemple concret qui m’énerve souvent : on entend régulièrement que la théorie des cordes prouverait que notre espace-temps possède « en réalité » 10 dimensions. Quand bien même la théorie des cordes serait correcte, et même — soyons fous — soit une Théorie du Tout parfaitement exacte, ça ne prouve rien sur la nature profonde de la réalité de l’espace-temps.

L’idée même d’espace-temps reste un concept intermédiaire, une construction mathématique, et le fait que dans la théorie des cordes ce soit « une variété de dimension 10 » ne nous dit rien sur « la Réalité ». On pourrait très bien imaginer une formulation alternative de la théorie ayant des prédictions expérimentales rigoureusement identiques, mais utilisant des concepts et objets mathématiques différents, et sans jamais utiliser de variété de dimension 10.

On pourrait avoir la même discussion (et d’ailleurs certains l’ont !) avec les « particules virtuelles » de la théorie quantique des champs, mais je vous épargne ça.

En conclusion

Bref, en conclusion de cette longue diatribe, c’est en ce sens que je me définis comme « anti-réaliste » : je pense que les concepts et objets mathématiques des théories physiques ne SONT pas la réalité, et qu’on devrait bien se garder de les identifier comme tels. Et mon poil se hérisse toujours quand certains prétendent que la physique théorique nous apprend des choses « la vraie nature profonde de la réalité » en nous parlant de cordes, d’ondes, de particules, de section non-triviale d’un fibré spinoriel ou d’élément d’un module projectif de type fini sur une algèbre non nécessairement commutative.

Si je voulais être extrême, je plaiderais pour une interdiction de l’usage du verbe « être ». Evidemment, ça ne serait pas très pratique. Moi le premier je vais sortir des phrases du genre « la gravité est une force », ou « la lumière est une onde électromagnétique ». Mais  chaque fois que j’emploie le mot « est », il faut entendre « se modélise bien par », ou « se comporte comme si c’était ». Rien de plus.

Alors docteur, je suis anti-réaliste ?

Quelques compléments

A propos des descriptions différentes mais équivalentes de théories physiques, il me semble qu’il existe aussi un argument identique à base de machines de Turing équivalentes, c’est-à-dire différentes dans leur câblage  mais ayant des sorties rigoureusement identiques. Je l’ai lu dans le livre « Philosophie de l’esprit » de Jaegwon Kim que m’avait conseillé MrPhi, mais je n’ai pas le livre sous la main pour vous citer ça !

Par ailleurs, dans sa vidéo Mr Phi nous présente une vision dont j’ignorais l’existence : le réalisme structural. Je vous invite à la regarder pour vous faire votre idée, de mon côté je n’ai pas encore le recul nécessaire pour savoir si je suis réaliste structural, ou si cette vision ne me satisfait pas. On en reparlera sans doute !

Pour finir, je voudrais mentionner le texte qui, il y a plus de 15 ans de cela, m’a ouvert les yeux sur ces questions, et m’a fait comprendre que je faisais fausse route en me demandant si la nature profonde de l’Univers était d’être <ceci> ou <cela>. Il s’agit de l’introduction du polycopié « Espaces fibrés et connexions » de Robert Coquereaux. Le poly est très technique (et passionnant pour un jeune physicien théoricien), mais l’introduction traite de ces questions sur quelques pages (et oui, je lui ai piqué la phrase sur les modules projectifs !).

 

La communication quantique et le protocole BB84

Nouvelle vidéo sur la chaîne, une vidéo « un petit peu spéciale » en partenariat avec Echosciences PACA.

Le défi de cette vidéo était de donner quelques notions de communication quantique dans le format imposé de 3-4 minutes ! Pas la place donc pour y détailler un exemple de protocole d’échange de clé quantique comme le protocole BB84 dont j’esquisse juste le principe dans la vidéo. Voici donc quelques détails !

Non, BB84 n’est pas un lointain descendant du robot BB8, mais le nom du tout premier protocole d’échange de clé quantique qui a été imaginé en 1984 par les cryptologues Charles Bennett et Gilles Brassard. L’idée de ce protocole est de permettre l’échange sécurisé d’une clé de chiffrement, clé qui pourra être ensuite utilisée pour chiffrer un message qui sera ensuite transmis sur un canal de communication classique. Notez bien : ça n’est pas tout le message qui est transmis de façon « quantique », juste la clé de chiffrement.

Jouons avec la polarisation

Dans la vidéo, j’ai simplifié les choses en disant qu’un photon avait une polarisation horizontale, verticale, ou bien une superposition des deux dont les proportions pouvaient varier. Mais vous avez peut-être tiqué quand je parle d’horizontal et de vertical : certes, mais horizontal par rapport à quoi ? La gravité terrestre ? Qu’est-ce qu’elle viendrait faire là-dedans ?

En réalité, quand on souhaite mesurer la polarisation d’un photon, on doit se fixer ce qu’on appelle une base de mesure, sous la forme de deux axes orthogonaux situés dans le plan perpendiculaire à la direction de propagation du photon. Une manière concrète de se le représenter, c’est d’imaginer qu’un détecteur de polarisation est plan, qu’on le place perpendiculairement à la trajectoire du photon, et qu’il possède deux axes privilégiés, mais qu’on peut choisir de les faire tourner.

Il existe donc plein de façons de faire ce choix de base de mesure (une infinité en fait). Considérons donc deux bases possibles, l’une verticale/horizontale, et l’autre qui est tournée de 45° degrés. On va appeler ces bases respectivement « + » et « x ».  Et pour s’affranchir des mots « horizontal » et « vertical », on va appeler chaque axe respectivement 0 et 1.

Quand un photon vient traverser un détecteur , la réponse de la mesure sera soit 0, soit 1, désignant ainsi un des axes de la base de mesure. La notion de 0 ou 1 est donc toujours relative à la base de mesure. On va noter les 4 états avec lesquels on va jouer de la façon suivante : 0+, 1+, 0x et 1x, correspondant à la polarisation selon chacun des 4 axes.

Imaginons un photon 0+, c’est à dire d’état 0 de la base +. Si on le mesure dans la base + la réponse du détecteur sera forcément 0 (aux erreurs de mesure près).

Maintenant si on prépare un photon dans l’état 0+ et qu’on le mesure dans la base x, on obtiendra aléatoirement les réponses 0 ou 1 à 50% de probabilité. Une autre façon de le dire, c’est que l’état « pur » 0+ est un état « superposé » 50% de 0x et 50% de 1x dans la base x.

La notion d’état « pur » (on dit en fait « état propre ») ou « superposé » n’est donc pas absolue comme j’ai pu le sous-entendre, mais toujours relative à la base de mesure.

Dernier ingrédient à préciser : la projection de l’état quantique. Si vous mesurez un photon 0+ dans la base x, vous obtiendrez soit 0, soit 1. Mais à la suite de cette mesure, la polarisation sera dans l’état pur correspondant de la base x. Par exemple si vous obtenez 1, la polarisation sera changée en 1x. Et donc si vous le re-mesurez dans la base +, vous trouverez 0 ou 1 à 50/50 (et le re-changerez en 0+ ou 1+).

Tous les ingrédients sont en place, voyons le protocole BB84.

Le protocole BB84

Imaginons deux personnes souhaitant communiquer de façon sécurisée, et ayant besoin de partager une clé de chiffrement. Appelons-les Alice et Bob pour suivre la tradition en vigueur.

Pour faire un partage de clé quantique, Alice va envoyer une série de photons à Bob, et pour chacun de ces photons, elle va tirer au hasard à la fois une base (+ ou x) et un bit (0 ou 1). Chaque photon sera donc aléatoirement d’un l’un de ces 4 états : 0+, 1+, 0x ou 1x.

Bob voit arriver les photons et pour chacun d’entre eux il doit mesurer la polarisation. Mais il lui faut choisir une base de mesure. Pour chacun il la tire au hasard : + ou x, et note le résultat de sa mesure.

Si pour un photon donné, Bob a choisi la « bonne » base, c’est-à-dire la même qu’Alice, il obtiendra à coup sûr le bon bit, 0 ou 1, envoyé par Alice. Si en revanche il a choisi l’autre base, eh bien il obtiendra 0 ou 1 à 50% de probabilité. Et dans ce cas, il obtiendra le « mauvais » résultat une fois sur 2 en moyenne. Voici un exemple ci-dessous.

Une fois la transmission des photons réalisée, Alice et Bob se communiquent « publiquement » (sans canal sécurisé particulier) la liste des bases qu’ils ont utilisé pour chacun des photons. Et ils jettent de leur liste tous les photons pour lesquels les bases sont différentes (la moitié en moyenne).

Pour tous les photons restants, ils ont utilisé la même base et ont donc la certitude d’avoir les mêmes bits : 0 ou 1. Cette série de bits va constituer la clé de chiffrement qui est, de fait, connue d’eux deux.

Certes me direz-vous, mais comment est-on certains que l’échange n’a pas été intercepté ? Eh bien imaginons qu’un 3e larron (Eve, selon le choix consacré) pirate la communication et essaye de mesurer l’état de polarisation des photons pour découvrir la clé. On va se concentrer sur les photons pour lesquels Alice et Bob ont choisi la même base, puisque les autres seront de toute façon écartés. Comme Bob, Eve doit choisir à chaque photon une base de mesure + ou x. Dans 50% des cas elle va tomber juste. Mais dans les 50% restants elle choisira une base différente de la base d’Alice et Bob, par exemple elle choisit x alors qu’ils ont choisi +.

Imaginons un photon 0+ qu’Eve intercepte et mesure dans la base x. La mesure va le projeter dans l’état 0x ou 1x, et quand Bob mesurera à son tour dans la base +, il obtiendra 0 ou 1, à 50% de probabilité. S’il obtient 0 (ce qu’Alice avait envoyé), tout se passera comme si Eve n’avait pas été là, mais s’il obtient 1 il obtiendra un bit différent de ce qu’Alice avait envoyé…alors que leurs bases sont pourtant identiques !

Voici donc comment détecter la présence d’Eve. Comme je le disais au début : Alice envoie ses photons, Bob les mesure, ils comparent publiquement leurs bases et ne conservent que les cas où les bases coïncident. Mais il n’en font pas tout de suite une clé : d’abord, ils décident de sacrifier une partie de ces photons pour vérifier qu’ils ne sont pas espionnés. Pour cela ils révèlent (publiquement) les bits qu’ils ont respectivement envoyé et mesuré, et qui en principe devraient coïncider complètement. Si Eve était à l’écoute au milieu de la ligne, environ 25% de ces bits devraient différer, du fait des projections quantiques opérées par les mesures. Si c’est le cas, Alice et Bob peuvent jeter leur clé et tenter de recommencer. Si ça n’est pas le cas, ils ont l’assurance que l’échange de clé n’aura pas été intercepté.

Quelques subtilités

Un point essentiel de ce protocole, c’est le fait qu’Eve n’a aucun moyen de connaitre avec certitude l’état du photon envoyé par Alice. La seule chose qu’elle puisse faire c’est choisir une base et faire une mesure : mais si elle choisit + et obtient 0, elle n’a aucun moyen de savoir si l’état envoyé par Alice était bien précisément 0+, ou si Alice a envoyé 0x ou 1x, qui peuvent l’un et l’autre donner 0 une fois mesurés dans la base +.

Donc Eve n’a pas moyen de « connaitre exactement » le photon envoyé par Alice puis de le recréer « à l’identique » de façon à ce que Bob n’y voit que du feu. De façon générale, il existe en physique quantique un théorème dit de « non-clonage », qui dit qu’il est impossible de cloner exactement un état quantique, et c’est cela qui est à la base des protocoles d’échange de clé quantique.

Pour s’assurer de l’absence d’un espion, Alice et Bob doivent donc choisir un certain nombre de photons parmi ceux pour lesquels ils ont choisi la même base, et comparer leur valeurs de bits. Si Eve est à l’écoute, chacun de ces photons à 25% de chance de différer. Si on utilise N photons pour cela, la probabilité que Eve ne soit pas détectée est (3/4)^N. En choisissant N assez grand, on s’assure avec une grande probabilité que la communication est sécurisée.

Autre point : ce protocole protège des écoutes pirates, mais ne protège pas d’un autre type d’attaque cryptographique connu sous le nom de « man-in-the-middle ». Dans ce type d’attaque, plutôt que d’essayer d’écouter discrètement, Eve se fait passer pour Bob auprès d’Alice et pour Alice auprès de Bob.

Enfin il existe d’autres protocoles de communication quantique, le BB84 n’étant que le premier d’entre eux. Certains utilisent des états quantiques intriqués…mais en parler dans la vidéo initiale m’aurait emmené bien trop loin. J’en parlerai peut-être un jour, et en attendant je vous renvoie à ma vidéo sur l’intrication quantique !

Une intelligence artificielle peut-elle être créative ? Le cas des jeux.

La vidéo du jour parle de la créativité des IA, vue dans le contexte des jeux !

Pour ceux qui voudraient aller plus loin, quelques compléments d’usage.

Le MinMax

Un premier point que j’ai passé sous silence pour rester simple, c’est la façon dont on décide du « meilleur » coup une fois qu’on dispose de toutes les évaluations. Pour vous l’illustrer, voici une petite énigme.

Imaginez que j’aie 4 coups possibles, A, B, C et D, et que chacun de ces coups puisse appeler 4 réponses. Supposez que les résultats de l’évaluation des 16 positions résultantes soient les suivants, quel coup dois-je choisir ?

Si vous avez répondu « B » car c’est le coup qui mène à la position la plus intéressante (+8), vous êtes tombés dans le piège classique ! En effet il faut partir du principe que si on cherche à maximiser son score, l’adversaire lui a l’objectif inverse. Donc si il n’est pas plus bête que nous, il cherchera toujours à jouer la meilleure réponse (et donc si on joue B il jouera sa 4e option et le score sera 0).

La bonne réponse est donc C, car si l’adversaire joue son meilleur coup on sera à +1, ce qui est le mieux qu’on puisse espérer.

Ce petit exemple illustre le principe du MinMax, c’est-à-dire qu’on cherche le coup qui permet de maximiser son score sachant que l’adversaire va le minimiser.

Sur la manière de chercher dans l’arbre

Ma vidéo suggère qu’un algorithme comme celui qui tournait sur Deep Blue fait une recherche exhaustive dans l’arbre de façon totalement stupide. En réalité ça n’est pas si bourrin que ça.

Un simple petit calcul montre que si Deep Blue voulait chercher de façon exhaustive avec 12 coups d’anticipation, il faudrait 20^{12} évaluations, soit 4 millions de milliards. Même à 200 millions d’évaluations par secondes, cela fait longtemps à réfléchir.

Deep Blue était en fait basé sur une technique classique appelée « L’élagage d’arbre alpha/beta », qui permet d’éviter de visiter des branches dont on sait qu’elles n’amélioreront pas le meilleur résultat qu’on puisse espérer. Stockfish fonctionne sur un principe similaire.

Sur la base de données utilisée par AlphaGo

Il semble que j’ai fait une erreur ou du moins une exagération concernant la base de données utilisée par AlphaGo pour s’entrainer (version « Apprentissage supervisé », celle qui a battu Lee Sedol).

En effet la base est constituée de parties jouées par des joueurs 6e à 9e dan (que j’ai appelé de façon informelle « des grands maitres du go ») et a été extraite de la base online KGS.  Or j’ai l’impression qu’il y a une ambiguïté entre la notion de dan « amateur » et de dan « professionnel ». Et j’ai l’impression que la base KGS référence plutôt des parties amateurs.

Quelque part, c’est plutôt encore mieux pour AlphaGo, qui semble avoir appris en utilisant des données qui ne sont pas uniquement des parties de joueurs de classe internationale.

D’ailleurs c’est en fait un peu plus compliqué que ça puisque l’entrainement du réseau chargé de faire l’évaluation a bénéficié aussi d’apprentissage par renforcement.

Le fameux 37e coup

Quelques précisions concernant ce fameux coup. Je ne joue pas au go donc je n’ai clairement pas le niveau pour expliquer en quoi ce coup était inattendu. Mais il semble que généralement pour ce type de coup (appelé en anglais « shoulder hit ») qui consiste à se mettre en diagonale d’une pierre adverse, on se place sur la 3e ou la 4e ligne suivant qu’on veuille jouer défensif ou agressif. Mais semble-t-il, « jamais » sur la 5e ligne.

Alors en fait c’est plus compliqué que ça, et ça n’est pas le propos ici. Des « shoulder hits » sur la 5e ont l’air tout à fait possible, mais apparemment pas dans la situation qui se présentait à AlphaGo à ce moment là.

AlphaGo, AlphaGoZero et AlphaZero

Pour les besoins de la simplification de l’exposé, j’ai fait un raccourci dans ma présentation. Il y a eu en réalité (au moins) 3 versions de l’algorithme :

  • AlphaGo, qui a battu Lee Sedol
  • AlphaGo Zero, la première version fonctionnant purement en apprentissage par renforcement, mais uniquement pour le go.
  • AlphaZero, fonctionnant aussi bien pour le go, les échecs ou le shogi.

Je n’ai pas évoqué AlphaGo Zero, la version intermédiaire. Et en fait c’est elle qui a battu « Alpha Go Lee Sedol » par 100 à 0.

La différence entre AlphaGo Zero et AlphaZero, est que le premier exploite quelques spécificités du Go pour se simplifier la vie, ce que les spécialistes appellent du « domain knowledge », par exemple l’existence de symétries sur le plateau. Le fait de donner du « domain knowledge » permet de réduire la complexité de l’apprentissage par renforcement (et donc de l’accélérer), mais au prix d’une perte de généralité et de « pureté », puisqu’on aide l’algorithme en lui donnant des infos en plus.

AlphaZero est vraiment la version « pure », on ne lui donne aucun domain knowledge, vraiment juste les règles et rien que les règles. Il est un peu plus long à entrainer que la version précédente, mais l’avantage est qu’il marche aussi pour d’autres jeux abstraits. (Et au go il est légèrement supérieur à AlphaGo Zero).

Et les autres jeux vidéo ?

J’ai hésité dans cet épisode à parler des applications de l’IA à d’autres jeux, notamment vidéo. J’aurai pu par exemple évoquer DOTA2 ou StarCraft. Apparemment j’ai bien fait de m’abstenir, car à l’heure où j’écris ces lignes  DeepMind a annoncé qu’ils allaient faire une grosse annonce concernant StarCraft, le jour qui suit la publication de la vidéo. Donc à suivre !

Lancement de « Billes de science » pour les enseignants

Je n’ai pas eu l’occasion d’en parler sur ce blog, mais j’ai lancé cette semaine une nouvelle chaîne Youtube en partenariat avec la fondation La Main à la Pâte et plusieurs autres vidéastes.

La chaîne s’appelle Billes de sciences, et son objectif est d’aider les enseignants à proposer des activités scientifiques à l’école, selon les principes de la démarche d’investigation.

Si vous connaissez des enseignants de maternelle ou d’élémentaire, n’hésitez pas à leur partager, cette chaîne est faite pour eux !

Ci-dessous la vidéo d’annonce sur ma chaîne :

Ici le pilote que j’avais préalablement tourné :

Et là une vidéo qui présente les principes de la démarche d’investigation :

Je vous remets le lien vers Billes de Sciences : https://www.youtube.com/channel/UCy1BMhZGRdFiOde2DqeQE0w