dimanche 11 décembre 2011

Boulanger: la saga continue (2/2)

 PART 2 Les mystères du monde continu


Je vous ai montré dans le billet précédent pourquoi en mélangeant de façon très méthodique une image faite de pixels (j’étale dans un sens, je replie et je recommence) on revient tôt ou tard à la l’image initiale. Mais aujourd’hui nous allons voir que cet éternel recommencement est un privilège réservé aux images numériques. Même si on savait répéter une telle transformation avec une précision parfaite sur une image réelle, faite d’un continuum de points, on ne retrouverait jamais l’image de départ. Plus fort encore: jamais le mélange ne produirait deux fois la même image…

Pétrissage décimal
Pour vous le montrer simplement, je vais modifier légèrement la méthode de pétrissage: le boulanger étire son carré de 10 fois sa longueur initiale (au lieu de deux) et il coupe les neuf morceaux qui dépassent afin de retrouver la  forme initiale du carré une fois empilés.

 

C’est un peu plus compliqué à première vue mais vous allez vite comprendre pourquoi ça simplifie les calculs…

Supposons que notre carré ait une longueur 1 de côté et divisons le verticalement en 10 bandes de largeur 0,1 chacune. Le point en rouge de coordonnées (0.375;0.405) est situé dans la troisième bande verticale en partant de la gauche.  Au premier étirement, notre point se retrouve dans le troisième bloc en partant de la gauche (son abscisse est multipliée par 10) et rabaissée (son ordonnées est divisée par 10) soit  (3.75;0.0405).  Après passage du couteau, le troisième bloc est empilée sur les deux premiers: l’abscisse du point est donc diminuée de 3 unités et son ordonnée augmentée de 3 décimales soit (0.75;0.3405).

Bilan:

 

La transformation d’un point s’obtient donc simplement en enlevant la première décimale de l’abscisse et en la glissant devant la première décimale de l’ordonnée. Une manière plus simple de faire l’opération consiste à écrire l’abscisse et l’ordonnées tête-bêche et de les séparer par un symbole par exemple « : » Dans ce formalisme, le point initial (0.375;0.405) s’écrit  573:405 et son image (0.57:0.345) s’écrit 57:3405!

La transformation consiste donc à simplement déplacer la séparation entre abscisse (écrite à l’envers) et ordonnée. A mesure que l’on itère les transformations, les lointaines décimales de l’abscisse initiale « remontent » près de la virgule et deviennent déterminantes sur l’abscisse avant de passer sur l’ordonnée. A l’inverse les décimales initiales de l’ordonnée sont reléguées en queue de développement décimale et ne comptent rapidement plus du tout.

Quand le destin est fonction de la naissance, pas de la valeur.
Nous voilà parés pour comparer les destins de trois points situés extraordinairement près les uns des autres avant que le boulanger ne commence à travailler son pétrin. Supposons qu’ils aient tous  la même ordonnée (mettons y=0,5) et comme abscisses respectivement:
– un nombre décimal  0.14159
– une fraction non décimale: 1/7=0,142 857 142 857…
– un nombre irrationnel: 3-pi=0.14159265… (suite de décimales non périodique)

1) Pour le point ayant une abscisse décimale, les choses se passent très mal: il se fait vite projeter contre le bord gauche de l’image avant de s’écrouler par terre, comme un mauvais cowboy dans une bagarre de saloon. Sa durée de vie est égale au nombre de ses décimales non nulle. Il est un peu nul et d’ailleurs tel est son destin, puisqu’il finit au point d’origine (0,0) en bas à gauche:

2) Le point d’abscisse rationnelle (non décimale) commence pareil que son jumeau décimal mais il s’en sort bien mieux.  Comme son développement décimal finit par être périodique, au bout d’un certain nombre de transformations l’abscisse du point devient elle-même cyclique. Et comme la première décimale de l’abscisse devient la première décimale de l’ordonnée lors de la transformation suivante, l’ordonnée entre à son tour dans un cycle en miroir. Le point entre dans un cycle fermé dont la longueur est celle de la période de ses décimales:


Les puristes auront remarqué  que l’ordonnée conserve toujours une queue de décimales qui lui est propre et ne peut donc être exactement cyclique. C’est exact, mais comme l’influence de cette « queue » décimale est divisée par 10 à chaque transformation, elle perd très rapidement toute influence.

3) Pour le point d’abscisse irrationnelle, c’est encore plus funky. Son développement décimal n’étant jamais périodique, les décimales que chaque transformation fait « remonter » en première position semblent parfaitement aléatoires. Et comme l’ordonnée se fait contaminer par les décimales de l’abscisse, le point se déplace de façon anarchique au fil des itérations.

L’absence de périodicité de ses déplacements garantit qu’il ne repasse jamais deux fois sur la même position. Si l’on poursuivait sans arrêt ces transformations, le point finirait par couvrir toute la surface de l’image.
Aussi proches soient-ils, nos trois points de départ ont des destins radicalement différents. Le point d’abscisse décimale converge vers l’origine, celui ayant une abscisse rationnelle suit une boucle cyclique et le point d’abscisse irrationnelle suit un parcours chaotique. Leur destin respectif ne dépend donc que de leur « statut » arithmétique, leur essence platonicienne pourrait-on dire, et non pas de leur valeur. Notre transformation du boulanger décimal s’avère être une extraordinaire trieuse de nombres!

Mais après tout, est-ce vraiment grave si ces dingos d’irrationnels sont incontrôlables? Du moment que les nombres rationnels tournent sagement en boucle, leur grand nombre n’assure-t-il pas que l’on retrouvera un système cyclique, comme pour l’image numérique? Hélas, il y a beaucoup beaucoup plus de nombre irrationnels que de nombres rationnels. Parmi tous les réels, ces derniers sont l’exception plutôt que la règle. A la différence d’une image ayant un nombre fini de pixels, notre  image « continue » sera donc irrémédiablement diluée par la transformation du boulanger, même si de ci de là quelques rares points suivront effectivement un cycle.

Déterminisme et prédictibilité
La transformation du boulanger illustre ainsi la différence qualitative entre fini et infini, mais elle est intéressante à plus d’un titre. Comme tout système chaotique, elle met aussi en évidence la différence entre déterminisme et prévisibilité. Certes l’équation de la trajectoire d’un point soumis à une série de transformations est parfaitement déterminée. Pourtant on vient de voir que deux points infiniment proches l’un de l’autre suivent des destins totalement différents selon la nature -décimale, rationnelle ou irrationnelle- de leur abscisse. L’imbrication infinie entre ces trois ensembles de nombres rend impossible toute prédiction concernant la trajectoire d’un point matériel donné: attraction vers O, oscillation périodique ou trajectoire chaotique. La transformation du boulanger est un joli exemple mélangeant déterminisme absolu et imprédictibilité totale.

Pour reprendre une thématique développée par Tom Roud, assimiler déterminisme et capacité prédictive ne vaut que tant que l’on est face à des phénomènes linéaires, pour lesquels une petite erreur de mesure initiale n’entraine qu’une petite erreur sur le résultat de la prédiction. Il se trouve que les lois physiques élémentaires soient justement linéaires, qu’il s’agisse de la gravité, de l’électromagnétisme ou des forces nucléaires faibles ou fortes. Et la « déraisonnable efficacité des mathématiques » acquise grâce à cette linéarité providentielle a sans doute largement contribué au succès de la méthode scientifique et son hégémonie dans le monde occidental.
Mais de même que les nombres rationnels sont « rares » parmi les nombres réels, les phénomènes linéaires sont probablement l’exception plutôt que la règle dès que l’on sort des régimes d’équilibre ou que l’on aborde des disciplines comme l’économie, la biologie ou l’écologie. On peut certes toujours modéliser des phénomènes non linéaires. Mais aucun modèle, aussi exact soit-il, n’aura la capacité de prédire leur évolution au-delà d’un temps très court, à l’image des prévisions météorologiques.

L’irréversibilité et la flèche du temps
La transformation du boulanger a aussi l’intérêt de mettre en évidence le lien entre irréversibilité et instabilité. Je m’explique: l’opération que l’on a décrite est entièrement réversible: pour revenir en arrière il suffit de découper le carré en deux (ou en dix) bandes horizontales, de les étaler les unes à côté des autres et de recomprimer le tout pour obtenir la forme initiale du carré. Simple non? En pratique pourtant, la très grande instabilité de la transformation détruit tout espoir de retour en arrière au-bout d’un certain temps. Il suffit qu’à l’aller, un des points bouge d’un angström (10-10m) sous l’influence gravitationnelle d’un électron situé aux confins de l’univers, pour que ce point perde tout espoir de revenir à sa position initiale après 10 transformations.
Pour illustrer le phénomène, prenons une image d’une tasse. Au bout de trois transformations du boulanger, l’image est complètement brouillée. En théorie, rien n’empêche de passer le film à l’envers en faisant trois transformations inverses et voilà notre tasse qui réapparaît comme si de rien n’était. Oui mais. Dans la vraie vie, si l’image mélangée bouge entre temps d’un micro-millième de chouïa, vous ne retombez plus du tout sur vos pieds. Voici ce qui se passe si on tourne la troisième image d’un degré avant de lui appliquer les transformations inverses. Adieu la tasse!

On retrouve de façon assez inattendue le deuxième principe de thermodynamique qui interdit l’évolution spontanés du désordre vers l’ordre. Mais dans cet exemple, la flèche du temps ne tient pas à une question de probabilité, au fait que l’état ordonné est infiniment moins probable qu’un quelconque état différent. Ici la flèche du temps naît de l’extraordinaire instabilité de l’évolution de chaque point…

Sources:
B Gréhant, Et si la science était de l’hébreu (le chapitre qui traite ce sujet est disponible en pdf)
I Prigogine et I Stenger, La fin des certitudes: temps, chaos et les lois de la nature.
La transformation de la tasse a été faite avec le logiciel libre de BouMaton (disponible ici si vous voulez vous amuser aussi)

Billets connexes:
Votre boulanger est-il discret, le billet précédent

dimanche 4 décembre 2011

Votre boulanger est-il discret? (1/2)

Quelle différence faites-vous entre l’infini et le « très très grand »? Comment vous représentez-vous l’ensemble des nombres rationnels contenus dans l’intervalle [0,1]? Bon, je ne vous sens pas franchement emballés par mes questions métaphysiques, mais ne zappez pas tout de suite! Pour y répondre, je vous propose un phénomène bluffant qui non seulement prend vos intuitions à contre-pied, mais qui illustre également la différence qualitative entre fini et infini, discret et continu. Et si au pire vous n’y comprenez rien, l’effet spectaculaire en vaut la peine, promis!

PART1: quelle différence entre fini et infini?

Pour bien mélanger son pétrin, le boulanger prend un carré de pâte, l’étire dans un sens puis le replie pour retomber sur son carré initial et il recommence: il étire puis replie pendant une bonne demi-heure (ça muscle!):

La transformation du boulanger

Si au lieu de faire ça avec une pâte à pain, on s’amuse à faire la même chose avec une image numérique, l’image se brouille très vite:Assez rapidement l’image se brouille…

Evidemment, comme on ne peut pas étirer chaque pixel on a un tout petit peu triché: pour étirer une ligne, on est obligé d’interpénétrer chaque ligne paire avec la ligne impaire suivante avant de replier le tout.

Les mystères de l’éternel retour

L’avantage sur la pâte à pain, c’est que c’est moins fatigant à faire et surtout ça va beaucoup plus vite. Au lieu de s’arrêter au bout d’une dizaine de mélanges comme ce feignant de boulanger, on peut laisser le logiciel tourner des milliers de fois. C’est le miracle de la technique. Mais le plus miraculeux c’est surtout qu’au bout d’un moment, l’image du départ revient comme par magie!

Magique!

Cette transformation très simple aurait-elle des propriétés spéciales? Même pas: on trouve sur internet plein d’autres transformations très différentes qui bouclent sur elles-mêmes de la même façon. Par exemple celle du photomaton qui « disperse » l’image initiale dans les quatre quarts du carré avant de recommencer:

La transformation du photomaton appliquée à l’image de la Joconde

Je me disais qu’il devait être affreusement compliqué de démontrer que « ça boucle », d’autant que le nombre d’itérations nécessaires pour retomber sur ses pieds est très sensible au nombre de pixels de l’image. La démonstration que propose JP Delahaye [1] est pourtant incroyablement simple.

Numérotons les pixels de l’image de 1 à N en fonction de leur position. La  transformation du boulanger envoie le pixel en position X1 à une position X2 qui lui est exclusivement réservée. La transformation du boulanger est donc une bijection entre les N pixels de l’image.  Appliquons  itérativement  cette transformation bijective à notre pixel situé  initialement en position X1, il devient:
X1->X2->X3->X4->….->XN
Puisque la transformation est bijective et qu’il n’y a que N pixels possibles, un peu de réflexion vous convaincra que notre point reviendra fatalement à sa position d’origine en X1 au bout d’un certain nombre d’itérations. Ansi à chaque pixel de l’image correspond un cycle de longueur inférieure à N, cycle au terme duquel il revient à sa position de départ. Tous les pixels appartenant à un cycle de longueur 10, reviennent à leur position initiale au bout de 10 transformations, 20, 30, 40 etc.
Evidemment deux pixels différents peuvent appartenir à des cycles de  longueurs différentes l1 et l2, mais ils seront tous les deux revenus à leur position initiale au bout de l1*l2 cycles.
On peut en principe connaître la liste de toutes les longueurs de cycles correspondant aux pixels d’une image. Supposons par exemple qu’il n’y ait que trois cycles possibles, de longueur 3, 7 et 10. L’image reviendra identique à elle-même au bout de 3*7*10=210 itérations.
De façon générale, si l’on connaît toutes les longueurs de cycle d’une image, le « temps de retour » de l’image sera égal au plus petit commun multiple de toutes les longueurs de cycles. Dans le pire des cas (si chaque point appartient à un cycle de longueur différente) l’image initiale revient au bout de N! cycles. Ca peut être long, mais ça marche à tous les coups!

Tout s’explique!
Ce raisonnement est valable quelle que soit la nature de la transformation (Boulanger, photomaton ou autre), il suffit juste qu’elle soit bijective. Rigolo non? Au passage, cette démonstration aide à comprendre pourquoi au cours des itérations on voit de temps en temps apparaître  l’image initiale un peu brouillée: c’est le cas chaque fois que le nombre d’itérations est un multiple des longueurs de cycles les plus fréquentes. Les très nombreux pixels correspondant à ces cycles sont alors revenus à leur position initiale – c’est ce qui fait qu’on reconnaît l’image- mais pas les autres -c’est ce qui fait que l’image est floue:

samedi 26 novembre 2011

Opera révolutionnaire?

 « – On ne sert pas les neutrinos ici! dit le barman

Un neutrino entre dans un bar. »

On lit plein de trucs sur ces infâmes neutrinos qui iraient plus vite que la lumière et contrediraient Einstein. Les articles mentionnent souvent qu’un tel phénomène remettrait en question “le principe de causalité” ou qu’il reviendrait à faire voyager les neutrinos dans le temps, mais sans plus d’explications. Je vous propose donc aujourd’hui quelques expériences imaginaires pour comprendre pourquoi. Les âmes sensibles peuvent sans problème sauter les paragraphes qui contiennent des équations indigestes.

Reprenons d’abord la recette de la relativité restreinte. A la base, trois hypothèses très sages et raisonnables:
1) L’espace n’a pas de direction privilégiée, il est homogène et isotrope
2) Les lois de la physique sont les mêmes dans tous les référentiels en déplacement uniforme les uns par rapport au autres (c’est le principe de la relativité simple, cher à Galilée)
3) On suppose qu’on sait synchroniser toutes les horloges d’un même référentiel, autrement dit on sait se débrouiller pour qu’elles donnent toutes la même heure à un instant donné.

Moyennant ces trois hypothèses, on peut montrer qu’il existe une vitesse limite c “absolue”, qu’aucun objet ne peut dépasser (le détail des calculs est dans ce billet). Avant de parler de vitesse de la lumière, considérons d’abord les conséquences d’une telle vitesse limite c sur le temps qui passe.

En voyage on ne voit pas le temps passer!

Si l’on envoie une fusée dans l’espace et qu’elle s’éloigne de nous à très grande vitesse, l’horloge qu’on y aura placée nous paraît battre plus lentement qu’aux astronautes embarqués dans la fusée.

Pour les curieux uniquement, voici une manière simple de retrouver ce résultat:
Supposons que deux événements se produisent: on mesure la distance et la durée séparant ces deux événements soit depuis la Terre (x et t) soit depuis la fusée (x’ et t’)
Si la fusée s’éloigne à une vitesse V de la terre, les équations de Lorentz donnent la relation entre ces quatre variables:
(1) ct=γ(ct’+Vx’/c)
(2) x=γ(x’+Vt’)
avec γ=1/√(1-V²/c²)
On vérifie facilement que γ est toujours supérieur à 1. Si par exemple V=0.866 c, γ=2.
Calculons le temps t qui passe sur Terre à chaque seconde qui s’écoule à la montre d’un astronaute. Vu de lui x’=0 (sa montre ne bouge pas) et t’=1 seconde.
Vu de la Terre en revanche, la durée entre le tic et le tac de sa montre se calcule en appliquant la formule (1) et vaut t=γt’=2 secondes. La montre des astronautes semble aller deux fois trop lentement!

Cette dilatation des durées du point de vue de celui qui s’estime immobile confirme ce qu’on savait déjà: le temps passe plus lentement pour celui qui ne part pas en voyage. Bon, l’analogie n’est pas tout à fait valable car du point de vue des astronautes, c’est la Terre qui s’éloigne à la vitesse V et en faisant exactement le même raisonnement que précédemment, ils concluent que ce sont les horloges terrestres qui vont deux fois plus lentement que les leurs! Chacun voit le temps de l’autre battre plus lentement. Qui a raison? Personne bien sûr puisque les durées et les distances sont des notions “relatives” à chaque observateur (d’où le nom de la théorie).

Duel de Tachyons

Supposons maintenant qu’on découvre des particules allant plus vite que cette vitesse maximale c et qu’on appellerait des tachyons. Dans un premier temps on suppose que les tachyons vont à une vitesse infinie. Quand on dégaine son pistolet à tachyons, les tachyons qu’on tire passent instantanément d’un point à l’autre de l’espace. Imaginons donc un duel intergalactique entre deux bandes rivales, les bleus et les rouges, écumant l’univers à la poursuite les uns des autres à bord de leurs fusées intergalactiques. Les règles sont simples: on a le droit de se tirer dessus 4 secondes après que les fusées se sont croisées. Regardez ce qui se passe quand on décompose la scène au ralenti:
– Au top, les fusées se croisent et s’éloignent l’une de l’autre à la vitesse V. Chacun regarde fébrilement son chronomètre et ajuste son pistolet.
– Dans la fusée bleue à t=4 secondes, on tire sur la fusée rouge. Touché! (mais pas coulé).
– Comme on vient de le voir, lorsqu’il s’est passé 4 secondes dans la fusée bleue, il ne s’en est écoulé que 2 dans la fusée rouge. Les rouges se sentent grugés: les bleus ont tiré au bout de deux secondes au lieu des quatre convenues! Blessés mais pas morts, ils voient rouge (forcément) et ripostent instantanément sur ces salauds de bleus.
– Les rouges tirent sur les bleus à t’=2 secondes et ne ratent pas leur coup, eux. Il est alors t=1 seconde chez les bleus (toujours à cause de cette satanée dilatation des durées) quand ils volent en poussière.

Sauf que… attendez. STOP! ARRETEZ TOUT!!! Ya un problème: A t=1 seconde, les bleus n’ont pas encore tiré sur les rouges. Ils ne peuvent pas être détruits en représailles à une attaque qu’ils n’ont pas encore lancé! Et puis quand t’=2 chez les rouges, quelle heure est-il chez les bleus: t=4 ou t=1?

Manifestement du fait de leur vitesse infinie, les tachyons violent le sacro-saint principe de causalité (qui veut qu’une cause précède toujours son effet) et leur vitesse infinie en font des machines à retomber dans le temps avec toutes les boucles paradoxales que ça suppose (l’histoire du gars qui tue son arrière-grand-père, ce qui implique qu’il n’a pas pu naître donc pas pu tuer son aïeul qui n’est donc pas mort etc).
La démonstration vaut même si les tachyons ont une vitesse v supérieure à c qui n’est pas infinie. Il suffit de choisir la vitesse des fusées suffisamment grande pour violer le principe de causalité.

Prenons par exemple v=1.25c pour les tachyons et V=0.866c pour la fusée. Vu des bleus, entre le moment où ils tirent et celui où la fusée rouge est atteinte à la distance x, il s’écoule un délai t = x/v=0.8x/c (t et x sont tous deux positifs). Vu des rouges, le trajet des tachyons dure t’=2(t-0.866 x/c) = 2(0.8 – 0.866) x/c = -0.132 x/c.
Le fait que t’ est négatif signifie qu’aux yeux des rouges, leur fusée est endommagée avant que les bleus ne leur aient tiré dessus. Pour eux l’effet précède la cause.

Aucune particule ne peut donc aller plus vite que c à moins d’admettre qu’on peut violer le principe de causalité et remonter dans le temps. A ce propos, j’adore la raison pour laquelle un objet massif ne peut remonter dans le temps. Si par hasard il y parvenait, au moment où il atterrirait dans le passé, sa masse s’ajouterait à la quantité totale de matière contenue dans l’univers, violant alors le sacro-saint principe de conservation de cette masse totale (le fameux “rien ne se perd, rien ne se crée…”). Impossible!

Les neutrinos supraluminiques peuvent-ils définir “c”? NON!

Alors certes, on ne peut dépasser la vitesse c à moins de supposer certaines anomalies dans l’isotropie de l’espace par exemple. Mais rien ne dit pour l’instant que “c” correspond à la vitesse de la lumière dans le vide. Pourquoi c ne serait-il pas la vitesse de ces neutrinos supraluminiques par exemple? La raison en est que les seules particules autorisées à aller à la vitesse maximale c sont celles:
– qui ont une masse nulle
– qui ne peuvent que se déplacer à la vitesse c, sans jamais se reposer
– pour lesquelles le temps ne s’écoule pas (ça je vous le démontre pas sauf si vous le demandez).

La formule générale de l’énergie d’une particule vaut E = (1-V²/c²)-½ mc², V étant la vitesse de la particule par rapport au référentiel dans lequel on mesure son énergie. Lorsque la particule est au repos V=0 et on retrouve le fameux E=mc². Quand V=c, le seul cas où l’énergie reste définie correspond à m=0 donc à une particule de masse nulle. Réciproquement une particule de masse nulle n’a d’énergie que si elle va à la vitesse de la lumière.

Or on a déjà prouvé que les neutrinos ont une (toute petite) masse. Ils sont donc le maillon faible éliminés de la compétition pour la course à c. Les photons (qui transportent la lumière) sont par contre des prétendants très sérieux car terriblement balaises au concours weight-watcher. Certes il n’est pas démontré qu’ils ont une masse rigoureusement nulle mais on peut leur faire passer un tas d’épreuves pour vérifier que leur masse éventuelle ne peut dépasser certaines limites.

A la recherche de la masse perdue du photon
 Première épreuve (facile): les lois de l’électromagnétisme, celles que Maxwell a découvert vers 1870, prédisent qu’une onde électromagnétique se déplace à la vitesse limite c. Or toutes les mesures expérimentales ont jusqu’ici montré que c correspond justement la vitesse de la lumière dans le vide. Le photon passe donc avec succès les éliminatoires.

Deuxième épreuve (plus dur): si les photons avaient une masse, leur vitesse varierait légèrement selon que la source de lumière s’éloigne ou se rapproche de l’observateur. Dans une série d’expériences devenues célèbres vers 1880, Michelson et Morley démontrèrent que la vitesse de la lumière restait identique quelque soit la vitesse de sa source. C’est d’ailleurs ce résultat qui permit à la théorie de la relativité de gagner aussi vite ses galons. Bravo les photons!

Troisième épreuve (difficile): Si les photons avaient une masse, explique Feynman dans son cours sur la gravitation, leur vitesse varierait en fonction de leur énergie donc de leur longueur d’onde. La lumière bleue irait à une vitesse légèrement différente de la vitesse rouge. Lors de l’éclipse d’une étoile double on devrait donc observer l’éclipse bleue et l’éclipse rouge à des instants différents. Comme on n’a jamais rien observé de semblable, on en déduit que la masse du photon est inférieure à un milliardième de celle de l’électron. Quelle minceur!

Quatrième épreuve (très dur): Les mêmes observations faites sur les émissions de rayon X des pulsars permettent de tester une limite encore plus petite pour la masse du photon. Epreuve remportée haut la main par les photons, dont la masse est maintenant certifiée inférieure au milliardième de millionième de celle de l’électron!

Cinquième et dernière épreuve (pour l’instant): la physique quantique décrit chaque type de force fondamentale (gravitation, électromagnétique, force nucléaire forte et faible) comme un échange d’une certaine particule caractéristique. Le calcul montre que la portée d’une interaction décroît exponentiellement avec la masse de cette particule associée (c’est le potentiel de Yukawa si vous voulez faire chic). La gravitation dont la portée est infinie correspond donc nécessairement à une particule de masse nulle. La force électromagnétique, elle, est véhiculée par le photon, donc sa portée nous renseigne précisément sur la masse du photon. Ah ah! On ne rigole plus avec ce genre de test! Il se trouve que les rayons cosmiques qui nous arrivent du soleil, sont sensibles aux effets du champ magnétique terrestre alors qu’ils sont encore à plusieurs dizaines de milliers de kilomètres de la Terre. Une telle portée signifie que la masse du photon est inférieure à au moins 10-20 fois celle de l’électron! En toute rigueur, rien ne dit que l’on ne trouvera pas un jour une toute petite masse pour le photon, mais pour l’instant tous ceux qui ont essayé (Louis de Broglie par exemple) s’y sont cassé les dents. Aucune expérience n’a encore mis en défaut l’hypothèse d’une masse nulle pour le photon. C’est la raison pour laquelle on admet que la vitesse de la lumière dans le vide correspond à la vitesse limite c.

Et l’expérience OPERA donc?

Si les résultats d’Opera sont si étonnants, c’est donc qu’ils remettent en question non pas Einstein, mais pratiquement toute la physique du XXeme siècle! S’ils étaient confirmés il faudrait supposer des trucs hallucinants:

– l’espace pourrait ne pas être homogène dans toutes les directions (mais après tout pourquoi l’axe Italie-Suisse serait-il moins privilégié que l’axe Franco-Allemand?);
– le principe de causalité (“une cause précède toujours son effet”) aurait-il des failles?
– les photons ont-ils une masse? La vitesse de la lumière serait-elle variable en fonction de la longueur d’onde?

Ce ne serait donc pas un “petit accroc” à la théorie de la relativité, une anomalie marginale qu’on pourrait réparer avec un patch astucieux, mais une véritable révolution conceptuelle. On comprend pourquoi les chercheurs se sont montrés extrêmement prudents en publiant ces résultats…

Sources:
Wayne Throop: Why FTL implies time travel pour le duel de tachyons et une démonstration avec un diagramme de Minkowsky
Richard Feynman: Leçons sur la gravitation

Billets connexes:
La relativité lumineuse même sans la lumière

Déménagement!


Le Webinet déménage et va s'installer sur le tout nouveau Café des sciences qui fait peau neuve et de simple fédération de blogs devient une véritable plate-forme d'hébergement de blogs pour ses membres mais aussi pout tous ceux qui souhaite y ouvrir un blog dans la catégorie "invités".

Je vous invite donc à me retrouver à ma nouvelle adresse et si vous êtes abonné n'oubliez pas de changer votre flux RSS pour celui-ci. Un premier billet vous y attend, qui revient sur les rapports mystérieux entre vitesse de la lumière et voyage dans le temps!http://webinet.cafe-sciences.org/

jeudi 3 novembre 2011

Super-organismes

L’idée que les sociétés d’insectes comme les fourmis, les termites ou les abeilles sont comparables à des “super-organismes” n’est pas neuve. Dès 1926 le biologiste William Wheeler remarquait que la coopération entre les membres d’une colonie d’insecte est si poussée qu’elle la dote de tous les attributs d’un être vivant. Exactement comme un organisme constitué de cellules ayant chacune une vie propre, ne prend “corps” que grâce à l’extrême degré de coopération entre ces cellules. Mes histoires d’abeilles qui choisissent un nid m’a permis de mesurer à quel point dans un cas comme dans l’autre, le fonctionnement émergent n’a souvent pas grand rapport avec celui de ses constituants de base...

jeudi 27 octobre 2011

Les abeilles ça déménage! (2/2)


Part 2: l'essaim, un cerveau virtuel?
On compare souvent les sociétés d’insectes à des “super-organismes” tant leur fonctionnement semble doté d’une vie propre, grâce à l’extraordinaire coordination des bestioles qui les composent. Dans son livre "Gödel Escher Bach", Douglas Hofstadter va un cran plus loin lorsqu'il évoque une fourmilière (Mme de Montfourmi) avec laquelle le fourmilier passe de longues soirées à bavarder, alors que chaque fourmi qui la compose est parfaitement stupide et a même une peur terrible de se faire manger par le fourmilier. "Il me semble, écrit-il, que la situation présente des analogies avec la composition d'un cerveau humain, avec ses neurones. Personne n'oserait soutenir que chacune des cellules du cerveau doit être une entité intelligente pour expliquer qu'une personne puisse avoir une conversation intelligente" (p353).

Si l’on en juge le mécanisme de décision des abeilles en quête d’un nouveau nid dont je vous ai parlé la dernière fois, Hofstadter pourrait avoir vu juste. L’intelligence qui s’en dégage (mesurable à la pertinence des choix) est incomparablement supérieure à celle que pourrait produire une abeille prise individuellement : en deux jours, l’essaim arrive à dégotter le meilleur site à des kilomètres à la ronde puis à se mettre d’accord pour y emménager. Se pourrait-il que l’essaim partage des points commun avec le mode de fonctionnement d’un cerveau de vertébré? C’est l’idée que défend Thomas Seeley.

jeudi 20 octobre 2011

Les abeilles ça déménage! (1/2)

Depuis qu’il est gamin, Thomas Seeley est passionné par les abeilles. Devenu biologiste, il s’est mis en tête de décortiquer la manière dont elles choisissent chaque année leur nouveau nid. Il faut dire que le processus est fascinant: en quelques jours seulement (il faut faire vite car elles n’ont rien à manger!) elles arrivent à dégotter le meilleur site à des kilomètres à la ronde, à se mettre toutes d’accord sur ce choix et à y déménager comme un seul homme. Un miracle d’efficacité à faire pâlir d’envie nos partis politiques, sans aucune centralisation.
Dans son livre “Honeybee Democracy” (uniquement en anglais pour l’instant), Seely propose donc une délicieuse plongée dans la vie d’un chercheur en abeillologie. Chaque étape de sa recherche est présentée comme une énigme qu’il tente de résoudre avec d’astucieuses expérimentations. Une vraie leçon de sciences!

dimanche 9 octobre 2011

L'évolution: un art plastique (part 3)

source ici
Part 3: l'art du pliage moléculaire
Le moins qu’on puisse dire, c’est que les découvertes de Waddington dans les années 1950 sur les liens étranges entre génétique et environnement n’ont pas vraiment eu d’écho à l'époque. Il faut dire que ça tombait pile au moment où l'on découvrait l’ADN et l’image fascinante de programme génétique orienta durablement la recherche en biologie vers des modèles réductionnistes de type un gène = une enzyme. Richard Lewontin rapporte ainsi (dans la triple hélice) que le biologiste moléculaire Sydney Brenner affirma un jour que “s’il disposait de la séquence d’ADN complète d’un organisme et d’un ordinateur suffisamment puissant, il saurait calculer l’organisme”!
Ce n’est qu’au milieu des années 1990 que l’on s’intéressa de nouveau aux expériences de Waddington. Susan Lindquist  en particulier chercha à comprendre les raisons moléculaires pour lesquelles on observe autant de mutations chez des organismes (animaux ou végétaux) soumis à des stress pendant leur phase de croissance, et leur lien avec l'évolution des espèces. Une recherche tellement fructueuse qu'elle lui valut la médaille nationale de la science en 2010...

dimanche 2 octobre 2011

L'évolution: un art plastique (part 2)

On a vu dans le dernier billet pourquoi l'image de gènes programmant mécaniquement les organismes qui les hébergent est loin de la réalité. L'ADN n'est pas un "programmateur" mais un code passif, que la machinerie cellulaire peut lire de plusieurs manière selon l'environnement chimique de la cellule. Du coup, un même code génétique peut produire des formes morphologiques très altérées en cas de forte perturbation du milieu.
Cette combinaison de robustesse et de plasticité en cas de gros pépin pourrait presque être vue comme une caractéristique du vivant, au même titre que la capacité à se reproduire ou à se développer...

L'assimilation génétique
Si cette idée n'a rien d'évident, c'est que la sensibilité des organismes à l'environnement ne saute pas vraiment aux yeux. Les organismes d'une même espèce se ressemblent plutôt beaucoup et ils ne se transforment pas en mutants garous dès qu'il pleut ou qu'il fait chaud. Dans les années 1940, le biologiste anglais Conrad Waddington eut l’idée que cette relative immuabilité était en réalité due à l’action efficace de mécanismes régulateurs (homéostatiques, comme on dit) qui maintiennent constant le milieu intérieur de la cellule et qui corrigent ou atténuent les erreurs de lecture des gènes.

lundi 26 septembre 2011

L'évolution: un art plastique (part 1)

Les débats suscités par mon billet sur la "plasticité du vivant" m'ont donné envie de creuser le sujet et notamment d’explorer la piste évo-dévo suggérée par Taupo IRL. J'ai découvert que cette question de plasticité, loin d'être anecdotique, constitue un des sujets les plus chauds du moment en matière de biologie évolutive et pose un regard nouveau sur le rôle de la génétique. Récit en trois épisodes...

Repartons du schéma géno-centrique...
Aux yeux du grand public qui comme moi a lu (trop vite peut-être) le Gène Egoïste de Dawkins, la théorie synthétique de l’évolution a comme seul point de départ les mutations génétiques aléatoires, dont les effets sur les organismes sont soumis à la dure loi de la sélection naturelle. Dans ce schéma géno-centrique, l’évolution fonctionne à sens unique:


mercredi 7 septembre 2011

Tech-mot-logie

Le langage d’une époque est un bon révélateur de la technologie dominante d’une culture. La nôtre est plutôt agricole. Est-ce par peur de prendre des vessies pour des lanternes ou par souci de de pas mettre la charrue avant les boeufs? Toujours est-il que notre vocabulaire, tiré à hue et à dia par des paysans qui ruent souvent dans les brancards, a longtemps mis tous ses oeufs dans le même panier. Nos métaphores s’écartent rarement des sentiers battus de la paysannerie et ce n’est pas pousser Mémée dans les orties que de constater qu’elles font aujourd’hui encore notre pain quotidien.

Tout ça semblait réglé comme une horloge jusqu’à ce que notre langage prenne le train en marche de la révolution industrielle. Cela dit, pas de quoi péter un boulon (ni une durite ni même un câble), tant cette influence est restée discrète, comme si l’on n’était pas aux pièces pour produire à la chaîne des expressions qui rappelleraient trop l’usine. D’ailleurs la technologie a longtemps puisé dans le gisement du vocable de la nature (une pince-crocodile, un sabot de menuisier, un chien de fusil...) avant de devenir à son tour une référence du langage (beau comme un camion, rapide comme une fusée, compliqué comme une usine à gaz...).

Bizarrement on pourrait presque zapper l’impact de la télévision, qui n’a visiblement pas beaucoup branché notre créativité sémantique, sans que je capte très bien pourquoi. Peut-être était-on trop saturés d’images pour avoir envie d’en inventer de nouvelles avec les mots? Heureusement l’informatique et l’internet sont maintenant là pour rebooter notre inspiration et booster notre vocabulaire. Certes, certains se sentiront spammés d’anglicismes, mais mieux vaut en loler. Si votre système d’exploitation finit par bugger avec toutes ces expressions anglaises, je vous poke ce très joli verbe, qui semble tout droit sorti de chez Rabelais ou Montaigne : plussoyer (ou plusseoir selon certains, il y a débat). Vous n’imprimez pas? Le mot vient de l’usage dans certains forums d’évaluer les commentaires avec +1 pour manifester son accord avec ce qui vient d’être dit. L’équivalent du pouce levé, du “j’aime” sur Facebook... ou du +1 de Google.

Pour une fois la langue française est en avance sur Google! La plus ancienne trace que j’ai trouvée de ce mot date de 2003 (ici) dans un forum privé de fans de Linux. La floraison des réseaux sociaux devrait lui garantir un vrai succès (déjà près d’un million d’occurences pour “plussoie” sur Google) et je lui prédis une entrée dans le dictionnaire d’ici deux ou trois ans max. Il faut dire que ce verbe a le charme de l’ancien. La rumeur a un moment couru sur le net qu’il viendrait du latin plussare, qui aurait signifié “rajouter une plaquette de marbre avec +I gravé dessus, au forum de la cité” (pourquoi un +I, l’histoire ne le dit pas). Inutile de vous mettre en quête de plusso, avi, atum, tr. dans votre Gaffiot, car le terme plussare n’est employé que sur les forums s’interrogeant sur l’origine de plussoyer (96 occurences sur Google, quand même).

En fait, plussoyer, c’est du “faux-vieux”, comme ces meubles à l’ancienne que l’on trouve chez Conforama. Mais lui au moins, il a du caractère. Plus par exemple que le banal verbe “approuver” dont il est synonyme. Mais est-ce vraiment la même signification? Xochipillette me fait judicieusement remarquer que “my plus one” en anglais désigne ma moitié, mon (ma) petit(e) ami(e). Dans les forums anglo-saxons, le code “+1” marque donc autant l’approbation que la sympathie pour l’auteur d’un post. Or curieusement, on retrouve cette dimension affective dans notre “plussoyer” national. Est-ce parce qu’on peut plussoyer quelqu’un, alors qu’on ne peut approuver que ses propos? Je vous laisse méditer sur ce sujet transcendantal, en attendant moi je plussoie violemment cette inventivité lexicale!

jeudi 1 septembre 2011

Plastique la vie!


Source: ici
Avec son fameux exemple du Pouce du Panda, Stephen Jay Gould a rendu célèbre la notion d’exaption: en fait de pouce, il s’agit d’une excroissance osseuse poussée par hasard sur la patte et que le Panda utilise comme un sixième doigt opposable, bien pratique pour effeuiller les bambous et se goinffrer avec les feuilles. L’exaption désigne la capacité qu'ont les êtres vivants à détourner l’usage de leurs propres organes pour les exploiter à leur avantage.

lundi 25 juillet 2011

L'amour du risque

Science Etonnante a fait un très bon billet  comparant l'irrationalité des hommes et celle des singes et pointe du doigt une étrange propriété commune à nos deux espèces.  A gain équivalent en moyenne, on préfère éviter les risques quand on vise une récompense (pour l’instant ça semble normal) mais par un effet étrange de renversement on préfère prendre des risques quand il s’agit de minimiser des pertes.
Le schéma de son blog explique bien ça:

Dans l’expérience 1, les singes préfèrent choisir l’option 1 assurant une pomme supplémentaire à tous les coups plutôt que l’option 2, assurant soit 0, soit 2 pommes supplémentaires.
Dans l’expérience 2, par contre, quand on oblige les singes à perdre des pommes, ils préfèrent l’option 2 qui leur fait perdre tantôt 0, tantôt 2 pommes, plutôt que l’option 1 qui leur en fait une à coup sûr. Autrement dit, il y a “aversion au risque” si l’enjeu est une récompense et “goût pour le risque” quand on cherche à limiter ses pertes.

L’amour du risque est universel!
En cherchant un peu [1], j’ai découvert que la plupart des espèces animales se comportent exactement pareil: des abeilles, des guêpes, des rats, des oiseaux, des poissons etc. L’expérience 1 manipule comme récompenses des trucs à manger en quantités soit fixe, soit variable. L’expérience 2 joue en général sur le temps d’attente de distribution de nourriture (une longue attente est une perte), avec des délais soit fixes soit variables. La plupart des bestioles manifestent une certaine aversion pour les récompenses aléatoires mais une très forte préférence pour les délais variables. Exactement comme nous et nos amis les singes.

Cet étrange reversement des préférences m’a fait penser à la loi de Weber, dont je vous ai déjà parlé ici et .